事例講演「社内ビッグデータと SQC との融合」 吉 野 睦 株式会社デンソー <概 氏 品質管理部 TQM 推進室 担当次長 要> 製造業におけるビッグデータには、開発段階のシミュレーションや実験室で得られ るデータ、あるいは製造段階で製品を全数検査し保管されているデータがある。これ らのデータは高次元大標本という性質を持つため、小標本を前提とする従来の SQC で は歯が立たない。 SQC を使うためにわざわざサンプリングすることは本末転倒である。 対応策として注目されるデータサイエンスは基本的にデータドリブンであり、SQC の枠組みとは異なる。つまり、T をモデル、O を観測とすると、データサイエンスは P(T|O)という条件付き確率を論ずる。 一方、SQC は P(O|T)という逆の条件付き確率を論じ頻度論と呼ばれる。二者は全く 異なる。 では、今後 SQC は廃れてしまうのだろうか。そうはならないと考える。P(T|O)から 得られた「T」に基づき、技術者は新しい「T」を発想する。 この発想を検証する手段は、P(O|T)という SQC の枠組みだからである。
© Copyright 2024