読者です 読者をやめる 読者になる 読者になる

ビッグデータとPDCAサイクル

考察

最近流行りのビッグデータとデータサイエンスという言葉がある。これは、データ:事実に基づいた科学的な経営のことだ。企業に存在するデータを分析して得られた仮説を元に何らかの行動を起こしてビジネスを拡大していこうというものである。

事業にはPDCA(Plan, Do, Check, Act)というサイクルがある。計画して、実行して、結果を検証して、修正を加えるという一連の流れだ。PDCAの中ではPlanに至るきっかけを掴むというのが、最も難しいことだと思う。

そこでビッグデータというのが出てくるのだろう。やみくもにデータを分析してやれば、何かPlanが湧いてくるのではないかと期待される。

しかし、ビッグデータPDCAのPに偏重していると思う。PlanよりCheckこそ、事実に基づいて行うべきなのではないか?

例えば、ウェブページのA/Bテストなどがいい例だと思う。A/Bテストというのは異なる2種類のWebページを用意して施策の効果を検証するテスト方法である。

Planなんかは、事実ベースであっても、なくてもどっちでもいいと思うのだ。確かに「なんでそれやるの?」という下らないことを訊かれるから、根拠はないといけない。しかし、ビッグデータやろうぜというのも、流行っているからという最悪な根拠しかないんだから、根拠なんてどうてもいいのだ。

Doの結果をデータで検証できることが重要だと思う。効果を検証できるデータが採れるようなことをするべきだ。やりっぱなしで効果があったかどうか分からない、効果を調べようともしない。それは科学的でもなんでもない。

Webは効果の検証が簡単だ。だから、ビッグデータ的なことが先行して実施されている。

ビッグデータブームで、Web系以外でも科学的にやろうぜという動きが広がったとしても、Planだけデータから行っても何の意味もない。

効果があったかどうかわからないけど、最近流行りの手法を使ったからそれで満足という事例が増えそうですごく嫌だ。

参考

トレジャーデータ流,データ分析の始め方