ビッグデータ面倒くさいを解消できるかが鍵に
昨年に引き続き、「ビッグデータ」が2014年も注目のキーワードであることは間違いない。IT業界のキーワードだったものが、一般の新聞紙面なども賑わす話題となり、関連市場のさらなる拡大が期待されている。とはいえ、ビッグデータが話題になり始めてから3年ほどが経過し、ガートナーのハイプサイクルでいえば幻滅期。市場的にはちょっと食傷気味で、「ビッグデータ疲れ」も出てきたようにさえ見える。
昨年くらいから、一見関係なさそうなITソリューションも、なんでもかんでもビッグデータと絡めて考えるようになっている。そのせいもあり、あいまいだったビッグデータの実態がさらに見えにくくなったかもしれない。幻滅期から今後の安定期へ向け、自分たちに必要なビッグデータ活用が何かを見極め、いち早くそれに着手するのが2014年というタイミングだろう。
そのためにも、ビッグデータは素晴らしい宝の山だという幻想は忘れること。むしろ「ビッグデータは面倒くさい」ものだと捉えるほうがいい。その面倒くさい部分を、いかに簡単にするのか。それができれば、ビッグデータのメリットが享受できる。具体的に、ビッグデータのどのあたりが面倒くさいのか。
1つは、まさにそのボリュームだろう。ビッグデータをビッグなまま扱おうとすると、巨大なストレージやサーバーが必要になり、処理にはコストも時間もかかる。ビッグデータをいかに小さくするかに、2014年は真剣に取り組むべきだろう。生データがあることが常に重要だとは限らない。データが多ければそれだけノイズも多い。そのノイズを取り除けなければ、欲しい分析結果の精度は上がらない。ビッグデータのクレンジングや抽出、整理といったことが、2014年はさらに注目を集めるだろう。また、ビッグデータをビッグにしないもう1つの方法として、いわゆるストリームデータ処理のように「溜めずに活用する」方策も検討するべき要素だ。
もう1つビッグデータの面倒くさいところが、「高度な統計処理」というやつだろう。これを行うために,データサイエンティストを自社内に育てるのか、さらには高価な統計処理ツールを導入するのか。なんてことを考えていたのでは、2014年中にビッグデータを活用するところまでには至れない。まずは、とにかくシンプルにビッグデータ活用を捉える必要がある。自分たちとの課題はどこにあって、そのためにどのようデータをどう処理すればいいのか。その課題解決のためには、本当に高度な統計処理が必要なのか。課題をシンプルにし、いかに素早く軽やかに分析できるようにするかが鍵となる。
また、高度な分析作業にばかり時間を費やしてしまうと「分析疲れ」してしまうかもしれない。そうなれば、いくら良い分析結果が得られても、それを適用しメリットを発揮する行動をとる際には息切れすることに。行動のぶんの体力をいかにして確保するかも、重要な課題となるだろう。これは、現場の業務プロセスの問題だったりもするので、高価なツールを導入しただけでは解決できない。
そう考えてくると、極めて大規模なビッグデータ活用提案をしてくるベンダーには要注意だ。問題をシンプル化し、ビッグデータをいかに小さくして、素早く活用できるようにするかを提案する。そんなベンダーを選んでいくべきなのだろう。