スペシャルセッション冒頭で挨拶したのは、野村総合研究所の鈴木良介氏。「ビッグデータ元年」といわれた2011年から、現在までの動きを振り返った。
当初はハードウェアやソフトウェアのベンダーのマーケティングメッセージ的なものだったビッグデータも、2013年になると企業経営者も認識するようなICTの時代キーワードになる。結果2013年以降には、一般企業の中期経営計画にもビッグデータ活用がうたわれるようになった。中期経営計画に入ってくれば、具体的には何をするかが決まっていなくてもビッグデータ活用はIT担当者などにとってれっきとした「業務」に昇格する。
「業務になるといつまでに何をやりどれだけの儲けを出すのか、それを明らかにしなければなりません」――まさにそのための業務を開始するのが2014年度だと指摘した。
良質なデータ収集にかかる費用は、ビッグデータ活用の「原価」の1つ
データサイエンティストサミット2014のスペシャルセッションで講師を務めるスピーカーは6名。それぞれの講師が所属する企業は、ビッグデータ活用で先行している。成功もあれば苦労や課題もあったはずだと鈴木氏。そんな彼らから「実際のビッグデータ活用の経験」という貴重な話を聞けるのがこのセッションだ。
そのトップバッターとなったのがQubitalデータサイエンスの草野隆史氏。Qubitalデータサイエンスは、10年間データ分析に取り組んできたブレインパッドとYahoo! JAPANが一緒に作った会社で、2014年1月に発足した。資本の割合は、51%がYahoo! JAPAN、 49%がブレインパッドとなっている。
草野氏は、ビッグデータを活用するには3つの要素があると言う。1つめは、十分なデータの収集と蓄積。2つめは、データの加工だ。加工する際には、活用するのに必要となるスピードを発揮できなければならない。そして3つめは、適切な分析を行いそれをビジネスに適用し実際に活用すること。
「ビジネス課題を分析へ落とし込みます。結果をビジネスに適用します。これら3つがうまく組み合わさっていないと、ビッグデータ活用はうまくいかない」(草野氏)
ところで、爆発的にデータが増えたことで集めるのにもコストがかかるようになった。データの質が悪く量も十分でなければ、分析しても効果が出ない。結果的にビッグデータへの投資のROIは出しにくくなってしまう。データを外から買うとなれば、さらにROIを適正化するのは難しくなる。質のいいデータを集める投資はデータ分析の「原価」と呼んでもいいものだが、まだまだそういう認識は少ないと草野氏は指摘する。この質の高い十分な量のデータを適切な原価で集めるというのは、10年間データ分析の仕事をやってきたブレインパッドの課題でもあった。
「一方でYahoo! JAPANはデータは持っていました。そのデータを単に売るとかでなく、なんとか活用したいと考えていました」(草野氏)
両社の課題を解決するために生まれたのが、Qubitalデータサイエンスだ。Yahoo! JAPANの持つ膨大な「マルチビッグデータ」をDMP(データ・マネージメント・プラットフォーム)とし、それに広告主のデータを合わせて分析できる環境を用意する。このDMPは顧客の広告だけでなくCRMのためにも利用する。結果的にはあらゆるマーケティング活動の基盤になるようにするのが、Qubitalデータサイエンスが目指すところだ。
「Yahoo! JAPANは、PCベースであれば日本のインターネットユーザーの8割ほどをカバーしています」と草野氏。このYahoo! JAPANのデータを使えばある程度世の中の動向も分析できる。広告主が集められるデータだけでは偏りが発生するが、それにYahoo! JAPANのデータを合わせることで見込み客や潜在顧客なども分析できるようになるのだ。
「自分たちのデータだけでは、いくら分析しても分からなかったことが分かるようになります」(草野氏)
Qubitalデータサイエンスでは、このための分析環境に「惜しみなく投資」しているとのこと。HadoopディストリビューションのMapRやデータウェアハウスのPivotal Greenplum、BIではTableauも採用している。面白いところでは、機械学習エンジンのSkytreeも導入しておりHadoopクラスター上で稼働させている。これらを使って人間の最短反応速度である0.2秒を下回るレスポンスで、答えを返すことを目指している。