こういった異常気象だって、さまざまな観測データを集め分析すれば、その原因が究明され異常の発生を予測し、住みにくさや災害による被害を防ぐことができるのではないか。こうしたことに知恵を絞り、新たな発見をし、進化してこそ、人間というものではないか。
ビッグデータっぽくなくてもビッグデータ?
というわけで、ビッグデータ分析の活用には期待するところが大きい。いままでは使われていなかったようなセンサーデータをかき集め、大規模データをなるべく迅速に分析できれば、必ず新たな知見が生まれるはず。
ところで、先日ガートナーが「Gartner Business Intelligence & Information Management Summit 2012」というセミナーイベントを開催した。これは、ビッグデータ、アナリティクス、ソーシャル、ゲーミフィケーションと、昨今はやりのキーワードを冠したイベントだ。
基調講演に登壇したガートナー バイス プレジデントの堀内秀明氏は、ビッグデータの定義を、「高度な洞察や意思決定を行うために、コスト効果が高く革新的な情報処理プロセスを必要とする大量・高速・多様な情報資産」と説明。とりわけ、「コスト効果が高く革新的な情報処理プロセスを必要とする」ことが重要だという。
莫大なデータを分析できる、革新的な処理テクノロジーが生まれたこと。これが、現状のビッグデータ分析につながっているのあり、これまでの大規模なBIとは異なるところなのだ。
ビッグデータ活用のためのテクノロジーは手に入るようになった。とはいえ、「2015年までを通じ、Fortune 500企業の85%以上が、ビッグデータを競合優位性確保のために効果的に活用することに失敗する」とガートナーは予測しているとか。
技術的に可能ではあっても、実際にビッグデータを有益に活用するのは、一筋縄ではいかないようだ。しかし、堀内氏いわく、「逆に考えれば15%の企業はビッグデータを活用し、競合優位性を得られるということ」―つまりは、この15%の側に入るためにどうしたらいいのかがポイントになるというわけだ。
仮に手元にビッグデータがあったとしても、そのデータに対し興味を持っていなければそれは意味をなさない。また、たいしたデータではないなと思っていても、結果的にそれを有用な意思決定に利用できるのなら、そのデータは価値があることになる。
データはあくまでも素材であり、それをどう料理し自分の「身」にするのかが重要ということ。莫大なデータを処理できるコンピュータリソースを手に入れ、分析ツールも分析スキルも持っていても、得られた結果を意思決定に貢献させられなければ、85%の負け組に。
一方、システムは十分じゃないし、分析手法もまだまだ洗練されていないくても、得られた結果が知見となり、重要な意思決定に貢献できるのなら、成功者である15%側になることができる。
だが、何をもって「成功」とするのか―セミナーで堀内氏が面白い事例を挙げていたので、これを紹介したい。