「ビッグデータ」が注目される背景
1990年にビル・インモン氏が著書でデータウェアハウスという言葉を定義し、リレーショナル・データベースの父とされるコッド博士が1993年にOLAP(Online Analytical Processing)を提唱して以来、企業におけるデータ活用への取り組みは活発化し、国内においても、1990年代後半からデータウェアハウスの構築やデータ分析ツールの導入が盛んに行われてきた。ITRでは、2001年度から継続して国内企業のIT投資動向を調査しているが、「データ活用」や「情報活用」はこの10 年間、常に重要度が高いIT戦略キーワードであり、「データ分析」は常に注力すべきアプリケーション分野として上位に位置してきた。
しかし、2010年に調査を実施した「国内IT投資動向調査報告書2011」を見ても、「データ分析基盤の強化」の実施率は19.8%でしかなく、ITを活用したデータ分析が浸透しているとは言い難い状況である(図1)。
では、なぜ今ビッグデータが注目を集めているのであろうか。ビッグデータが注目される背景にはビジネス環境に関する側面(ニーズ)と技術革新による側面(シーズ)の2つが挙げられる。
最初にビジネス環境の変化について述べる。企業がビッグデータに注目している理由としては、ビジネス環境の変化がこれまで体験したことのないような速度と規模で発生していることが挙げられる。「想定外」や「不確実」という言葉で表せられる現在の企業を取り巻く環境を見ると、もはや経験や勘を頼りにビジネスの舵取りをしていくことは不可能ではないかと多くの企業経営者は感じているはずである。
変化があっても、一定のベクトルに収まっていた時代では、蓄積したデータを分析することで、今後の変化を予測することは可能であった。しかし、現在では、消費者ニーズや競合状況、為替変動や資材状況、そして国際情勢などのビジネス環境は刻一刻と変化する。これらの変化をデータ化し、常に把握し、自社にとって有利な状況へと舵をきり続けなければならなくなったのだ。
もう一方の側面である技術革新として挙げられるのは、インターネットの普及とIT機器のコモディティー化によってもたらされた情報のデジタル化が加速度的に進行したことである。Googleでは、1日に数十テラバイトのデータを処理しており、Facebookでも圧縮しても月間300テラバイトのデータが増加していると言われている。また、GPSやセンサーまたは携帯電話のアクセスログのように自動的に生成されるデータが、データ量の増加に拍車をかけており、まさにデータ爆発の時代に突入したと言える。そして、スマートフォンに代表される個人デバイスによって、これらの膨大なデータと個々人を結び付けることが可能な世界が実現した。
ビッグデータとデータ分析が注目される理由は、このニーズとシーズが連動することにより、企業がリスク対応による持続可能性と新たなビジネスチャンスを得られるのではないかと考え始めたことにある。