ビッグデータ分析のいま
従来データベースとはどのようなものだったか。業務で発生したデータの正確な記録や報告に使われており、主にトランザクションが中心だった。こうしたものに加え、近年では顧客や市場の動きを予測したり、適切な戦略を決断するのにも使われるようになってきた。こちらは主にアナリティクス中心である。
昨今のデータ分析技術を何らかの「決断」につなげる場面は増えてきている。たとえばソーシャルニュースサイトのハフィントン・ポスト。ここでは読者が記事タイトルの決定に関わっている。記事のタイトルは著者や編集者が決めるものなのにどういうことか。ハフィントンポストではタイトル候補を1つに絞ることなく、公開から5分間はタイトル候補をランダムに表示する。この間のアクセス統計から最もクリックの多かったタイトル、言い換えれば最も読者の目をひきつけたタイトルが正式なタイトルに決まることもあるそうだ。
ほかにもビッグデータ分析がもたらした成功例として、アメリカ大統領選がある。オバマ陣営は従来型の足で稼ぐような戦況分析に加え、徹底的にデータを収集し、分析したとされる。そのなかで有権者にジョージ・クルーニーの影響力が高いことを導きだし、同氏との食事会を開催するなどして支持者を増やした。オバマ陣営の分析リーダーはカーネギメロン大学で機械学習を学んだ29歳の若者だったという。
こうして新しいスキルを持つ人間が新しい技術を活用し、ビジネスや社会においてよりよい結果や決断に結びつけている事例は日々増えてきている。
技術面ではどうか。「いまやデータ処理は変曲点に来ている」と新野氏。ポイントとしてデータベース技術、ハードウェア、インフラの3つを挙げた。まずデータベース。RDBの制限を克服すべくNoSQLやHadoopが登場したものの、「カラム型」技術などによりRDBの「逆襲」が起きている。次にハードウェア。ボトルネックはずっとディスクI/Oだったが、ここにきてメインメモリの大容量化やフラッシュメモリ台頭で状況が変わりつつある。最後にインフラ。自動化や自律化でシステム設計が変わりつつある。もう少し詳しく見ていこう。