Big Data Technology Forum 2013にてPublickey編集長 新野淳一氏が基調講演に登壇し、「ビッグデータ時代へ向けて-ITはこれからどこへ向かうのか?」と題して、ビッグデータの背景と技術動向を解説した。ビッグデータというとその名が示すようにデータの規模に目が向きがちであるが、新野氏はその本質を「データを分析することにより新しい知見や正しい判断など、新しい価値をもたらすこと」と説いた。
ビッグデータ分析のいま

従来データベースとはどのようなものだったか。業務で発生したデータの正確な記録や報告に使われており、主にトランザクションが中心だった。こうしたものに加え、近年では顧客や市場の動きを予測したり、適切な戦略を決断するのにも使われるようになってきた。こちらは主にアナリティクス中心である。
昨今のデータ分析技術を何らかの「決断」につなげる場面は増えてきている。たとえばソーシャルニュースサイトのハフィントン・ポスト。ここでは読者が記事タイトルの決定に関わっている。記事のタイトルは著者や編集者が決めるものなのにどういうことか。ハフィントンポストではタイトル候補を1つに絞ることなく、公開から5分間はタイトル候補をランダムに表示する。この間のアクセス統計から最もクリックの多かったタイトル、言い換えれば最も読者の目をひきつけたタイトルが正式なタイトルに決まることもあるそうだ。
ほかにもビッグデータ分析がもたらした成功例として、アメリカ大統領選がある。オバマ陣営は従来型の足で稼ぐような戦況分析に加え、徹底的にデータを収集し、分析したとされる。そのなかで有権者にジョージ・クルーニーの影響力が高いことを導きだし、同氏との食事会を開催するなどして支持者を増やした。オバマ陣営の分析リーダーはカーネギメロン大学で機械学習を学んだ29歳の若者だったという。
こうして新しいスキルを持つ人間が新しい技術を活用し、ビジネスや社会においてよりよい結果や決断に結びつけている事例は日々増えてきている。
技術面ではどうか。「いまやデータ処理は変曲点に来ている」と新野氏。ポイントとしてデータベース技術、ハードウェア、インフラの3つを挙げた。まずデータベース。RDBの制限を克服すべくNoSQLやHadoopが登場したものの、「カラム型」技術などによりRDBの「逆襲」が起きている。次にハードウェア。ボトルネックはずっとディスクI/Oだったが、ここにきてメインメモリの大容量化やフラッシュメモリ台頭で状況が変わりつつある。最後にインフラ。自動化や自律化でシステム設計が変わりつつある。もう少し詳しく見ていこう。
この記事は参考になりましたか?
- この記事の著者
-
加山 恵美(カヤマ エミ)
EnterpriseZine/Security Online キュレーターフリーランスライター。茨城大学理学部卒。金融機関のシステム子会社でシステムエンジニアを経験した後にIT系のライターとして独立。エンジニア視点で記事を提供していきたい。EnterpriseZine/DB Online の取材・記事も担当しています。Webサイト:https://emiekayama.net
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア