「ビッグ・データ」は、今後、増大していく企業環境におけるデータに対して、可用性や利用環境との関連を表す言葉として広く使われている。その言葉の表わす範囲は、ストレージの問題から、分析のための変換や伝送など、あらゆる局面に及んでいる。しかし、「ビッグ・データ」は、膨大な情報量の面に問題に焦点が当てられることが多いという。
また、「ビッグ・データ」では、当面の課題に大きな重点がおかれていることが近視眼的な判断につながる場合もあり、変化するビジネス・ニーズに合わせてITリーダーが環境を拡張し、適応させていく上で、企業の情報アーキテクチャの障害となることがあるとしている。
ガートナーは、データへの適切なアクセス環境の提供とデータ品質の維持管理の両方について制御が困難になると、情報管理者はデータの量のみを重視しがちだとしている。しかし、そこに対して焦点を絞り込み過ぎると、「ビッグ・データ」の他の局面への対応に2~3年を要する大規模な再投資が必要になる恐れがあるという。
全世界の情報量は、年間で最低でも59%という高率で増加しているため、「ビッグ・データ」の管理において情報量は大きな課題の1つとなっているが、企業およびITリーダーは、情報の量だけでなく、多様性や速度にも焦点を合わせる必要があるという。ガートナーは、情報の「量」「多様性」「速度」について、次のようにまとめている。
「量」
企業が使用しているシステムでのデータ量の増加は、トランザクションの件数および従来型の他のデータ・タイプ、また新しいタイプのデータなどが原因となっている。データ量が多過ぎるということは、ストレージの問題であると同時に、分析においても大きな問題となる。
「多様性」
ITリーダーは常に、大量のトランザクション情報を解釈し判断に生かすという課題と向き合っているが、現在は主にソーシャル・メディアとモバイルに由来する分析すべき情報のタイプが増加している。これには、表形式データ (データベース)、階層型データ、ドキュメント、電子メール、メータリング・データ (センサなどから得られる測定データ)、動画、静止画、オーディオ、株価データ、会計トランザクションをはじめとする数多くのタイプが含まれる。
「速度」
データのストリーム、構造化されたレコード生成、アクセスおよび配布における可用性などが関係している。速度には、データが生成されるスピードと、これらのデータをニーズに合わせて処理するスピードの両方の意味合いがある。
ガートナーのアナリストは、「ビッグ・データ」は大きな課題だが、「ビッグ・データ」を活用するとともに、そのパターンを明らかにすることで、ビジネスにおいて質の高い意思決定に役立てることこそが本当の課題であるとしている。
■「ビッグ・データ」に関したセッションも展開する『ガートナー ビジネス・インテリジェンス&情報活用 サミット 2011』のWebページ
http://www.e-gartner.jp/bi2011/