分析スキルに応じて展開した3つの事例を紹介
武田氏は2008年から、マーケティング担当として次世代ファイアウォールなどのセキュリティ製品の事業立ち上げ、学校ICT、ビッグデータ分野を中心に活動してきた。2011年からはNPO法人日本PostgreSQLユーザ会の理事も兼務する。講演では、そうした武田氏がデータ分析のプロとしてではなく、マーケティングの視点から、ビッグデータの分析を現場でどう生かすかを紹介した。
武田氏によると、データ分析のポイントは大きく2つある。1つ目はデータの収集だ。2000年代初頭にあったCRMブームの頃と異なり、現在では技術や使えるデータの絶対量が増えたこと。これにより以前のように大容量データを貯める部分に労力を割く必要が無くなった。低コストで大量のデータを収集できるようになり、特に各種センサーや機器のログデータのようなマシンデータを効率よく集めて分析する仕組みが重要だと言う。特に「人間の入力するデータと違ってマシンデータは嘘をつきません」と武田氏は言う。恣意的な理由で捻じ曲げながら入力された手入力のデータより、自動的に収集されるマシンデータの方が信頼に足るものであり、それらを効率よく収集する仕組みを構築するのが重要だという。
また、このデータ収集を実現できるツールがあるという。すでにログ解析などで国内でも利用が拡大しているSplunkだ。このSplunkは、ほかのBIツールのような分析機能はもちろん、多種多様なデータ収集の機能が充実している。各機器からログ等のデータを取り込むインターフェースを多数持ち、利用者はSplunkを使っているだけでどんどんデータ収集をしてくれて、そのまま分析できる状態になる。収集と分析がセットになっており、同時に出来ることで、より効率よくテラバイトや場合によってはHadoop等と組み合わせることでペタバイト級のデータも分析できるという事になる。
2つ目は分析者のスキルや現状に合わせて、得たい効果や具体的な目標を設定することだ。もちろん、分析者のスキルが高ければ相応の効果が期待できるが、そうでない場合であっても、効果と目標を具体的に設定することでデータ分析の効果を得られやすくなる。今回は日立ソリューションズのビッグデータ部門の事例から代表的な類型としてスキル及びコストに応じたパターンの事例で以下に説明している。
- 最低限のスキルを持った「分析の初心者」。データについて最低限の知識と必要な数値が理解できる人であり、導入コストは低い。見える化などの現状把握を行うことができる。
- 単純な分析スキルと経験を持った「社内経験者レベル」。導入コストはやや高いが、社内人材で目指すことができる。相関分析などを使った分析の効果予想ができる。
- 豊富な分析経験を持つ「専門家レベル」。専門知識が必須であり、社外の分析上級者であるなど、導入コストは高い。重回帰分析などを行って、一定精度の予測モデルを作ることができる。
このように、たとえ分析スキルが低くても目標を明確にすることで、一定以上の効果を得ることが出来る。また限定的な効果であっても、取り組みを始めることが出来れれば継続することでより大きな効果を生むこともできるようになるという。そのうえで武田氏は、抽出した3つの事例で利用者のスキルに合わせたデータ活用を進め方を以下に説明している。