SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

最新イベントはこちら!

Data Tech 2024

2024年11月21日(木)オンライン開催

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けの講座「EnterpriseZine Academy」や、すべてのITパーソンに向けた「新エバンジェリスト養成講座」などの講座を企画しています。EnterpriseZine編集部ならではの切り口・企画・講師セレクトで、明日を担うIT人材の育成をミッションに展開しております。

お申し込み受付中!

EnterpriseZine(エンタープライズジン)

EnterpriseZine編集部が最旬ITトピックの深層に迫る。ここでしか読めない、エンタープライズITの最新トピックをお届けします。

『EnterpriseZine Press』

2024年秋号(EnterpriseZine Press 2024 Autumn)特集「生成AI時代に考える“真のDX人材育成”──『スキル策定』『実践』2つの観点で紐解く」

EnterpriseZine Press(AD)

ビッグデータをどう使う? 未経験者から専門家まで、スキルに応じたデータ分析事例

 データ分析では、分析したデータをビジネスにどう生かすかという視点は欠かせない。日立ソリューションズのセッションでは、プラットフォームソリューション事業本部 プロダクトマーケティング本部 マーケティング推進部・技師の武田一城氏が「ビッグデータをどう使う? ~未経験者から専門家まで、スキルに応じたデータ分析事例~」と題して講演。マーケティング担当者の視点から、データをどう活用するかを3つのパターンとして紹介した。

分析スキルに応じて展開した3つの事例を紹介

日立ソリューションズ 武田一城氏
日立ソリューションズ 武田一城氏

 武田氏は2008年から、マーケティング担当として次世代ファイアウォールなどのセキュリティ製品の事業立ち上げ、学校ICT、ビッグデータ分野を中心に活動してきた。2011年からはNPO法人日本PostgreSQLユーザ会の理事も兼務する。講演では、そうした武田氏がデータ分析のプロとしてではなく、マーケティングの視点から、ビッグデータの分析を現場でどう生かすかを紹介した。

 武田氏によると、データ分析のポイントは大きく2つある。1つ目はデータの収集だ。2000年代初頭にあったCRMブームの頃と異なり、現在では技術や使えるデータの絶対量が増えたこと。これにより以前のように大容量データを貯める部分に労力を割く必要が無くなった。低コストで大量のデータを収集できるようになり、特に各種センサーや機器のログデータのようなマシンデータを効率よく集めて分析する仕組みが重要だと言う。特に「人間の入力するデータと違ってマシンデータは嘘をつきません」と武田氏は言う。恣意的な理由で捻じ曲げながら入力された手入力のデータより、自動的に収集されるマシンデータの方が信頼に足るものであり、それらを効率よく収集する仕組みを構築するのが重要だという。

 

 また、このデータ収集を実現できるツールがあるという。すでにログ解析などで国内でも利用が拡大しているSplunkだ。このSplunkは、ほかのBIツールのような分析機能はもちろん、多種多様なデータ収集の機能が充実している。各機器からログ等のデータを取り込むインターフェースを多数持ち、利用者はSplunkを使っているだけでどんどんデータ収集をしてくれて、そのまま分析できる状態になる。収集と分析がセットになっており、同時に出来ることで、より効率よくテラバイトや場合によってはHadoop等と組み合わせることでペタバイト級のデータも分析できるという事になる。

 2つ目は分析者のスキルや現状に合わせて、得たい効果や具体的な目標を設定することだ。もちろん、分析者のスキルが高ければ相応の効果が期待できるが、そうでない場合であっても、効果と目標を具体的に設定することでデータ分析の効果を得られやすくなる。今回は日立ソリューションズのビッグデータ部門の事例から代表的な類型としてスキル及びコストに応じたパターンの事例で以下に説明している。

  • 最低限のスキルを持った「分析の初心者」。データについて最低限の知識と必要な数値が理解できる人であり、導入コストは低い。見える化などの現状把握を行うことができる。
  • 単純な分析スキルと経験を持った「社内経験者レベル」。導入コストはやや高いが、社内人材で目指すことができる。相関分析などを使った分析の効果予想ができる。
  • 豊富な分析経験を持つ「専門家レベル」。専門知識が必須であり、社外の分析上級者であるなど、導入コストは高い。重回帰分析などを行って、一定精度の予測モデルを作ることができる。

 このように、たとえ分析スキルが低くても目標を明確にすることで、一定以上の効果を得ることが出来る。また限定的な効果であっても、取り組みを始めることが出来れれば継続することでより大きな効果を生むこともできるようになるという。そのうえで武田氏は、抽出した3つの事例で利用者のスキルに合わせたデータ活用を進め方を以下に説明している。

ビッグデータの活用方法

経験ゼロからのチャレンジ〜大規模社ポータルのバナー分析

 
分析スキルと人材像
分析スキルと人材像

 1つめの「分析の初心者」の事例となるのが、従業員1万人超のソフトウェア製品の販売業者が、大規模社内ポータルのバナー分析を行ったケースだ。このポータルは出退勤、業績システム、取扱い製品の情報など基幹システム全体が集約されており全社員が必ず毎日見るサイトだこの企業の課題は、自社製品を含む取扱い製品だけで100種類以上あり、製品情報が溢れて返っていたこと、また、営業担当者やSEは社内から必要な情報が入手できないことだった。

そこで、ポータル上に、主要製品8種類にあえて絞ったバナーを作成し、誰がどうアクセスしているかを分析。自社の主要製品の概要・ポイントや戦略、キャンペーンの販促施策を効果的に共有することを目指した。範囲も主要製品、範囲も直近でやりたいものだけに絞る潔さによって限定的ながらも確実な効果を目指したのだ。  

 施策としては、WebサーバとActive DirectoryのログデータをSplunkで解析するというもの。しかも、今回利用したSplunkは容量に制限があるものの無料でダウンロード出来るもので、これにより低コストでスモールスタートが出来た。それ以外にも特別なコストはかけず、分析のスキルについても、分析したい情報と分析のための数値の理解ができる社内のエンジニアが行ったという。ログデータ量は120MB/日、27万レコード/日といった規模。もちろんプライバシーにも考慮し、社員番号などを匿名化したうえで、役職や部署ごとにどのように閲覧しているかを分析した。

 「分析といっても、役職ごとの閲覧数や、部署ごとの閲覧数、製品Aのバナーごとの閲覧数を調べるといった初歩的なもの。だが、それらをクロス分析してみると、製品Aへの閲覧数が多いのは隣にある製品Bを担当する開発部署であったなど、各部門が互いに他部門や製品を意識しているか等のビジネスの構造の一部を可視化することができた」(同氏)  

 ここでのポイントは、主要製品・ポータルのバナーにあえて絞ることで情報がシンプルになった。それにより、現状の可視化と効果測定が可能になったのだという。

経験を積みステップアップ~Webアクセスと受注データを相関分析する

ビッグデータの活用方法
 

 2つめの「社内経験者レベル」の事例としては、数百人規模の法人営業を抱えるB2B企業を紹介した。この企業では、若年層の営業育成に課題を抱えており、OJT頼りの育成方法にも限界を感じていた。法人営業のほか、マーケティング部門も人材不足に悩まされており、獲得したマーケティング活動によるリードの案件化率も低いことが課題だったという。  

 そこで、案件化・受注確度の高いマーケティングリードに営業力を集中することで効率化を実現しようとした。受注につながりやすいかどうかを優先順位づけするために分析基盤としてR言語やクラウド型解析基盤を複数導入。分析スキルとしては、比較的単純なデータを扱うものの、アナリティクスの最低限の知識と経験は必要となった。

 「商談化する確率の高い顧客を予見するリードスコアリングの手法を採用した。リードスコアリングは、B2Cで一般化しつつあり、それをB2Bに応用することで営業効率化へ近づけることができた」(同氏)

 具体的には、マーケティングプロセスにおける、顧客や企業のデモグラフィクデータ、テレマーケティング実績、Web行動データなどと、セールスプロセスにおける受注実績データとを相関分析し、それらを使って、トップセールスマンがどのように受注にいたっているかを導き出した。その「トップセールスマンの経験と勘の確立曲線」に沿って、もっとも効率のよいターゲットに対して重点的に提案する活動につなげたという。

  3つめの「専門家レベル」の事例としては、数万人規模のスポーツイベントの来場者予測を行ったケースを紹介した。この企業では、年数十回の主催イベントを開催しており、来場者数の目標値を達成するために、多くの販促施策を実施している。しかし、過去の経験則に依存した予測をしていたため、来場者が少ない場合などに早め早めでテコ入れ策を行うことが十分にできていなかったという課題があった。そこで、事前の予測から早めの対策や、人員配置や飲食、グッズ数の最適化を戦略的に実施しようとした。また、来場者数の変動要因を見つけ、それをプロモーション計画に活用しようとした。そのために、既存のデータ基盤から、購買データ、会員データ、行動データなどのデータを収集・分析するトータルCRMシステムの構築に取り組んだ。高度な分析スキルが必要になるため、日立ソリューションズのデータサイエンティストが分析を実施したという。

 「予測モデルを構築し、12.9%の誤差で来場者数を予測できた。これはいつファンが会場に観戦に来るかという非常に分析しにくい分野としては、十分に高精度な来場者予測と言える。これによりいくつもの対策を事前に実施できるようになった。また、施策の効果を定量的に測定する方法をデータサイエンティストが定義し、施策の改善を支援した。こうしたことにより、事前予測から対策実施、効果測定という一連の分析をサイクル化し、精度を向上させることができた」(同氏)

 改善の例としては、チケット購入ポイントの2倍キャンペーンの効果検証がある。まず、会員向けに先行販売期間のさらに前の限定期間に購入した場合のみポイント2倍を付与するキャンペーンを行った。だが、結果として、 総販売数は変わらず、これまで先行販売期間に購入していた顧客層が、さらにその前の先行キャンペーン期間での購入に移行しただけだった。そこで、この事実から次のステップでは、総販売数の増加に向けた施策を打つ予定だ。その他の分析・施策の成功例として、会員データの分析結果から得られた知見に沿って「会員セグメントごとのメルマガ施策」を打ち、効果を上げた。「ノウハウが蓄積したことで、ブラッシュアップされ、施策の精度がさらに向上した」(同氏)という。

 

 武田氏は最後に、人の入力するデータのように余計な要素の無い信用できるデータこそが分析する価値があるデータであり、それがマシンデータと改めて強調している。それらが技術の進歩などにより低コストで収集できる仕組みが出来たことでビッグデータを活用できる環境が整ったという。

 残った課題は、データ分析を実施するデータサイエンティストの育成の問題だ。社内で育成する場合は、スキルにあったレベルの目標を設定により結果をきちんと明確にしていくことが重要で、それらを積み重ねることができる仕組みを小さいサイクルで継続していくことが重要だという。そして、それなりのコストをかけても、すぐに大きな効果が欲しいというお客様には、業種ごとに特化した体制でデータ活用支援環境が日立ソリューションズにはあり、自社の豊富な実績やノウハウで新たな価値の創造を実現するという言葉で講演を締めくくった。

ビッグデータ利活用基盤ソリューション Splunk

この記事は参考になりましたか?

  • Facebook
  • X
  • Pocket
  • note

【AD】本記事の内容は記事掲載開始時点のものです 企画・制作 株式会社翔泳社

この記事は参考になりましたか?

この記事をシェア

EnterpriseZine(エンタープライズジン)
https://enterprisezine.jp/article/detail/6029 2014/08/06 00:00

イベント

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング