デジタル・ディスラプションは、膨大なデータとデータ環境の複雑化をもたらすと同時に、新たな機会を創出している。クラウドが実現する処理能力の向上と、大量データの発生が相まって、アルゴリズムを学習させて大規模に実行することが可能になり、ようやく人工知能(AI)の能力を最大限に引き出せるようになった。
AIに限らず、トレンドが自社や市場全体にもたらすインパクトを精査して、必要なものを最適なタイミングで取り入れていかなければ、競争優位性を失い、取り残される恐れがある。データとアナリティクスのリーダーは、変化の速いテクノロジ・トレンドへの理解を深め、ビジネス価値に基づく優先順位付けを行うことが非常に重要だ。
ガートナーのアナリストでシニア プリンシパルの一志達也氏は、データ/アナリティクス・トレンドに関して次のように述べている。
――データとアナリティクスには、引き続き多くの期待と注目が集まっています。日本においても先進的な企業を中心に活用が進み、具体的な成果も多く見られるようになり、確実性の高いユースケースも確立されてきました。一方で、多くの企業では人材が不足し、自社でどのようにデータとアナリティクスを活用すればよいか、といった基本的な部分で足踏みをしています。
――ここに示すトレンドからも読み取れるとおり、テクノロジの進化は技術的なスキルの不足を補い、データとアナリティクスの活用を容易にします。それらを使いこなし、自社における具体的なビジネス成果につなげられるよう、データとアナリティクスのリーダーは人材の確保と組織力の向上に努め、周囲を巻き込みながら取り組みを加速させていかなければなりません。
――そのためにも、既存のIT部門だけで何とかしようとするのではなく、最高データ責任者(CDO)の任命や専門組織の新設を経営層へ働き掛け、IT部門とデータ活用部門の両輪で取り組みを進められるように導くべきなのです。
2019年の主要なデータ/アナリティクス・テクノロジ・トレンド
ガートナーでは、データとアナリティクスのリーダーに対し、これらのトレンドの中で自社のビジネスへの影響が大きく優先すべきものはどれかを、ビジネスのリーダーと協議して、優先度の高いものから検討するよう推奨している。
■トレンド1:拡張アナリティクス
拡張アナリティクスは、データ/アナリティクス分野における次のディスラプションであり、機械学習(ML)とAIの手法を用いて、分析対象となるコンテンツの開発、利用、共有方法を変革する。拡張アナリティクスは、データ準備、データ管理、近代的なアナリティクス、ビジネス・プロセス管理、プロセス・マイニング、データ・サイエンス・プラットフォームにおける主要な機能として、主流の採用へと急速に進展している。
拡張アナリティクスは2020年までに、データ・サイエンスとMLのプラットフォームと同様、アナリティクス/BI(ビジネス・インテリジェンス)および組み込み型アナリティクスの新たな購入を促す主な要因となる。拡張アナリティクスがデータ準備、洞察の生成、洞察の可視化を自動化することによって、多くの状況においてデータ・サイエンティストの関与が不要になる。
■トレンド2:自然言語処理(NLP)/会話型アナリティクス
自然言語処理(NLP)は、あらゆるユーザーが、データに関する問い合わせをしたり、表示された洞察の説明を得たりするための操作を、より容易にする。Googleのような検索サイトによって、一般の人々がインターネットを利用するようになったように、データに対するクエリに自然言語を活用することで、一般的なビジネス・ユーザーであっても、データとアナリティクスをより簡単に利用できるようになる。
ガートナーでは、2020年までに、分析クエリの50%は、検索、NLP、または音声を通じて生成されるか、自動生成されると予測している。
■トレンド3:継続的なインテリジェンス
2022年までに、新たに構築される主要なビジネス・システムの半数以上が、より良い意思決定のためにリアルタイムのコンテキスト・データを使用する、継続的なインテリジェンスを導入する、とガートナーは予測している。
継続的なインテリジェンスとは、リアルタイムのアナリティクスをビジネス・プロセスに統合するもので、常に最新のデータを分析してイベントに対するアクションを処方し、意思決定の自動化やサポートを行う。継続的なインテリジェンスでは、拡張アナリティクス、ストリーム処理、最適化、ビジネス・ルール管理、MLといった複数のテクノロジを活用する。
継続的なインテリジェンスは、データ/アナリティクス・チームの業務に大きな変化をもたらす。ビジネス部門のスマートでリアルタイムな意思決定を支援することは、データ/アナリティクス・チームにとって重要な課題であると同時に、大きなチャンスでもある。継続的なインテリジェンスは、究極のオペレーショナルBIと見なすこともできる。
■トレンド4:商用AIとML
ガートナーでは2022年までに、AIとMLの手法を活用した新規エンドユーザー向けソリューションの75%が、オープンソース・プラットフォームではなく商用ソリューションによって構築されると予測している。
オープンソース・テクノロジには、プロジェクト/モデル管理、再利用、透明性、データ系列、プラットフォームの凝集性、統合性といったエンタプライズ機能が欠けている。商用ベンダーは、AIとMLを拡張して幅広く浸透させるために、オープンソースへのコネクタを提供している。
■トレンド5:説明可能なAI
人の意思決定を支援したり、肩代わりさせたりすることを目的に、AIを導入するケースが増えている。しかし、説明責任を果たすには、AIがなぜそのように結論付けたのかを理解しなければならない。
残念ながら、高度なAIの大半は複雑なブラック・ボックスと化しており、なぜ特定のレコメンデーションや決定に達したのかを説明することはできない。説明可能なAIは、モデルを説明し、その長所と短所を明らかにし、起こり得る行動を予測し、潜在的なバイアスを特定する一連のケイパビリティを指す。説明可能なAIによって、説明責任が果たされるようになり、意思決定の正確性、公平性、安定性、および透明性が確保される。
■トレンド6:グラフ
グラフ・アナリティクスは、組織、人、トランザクションなど重要なエンティティ間の関係を分析する手法。グラフ処理とグラフDBMS(データベース管理システム)のアプリケーションは、2022年まで年間100%成長し、データ準備を継続的に促進して、より複雑でアダプティブなデータ・サイエンスを実現する見込みだ。
従来のデータ・モデルとSQLを用いたクエリでも、関係の分析は可能だが、必ずしも実用的ではなく、不可能な場合もあることから、今後数年間はグラフ・アナリティクスの利用が拡大すると予想される。
■トレンド7:拡張データ管理
拡張データ管理は、監査/来歴分析/レポート作成などに使用されているメタデータを、システムの強化に役立てる。メタデータは受動的なものから能動的なものへと変化しており、AIとMLの主要な推進要因となりつつある。
拡張データ管理は、MLとAIを活用して、データ品質管理、メタデータ管理、マスタ・データ管理、データ統合、DBMSなどを、自己構成型および自己調整型へと進化させる。つまり、手動で行われている多くのタスクを自動化するとともに、技術的なスキルの低いユーザーであっても、データを用いてより自律的に作業できるようにする。そして、技術的なスキルの高い人材が、より付加価値の高いタスクに集中できるようにする。
2022年末までに、手動で行われているデータ管理のタスクの45%は、機械学習と自動サービス管理を活用した拡張データ管理によって削減されるだろう。
■トレンド8:データ・ファブリック
データ・ファブリックによって、一貫性のある単一のデータ管理フレームワークが実現し、通常はサイロ化してしまう分散したデータへの、フリクションレスな(摩擦のない)データ・アクセスが可能になる。 2022年末にかけて、主に静的なインフラストラクチャとしてデータ・ファブリックが導入されるものの、より動的なインフラストラクチャにするために全面的な再設計を行うコストが発生する、とガートナーは予測している。
■トレンド9:ブロックチェーン
ブロックチェーンがアナリティクスに及ぼす潜在的な影響は大きく、特にネットワークやコミュニティへの参加者との関係性や関わり方を活用している場合に当てはまる。しかし、主要なブロックチェーンのテクノロジが絞り込まれるまで、数年間はかかると見込まれる。
それまでの間、ブロックチェーンの先行きに注目し、技術を理解して常に検証しておく必要がある。なお、ブロックチェーンは、既存のデータ管理テクノロジを置き換えてしまうものではなく、既存のデータ管理テクノロジと組み合わせて使うものであるという点を理解しておくことも重要だ。
■トレンド10:パーシステント・メモリ・サーバ(不揮発性メモリ・サーバ)
不揮発性メモリによって、インメモリ・コンピューティング(IMC)に対応したアーキテクチャを採用するコストと複雑さを低減できる。不揮発性メモリは、DRAMとNANDフラッシュ・メモリの間に位置する新しいメモリ階層であり、高い性能を求めるワークロードに対し、コスト効率に優れた大容量のメモリ空間を提供する。
コストを抑えながらも、アプリケーションのパフォーマンス、可用性、起動時間などを改善でき、データを複製する必要性を減らすことで、アプリケーションやデータ・アーキテクチャの複雑さを緩和できるようにする。
データ量の増大するペースだけでなく、データからリアルタイムに価値を抽出する必要性も、急速に高まっている。新しいサーバには、処理性能の高いCPUだけではなく、大容量のメモリと高速なストレージも必要になる。
なお、ガートナーは2019年6月10日~12日、東京コンファレンスセンター・品川(東京都港区)において「ガートナー データ&アナリティクス サミット 2019」を開催する。サミットでは、「不確実な時代だからこそ、明確な目標を掲げてリードせよ」をテーマに、データとアナリティクスの活用レベルを引き上げ、不確実な環境の中でも目的を見失うことなく、デジタル経済における競争に勝利するための戦略や方式を提言するという。