Shoeisha Technology Media

EnterpriseZine(エンタープライズジン)

EnterpriseZine(エンタープライズジン)

テーマ別に探す

「市民AI」「摩擦ゼロビジネス」「データ信憑性」などアクセンチュアが提示する5つのトレンド

2018/05/09 08:00

 アクセンチュアは2018年のテクノロジー予測として「Accenture Technology Vision 2018」を発表した。市民AI、摩擦ゼロ・ビジネス、拡張現実、データ信憑性、インターネット・オブ・シンキングの5つのキーワードをあげ、「インテリジェント・エンタープライズの勃興」というコンセプトを提示した。本稿はこのレポートについて、アクセンチュアが2018年3月に行った発表会の内容を元に、筆者(編集部)がまとめたものである。

調査レポート「Technology Vision 2018」記者発表:アクセンチュア株式会社 執行役員 デジタル コンサルティング本部 統括本部長 立花良範氏/テクノロジーアーキテクチャ グループ マネジング・ディレクター 山根 圭輔氏

 アクセンチュアのおこなった「ディスラクティビティ・インデックス調査」によると、ディスラプション(破壊)を「すでに経験している」と答えた経営者が63%、「兆候を感じる」と答えた経営者は44%であった。2つの総和が100をこえるのは、すでに破壊に直面していて、今後も新たな破壊に見舞われることを予測している経営者が少なからずいるからだろう。

 ディスラプションという言葉は「創造的破壊」と訳されることもあるが、デジタルがもたらす破壊を脅威と捉えるか、チャンスとみるかによって、各社の対応と戦略は異なる。破壊をチャンスと捉えて、積極的な打ち手を講じるべきというのが、アクセンチュアの提言だ。今回のレポートは、そのための指針ともいえる。

企業は顧客の生活に溶け込む

 今日のデジタル化の時代に、企業の製品やサービスは生活の様々な領域に「溶け込む」ように存在している。企業は最終製品を消費者に送り届けるだけにとどまらない。こうした時代に、顧客、パートナー、従業員が気にすることは、「この会社は自分たちに何をもたらしてくれるのか」ということだ。

 つまり、顧客、従業員、取引先は企業が掲げるゴールや価値観などの「ラベル」を読む時代ともいえる。企業が、信頼を得て顧客の心をつかめれば、大きなビジネスを展開できる。逆に、セキュリティ事故などによって、信頼や期待を失えば、事業を喪失しかねない。企業にとっては「社会契約を再定義する時代」である。

 日本企業はこれまで、世界の中でも「理念」や「社会性」を掲げることに積極的だった。問題は、掲げてきた理念を具体的に実行出来るかどうかだ。AIや自動運転などの時代になると、後述するように「倫理」や「正義」がお題目ではなく、テクノロジーによって実装することが必要になるからだ。

 こうした「インテリジェント・エンタープライズの勃興」の時代のキーワードとして、アクセンチュアが抽出したのは、以下の5つである。

アクセンチュア発表資料より

  • シチズンAI:AIを育て、説明責任、法的責任を明確化し、AIと人間との協働の推進
  • 摩擦ゼロ・ビジネス:ブロックチェーンやマイクロサービスなど新たなテクノロジーによるパートナーとの連携
  • 拡張現実 :XRによって「情報」「ヒト」「経験」の距離が消滅する
  • データ信憑性:セキュリティとデータサイエンスの両輪の「データインテリジェンス」が必要
  • インターネット・オブ・シンキング:エッジとクラウドの機能配置を最適化したインテリジェントな分析環境の創造

市民AI:AIと人間の「協働」と問われるAIの「倫理」と「説明責任」

アクセンチュア発表資料より

 AIが人間の仕事を奪うという議論はあるものの、現実のビジネスの中では、AIを人の労働の「代替」として捉えるのではなく、「協働」の関係を築く方が生産的だ。アクセンチュアがおこなったカスタマーサポートの満足度調査によると、AI単独のサポートの満足度は60%に対し、人間によるサポートの満足度は68と高い。しかし「人間+AI」のサポートによる満足度は88%と格段に向上する。

 たとえば、SMBC日興証券のカスタマーサービスでは、顧客からのLINE経由での問い合わせに対してはまずチャットボットが回答し、解決できない場合のみ人間が応答するという形をとった。またオペレーターの応答をAIエンジンが学習することで応答能力を自動的に強化した。これによって問い合わせの数が増加したにもかかわらず、オペレーターの業務量は逆に削減できた。これなどは「AI+人間」の協働の効果だといえる。

 AIも市民として万能ではない。医療や自動運転などのAI利用では、いわゆる「トロッコ問題」のような究極の選択の状況が生じる可能性がある。そうした状況では、AIがなぜその選択をおこなったかを、きちんと理由が語れるかとうかが重要になる。

 たとえば、エヌビディアの意思決定支援の車載カメラでは、判断の基準が可視化されている。
またドイツ政府では、AIの倫理規則を制定し、自動運転のアルゴリズムにおいて事故が避けられない場合、全員を平等に認識することを義務づけている。
さらに今後、AIが進化し「AIがAIを攻撃する」という可能性も生じる。たとえば顔認証のアルゴリズムがあれば、特定の人物の顔写真を作ることも可能であり、悪用も可能だ。

 AIと人との得意領域を見定め「AI+人間」の協働を行うこと、AIによる悪用を防ぐためのAI判断の透明性と説明責任を確保すること、この2つの「市民としてのAI」の条件を考慮し、活用していくことが必要となる。そのためにアクセンチュアでは「複数AI」を組み合わせ最適な活用をおこなう「AI HUB」を用意している。

※この続きは、会員の方のみお読みいただけます(登録無料)。


※この続きは、会員の方のみお読みいただけます(登録無料)。


著者プロフィール

バックナンバー

連載:EZ Press

もっと読む

All contents copyright © 2007-2018 Shoeisha Co., Ltd. All rights reserved. ver.1.5