SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

最新イベントはこちら!

Enterprise IT Women's Forum

2025年1月31日(金)17:00~20:30 ホテル雅叙園東京にて開催

Security Online Day 2025 春の陣

2025年3月18日(火)オンライン開催

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けの講座「EnterpriseZine Academy」や、すべてのITパーソンに向けた「新エバンジェリスト養成講座」などの講座を企画しています。EnterpriseZine編集部ならではの切り口・企画・講師セレクトで、明日を担うIT人材の育成をミッションに展開しております。

お申し込み受付中!

EnterpriseZine(エンタープライズジン)

EnterpriseZine編集部が最旬ITトピックの深層に迫る。ここでしか読めない、エンタープライズITの最新トピックをお届けします。

『EnterpriseZine Press』

2024年秋号(EnterpriseZine Press 2024 Autumn)特集「生成AI時代に考える“真のDX人材育成”──『スキル策定』『実践』2つの観点で紐解く」

AI事件簿 ~思わぬトラップとその対策~

カナダ大手航空会社が生成AIの“でたらめ回答”で敗訴……ハルシネーションを抑える4つの技術的施策とは

【file.02】ハルシネーション:“AIの誤り”の責任は誰のもの?

 連載「AI事件簿 ~思わぬトラップとその対策~」では、過去のAIに関するインシデント事例や先人たちの教訓をもとに具体的なリスク対策を解説しています。連載第2回の本稿では、生成AIを活用する上で避けては通れない課題「ハルシネーション」について詳しく説明していきます。このハルシネーションが原因となり、乗客から訴えられて敗訴したカナダの大手航空会社の事例から、ハルシネーションの正しい制御方法について技術的・非技術的観点の双方から見ていきましょう。

生成AIの“でたらめ回答”でエア・カナダが敗訴

 カナダを拠点とする航空会社であるエア・カナダは生成AIチャットボットを提供していました。忌引割引の利用について質問した乗客に対し、生成AIチャットボットが誤った割引ポリシーを回答してしまったことが事件の発端です。その情報を信じて行動した乗客は、期待していた割引を受けられず、不満を抱えて訴訟を起こしました。裁判の結果、裁判所はエア・カナダに対して乗客に損害賠償金と裁判費用を支払うよう命じており、チャットボットは事案発生後に停止されています。

 このようにAIが誤った情報を出力する現象は「ハルシネーション」と呼ばれ、生成AIの普及にともなって広く知られる言葉となりました。これは生成AIが抱える代表的なリスクの一つであり、特にビジネスにおいては、ハルシネーションによる誤情報がAI利用者に被害をもたらすだけではなく、提供者の信頼を大きく損なわせる恐れもあります。

挿入図の引用元:「Air Canada loses court case after its chatbot hallucinated fake policies to a customer」(2024年2月17日、Mashable)
【画像クリックで拡大します】

 では、AIによる“でたらめ”の責任は誰が取るのでしょうか。この事例では、生成AIの大規模言語モデル(LLM)を開発したOpenAIやGoogle、MetaといったAI開発者ではなく、AI提供者であるエア・カナダがハルシネーションに対する責任を問われました[1]。裁判所は、「自社のビジネスの一部を生成AIに委ねる以上、その出力結果に対する責任は当該企業が負うべきだ」との判断を下しています。この判決は、市場でAIサービスを展開する企業にとって重要な指針となる可能性があり、同様の責任を果たすことが求められるでしょう。つまり、企業はAI活用を推進する際にAIリスクへの対応が不可避になるのです。

AI事業者ガイドライン(第1.0版)概要』(2024年4月19日、総務省/経済産業省)、7ページより引用
【画像クリックで拡大します】

人間もハルシネーションを起こす? AIが“間違える”理由

 ChatGPTに代表されるLLMは、与えられたインターネットや書籍、資料などの情報から膨大なデータを学習します。学習の過程で偏りのあるデータや誤った情報が含まれると、でたらめな回答結果を出力する可能性が出てきます。また、LLMは入力された情報に対して「アテンション」と呼ばれる技術を用いて文章中のどの言葉に注意を払うかを決め、次にくる言葉を確率的に予測することで文章を生成する技術であり、本質的には知識をもっていません。この技術の副産物として「知識のようなもの」をもっているように見えるだけです。つまり、ハルシネーションはある意味ではLLMの仕様ともいえるのです。

 具体的な例を考えてみましょう。「1+1=2は正しいですか?」とLLMに質問するとします。10進法であることを前提とするならば、この答えは正しいので、「はい、正しいです。」と出力されることを期待します。しかし、これが2進法ならば答えは10ですので、「はい、正しいです。」という出力はハルシネーションとなるのです。このように、その出力結果が正しいかを判断するためには前提となる情報が重要です。この前提情報が明確にならない限りはどのような出力結果だとしてもハルシネーションが発生する可能性があります。さらに、仮に事実に基づいて正しく出力された場合でも、情報の受け取り手の判断基準によって解釈が異なる場合もあり、誤った出力と判断される可能性もあるのです。

 こうしたハルシネーションはどのようにして防げるのでしょうか。先ほどLLMはインターネット上の膨大なデータを学習していると説明しましたが、インターネット上の情報は多種多様であり、すべてが事実に基づいて整理されているわけではありません。実際、LLMを構築する過程では、必ずしも正確ではない情報も学習されています。加えて、LLMは人間のように知識に基づいた判断を行うことはできません。そもそも、出力結果の解釈が人によって異なる場合、何を「事実」とみなすべきかを前提と設定すること自体が、現実世界では非常に難しい課題になっているのです。

 つまり現段階では、ハルシネーションそのものを解決する方法は存在しません。仮にAIを使わなかったとしても、実際には人間もハルシネーションを起こしたり、意図的に嘘をついたりすることがあります。また、生成AIのユースケースにおいても、商品のキャッチコピーを考えさせるといったようなハルシネーションを特段注視せずとも活用できる方法もあります。このようなAIの技術的性質を理解したうえでリスクをコントロールし、「リターンを最大化するために、ハルシネーションにどう対処すべきか」といった観点で解決の道を探っていくことが重要だと考えられます。

[1]「AI開発者」「AI提供者」「AI利用者」の定義は『AI事業者ガイドライン(第1.0版)概要』(2024年4月19日、総務省/経済産業省)を参照

次のページ
ハルシネーションのリスクを抑える4つの技術的施策

この記事は参考になりましたか?

  • Facebook
  • X
  • Pocket
  • note
AI事件簿 ~思わぬトラップとその対策~連載記事一覧
この記事の著者

平田 泰一(ヒラタ ヤスカズ)

Robust Intelligence Country Manager, Cisco Business Development Managerを務める。Accenture, Deloitte, Akamai, VMware, DataRobotなどを経て、デジタル戦略・組織構築・ガバナンス策定・セキ...

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

EnterpriseZine(エンタープライズジン)
https://enterprisezine.jp/article/detail/21105 2025/01/20 08:00

Job Board

AD

おすすめ

アクセスランキング

アクセスランキング

イベント

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング