生成AIの“でたらめ回答”でエア・カナダが敗訴
カナダを拠点とする航空会社であるエア・カナダは生成AIチャットボットを提供していました。忌引割引の利用について質問した乗客に対し、生成AIチャットボットが誤った割引ポリシーを回答してしまったことが事件の発端です。その情報を信じて行動した乗客は、期待していた割引を受けられず、不満を抱えて訴訟を起こしました。裁判の結果、裁判所はエア・カナダに対して乗客に損害賠償金と裁判費用を支払うよう命じており、チャットボットは事案発生後に停止されています。
このようにAIが誤った情報を出力する現象は「ハルシネーション」と呼ばれ、生成AIの普及にともなって広く知られる言葉となりました。これは生成AIが抱える代表的なリスクの一つであり、特にビジネスにおいては、ハルシネーションによる誤情報がAI利用者に被害をもたらすだけではなく、提供者の信頼を大きく損なわせる恐れもあります。
では、AIによる“でたらめ”の責任は誰が取るのでしょうか。この事例では、生成AIの大規模言語モデル(LLM)を開発したOpenAIやGoogle、MetaといったAI開発者ではなく、AI提供者であるエア・カナダがハルシネーションに対する責任を問われました[1]。裁判所は、「自社のビジネスの一部を生成AIに委ねる以上、その出力結果に対する責任は当該企業が負うべきだ」との判断を下しています。この判決は、市場でAIサービスを展開する企業にとって重要な指針となる可能性があり、同様の責任を果たすことが求められるでしょう。つまり、企業はAI活用を推進する際にAIリスクへの対応が不可避になるのです。
人間もハルシネーションを起こす? AIが“間違える”理由
ChatGPTに代表されるLLMは、与えられたインターネットや書籍、資料などの情報から膨大なデータを学習します。学習の過程で偏りのあるデータや誤った情報が含まれると、でたらめな回答結果を出力する可能性が出てきます。また、LLMは入力された情報に対して「アテンション」と呼ばれる技術を用いて文章中のどの言葉に注意を払うかを決め、次にくる言葉を確率的に予測することで文章を生成する技術であり、本質的には知識をもっていません。この技術の副産物として「知識のようなもの」をもっているように見えるだけです。つまり、ハルシネーションはある意味ではLLMの仕様ともいえるのです。
具体的な例を考えてみましょう。「1+1=2は正しいですか?」とLLMに質問するとします。10進法であることを前提とするならば、この答えは正しいので、「はい、正しいです。」と出力されることを期待します。しかし、これが2進法ならば答えは10ですので、「はい、正しいです。」という出力はハルシネーションとなるのです。このように、その出力結果が正しいかを判断するためには前提となる情報が重要です。この前提情報が明確にならない限りはどのような出力結果だとしてもハルシネーションが発生する可能性があります。さらに、仮に事実に基づいて正しく出力された場合でも、情報の受け取り手の判断基準によって解釈が異なる場合もあり、誤った出力と判断される可能性もあるのです。
こうしたハルシネーションはどのようにして防げるのでしょうか。先ほどLLMはインターネット上の膨大なデータを学習していると説明しましたが、インターネット上の情報は多種多様であり、すべてが事実に基づいて整理されているわけではありません。実際、LLMを構築する過程では、必ずしも正確ではない情報も学習されています。加えて、LLMは人間のように知識に基づいた判断を行うことはできません。そもそも、出力結果の解釈が人によって異なる場合、何を「事実」とみなすべきかを前提と設定すること自体が、現実世界では非常に難しい課題になっているのです。
つまり現段階では、ハルシネーションそのものを解決する方法は存在しません。仮にAIを使わなかったとしても、実際には人間もハルシネーションを起こしたり、意図的に嘘をついたりすることがあります。また、生成AIのユースケースにおいても、商品のキャッチコピーを考えさせるといったようなハルシネーションを特段注視せずとも活用できる方法もあります。このようなAIの技術的性質を理解したうえでリスクをコントロールし、「リターンを最大化するために、ハルシネーションにどう対処すべきか」といった観点で解決の道を探っていくことが重要だと考えられます。
[1]「AI開発者」「AI提供者」「AI利用者」の定義は『AI事業者ガイドライン(第1.0版)概要』(2024年4月19日、総務省/経済産業省)を参照