カナダ大手航空会社が生成AIの“でたらめ回答”で敗訴……ハルシネーションを抑える4つの技術的施策とは
【file.02】ハルシネーション:“AIの誤り”の責任は誰のもの?
連載「AI事件簿 ~思わぬトラップとその対策~」では、過去のAIに関するインシデント事例や先人たちの教訓をもとに具体的なリスク対策を解説しています。連載第2回の本稿では、生成AIを活用する上で避けては通れない課題「ハルシネーション」について詳しく説明していきます。このハルシネーションが原因となり、乗客から訴えられて敗訴したカナダの大手航空会社の事例から、ハルシネーションの正しい制御方法について技術的・非技術的観点の双方から見ていきましょう。
この記事は参考になりましたか?
- AI事件簿 ~思わぬトラップとその対策~連載記事一覧
-
- カナダ大手航空会社が生成AIの“でたらめ回答”で敗訴……ハルシネーションを抑える4つの技術...
- 米国では「AIが法律違反を推奨」で大混乱?実際に起きたインシデントから学ぶ“AIリスク対処...
- この記事の著者
-
平田 泰一(ヒラタ ヤスカズ)
Robust Intelligence Country Manager, Cisco Business Development Managerを務める。Accenture, Deloitte, Akamai, VMware, DataRobotなどを経て、デジタル戦略・組織構築・ガバナンス策定・セキ...
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア