技術的対策だけでは不十分?重要な3つの非技術的ポイント
ここまで技術的観点での対策について説明しましたが、これらに非技術的なルールやガバナンス面の対策を組み合わせて運用することが大切です。先に紹介したエア・カナダの事例では、チャットボット型サービス・アプリケーションを提供する企業に法的責任が帰属する可能性が指摘されています。この責任の帰属に関して、エア・カナダがチャットボットの回答における法的な性質や品質に関する注意事項が顧客向けに適切に開示されていなかったことが問題の一つとして挙げられるでしょう。このようなリスクを防ぐためには、以下のポイントを押さえた対策が重要です。
非技術的な対策
1. チェック体制の強化
組織的なチェック体制を構築し、技術的検証を確認プロセスに組み込むことで、AIの誤回答や不適切な応答を未然に防ぐ仕組みを整備します。これによってハルシネーションリスクを軽減し、合理的な注意義務を果たすことが可能となります。
2. 免責事項の明確な表示
サービスやアプリケーション上に、チャットボットが回答する内容の法的性質や品質に関する注意事項を明記した免責事項を表示することが重要です。これによって顧客がAIの回答を適切に理解することを推進でき、また過度にAIを信用することを防ぎます。
3. ガイドラインへの準拠
国際標準となっているNIST(National Institute of Standards and Technology:米国国立標準技術研究所)やEU AI Act、MITRE、OWASP(Open Worldwide Application Security Project)、経済産業省が公開しているAI事業者ガイドラインなどを参照し、自社のルール・ガバナンスを準拠させていくことも広義なハルシネーション対策になります。
ハルシネーションは企業がAIを活用する際に特に注目される重要なリスクの一つです。その対策は簡単ではありませんが、ルールの整備やガバナンスの強化、技術的な対応を組み合わせることでリスクを軽減することが可能です。また、インシデントが発生した際にはAI提供者としての責任を果たすためにも、早期から対策の検討を進めることが大切です。ぜひ本稿を参考に、今日から対策を始めてみてはいかがでしょうか。