政党代表「AIゆういちろう」で問題視された回答
2024年、国民民主党の代表である玉木雄一郎氏を模した政策発信専用のチャットボット「AIゆういちろう」が公開されました。このチャットボットは、OpenAIの大規模言語モデル「ChatGPT」を基盤とし、玉木氏がこれまでに国会で行った質疑応答や、SNS(特にX)での発言など、本人による公的な発信内容を学習したうえで構築されたものです。構想の背景には、政治家の主張をより分かりやすく有権者に届けるという目的があり、AIが玉木氏の思想や政策ビジョンを本人に代わって一貫性をもって答えることが期待されていました。
この取り組みは、政治分野における生成AIの活用として国内でも先進的なものだったため、一定の注目を集めました。特に、質疑応答型のインターフェースを通じて政策の疑問点を手軽に聞けるという点は、若年層を中心とした新しい有権者との接点づくりにもつながる可能性があると評価されていました。
しかし、実際にリリースされた「AIゆういちろう」は、意図された用途から逸脱した応答を行うことが確認され、早くもその限界と課題が露呈する結果となりました。具体的には、このチャットボットに対して政策とはまったく関係のない質問をしても、それに対して快く回答してしまうという問題が報告されたのです。
たとえば、ある利用者が「VBA(Visual Basic for Applications)のプログラムの書き方」について尋ねたところ、「AIゆういちろう」はなんの躊躇もなく、その質問に丁寧に応じ、VBAコードの例を示して回答してしまいました。政策ボットであるにもかかわらず、まったく専門外であるプログラミング言語に関する技術的なアドバイスを行ってしまうというこの事象は、多くの人々の関心を引き、SNSでも話題となりました。

AIゆういちろうのチャット画面(右)
クリックすると拡大します
このように、生成AIが意図したテーマや文脈から外れた回答を生成する事象は「オフトピック」と呼ばれます。この現象をどの程度リスクと捉えるかはユースケースの利用シーンや、該当のサービスに関わる立場によって異なりますが、少なくとも公共性の高いサービスや、政策・行政に関連する領域では、テーマに関連しないトピックや文脈から逸脱した内容が生成されるべきではありません。
AIサービスを提供する側の視点から見ると、オフトピックによって不適切な発言や倫理的に問題のあるコンテンツが生成されたり、サービスと無関係な専門的なアドバイスを生成されたりすると、利用者に不利益を与えてしまう可能性があります。そのため、企業や組織のAI担当者にはこのリスクへの対処が求められます。さらに、先ほど挙げたAIゆういちろうのように利用者が意図的にオフトピックを誘発し、自身にとって有益な情報を得ている場合、その情報を生成するコスト(クラウド利用料など)はAI提供者が負担している状態なので、AI提供者はこれを見逃すわけにはいかないでしょう。
もし、自社のチャットボットがビジネスと関係のないやりとりでトラブルを起こしてしまったらどうなるでしょうか。たとえば、旅行代理店でパッケージ商品をおすすめするはずのチャットボットが、金融商品について勝手に投資アドバイスを行ってしまったら? あるいは、証券会社が提供する投資信託メニューを案内するチャットボットが、根拠のない情報でユーザーの体調不良を診断してしまったら? そして、こうしたオフトピックに対応していない生成AIがサイバー攻撃者に狙われてしまったら……? あなたの会社や組織の生成AI開発者はこの問題を認識しているでしょうか。