情シスが知るべき「生成AI」導入効果とリスク
はじめに、ChatGPTなどの生成AIが業務にもたらす効果については、従来のSaaSやシステム導入時と同様、工数や業務範囲、業務効率、売り上げへの影響から評価することが大切です。参考までに当社による導入事例を下図でご紹介します。
業務効率化という点で効果を上げている一方、生成AIの利用には一定のリスクもともないます。まずは、生成AIの恩恵を享受する際のリスクおよび対策方法について解説していきます。
まず、代表的なリスクについては下記が挙げられます。
-
著作権侵害のリスク
-
情報漏洩のリスク
-
誤った情報や矛盾した情報を出力するリスク
1つ目の著作権侵害から解説しましょう。文化庁が2023年6月に示した指針によれば、生成AIによって出力されたもの(文章や画像など)については「使用者が侵害を避ける責任」が生じます。つまり、ChatGPTによって生成された文章が既存の著作物を侵害する場合、その責任は“ChatGPTの使用者にある”ということです。対策として、生成したものを人間が最終確認するフローを確立することが肝心でしょう。
2つ目の情報漏えいについては、入出力した情報がAIの学習データとして利用されるリスクが考えられるでしょう。ChatGPTを例に挙げると、同サービスをブラウザ版で使用する場合、初期設定ではAIのデータセットとして、ユーザーの入出力テキストが学習される恐れがあります。これは機密情報が公開情報と同様に扱われることを意味しており、企業利用においても非常に危険です。
このリスクを避けるためには、下図のようにブラウザ版の設定から学習データとしての使用をオフにすべきです。
しかし、最大30日間はOpenAI社が保有するサーバーでデータが保管されるため、あわせて社内のデータ保護方針の確認も必要となります。
また、2023年7月後半には「Azure OpenAI Service」において、東日本リージョンが利用可能となりました。機密性の高い情報を国外のデータセンターを経由せずに処理できるため、こちらの活用も検討するとよいでしょう。
そして、3つ目に挙げた、誤った情報や矛盾した情報を出力するリスクについては、回答の正確性が課題となっています。
たとえば、ChatGPTは2021年9月時点のデータを用いて学習させているLLMがベースとなっており、プラグインなどを使用しない場合には、最新情報に基づいた回答が得られません。つまり、精度が担保できず、誤った情報や矛盾した情報を生み出すことにつながるため、これに対しても人間が最終的に確認・判断することが重要です。