生成AIの社内導入、参考にすべきガイドラインはどれ? 3ステップで進め方を確認
第2回:生成AIを社内導入するための3ステップ

連載「『先読み!ChatGPT』著者と考える~生成AIで情シス業務はどう変わる?」の第2回では、情報システム部門の皆さまに「生成AIを社内導入するための3ステップ」として、デジタルレシピCTOの古川渉一が解説していきます。「部署やチーム単位で自由にChatGPTを使っているけど、このような状態でいいのか」「生成AIについての質問がきたが、どのように対応すればいいのか」など、社内のChatGPTをはじめとした生成AIの取り扱いに頭を悩ませる、情シス担当者の一助となれば幸いです。
情シスが知るべき「生成AI」導入効果とリスク
はじめに、ChatGPTなどの生成AIが業務にもたらす効果については、従来のSaaSやシステム導入時と同様、工数や業務範囲、業務効率、売り上げへの影響から評価することが大切です。参考までに当社による導入事例を下図でご紹介します。

業務効率化という点で効果を上げている一方、生成AIの利用には一定のリスクもともないます。まずは、生成AIの恩恵を享受する際のリスクおよび対策方法について解説していきます。
まず、代表的なリスクについては下記が挙げられます。
-
著作権侵害のリスク
-
情報漏洩のリスク
-
誤った情報や矛盾した情報を出力するリスク
1つ目の著作権侵害から解説しましょう。文化庁が2023年6月に示した指針によれば、生成AIによって出力されたもの(文章や画像など)については「使用者が侵害を避ける責任」が生じます。つまり、ChatGPTによって生成された文章が既存の著作物を侵害する場合、その責任は“ChatGPTの使用者にある”ということです。対策として、生成したものを人間が最終確認するフローを確立することが肝心でしょう。

[画像クリックで拡大]
2つ目の情報漏えいについては、入出力した情報がAIの学習データとして利用されるリスクが考えられるでしょう。ChatGPTを例に挙げると、同サービスをブラウザ版で使用する場合、初期設定ではAIのデータセットとして、ユーザーの入出力テキストが学習される恐れがあります。これは機密情報が公開情報と同様に扱われることを意味しており、企業利用においても非常に危険です。
このリスクを避けるためには、下図のようにブラウザ版の設定から学習データとしての使用をオフにすべきです。

[画像クリックで拡大]
しかし、最大30日間はOpenAI社が保有するサーバーでデータが保管されるため、あわせて社内のデータ保護方針の確認も必要となります。
また、2023年7月後半には「Azure OpenAI Service」において、東日本リージョンが利用可能となりました。機密性の高い情報を国外のデータセンターを経由せずに処理できるため、こちらの活用も検討するとよいでしょう。
そして、3つ目に挙げた、誤った情報や矛盾した情報を出力するリスクについては、回答の正確性が課題となっています。
たとえば、ChatGPTは2021年9月時点のデータを用いて学習させているLLMがベースとなっており、プラグインなどを使用しない場合には、最新情報に基づいた回答が得られません。つまり、精度が担保できず、誤った情報や矛盾した情報を生み出すことにつながるため、これに対しても人間が最終的に確認・判断することが重要です。

この記事は参考になりましたか?
- 『先読み!ChatGPT』著者と考える~生成AIで情シス業務はどう変わる?~連載記事一覧
-
- AIが会議に代理出席、プレゼン資料の作成……情シスが今押さえておくべきAIサービスとは
- 生成AIの社内導入、参考にすべきガイドラインはどれ? 3ステップで進め方を確認
- 【情シス担当者のChatGPT入門】設定さえ変えれば社内利用は問題ない? 規定違反となるケ...
- この記事の著者
-
古川 渉一(フルカワ ショウイチ)
株式会社デジタルレシピ取締役・最高技術責任者
東京大学松尾研究室LLMチーム プロダクトアドバイザー
一般社団法人ジェネレーティブAI協会理事1992年生まれ。鹿児島県出身。東京大学工学部卒業。大学生向けイベント紹介サービス「facevent」を立ち上げ、延べ30万人の大学生に利用される。その後...※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア