拡大する生成AIの実務活用、一方で数多の情報漏えいリスクが……
急速に進化を続ける生成AI。クラウドサービスのベンダーは、自社のサービスに続々と生成AI機能を搭載している。事業会社の中でも、業務アプリケーションへの生成AI実装が進みつつある。目的や業種・業界に特化した新サービスの登場や、内部の性能強化など、その技術動向からは目が離せない。
Netskopeは、企業におけるAIクラウドサービスの活用状況に関する調査レポートを公表した。調査期間は2023年から約1年間。事前に了承を得た世界のNetskopeユーザーおよそ数百万人の匿名データから分析した結果となる。
まずは、直近で人気の生成AIアプリ“トップ10”を見てみよう。1位は、生成AIアプリの代名詞とも言える「ChatGPT」。回答企業の80%が利用している。2位は英文校正ツールの「Grammarly」(60%)、3位は急伸が著しい「Microsoft Copilot」(57%)、4位には「Google Gemini」(51%)が並ぶ。
回答企業のうち、半数以上が利用しているアプリはすべてメジャーなものだといってよいだろう。また、調査期間の過去13ヵ月における生成AIアプリの利用者数の推移を見ると、着実に増えていることがわかる。特に2024年春ごろから勢いが加速している。
生成AIが個人の生産性にもたらすメリットは大きい。これは間違いないだろう。しかし、組織全体からの視点で見ればリスクもある。同社の田中資子氏は、組織視点でのリスクについて、大きく「生成AIアプリへのデータ入力時に関するもの」と、「出力結果の利用時に関するもの」に分けられると話す。
まずは、データ入力時に関するもの。たとえば、誰かが会社で非公認の生成AIアプリを利用することや、個人情報・シークレット・営業秘密・著作権などの漏えいしてはならないデータを生成AIアプリに入力してしまうなどのリスクがある。対策としては、組織全体で利用する生成AIアプリを限定して、それ以外は制限することや、疑わしいデータ利用を検出できる仕組みを構築すること、さらにはユーザーのリテラシーを向上するためのトレーニングを実施することなどが挙げられる。
次に、出力結果の利用時に関するもの。これには、誤情報やハルシネーションなど正確性の問題や、著作権侵害など合法性の問題、あるいは人間の仕事が生成AIに置き換わるなど解雇のリスク、さらにはフィッシングやディープフェイクなど、ソーシャルエンジニアリングに悪用されるリスクなどが挙げられる。これらすべてに対策を打つことは簡単ではないが、生成AIアプリ利用時の目的や運用ルールを統制すること、職務の明確化、加えてフィッシング対策や、データ監査・追跡などを検討していくことが考えられる。
実際、企業ではどのようなDLP(データ損失防止)違反が生じているのか。生成AIアプリにアップロードまたはポストされたデータで、DLP違反として検出されたものを見てみると、現時点で最も高い割合を占めるのは「ソースコード」で、全体の約半分を占めている。社内で生成AIの実務活用がいち早く進んでいるのが、アプリケーション開発の現場である場合が多いためかもしれない。他には、業界規制やコンプライアンス要件による規制対象データが35%、知的財産関連が15%となっている。田中氏は、「生成AIアプリの出現で情報規制対象が増え、ユーザートレーニングの重要性がますます高まっている」と指摘する。
生成AIアプリ特有のリスク対策は3つのアプローチで
では、具体的にどうリスクと対峙していけばよいのか。従来であれば、業務に関係ないWebサイト(マルウェアが仕込まれている可能性が高い)やボットネット、フィッシングサイトなどは、アクセスをブロックすることである程度の対処ができた。また、企業が公認していないクラウドサービスやコラボレーションツールへの接続もブロックしたり、アラートを発報したりといった対策が有効とされてきた。
しかし、これらの対策だけでは、先述したような生成AIアプリ利用時のリスクには対応しきれない。そこで、田中氏は3つの対策アプローチを紹介した。
- 生成AIアプリのリスクアセスメント:利用しようとしている生成AIアプリが安全かどうか、客観的なセキュリティリスク評価を確認する
- 生成AIアプリの使用状況の可視化:社内ユーザーの行動分析を行い、社内で規定した生成AIアプリ使用基準に合致していないものを極力削減できるようにする
- 生成AIアプリのコントロール:機密情報や個人情報などの流出を防止できるように、(ユーザーに不利益や負担にならない範囲で)生成AIアプリの操作を制御する
これらのアプローチにおいて、Netskopeのソリューションを活用した具体的な施策は以下のようになる。
①生成AIアプリのリスクアセスメント
Netskopeはクラウドサービス型の評価データベースを提供しており、(2024年9月時点で)200を超える生成AIアプリのセキュリティリスクを客観的に評価できる。リスク値はCloud Security Alliance(CSA)が定義したクラウドリスク評価指標に基づいて算出されている。
安全性が低いものは利用を制限したり、タグを付けることで必要なメンバーだけに利用許可を与えたりといった運用も可能となっている。
②生成AIアプリの使用状況の可視化
Netskopeのプラットフォーム上では、様々な側面からSaaS利用状況を可視化できる。ログを生成AIアプリでフィルタリングすると、ユーザー数やセッション数のほか、アップロード・ダウンロードのバイト数なども確認できるため、「誰が、どの生成AIアプリを、どのくらい利用しているか」が簡単に、リアルタイムで確認できるという。さらには、使用状況をグラフィカルにまとめたレポートがビルトインされており、管理者が一からレポートを作成することなく、すぐに利用できる。
田中氏はここで、「定期的に生成AIアプリの利用状況を監視することで、不明瞭なアプリの利用がないか、社員がどのアプリをどのくらい利用しているか把握することが重要だ」と念押しする。なお、レポートは管理者宛にメールで送信することも可能なため、ログインしなくてもレポートを確認できる。
さらに進んだ可視化として、Netskopeはふるまい検知機能も備えている。静的なルールと機械学習により、普段利用することのないサービスへのログインや大量のファイル操作があった際にはアラートを発報することも可能だ。
スコアリングによって、ユーザー個別に長期間監視することも可能だ。違反や不審な行動ごとがあるごとにスコアを減点し、一定値を下回ったらアプリやサービスの利用を制限するといったペナルティを設定することもできる。
最近、さらに新たな可視化機能が実装された。Netskopeを通過するトラフィックをTAPすることで、生成AIアプリ利用状況の詳しい分析が可能となる機能だ。TAPの対象はフィルタリングルールで定義し、各種クラウドストレージ(AWS、Google Cloud、Azure)にコピーしてSSLを復号した上で分析する。この機能を利用することで、ユーザーが生成AIアプリに入力した内容もすべて保存することが可能となり、ユーザープロンプト分析も可能となる(詳しくは後述)。
③生成AIアプリのコントロール
SaaS同様に、生成AIアプリでも柔軟なコントロールが可能だ。許可していない生成AIアプリをブロックしたいのであれば、ユーザーに「会社のポリシー違反」であることを通知するポップアップを表示できる。
ただし、一律にブロックしてしまうと利便性を損なうリスクもある。そのため、サービスへのログイン時に「ルールを理解した上で利用してください」と、ルールへのリンクも付与して注意喚起するポップアップを表示する方法もある。あるいは、ユーザーに利用する理由を記入してもらった上で利用を許可する設定も可能だ。こうしてユーザーに適正利用を促すことは、不要な生成AIアプリの利用防止に役立つ。
制限の範囲も細かく設定できる。シンプルな設定としては、会社が契約する生成AIアプリだけ利用を許可したり、ログインID(アカウント)を会社のドメインのみに制限したりといった方法がある。また、生成AIとのチャットは許可しても、ファイルのアップロードは許可しない。あるいは、アップロード可能なファイル種別を制限する、さらにはポスト内容の長さでブロックや注意喚起を行うといったルールによる制限が可能だ。
加えて、生成AIアプリに入力する内容をAIで判別した上で、制限をかけることも可能だという。たとえば、個人情報や機密情報を検出したらブロックする、ソースコードを検出したらブロックまたは注意喚起する、あるいは、ソースコード内にシークレットがハードコーディングされていることを検出したらブロックするといったことも。なお、対象の生成AIアプリにより制限可能な内容は異なる。
さらには、「組織が保有するデータセットから組織独自のDLP識別子を作成しておくこともできる」と田中氏。たとえば、社員証の画像から特徴を捉えておき、社員証の画像が検知されたら(送信やアップロードを)ブロックできるといった具合だ。パスポートや免許証など共通のデータはあらかじめ事前定義済みのため、組織独自のものも定義しておくことで、より強力なDLPを実現できるとのことだ。
生成AIアプリの活用に“最低限”必要なセキュリティ対策
これまで紹介した一通りの機能を、田中氏はデモを用いて説明。ルール違反でブロックするケース、注意喚起を行うケース、利用前に理由を記入してもらうケースなどが披露された。投稿内容については、「こんにちは」だけではアラートは表示されないが、禁止用語が含まれると送信がブロックされる様子が示された。
管理画面に移ると、これまでデモで行った一連の操作が、ユーザーの利用状況として克明に記録されている様子が示された。そこには、ログインだけでなく、生成AIアプリに投稿した内容、生成AIアプリ利用の理由として記入した内容、違反と検知されてブロックされたことまで記録されていた。
違反などは、インシデントのログとして記録される。ソースコードのアップロードか、あるいは禁止用語でブロックされたのかなど、インシデントとみなされた要因もわかる。また、ユーザーごとのスコアで見れば、減点された履歴も確認できる。たとえば、あるユーザーのスコアが顕著に低くなっていたとしよう。理由を確認してみると、ログインに何度も失敗していた。ここまでわかれば、管理者は該当者に事情を聞くなどして対応することができる。
最後に、田中氏は要点を次のようにまとめた。
「生成AIアプリをビジネスでうまく活用するために、最低限必要なセキュリティ対策。それは、①生成AIアプリの客観的評価データベースを活用すること、②生成AIアプリの使用状況を可視化すること、③生成AIアプリ利用に関するトレーニングや柔軟なコントロールを検討することです。いきなり操作をコントロールするのが難しければ、まずは客観的評価データベースや使用状況の可視化から始めてみてはいかがでしょうか」(田中氏)