生成AIアプリ特有のリスク対策は3つのアプローチで
では、具体的にどうリスクと対峙していけばよいのか。従来であれば、業務に関係ないWebサイト(マルウェアが仕込まれている可能性が高い)やボットネット、フィッシングサイトなどは、アクセスをブロックすることである程度の対処ができた。また、企業が公認していないクラウドサービスやコラボレーションツールへの接続もブロックしたり、アラートを発報したりといった対策が有効とされてきた。
しかし、これらの対策だけでは、先述したような生成AIアプリ利用時のリスクには対応しきれない。そこで、田中氏は3つの対策アプローチを紹介した。
- 生成AIアプリのリスクアセスメント:利用しようとしている生成AIアプリが安全かどうか、客観的なセキュリティリスク評価を確認する
- 生成AIアプリの使用状況の可視化:社内ユーザーの行動分析を行い、社内で規定した生成AIアプリ使用基準に合致していないものを極力削減できるようにする
- 生成AIアプリのコントロール:機密情報や個人情報などの流出を防止できるように、(ユーザーに不利益や負担にならない範囲で)生成AIアプリの操作を制御する
これらのアプローチにおいて、Netskopeのソリューションを活用した具体的な施策は以下のようになる。
①生成AIアプリのリスクアセスメント
Netskopeはクラウドサービス型の評価データベースを提供しており、(2024年9月時点で)200を超える生成AIアプリのセキュリティリスクを客観的に評価できる。リスク値はCloud Security Alliance(CSA)が定義したクラウドリスク評価指標に基づいて算出されている。
安全性が低いものは利用を制限したり、タグを付けることで必要なメンバーだけに利用許可を与えたりといった運用も可能となっている。
②生成AIアプリの使用状況の可視化
Netskopeのプラットフォーム上では、様々な側面からSaaS利用状況を可視化できる。ログを生成AIアプリでフィルタリングすると、ユーザー数やセッション数のほか、アップロード・ダウンロードのバイト数なども確認できるため、「誰が、どの生成AIアプリを、どのくらい利用しているか」が簡単に、リアルタイムで確認できるという。さらには、使用状況をグラフィカルにまとめたレポートがビルトインされており、管理者が一からレポートを作成することなく、すぐに利用できる。
田中氏はここで、「定期的に生成AIアプリの利用状況を監視することで、不明瞭なアプリの利用がないか、社員がどのアプリをどのくらい利用しているか把握することが重要だ」と念押しする。なお、レポートは管理者宛にメールで送信することも可能なため、ログインしなくてもレポートを確認できる。
さらに進んだ可視化として、Netskopeはふるまい検知機能も備えている。静的なルールと機械学習により、普段利用することのないサービスへのログインや大量のファイル操作があった際にはアラートを発報することも可能だ。
スコアリングによって、ユーザー個別に長期間監視することも可能だ。違反や不審な行動ごとがあるごとにスコアを減点し、一定値を下回ったらアプリやサービスの利用を制限するといったペナルティを設定することもできる。
最近、さらに新たな可視化機能が実装された。Netskopeを通過するトラフィックをTAPすることで、生成AIアプリ利用状況の詳しい分析が可能となる機能だ。TAPの対象はフィルタリングルールで定義し、各種クラウドストレージ(AWS、Google Cloud、Azure)にコピーしてSSLを復号した上で分析する。この機能を利用することで、ユーザーが生成AIアプリに入力した内容もすべて保存することが可能となり、ユーザープロンプト分析も可能となる(詳しくは後述)。
③生成AIアプリのコントロール
SaaS同様に、生成AIアプリでも柔軟なコントロールが可能だ。許可していない生成AIアプリをブロックしたいのであれば、ユーザーに「会社のポリシー違反」であることを通知するポップアップを表示できる。
ただし、一律にブロックしてしまうと利便性を損なうリスクもある。そのため、サービスへのログイン時に「ルールを理解した上で利用してください」と、ルールへのリンクも付与して注意喚起するポップアップを表示する方法もある。あるいは、ユーザーに利用する理由を記入してもらった上で利用を許可する設定も可能だ。こうしてユーザーに適正利用を促すことは、不要な生成AIアプリの利用防止に役立つ。
制限の範囲も細かく設定できる。シンプルな設定としては、会社が契約する生成AIアプリだけ利用を許可したり、ログインID(アカウント)を会社のドメインのみに制限したりといった方法がある。また、生成AIとのチャットは許可しても、ファイルのアップロードは許可しない。あるいは、アップロード可能なファイル種別を制限する、さらにはポスト内容の長さでブロックや注意喚起を行うといったルールによる制限が可能だ。
加えて、生成AIアプリに入力する内容をAIで判別した上で、制限をかけることも可能だという。たとえば、個人情報や機密情報を検出したらブロックする、ソースコードを検出したらブロックまたは注意喚起する、あるいは、ソースコード内にシークレットがハードコーディングされていることを検出したらブロックするといったことも。なお、対象の生成AIアプリにより制限可能な内容は異なる。
さらには、「組織が保有するデータセットから組織独自のDLP識別子を作成しておくこともできる」と田中氏。たとえば、社員証の画像から特徴を捉えておき、社員証の画像が検知されたら(送信やアップロードを)ブロックできるといった具合だ。パスポートや免許証など共通のデータはあらかじめ事前定義済みのため、組織独自のものも定義しておくことで、より強力なDLPを実現できるとのことだ。