AI活用にともなう「利便性と堅牢性」の板挟み……両者を備えた新たなデータセキュリティの実現方法とは?
従業員が勝手に利用する「シャドーAI」を検知・可視化 Zscalerが示す対策術
クラウドの利用拡大や生成AIの浸透により、事業競争力の要となる顧客情報や知的財産などの重要情報が、経営層やマネージャー、IT部門が気づかぬうちに外部へ漏洩するケースが増加している。利便性の追求と情報漏洩リスクの板挟みとなり、対策が足踏みしている組織も少なくない。AIの恩恵を安全に享受しつつ、ネットワークの出入口ではなくデータそのものを中心に据えたセキュリティをどう整えるべきか──2026年3月17日に開催された「Security Online Day 2026 Spring」では、ゼットスケーラー 岩井弘志氏が、ゼロトラストアーキテクチャに基づき、ビジネスを止めずに包括的なデータ保護を実現するためのアプローチについて解説した。
AIセキュリティに待ったなし。国内外で進む規制と“無策”の限界
生成AIによる業務効率化が進みつつあると同時に、多くの企業で課題も顕在化している。資料作成やデータ分析、システム開発領域などでAI活用が加速する一方、「機密データが生成AIに送信され、情報漏洩につながるのではないか」との不安も根強い。こうした葛藤を抱える企業に対して、ゼットスケーラーの岩井弘志氏は以下のように投げかける。
「AIの活用を進めつつも、セキュリティ対策をどうすべきかという不安を漠然と抱え、結果として『まだ何もできていない』という現状そのものが最大のリスクです」(岩井氏)
企業が対策に足踏みする間にも、国内外でAIセキュリティのガイドラインや規制整備は急速に進んでいる。たとえば、非営利団体OWASPは『OWASP Top 10 for LLM Applications & Generative AI Project』にて、プロンプトインジェクションによる機密情報漏洩などに警鐘を鳴らしている。
そのほか、国内では各省庁がAI利活用ガイドラインを策定するのと並行し、個人情報保護委員会が生成AIへ個人情報を入力しないよう注意喚起を行っている。
海外に目を向けると、欧州連合(EU)では違反者に最大3500万ユーロ、または全世界売上高の7%という重い制裁金を科す「欧州AI法(EU AI Act)」が制定され、規制強化の波が押し寄せている。もはや無策は許されず、被害に遭う前にデータを守る環境を整え、説明責任を果たすことが強く求められているのだ。
また、企業が直面するAIリスクは、利用形態によって異なる。まず、ChatGPTなどのパブリックな生成AIサービスで警戒すべきは、管理者が把握していない「シャドーAI」だ。従業員が良かれと思って顧客リストやM&A情報、開発中のソースコードなどを入力し、AIの学習データとして取り込まれてしまう危険性がある。これに対処するには、シャドーAIの利用状況を可視化して適切な制御をかけるとともに、許可したサービスであっても送信されるプロンプトの中身まで細かく検査する仕組みが必要となる。
一方で、情報漏洩リスクを抑えるために自社専用のプライベートAIを構築する企業も増えている。しかし、この場合も設計ミスや設定の不備が原因でデータが流出する可能性がある。「悪意のある入力を行うプロンプトインジェクションによってAI自体のセキュリティが突破され、情報が引き出されるケースが代表的だ」と岩井氏は説明する。
また、社内文書を読み込ませるRAG(検索拡張生成)では、アクセス権設定の不備が深刻なデータ流出を招く恐れがある。本来権限のない者がAIエージェント経由で機密情報を引き出せてしまうリスクだ。これを防ぐには、機密データの所在を把握し、AIエージェントが不当にアクセスできないよう管理する仕組みが必要だろう。
従業員が利用するシャドーAIを可視化・制御、安全なAI活用の基盤を整える
こうしたAI時代の脅威に対して、ゼットスケーラーは単一のプラットフォーム「Zero Trust Exchange」で包括的なデータ保護機能を提供している。単なるクラウドプロキシにとどまらず、DLP(Data Loss Prevention:データ損失防止)によるインライン制御と、DSPM(Data Security Posture Management:データセキュリティ体制管理)によるアウトオブバンド制御をカバーしている点が特徴だ。
インライン制御では、Webやメールのトラフィックをスキャンし、機密情報がどのクラウドへ送信されようとしているかをリアルタイムに監視。必要に応じてユーザーへのコーチングや通信ブロックを実行する。エージェントモジュールを併用すれば、USBメモリへの書き出しや生成AIアプリへのデータ連携も検知して遮断できる。
アウトオブバンド制御では、API経由でSaaS、IaaS、オンプレミスなど、あらゆるプラットフォーム上のデータの状態を可視化し、アクセス制御やコンプライアンスの状況を監視する。
Zero Trust Exchangeの大きな特徴は、高度なデータ分類技術にあるという。正規表現や日本語辞書(氏名、住所、マイナンバーなど)による基本的な検知に加えて、次のような検知機能を備えている。
- 完全データ一致(EDM):口座番号や名前などの構造化データを事前に登録し、完全に一致したファイルを検知
- インデックス文書一致(IDM):非構造化データをインデックス化して判定
- 光学式文字認識(OCR):画像から文字列を読み取って検知
たとえば、同じ文字列がファイル内に複数存在する場合でも、1件とカウントして誤検知を減らすアルゴリズムが組み込まれているため、上記のような機能同士を組み合わせて「住所が20個以上、氏名が15個以上含まれるファイルを『名簿』と定義して生成AIへのアップロードをブロックする」といった独自ルールを作成できる。
また、直近のアップデートでLLMを活用した分類機能が追加された。AIが文書の文脈や意図を汲み取り、「これは財務文書だ」といった形で自動判別してダッシュボードに表示する。Microsoft Purviewとも連携しており、機密度ラベルを読み取って外部送信をブロックしたり、キーワードにマッチした文書を自動的に暗号化してMicrosoft Copilotの学習/検索対象から除外したりすることが可能だ。
Zero Trust Exchangeは、従業員による無許可のAI利用を統制するシャドーAIの可視化/制御機能も備える。市場の2,700種類以上のAIアプリをデータベース化してリスクスコアを付与しており、これと通信ログを照合することで、従業員が無断使用しているAIサービスとその利用量を特定し、ダッシュボード上に可視化する。
プロンプトキャプチャ機能では、AIにどのような指示を送信したかも記録しており、これをDLPエンジンと連携させることで、プロンプト内に個人情報やソースコードが含まれていないかを検査し、リスクの高いサービスへのアクセスを直接ブロックすることも可能だ。
加えて、より高度な対策として「AI Guard」も備えている。これは振る舞いベースのロジックで悪意のある攻撃を検知する機能だ。
「ユーザーが入力したプロンプトに、プロンプトインジェクションやジェイルブレイクの意図が含まれていないかを判別し、脅威を遮断するとともに、AIが返すレスポンスを監視し個人情報が含まれていないかを検査します」(岩井氏)
また、リスクが懸念されるAIサービスに対して、ブラウザ分離(Browser Isolation)技術を用いた柔軟なアクセス制御をかけることも可能だ。これは、クラウド上の隔離環境(仮想ブラウザ)でWebサイトを実行し、画面の描画結果だけを端末に転送する仕組みである。プロンプトの入力は許可しつつ、機密ファイルのアップロードやクリップボード経由のコピー&ペーストだけを無効化するなど、安全性と利便性を両立した運用を実現する。
情報漏洩対策で現場の業務が止まる……「止めない運用」を実現するには
そのほか、Zero Trust Exchangeでは、プライベートAI環境もパブリックAIと同じプラットフォーム上で一元管理できる。
プライベートAIを安全に運用するためには、AIモデルや学習データ、関連インフラの設定に不備がないかを継続的に点検して情報漏洩を防ぐ必要がある。しかし、数千件ものAIモデルを利用する企業もある中、それらをすべて手作業で管理し、設定ミスや権限の不備などのリスクを探しだして対処しつづけるのは極めて困難だ。
この課題に対して、Zero Trust ExchangeはAPI連携で自動監査する「AI-SPM」機能を提供する。主要なAIサービスやGitHubなどのソースコード管理ツールに接続し、設定ミスや権限の不備を自動的に洗い出す機能だ。使用中のAIモデルや機密情報にアクセス可能なAIエージェントの所在を可視化することも可能であり、機密情報が無防備な場合はリスク値を付与して修復への具体的なガイドラインを提示する。
また、「AIレッドチーミング」機能により、攻撃者の視点で疑似攻撃を仕掛け、AIモデルの堅牢性を公開前に評価することもできる。5,000件以上の攻撃パターンで20以上のターゲットをテストし、セキュリティやハルシネーションの有無、ビジネス要件との整合性を検証する。脆弱性が見つかった場合は、システムプロンプトの具体的な修復箇所と手法を提示し、安全な開発を支援する。
加えて、情報漏洩対策の厳格化によって多くの企業が直面するのが、業務効率への悪影響だ。機密情報の送信を一律にブロックすれば、業務上どうしても必要なデータのやり取りまで滞り、結果として現場の業務を止めてしまうことになりかねない。
この問題には、動的承認フロー「Zscaler Workflow Automation」で対応できる。これは一律的に業務を制限するのではなく、現場の判断を組み込むことで、機密情報の流出を抑止しつつ必要な業務は止めない運用を実現する仕組みだ。
たとえば、個人情報を含むファイルを生成AIにアップロードしようとした場合、システムはインラインで通信を検知して一時ブロックし、ユーザーに対してインシデントアラートをメールで自動送信する。このとき、ユーザーが「業務で必要なため」などの理由を添えて申請し、上長が確認・承認すれば、5分間だけ特定のURLへのアップロードを許可するといった運用が可能となる。この一連のプロセスは、すべてワークフローとして時系列で記録される。
クラウドの利用拡大や多様なAIサービスの登場により、企業の機密データが漏洩するリスクが一層高まっている。個別のツールによる“点”の監視では、次々と出現する脅威を防ぎきれず、運用負荷も増すばかりだ。
「AIに関連する情報漏洩リスクが多岐にわたる今日、データ保護は点ではなく、面で考えなければなりません。機密データの可視化からアクセス制御、ワークフローの自動化までを単一のプラットフォームに統合したZero Trust Exchangeを活用することで、お客様の情報資産を確実に守りながら、ビジネスを止めずにAIの恩恵を最大化していくことができるのです」(岩井氏)
この記事は参考になりましたか?
提供:ゼットスケーラー株式会社
【AD】本記事の内容は記事掲載開始時点のものです 企画・制作 株式会社翔泳社
この記事は参考になりましたか?
この記事をシェア
