AI活用にともなう「利便性と堅牢性」の板挟み……両者を備えた新たなデータセキュリティの実現方法とは?
従業員が勝手に利用する「シャドーAI」を検知・可視化 Zscalerが示す対策術
クラウドの利用拡大や生成AIの浸透により、事業競争力の要となる顧客情報や知的財産などの重要情報が、経営層やマネージャー、IT部門が気づかぬうちに外部へ漏洩するケースが増加している。利便性の追求と情報漏洩リスクの板挟みとなり、対策が足踏みしている組織も少なくない。AIの恩恵を安全に享受しつつ、ネットワークの出入口ではなくデータそのものを中心に据えたセキュリティをどう整えるべきか──2026年3月17日に開催された「Security Online Day 2026 Spring」では、ゼットスケーラー 岩井弘志氏が、ゼロトラストアーキテクチャに基づき、ビジネスを止めずに包括的なデータ保護を実現するためのアプローチについて解説した。
AIセキュリティに待ったなし。国内外で進む規制と“無策”の限界
生成AIによる業務効率化が進みつつあると同時に、多くの企業で課題も顕在化している。資料作成やデータ分析、システム開発領域などでAI活用が加速する一方、「機密データが生成AIに送信され、情報漏洩につながるのではないか」との不安も根強い。こうした葛藤を抱える企業に対して、ゼットスケーラーの岩井弘志氏は以下のように投げかける。
「AIの活用を進めつつも、セキュリティ対策をどうすべきかという不安を漠然と抱え、結果として『まだ何もできていない』という現状そのものが最大のリスクです」(岩井氏)
企業が対策に足踏みする間にも、国内外でAIセキュリティのガイドラインや規制整備は急速に進んでいる。たとえば、非営利団体OWASPは『OWASP Top 10 for LLM Applications & Generative AI Project』にて、プロンプトインジェクションによる機密情報漏洩などに警鐘を鳴らしている。
そのほか、国内では各省庁がAI利活用ガイドラインを策定するのと並行し、個人情報保護委員会が生成AIへ個人情報を入力しないよう注意喚起を行っている。
海外に目を向けると、欧州連合(EU)では違反者に最大3500万ユーロ、または全世界売上高の7%という重い制裁金を科す「欧州AI法(EU AI Act)」が制定され、規制強化の波が押し寄せている。もはや無策は許されず、被害に遭う前にデータを守る環境を整え、説明責任を果たすことが強く求められているのだ。
また、企業が直面するAIリスクは、利用形態によって異なる。まず、ChatGPTなどのパブリックな生成AIサービスで警戒すべきは、管理者が把握していない「シャドーAI」だ。従業員が良かれと思って顧客リストやM&A情報、開発中のソースコードなどを入力し、AIの学習データとして取り込まれてしまう危険性がある。これに対処するには、シャドーAIの利用状況を可視化して適切な制御をかけるとともに、許可したサービスであっても送信されるプロンプトの中身まで細かく検査する仕組みが必要となる。
一方で、情報漏洩リスクを抑えるために自社専用のプライベートAIを構築する企業も増えている。しかし、この場合も設計ミスや設定の不備が原因でデータが流出する可能性がある。「悪意のある入力を行うプロンプトインジェクションによってAI自体のセキュリティが突破され、情報が引き出されるケースが代表的だ」と岩井氏は説明する。
また、社内文書を読み込ませるRAG(検索拡張生成)では、アクセス権設定の不備が深刻なデータ流出を招く恐れがある。本来権限のない者がAIエージェント経由で機密情報を引き出せてしまうリスクだ。これを防ぐには、機密データの所在を把握し、AIエージェントが不当にアクセスできないよう管理する仕組みが必要だろう。
この記事は参考になりましたか?
- この記事の著者
-
名須川 竜太(ナスカワ リュウタ)
編集者・ライター
編集プロダクションを経て、1997年にIDGジャパン入社。Java開発専門誌「月刊JavaWorld」の編集長を務めた後、2005年に「ITアーキテクト」を創刊。システム開発の上流工程やアーキテクチャ設計を担う技術者への情報提供に努める。2009年に「CIO Magazine」編集長に就...※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
提供:ゼットスケーラー株式会社
【AD】本記事の内容は記事掲載開始時点のものです 企画・制作 株式会社翔泳社
この記事は参考になりましたか?
この記事をシェア
