対策を急げ!ラックが示す、「現場で本当に運用可能」かつ実効性ある生成AIガイドライン策定のポイント
普及のスピードに追いつかないAIガバナンス、既に社内はシャドーAIだらけかも……?
クラウドや従来型セキュリティの定石で考えるべきではない
最近、藤井氏は「我が社では、情報セキュリティガイドラインやクラウドサービス利用ガイドラインを策定済みです。それで生成AIもカバーできますか?」という相談を受けることが多いという。これに対し同氏は、クラウドと生成AIではリスク対策の勝手が異なる点を指摘した。
クラウドサービスの利用やクラウド環境への移行は、情報を「どこで扱うか」という“空間”が変化するものだ。よって、CIA(機密性・完全性・可用性)強化と責任範囲の明確化が対策の核だった。これに対し、生成AIを利活用するとなると、情報を「どのように創り出すか」という創造プロセスそのものに変化が起こる。
つまり生成AIがアウトプットする内容は、確率的でブラックボックスであり、従来のCIA観点による情報セキュリティ対策では不十分だ。従来のセキュリティの定石とは異なる、生成AI特有のリスクを考慮した評価と対策が不可欠となる。

生成AI特有のリスクは、大きく4つの分類に整理できる。1つ目は「情報漏えい」だ。まず入力フェーズでは、ユーザーが機密情報をプロンプトの中で入力する。このとき、うっかりAIモデルに情報が追加学習されてしまうと、削除はほぼ不可能となる。そして出力フェーズでは、悪意あるプロンプトでAIを不正操作し非公開情報を引き出す「プロンプトインジェクション」が脅威となる。

2つ目のリスクは「他者の権利侵害」だ。著作権・商標権・プライバシーなど、多くの法的リスクが顕在化しやすく、生成したものが偶然それらを侵害していた場合でも「知らなかった」は通用しない。

3つ目は「ハルシネーションとバイアス」。誤情報や差別的な内容をアウトプットしてしまう可能性は、完全には排除できない。藤井氏は、「発生することを前提とした上で、顕在化リスクを低減するためのルール、チェック機能を整備する必要がある」と述べる。
その他のリスクとして4つ目に紹介されたのは、シャドーAIや生成AIシステムを標的とした攻撃、生成AIの悪用だ。まず、社内で承認されていないAIツールを勝手に業務利用する行為は、企業のIT統制の範囲外であり、情報漏えいに直結しかねない。次に、プロンプトインジェクションや不正な入力によるDoS攻撃、意図的なデータ汚染などが、既に攻撃の手法として浸透してきている。さらには、生成AIによるマルウェアや詐欺コンテンツの自動生成など、攻撃は日に日に規模・スピード・巧妙性を増してきている。
この記事は参考になりましたか?
- 関連リンク
- Security Online Day 2026 Spring レポート連載記事一覧
-
- 対策を急げ!ラックが示す、「現場で本当に運用可能」かつ実効性ある生成AIガイドライン策定の...
- 攻撃者は「攻撃してこない」──AIもアイデンティティ管理対象に入る今、企業がすべき“動的な...
- 「AIに自社データを学習させない」は本当に守られている?“SaaSに隠れたAI”を炙り出す...
- この記事の著者
-
森 英信(モリ ヒデノブ)
就職情報誌やMac雑誌の編集業務、モバイルコンテンツ制作会社勤務を経て、2005年に編集プロダクション業務とWebシステム開発事業を展開する会社・アンジーを創業した。編集プロダクション業務では、日本語と英語でのテック関連事例や海外スタートアップのインタビュー、イベントレポートなどの企画・取材・執筆・...
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
提供:株式会社ラック
【AD】本記事の内容は記事掲載開始時点のものです 企画・制作 株式会社翔泳社
この記事は参考になりましたか?
この記事をシェア
