なぜ日本企業は“復旧”に失敗しやすいのか?セキュリティとリカバリーの間に存在する、構造的な課題とは
AIエージェントが勝手にデータを削除するリスクだってある……そんな時代を迎える今こそ、対策の見直しを
AIエージェントが突然、勝手にデータベースの中身を削除してしまったら……?
データの可視性が欠如しているのも問題だ。どこかで異常が発生した時、その源がどこの何であったかを特定するのが困難になる。これでは復旧どころではない。そしてこの問題が、AIエージェントの普及によってさらに悪化するとの見解をマグダヌロフ氏は示した。
「これまでは、人間対人間、人間対システムのやり取りを調査すれば済みました。しかしこれからは、AI対システム、AI対人間、さらにはAI対AIのやり取りも調査する必要があります。それはもう膨大なデータとログになるでしょう」(マグダヌロフ氏)
業務プロセスの自律化が進めば進むほど、その管理は人手では困難になっていく。すると、やはりAIによる自律型の管理が必要となってくるだろう。「AIを保護し、AIを管理するために、AIを活用する」世界の到来だ。
これ自体は容易に想像できる世界観だが、そこで新たな問題が浮上する。「管理を担うAIがデータ損失の起点になり得る」という問題だ。マグダヌロフ氏はつい数ヵ月前、ある経験をしたとのことだ。
「普段利用しているAIエージェントに対し、複数のドキュメントや資料に目を通し、間違いや不整合を見つけ、問題があれば修正するよう依頼しました。すると、突然そのエージェントがすべてのドキュメントを勝手に削除し、『ドキュメントがなければ、問題もありません』と報告してきたのです」(マグダヌロフ氏)
幸いバックアップがあったため、この時は簡単に復旧できたようだ。しかし、これが企業のデータベースで大規模に発生したらどうなるか。AIエージェントは非常に高速に動作するため、一瞬の誤作動でも悲惨な結果が待っていることだろう。要は、社内のAIエージェントがデータにアクセスする際には、ランサムウェアや大規模障害と同じくらいの損害を被るリスクがともなうということだ。
適切なAIガバナンスや自社のポリシー策定は、こうした事態の防止に役に立つ。しかし、パロアルトネットワークスの調査によれば、AIのセキュリティポリシーを自前で持っている組織はわずか6%だ。
では、ガバナンスが不十分な大多数の組織で、仮にAIエージェントがデータ損失を招いてしまった場合どうするか。頼れるのはやはり「十分なバックアップ」だ。システムに危険な変更が加わる前にコピーを作成し、AIが間違いをおかしてもロールバックしてやり直せる環境が必要となる。これが、アクロニスが提供するAIセキュリティ/AIガバナンス環境だという。
この記事は参考になりましたか?
- Security Online Press連載記事一覧
-
- なぜ日本企業は“復旧”に失敗しやすいのか?セキュリティとリカバリーの間に存在する、構造的な...
- Fortinetが「SSL-VPN」サポート終了を決断した真意──日本企業のVPN脱却を促...
- 北朝鮮が送り込む「IT労働者」の実態:監視で見えた攻撃者たちの“人間らしい”弱点と企業がで...
- この記事の著者
-
名須川 楓太(編集部)(ナスカワ フウタ)
サイバーセキュリティとAI(人工知能)関連を中心に、国内外の最新技術やルールメイキング動向を取材しているほか、DX推進や、企業財務・IRなどのコーポレート領域でも情報を発信。武蔵大学 経済学部 経済学科 卒業。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
