F5は、主要なAIモデルのリスクプロファイルを確実な根拠に基づいて測定・比較できるようになるという、脅威インテリジェンス・リソース「F5 Labs AI Security Leaderboards」を発表した。
F5 Labs AI Security Leaderboardsは、F5の脅威インテリジェンス専門チーム F5 Labsが提供する2つの指標「①CASI(Comprehensive AI Security Index:攻撃プロンプトに対する耐性をチェックしたスコアリング)」「②ARS(Agentic Resistance Score:継続的な攻撃に対する耐性をチェックしたスコアリング)」で構成されており、最新の研究に基づき標準化されたベンチマークを月次で公開するとのことだ。CASIとARSは、リアルタイム攻撃インテリジェンスと、進化するAI攻撃ベクトルに関する専門家の分析を組み合わせたものだという。
これらのセキュリティ・リソースは、F5によるカリプソAI(CalypsoAI)の買収を契機に誕生したとのこと。その中にあるAI脆弱性ライブラリ(AI vulnerability libraries)には、毎月10,000件以上の新たな攻撃プロンプトが独自に追加され、1年以上にわたって蓄積された攻撃データが活用されているとしている。
F5 Labs AI Security Leaderboardsは、セキュリティ担当者が「当社が使用しているモデルのセキュリティレベルは?」という問いに即答できるよう設計されているという。単純な攻撃から複雑な攻撃まで、最小限のリソースで計算を完結し、最も抵抗の少ない経路に関する指標を提示するとのことだ。
具体的にはCASIは、AIモデルのセキュリティ格付けに加え、以下の指標を提供するという。
- 平均性能:標準化されたタスクにおいて通常動作条件下で測定されたベースラインモデルの性能
- リスク対性能比:モデルの安全性と性能のトレードオフに関する知見
- セキュリティコスト:モデルのCASIに対する現在の推論コスト。セキュリティの財務的影響を評価
また、CASIを補完するARSは、AIエージェントによる攻撃に対し、AIシステムがどの程度耐えうるかを評価するとのこと。通常、AIエージェントは単一のプロンプトを実行しようとするのではなく、モデルとの長期にわたる対話を行い、推論や心理的手法を駆使してセキュリティガードレールの回避を試みるが、これに対処するため、ARSはAIシステムを以下の3つの柱で評価するという。
- 攻撃に必要とされるレベル:AIシステムを侵害するために、攻撃者に必要とされる最小限の創意工夫レベル
- 防御持続性:持続的かつ適応性を持つ多段階の攻撃下で、システムが安全性を維持できる期間
- カウンターインテリジェンス:攻撃が失敗した場合、将来の悪用を可能にする信号やシステム動作を意図せずに露呈するかどうか
【関連記事】
・F5、「AIガードレール」と「AIレッドチーム」を一般提供開始 断片化したセキュリティ製品に依存しないAI防御を
・F5、カリプソAIを買収 AI・データセキュリティ技術をプラットフォームに統合へ
・F5、ポスト量子暗号対応ソリューションを発表 ユーザーの環境移行中も安全性・可用性確保を支援
この記事は参考になりましたか?
- この記事の著者
-
EnterpriseZine編集部(エンタープライズジン ヘンシュウブ)
「EnterpriseZine」(エンタープライズジン)は、翔泳社が運営する企業のIT活用とビジネス成長を支援するITリーダー向け専門メディアです。データテクノロジー/情報セキュリティの最新動向を中心に、企業ITに関する多様な情報をお届けしています。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
