AIセキュリティの業界標準を確立する──GoogleのCISO室長が語るルールメイキングの現況と展望
Google Cloud アジア太平洋地域 CISO室長 マーク・ジョンストン氏

AI技術の発展スピードは凄まじいが、安全性や倫理性といった懸念点への対策はやや遅れ気味だ。“安全で責任あるAI”の実現のために、Googleは『Google's Secure AI Framework(SAIF)』を提唱し、健全なAIの普及を目指している。今回は、同社でアジア太平洋地域のCISO室長を務めるマーク・ジョンストン氏に、AIセキュリティの現状と課題、「Coalition of Secure AI(CoSAI)」をはじめとするGoogleや業界全体でのルールメイキングの現況、今後の展望について話を伺った。
「CoSAI」も始動、AIセキュリティの“業界標準”を構築する
Google Cloudでアジア太平洋地域のCISO室長を務めるジョンストン氏。同氏やそのチームは、顧客や同地域の組織に対し、セキュリティアプローチやリスク管理の支援を行っている。近年はAIが主要なトピックとなっており、CISO室の戦略アドバイザーとして、Googleの考えや技術を広く伝えているという。
ジョンストン氏は、Googleの直近の取り組みとして『Google's Secure AI Framework(SAIF)』を紹介した。同フレームワークは、あらゆる組織がAIを安全に活用できるよう、AIシステムを構成するコンポーネントを分類するメカニズムを提供している。Googleが長年にわたりグローバル規模でAIを運用してきた経験をもとに、AIセキュリティに関する洞察を公開しているのである。
「AIセキュリティを確保するうえでは、従来のシステムとは異なる特有の課題がある」とジョンストン氏。そこでGoogleは、自社の知見を共有し、業界全体でAIを安全に運用するための“共通アプローチ”の構築を目指しているのだという。そのための一環として、AI開発に取り組む際に評価すべき“15のリスク”を示す『SAIF Risk Map』を公開した。
![SAIF Risk Map[画像クリックで拡大表示]](http://ez-cdn.shoeisha.jp/static/images/article/20823/20823-1.png)
[画像クリックで拡大表示]
「このような取り組みを通じて、AIセキュリティ分野におけるグローバルな連合体である『The Coalition for Secure AI(CoSAI)』への継続的な貢献を図り、リスク管理における業界標準の構築を目指しているのです」(ジョンストン氏)
CoSAIは、AIの安全性と倫理性を確保するために企業や研究機関らが協力し、共通の課題に取り組むことを目的とした国際的な連合だ。2024年7月に創設が発表され、GoogleのほかIBM、Intel、Microsoft、NVIDIA、PayPal、Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、OpenAI、Wizなど名立たるプレイヤーが参加している。
現在、AIのセキュリティ確保は、様々な業界はもちろんのこと、各国政府にとっても大きな課題となっている。ジョンストン氏は、「CoSAIは設立から間もないが、AIの開発や使用にともなうリスクを把握するための、簡易な自己評価システムを構築した」と述べる。このシステムを構築した目的は、AI構造の機能やリスクを可視化し、共通の理解を深めることにあるという。これにより、データやモデルなどといった各層に存在するリスクを効果的に伝えられるようになるとのことだ。これをもとに、業界全体との協力をさらに前へ進めていきたいと同氏は語る。
この記事は参考になりましたか?
- この記事の著者
-
森 英信(モリ ヒデノブ)
就職情報誌やMac雑誌の編集業務、モバイルコンテンツ制作会社勤務を経て、2005年に編集プロダクション業務とWebシステム開発事業を展開する会社・アンジーを創業した。編集プロダクション業務では、日本語と英語でのテック関連事例や海外スタートアップのインタビュー、イベントレポートなどの企画・取材・執筆・...
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
-
名須川 楓太(編集部)(ナスカワ フウタ)
サイバーセキュリティ、AI、データ関連技術やルールメイキング動向のほか、それらを活用した業務・ビジネスモデル変革に携わる方に向けた情報を発信します。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア