各国のAI規制の最新動向を俯瞰
近年、生成AIの社会的実装が急速に進む中、AIがもたらすインパクトの大きさが注目されている。一方で、各国における規制の動きも活発化しつつある。柳井氏は、日本の状況について次のように述べる。
「日本では『広島プロセス国際指針』が、生成AIに関する初の国際的な取り決めとして合意されました。ただし、これはあくまでも指針であり、罰則を定めたものではありません」
一方、アメリカでは大統領令が発令され、安全性テストの結果報告義務などが盛り込まれた。EUでは、リスクに応じた包括的なルール「AI Act」が採択されている。中国でも生成AI特化の法律が施行されるなど、グローバルでルール作りが本格化している。
各国の規制動向を俯瞰すると、生成AIがもたらすリスクへの懸念が根底にあることがわかる。たとえば、米国では、イノベーション促進の色が強いが、大統領令では、安全性テストの結果報告を政府に義務付けるなど、拘束力のある内容が盛り込まれ、大統領令をベースにより踏み込んだ内容の法案が将来可決される可能性がある。
EUの「AI Act」ではAIシステムを4つのリスクレベルに分類し、段階的な規制を導入しようとしている。最もリスクの高い「許容できないリスク」には、ソーシャルスコアリングなどが該当し、禁止・制限される。次の「ハイリスク」には、生体認証や重要インフラなどが該当し、事前の適合性評価が求められる。「限定リスク」では、チャットボットなどに透明性義務が課される。「最小リスク」は規制の対象外となる。こうしたルールはEU域内にサービスを提供する日本にも適用され、制裁金や市場からの取り下げなどの罰則が生じる可能性がある。
こうした規制の背景には、生成AIの予期せぬ動作や、悪用による被害への懸念がある。運用面でのリスク管理が十分でないことが、企業のAI活用を躊躇させる一因となっているようだ。
実際、ある調査[※1]では日本企業の71%が職場での生成AI利用を禁止、もしくは禁止を検討していることが明らかになった。その理由として、情報漏洩やセキュリティインシデントへの懸念が大きいようだ。セキュリティ、知的財産、プライバシー、個人情報といった様々な観点からリスクが懸念されており、学習データを巡る訴訟やモデル埋め込みの課題、機密情報流出のリスクの事例も生まれている。
こうした課題認識を踏まえ、AIがもたらすリスクに包括的に対応するためのフレームワークとして注目を集めているのが「AI TRiSM」(エーアイトリズム)だ。
[※1] BlackBerry Japan 企業・組織における ChatGPT への向き合い方についてのグローバル調査結果
4つの柱で多様なリスクに対応する「AI TRiSM」とは
AI TRiSMは、ガートナー社が提唱するAIリスク管理フレームワークで、Trust(信頼)、Risk(リスク)、Security(セキュリティ)、Management(マネジメント)の頭文字を取った造語である。生成AIに限らず、AI全般に適用可能な点が特徴だ。具体的には、(1)モデルの説明可能性、(2)ModelOps、(3)アプリケーションセキュリティ、(4)プライバシー、の4本柱から成る。
モデルの説明可能性
モデル説明可能性は、AI の予測結果を人間が理解できるようにすること。AIモデルは、材料(入力)から結果(出力)が得られるが、内部で何が起きているかわかりにくい「ブラックボックス」的なシステムになりがちだ。説明可能性とは、AIがどのような根拠で最終的な結論を導き出したのかを明らかにすることを指す。
たとえば、がん検診に使うAIモデルがあったとする。説明可能性により、AIががんの判定を下した際に、どの部分の画像情報を見て判断したのかなどが明らかになる。このようにAIの回答に説明性がつくことで、結果への信憑性が増し、ビジネスの意思決定にも活用しやすくなる。
ModelOps
ModelOpsは、AIモデルの運用を効率化・維持するためのプロセスや仕組みを指す。モデルを実稼働環境に導入し、評価・改善とモデルのライフサイクル管理を一連の流れで行う。
AIモデルは、開発時点から現場でのデータの傾向が変化すると、性能が劣化しやすい。開発時のデータを学習したモデルでは、現実との乖離が生まれ、運用に耐えられない信頼性の低いAIになってしまう。
ModelOpsでは、モデルの開発と運用を一体的に管理することで、モデルを実環境で適切に評価できる。これにより、モデルの改善サイクルが回しやすくなったり、ドリフト(モデルと現実のずれ)の検知がしやすくなったりと、品質維持の面で利点が大きい。