SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

直近開催のイベントはこちら!

EnterpriseZine編集部ではイベントを随時開催しております

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けの講座「EnterpriseZine Academy」や、すべてのITパーソンに向けた「新エバンジェリスト養成講座」などの講座を企画しています。EnterpriseZine編集部ならではの切り口・企画・講師セレクトで、明日を担うIT人材の育成をミッションに展開しております。

お申し込み受付中!

生成AIの企業活用

生成AI時代のリスク管理フレームワーク「AI TRiSM」とは? 各国の規制動向と対策のポイント

「Macnica Data・AI Forum 2024冬」レポート#02

 生成AIの急速な発展と社会実装が進む中、各国でAI規制の整備が加速している。新たな技術がもたらすリスクにどう立ち向かうべきか。「Macnica Data・AI Forum 2024冬」で、マクニカの柳井省吾氏が提唱するAIリスク管理フレームワーク「AI TRiSM」の概要と、生成AIのリスク対策のポイントを解説。信頼性、リスク、セキュリティ、マネジメントの4つの観点から、生成AIを安全に活用するための指針を探る。

株式会社マクニカ ネットワークスカンパニー データ&アプリケーション事業部 第1技術部 第3課 柳井省吾氏
2017年株式会社マクニカに入社。データ分析プラットフォーム製品を中心とした製品を対象にセールスエンジニア、サポートエンジニア、トレーニング講師を担当。現在はAI ・機械学習・データ活用の分野における新商材の発掘やセールス活動に従事する。

各国のAI規制の最新動向を俯瞰

 近年、生成AIの社会的実装が急速に進む中、AIがもたらすインパクトの大きさが注目されている。一方で、各国における規制の動きも活発化しつつある。柳井氏は、日本の状況について次のように述べる。

 「日本では『広島プロセス国際指針』が、生成AIに関する初の国際的な取り決めとして合意されました。ただし、これはあくまでも指針であり、罰則を定めたものではありません」

 一方、アメリカでは大統領令が発令され、安全性テストの結果報告義務などが盛り込まれた。EUでは、リスクに応じた包括的なルール「AI Act」が採択されている。中国でも生成AI特化の法律が施行されるなど、グローバルでルール作りが本格化している。

(出典)マクニカ[画像クリックで拡大]

 各国の規制動向を俯瞰すると、生成AIがもたらすリスクへの懸念が根底にあることがわかる。たとえば、米国では、イノベーション促進の色が強いが、大統領令では、安全性テストの結果報告を政府に義務付けるなど、拘束力のある内容が盛り込まれ、大統領令をベースにより踏み込んだ内容の法案が将来可決される可能性がある。

 EUの「AI Act」ではAIシステムを4つのリスクレベルに分類し、段階的な規制を導入しようとしている。最もリスクの高い「許容できないリスク」には、ソーシャルスコアリングなどが該当し、禁止・制限される。次の「ハイリスク」には、生体認証や重要インフラなどが該当し、事前の適合性評価が求められる。「限定リスク」では、チャットボットなどに透明性義務が課される。「最小リスク」は規制の対象外となる。こうしたルールはEU域内にサービスを提供する日本にも適用され、制裁金や市場からの取り下げなどの罰則が生じる可能性がある。

(出典)マクニカ[画像クリックで拡大]

 こうした規制の背景には、生成AIの予期せぬ動作や、悪用による被害への懸念がある。運用面でのリスク管理が十分でないことが、企業のAI活用を躊躇させる一因となっているようだ。

 実際、ある調査[※1]では日本企業の71%が職場での生成AI利用を禁止、もしくは禁止を検討していることが明らかになった。その理由として、情報漏洩やセキュリティインシデントへの懸念が大きいようだ。セキュリティ、知的財産、プライバシー、個人情報といった様々な観点からリスクが懸念されており、学習データを巡る訴訟やモデル埋め込みの課題、機密情報流出のリスクの事例も生まれている。

 こうした課題認識を踏まえ、AIがもたらすリスクに包括的に対応するためのフレームワークとして注目を集めているのが「AI TRiSM」(エーアイトリズム)だ。

[※1] BlackBerry Japan 企業・組織における ChatGPT への向き合い方についてのグローバル調査結果

4つの柱で多様なリスクに対応する「AI TRiSM」とは

 AI TRiSMは、ガートナー社が提唱するAIリスク管理フレームワークで、Trust(信頼)、Risk(リスク)、Security(セキュリティ)、Management(マネジメント)の頭文字を取った造語である。生成AIに限らず、AI全般に適用可能な点が特徴だ。具体的には、(1)モデルの説明可能性、(2)ModelOps、(3)アプリケーションセキュリティ、(4)プライバシー、の4本柱から成る。

(出典)マクニカ[画像クリックで拡大]

モデルの説明可能性

 モデル説明可能性は、AI の予測結果を人間が理解できるようにすること。AIモデルは、材料(入力)から結果(出力)が得られるが、内部で何が起きているかわかりにくい「ブラックボックス」的なシステムになりがちだ。説明可能性とは、AIがどのような根拠で最終的な結論を導き出したのかを明らかにすることを指す。

 たとえば、がん検診に使うAIモデルがあったとする。説明可能性により、AIががんの判定を下した際に、どの部分の画像情報を見て判断したのかなどが明らかになる。このようにAIの回答に説明性がつくことで、結果への信憑性が増し、ビジネスの意思決定にも活用しやすくなる。

(出典)マクニカ[画像クリックで拡大]

ModelOps

 ModelOpsは、AIモデルの運用を効率化・維持するためのプロセスや仕組みを指す。モデルを実稼働環境に導入し、評価・改善とモデルのライフサイクル管理を一連の流れで行う。

 AIモデルは、開発時点から現場でのデータの傾向が変化すると、性能が劣化しやすい。開発時のデータを学習したモデルでは、現実との乖離が生まれ、運用に耐えられない信頼性の低いAIになってしまう。

 ModelOpsでは、モデルの開発と運用を一体的に管理することで、モデルを実環境で適切に評価できる。これにより、モデルの改善サイクルが回しやすくなったり、ドリフト(モデルと現実のずれ)の検知がしやすくなったりと、品質維持の面で利点が大きい。

(出典)マクニカ[画像クリックで拡大]

次のページ
アプリケーションセキュリティ

この記事は参考になりましたか?

  • Facebook
  • Twitter
  • Pocket
  • note
生成AIの企業活用連載記事一覧

もっと読む

この記事の著者

京部康男 (編集部)(キョウベヤスオ)

翔泳社 メディア事業部。同志社大学卒業後、人材採用PR会社に就職後1994年から翔泳社に参加。以後、翔泳社の各種イベントの立ち上げやメディア、書籍、イベントに関わってきた。現在は、嘱託社員の立場でEnterpriseZineをメインに取材・編集・書籍などのコンテンツ制作に携わる。 趣味:アコギ、映画鑑賞。...

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

EnterpriseZine(エンタープライズジン)
https://enterprisezine.jp/article/detail/19515 2024/04/16 09:00

Job Board

AD

おすすめ

アクセスランキング

アクセスランキング

イベント

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング