SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

最新イベントはこちら!

Enterprise IT Women's Forum 2025 KANSAI

2025年9月2日(火)大阪開催

EnterpriseZine(エンタープライズジン)

EnterpriseZine編集部が最旬ITトピックの深層に迫る。ここでしか読めない、エンタープライズITの最新トピックをお届けします。

『EnterpriseZine Press』

2025年春号(EnterpriseZine Press 2025 Spring)特集「デジタル変革に待ったなし、地銀の生存競争──2025年の崖を回避するためのトリガーは」

EnterpriseZine Press

弁護士が指南、法的リスクを低減させる生成AI運用のポイント “価値ある”ルール整備と運用のカギとは

営業秘密・機密情報を読み込ませているそのAIは大丈夫?

 生成AIは企業活動に大きな効率化をもたらす一方で、営業秘密や機密情報の漏洩リスク、ハルシネーションによる誤情報の生成、EUのAI法をはじめとする国際規制への対応といった法的リスクも孕んでいる。森・濱田松本法律事務所 外国法共同事業の田中浩之弁護士は、2025年5月29日に開催されたレクシスネクシス・ジャパン主催イベント「Lexis+ AI Roadshow 2025」の基調講演にて、こうした課題への具体的な対処法を解説。API利用時における契約上の配慮、社内ルール整備のポイント、第三者機密情報の取り扱い方針など、現状を踏まえた実務的な生成AI活用方法の指針を示した。

信じすぎるな、生成AI──あくまで確率で動く仕組み

 田中氏は講演冒頭、企業が生成AIを活用するにあたって理解すべき基本的な仕組みを紹介した。生成AIに用いられる大規模言語モデル(LLM)は人間のように一定の主義・思想を持って出力をしているのではなく、次に続く言葉の出現確率に基づいて出力される。つまり、確率的な処理で“それらしい文章”を構成しているのだ。

 この構造に起因する問題として、田中氏は「ハルシネーション(幻覚)」現象をあげる。アメリカのリーガル分野では、生成AIが示した判例を弁護士がそのまま裁判所に提出したところ、それが存在しない判例だったという事例があった。「それらしい判例をもっともらしく作り出してしまうのは、LLMが確率に基づいた出力である以上、当然に想定される結果だ」と同氏は述べる。

 企業における生成AIの活用形態については、一般向けサービスの利用とAPI利用の二通りがある。企業ではAPIを通じてAIを使用するケースが多く、個人情報・機密情報の扱いについての合意を生成AI提供事業者が代替してくれていることも多い。

 一方、一般向けのサービスを利用する場合、個人情報・機密情報の扱いについて“特別な約束はない”ケースが多い。APIなどを利用して“特別な約束がある”サービスを活用することは、個人データを扱う企業にとって重要な配慮だといえる。

 また、技術的な活用手法として同氏はファインチューニングとRAG(Retrieval-Augmented Generation)の違いを解説。ファインチューニングは、技術的制約や出力の不安定化から実際にはあまり使われていない一方、RAGは「自社の情報をデータベース化し、それをもとに回答の精度を高められる、モデル自体は変えず与える情報によって精度を向上させる実用性の高い方式」だとし、ハルシネーションの抑制にも有効だと評価した。

世界はどう動く?AI規制と企業への影響

 続いて田中氏は、グローバルなAI規制の動向に言及した。まず日本では、既存の法令を解釈したうえでそれを生成AIにも適用し、AIの特別法を作らず法的な強制力がないガイドラインによって規律する“ソフトロー”的アプローチが用いられている。ガイドラインとしては、経済産業省と総務省が発表した『AI事業者ガイドライン(1.1版)』が重要な指針とされている。さらに、最近は『日本版AI法(人工知能関連技術の研究開発及び活用の推進に関する法律)』が成立。この法律については「罰則をともなわない点で、後述するEUのAI法とは異質。研究開発を奨励する一方、悪用の恐れがある技術に対しては情報提供を求め、共有を促す内容になっている」と述べた。

 一方、EUのAI法では厳格なアプローチが採用されているという。具体的にはリスクベースのアプローチを採用しており、AIのリスクを4つのカテゴリー「①許容できないリスク」「②ハイリスク」「③透明性のリスク」「④最小リスク」に分類している。この制度設計により、リスクレベルに応じた段階的な規制を実現しているとのことだ。

 また、制裁金はEU域内における個人データの保護を目的としたGDPRと類似の仕組みになっている。たとえば、「許容できないリスクのあるAIシステムの禁止」に対する違反においては、前会計年度における全世界の売上総額の7%もしくは3,500万ユーロといった高い金額が上限として設定されており、違反企業には重い制裁が科される可能性がある。

 「許容できないリスクのあるAIシステムとして、たとえば職場や教育機関での“感情推測を行うAIシステム”があげられる」と田中氏。そもそもこのようなシステムの市場投入・サービス提供・使用は禁止されているが、医療や一部の安全目的では例外的に使用が許可されている。職場や教育機関において、「この人は今どう思っているのか」「仕事をさぼっているのではないか」といった感情を推測するニーズは高いが、禁止されているのが現状だ。

次のページ
知らぬ間に法に触れている可能性も?気を付けるべき「ハイリスクAI」

この記事は参考になりましたか?


  • Facebook
  • X
  • Pocket
  • note
EnterpriseZine Press連載記事一覧

もっと読む

この記事の著者

森 英信(モリ ヒデノブ)

就職情報誌やMac雑誌の編集業務、モバイルコンテンツ制作会社勤務を経て、2005年に編集プロダクション業務とWebシステム開発事業を展開する会社・アンジーを創業した。編集プロダクション業務では、日本語と英語でのテック関連事例や海外スタートアップのインタビュー、イベントレポートなどの企画・取材・執筆・...

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

EnterpriseZine(エンタープライズジン)
https://enterprisezine.jp/article/detail/22132 2025/06/27 08:00

Job Board

AD

おすすめ

アクセスランキング

アクセスランキング

イベント

EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング