
AI法規制をめぐる世界と日本の違い
AI法規制をめぐる主要各国の動向から明らかなのは、日本が他国と異なる方向を指向していることにある。EUや英国はもとより、米国、カナダ、韓国、シンガポール、さらには共産主義政権の中国までもがハードロー中心であるのに対し、日本はソフトロー偏重の傾向にあると三部裕幸氏は指摘した。

ここでのハードローとは、法的拘束力のあるものを指し、法あるいは法に基づく政令や命令が該当する。一方のソフトローは法的拘束力のないものである。官庁が示すガイドラインのうち「○○することを推奨する」のように、強制力のない表現が中心のものは、ソフトローに該当する。業界ルールのように強制力のないものもソフトローである。日本の場合、AIに関しては、規制を極力かけないことを出発点とし、自由な開発と活用を奨励していることから、ソフトローを指向していることになる。
そもそも法律を作るきっかけは、リスクを感じ、規制の必要性を認識した時だ。たとえば、道路交通法は、人間が車にはねられるリスク、車の追突で器物を壊されるリスクなどを認識して整備されたものになる。道路交通法に限らず、法律を必要ないものと考える人はいないし、法律がビジネスを阻害していると考える人もいない。実際、前述のハードローを指向する国々では順次AI開発と活用に伴うリスクの洗い出しから始め、現行法に当てはめての評価、現行法の改訂あるいは新法制定へと活動を進めてきた。この動きは早く、特に米国やEUでは遅くとも2019年からAIに関わるハードローの検討が始められた。
中国はさておき、他の民主主義の国々のAI政策を見れば、法律がAI開発や活用を阻害しないことは明らかである。ところが、「AI法制度の議論になると、なぜか日本だけ諸外国と異なる方向に向かおうとする。この姿勢は今後に禍根を残すことになりかねない」と、三部氏は懸念を示した。何よりソフトロー指向には大きな問題がある。それは、悪意を持つ外国人や外国企業が日本市場でビジネスを行う場合に、その問題行動を規制する法律がないことだ。他国の法が禁止していることでも、日本の現行法で規制していないのであれば、問題行動が許容されてしまう。「このまま独自路線を歩み続けることは、日本のためにはならない」というのが三部氏の問題意識である。
EUのAI法、要注意の段階的施行
諸外国の制度はどうなっているのか。まずEUのAI法から見ていきたい。EUと言えば、「人権重視の姿勢がAIビジネスに足枷を嵌めようとしている」「規制は米国ビッグテックを市場から締め出すことを目的としている」などの声を聞くところだ。しかし、EUの実際の狙いはもっと現実的だ。英国が離脱したとはいえ、現加盟国は27カ国。国ごとに法律が異なるようでは、域内でのビジネス活動がやりにくい。そこで、域内を単一市場と捉え、その中でのビジネスを効率的に行うための制度を整備しようと考えた。また、ナチスドイツが国勢調査のために導入したパンチカードシステムのデータが、ユダヤ人などの差別や迫害に使われたことへの反省から、AIリスクを分析し、制度に反映しようと考えた歴史的事情もある。
AI法の整備にあたっては、リスクに応じて規制内容を変えるリスクベースアプローチをEUは採用した。これは「許容できないリスク」「ハイリスク」「限定リスク」「最小リスク」の4つにリスクを分類し、それぞれ「禁止」「ハードローでの規制」「説明義務のみ」「規制なし」で対応するもの。許容できないリスクのあるAIとは、端的に言えばEUの価値観に反するAI(8類型)で、図2に示したようなものが当てはまる。また、ハイリスクAIは、安全に関わるAIや、差別、偏見、迫害などに繋がりやすいAIを対象としている。

このうち、ハイリスクのAIでは、「1. リスク管理システム」「2. データおよびデータガバナンス」「3. 技術文書」「4. 記録保持」「5. 透明性および情報提供」「6. 人間による監視」「7. 正確性、頑健性およびサイバーセキュリティ」の要求事項を定めてもいる。これらはAIビジネスでなくても遵守すべきことで、人間が従来のビジネスでやってきたことをAIビジネスに当てはめたものばかりだ。

EUとのビジネスで留意するべきポイントとして三部氏は3つを挙げた。1つ目が、基本権の影響評価やAIリテラシーの確保のように、前述した以外でも課される義務があることだ。2つ目は、施行時期が段階的であることだ。2025年2月から「許容されないAIの禁止」「AIリテラシー教育の義務」、2025年8月から「汎用AIモデル提供者の義務」など、2026年8月から「ハイリスクAIの義務(安全に関わるものを除く)」、2027年8月から「安全に関わるハイリスクAIの義務」が施行開始になる。3つ目は、違反した場合の制裁金が巨額なだけでなく、リコールあるいは市場からの締め出し、さらにはそもそも日本から輸出できない、という不利益があることだ。後手に回ると、既存のビジネスが成り立たなくなる可能性も見えてきた。