AIリスクは質量ともに爆発的に増加中
AI技術と一口に言っても非常に広範で、その活用分野も多岐にわたりますが、一般的にビジネスで使用されるAI技術は大きく「予測AI」と「生成AI」に分けられます。予測AIは、過去のデータを基に将来のトレンドや需要を予測する技術。たとえば、消費者の購買行動を予測したり、信用リスクを評価したりと、主にデータ分析に基づく意思決定をサポートするものです。一方、生成AIは膨大なデータによって学習されたモデルを元に、新たなテキスト、画像、音声などを生成する技術。特に、自然な文章の作成やクリエイティブなデザインを自動で生成する能力を持っていることが特長といえます。
しかし、生成AIはその柔軟性ゆえに、予測AIとは異なる特有のリスクを抱えています。たとえば、誤った情報や倫理的に問題のあるコンテンツを生成する可能性が高く、悪意のあるユーザーが意図的にAIを悪用するリスクがあるのです。また、生成AIの性質上、ユーザーの意図とは異なる回答が出力されることも少なくありません。
これらのリスクは、私たちの社会において既にインシデントという形で発生しています。直近の例を見ると、2024年4月にニューヨーク市で発生したAIチャットボットのインシデントでは、「セクハラを訴えた社員を解雇するのは合法」などとAIが法律違反を勧める助言を行い、社会的な批判を招いたことで物議を醸しました。AIリスクは、技術進展の速度にともなって質的・量的に増大し続けており、適切に対応できない企業はそのビジネスも危機に晒される可能性を否定できません。
AIリスクの管理に向けた国際的な取り組み
AIリスクの適切な管理に向けた動きは国際的にも活発化しており、各国の政府機関や国際的な組織が様々な取り組みを進めています。たとえば米国では、バイデン政権が「AIの安全な開発と利用」を推進するための大統領令を発令。大手AI企業に対して自主的なリスク管理の取り組みを求めています。また、米国の国家安全保障局(NSA)やアメリカ国立標準技術研究所(NIST)などが中心となり、AI技術の社会実装に関するガイドラインの策定も進んでいます。
一方、EUではAIの規制法「EU AI Act(欧州AI規制法)」が発効され、AI技術を使用する企業に対して厳しいガバナンスを強制。この規制法によって、AIシステムの透明性、説明可能性、セキュリティ基準を徹底し、違反した場合には多額の罰金が課される仕組みが整えられました。
日本においても経済産業省と総務省が「AI事業者ガイドライン」を公表し、広範なAI事業者向けにAIリスク管理を促しています。さらに民間では、AIガバナンス協会のような民間団体が設立されるなど、政府、企業、学術機関が連携してAIリスクの管理と技術開発のバランスを図ることを目指した取り組みが進められています。