利用前に把握しておきたい生成AIのリスク
「ガバナンス」とは、秩序ある状態にするためのあらゆるプロセスを意味する。生成AIだけでなく、様々なAIの利用が社会に浸透することは間違いないだろう。しかし、AIを開発あるいは使用する際、既存のルールや規範から遺脱あるいは逸脱してしまうリスクを回避しなければいけない。そもそも既存のルールをこの新しい技術に当てはめることが正しいのかも曖昧な状態である。したがって、多くの組織では生成AIの活用を模索する中、AIにはどのようなリスクが存在するのか理解を求め、それに合わせた生成AIのガバナンス策定が急務となっている。
どのようなリスクがあるのか理解することは大切だ。AIには技術的リスクだけでなく社会的/ビジネス的なリスクも存在し、それぞれが絡み合うように関係している。主な内容を次に示す。(技術的な進化が著しい領域であるため、ここに上げるリスクがすべてではないことを予めご了承いただきたい。)
偏見(バイアス)
偏ったデータから作成されたAIは偏った結果を出力する。残念ながら現実の世界では偏見を完全に排除することは難しいのが実情だ。SNSやインターネットに偏った情報が至る所に存在する。AIがそうした偏見を増幅させるようなことは絶対に避けなければいけない。厄介なことに、学習データから偏った情報を排除したと思っても、様々な情報の相関関係から偏った結果を出力することもある。たとえば、身長、体重、物品購入履歴、出身大学や所属サークルなど様々な情報から勝手に性別を推測されることなど。過去には、AIを用いた人事選考に性別が判定優劣に影響するようになった事例が存在する。そのため、AIへの入力データだけでなく、出力もチェックし、適用する場所を間違えないように配慮が必要となる。
透明性の欠如
AIは複雑でブラックボックス化されてしまうことが問題になることもある。取り扱う学習データやAIの運用指針を明確にしていない場合、結果の信用性だけでなく、ある特定の規制に抵触するリスクがある。プライバシーや著作権の侵害を指摘されないように、透明性は常に重要である。
説明責任の欠如
前述の偏見や透明性の欠如とも関連して、AIの出力結果について説明可能性が求められる。たとえば、AIを用いた住宅ローンの審査において、ある顧客が差別的な扱いを受けたと不服申し立てを行う場合、その理由を説明できなければ、評判、規制、法的なリスクを抱えることになる。
セキュリティの脆弱性
インターネットの普及によるサイバーセキュリティの脅威は常に大きな社会問題であり、AIも例外ではない。AIを使ったサイバー攻撃はさらに高度になっている。直近でも生成AIによるフェイク動画を使った悪意ある行為は、社会を混乱させ早急な対策が求められた。また、企業や組織では従業員によりオープンに利用可能な生成AIサービスへの不用意なアクセスが、重要なデータ漏洩リスクとなるケースも考えられる。
規制の欠如
AIにより新しい技術革新が進む中、様々なリスクに対応可能な規制は追い付いていない。国際的に規制する動きはあるものの、合意に至るにはまだ時間を要すると思われる。そのためAIを開発あるいは利用するには、自主的なルールを策定することで、リスクを軽減する必要がある。
ここではAIのリスクを出来る限りシンプルに説明したつもりであるが、皆さんはAIに対してどのような印象を持たれているだろうか。強調したいのは、生成AIに対してネガティブな印象を持ち、せっかく価値を生み出す機会を逃してしまうのはもったいないということ。そして、AIでも人間でも同様のミスを犯す可能性があることを忘れてはならない。ただ、そうしたリスクはAI成熟度によって低減させることが可能だ。まずは、リスクの許容度をどこに置くのか定義することが大切である。ルール策定と合わせて、人材教育も並行しながら、成熟度に合わせてルールをアップデートすることも考慮する必要があるだろう。