正解がないからこそ継続的改善を
2024年初めのダボス会議しかり、各国政府・企業等が信頼できるAIを求め、様々な議論を実施しているが、現状国際ルールの確立と実現は容易ではない状況が続いている。
AIを用いることは、利便性があるのは言うまでもないが、同時に基本的人権にまで及ぶような負の面は看過できない。基本的人権の保護は当然大事であるが、イノベーションを阻害する可能性も考慮する必要があるとされがちである。これはいささか物事を単純に考えすぎとも言える。
過去に登場してきた技術と異なる特質の一つとして、AIが出力する結果を人間が事前に正確に予測することが困難であり、加えて事後に説明することすらも難しいことがあげられる。また、生成AIの登場でAI民主化が進んだことにより、あらゆる主体が様々な場面で関与し、それぞれが異なる観点を持つ状況が生まれている。つまり、AIガバナンスを考える上で、様々な主体や視点が存在し、最適化しても正解は都度変わっていく、完成をみないものだと考えるのが自然だ。
そのため、合議で大きな枠組を作りつつ、それぞれの状況において、アジャイル・ガバナンスとして継続的改善を繰り返すことが必要。リスクをゼロにしたければ、AIの利用をやめるのが手っ取り早いが、AIによって実現できる多くの利点を失うこととなる。このバランスをとるAIガバナンスが重要であり、近いうちに人間が直面する最も困難な課題の一つになり得るトピックと言える。
AIガバナンスは常にアップデートされるべきもので、正解はない。だからといって、無視できるものでもない。正解のない世界において、企業は既存のルールに従うだけでなく、主体的にリスクを取りながら、状況に合わせて試行錯誤して、アクションを決定して進めていくことが経営責任とも言える。このような状況の中で、当社でもその責任を果たすための取り組みを行っている。