AI倫理の課題は「人間が抱く偏見」
──とてもユニークなご経歴だと聞いています。SASだけでなく、米大統領にもアドバイスをしているとか。
Motorolaで携帯電話を開発するエンジニアとしてキャリアをスタートし、その後はIBMやAT&Tで技術者として勤務していました。SASに入社する前には、コンサルタントも経験しています。
SASでは、私たちの顧客がAIを信頼して利用できるプラットフォーム作りのサポートをしています。米国商務省から全米AI諮問委員会(NAIAC)のメンバーに選ばれ、AIに関するさまざまな問題について、大統領と国家AIイニシアティブ(National Artificial Intelligence Initiative)に助言する立場にあります。だからといって、バイデン大統領へのホットラインをもっているわけではないですよ(笑)。
AIの分野では、「AIの責任」や「AI倫理」「AIの信頼性」といった多くのキーワードが飛び交っています。なぜ、このような言葉が交わされているのか。一言でいうならば、人間にとって“一番利益をもたらす”AIが確立されておらず、理解に苦しんでいる状況にあるからです。
──ここ数年、日本でもAIに関するさまざまな議論が交わされています。AI先進国と言われることもあるアメリカではいかがでしょうか。
そもそも、私たちの生活に影響をもたらしているようなAIは目に見えにくいです。たとえば、ケーブルテレビに加入するときにコールセンターに連絡をすると、チャットボットが応答しますが、これはAIです。また、消費者ローンや銀行のクレジットカードなどをオンラインで申し込んだときに審査されますが、これもAIに判断されています。
他にも、ライドシェアを呼んだときやAmazonに注文するとき、Netflixがおすすめしてくる映画でさえAIによるものですよね。まずは、このような“AIが使われている場面”の文脈をよく理解することが必要です。
人生を豊かにしてくれる一方で、AIを起点とした被害にあう可能性もあります。たとえば、AIの浸透によって仕事の機会が減ってしまう人もいるでしょう。また、十分な収入があるにも関わらず、女性というだけでローンの審査で落ちる可能性が高いといった公平性に関する問題も露呈しています。そのため、アメリカだけではなく各国でAIの恩恵を最大限にしながらも、悪影響を最小限に抑えることが求められているのです。
──日本でも耳にする機会が増えています。では、人にもたらす被害をなくすためのハードルはどこにあるのでしょうか。
共通の問題は人間でしょう、AIは人間の代わりに決断を自動的に行っています。AIを開発して運用する人間自身が偏見をもっており、そうしたAIを内包するシステムを見落とすことがあれば、AIが意図せず人を傷つけることになるのです。加えて、AIはシステムに組み込まれて自動で処理されるため、急速に被害が広がってしまいます。
これを解決するためには、単にテクノロジーを管理するだけでなく、人間が誤りに気づいて被害を抑えられるようにシステムやAIを調整する必要があります。もっと言えば、危害を加える前にAIが自身でアラートを出すくらいに賢くなれば良いのです。