2024年以降は「カウボーイAI」から「責任あるAI」に
生成AIは多様なAI技術の一部に過ぎない。その名の通り、膨大なデータを学習したLLM(Large Language Models)を用いて画像やテキスト、音声などを生み出すことが得意なAIだ。生成AIはもちろん、従来のディープラーニングによる認識技術や予測技術なども含めて、今後は「AI」がIT技術の主流となる。そう指摘するのは、老舗のデータマネジメント・ソリューションベンダーであるTeradataのCTO スティーブン・ブロブスト(Stephen Brobst)氏だ。
「ChatGPTが登場してから1年しか経っていないのに、生成AIは極めて大きな波となっています。AIは決して新しい技術ではありませんが、今や主流のデジタルテクノロジーとなりました」とブロブスト氏。ChatGPTが急速に広まったのは、質問に対する精度の高い回答はもちろん、チャットボットとして“誰でも容易に利用できる形”で新たな技術を世に出した功績が大きい。
ChatGPT以前のAIは、データサイエンティストなど専門家が扱うか、製品の裏側で組み込まれていることが多く、一般のユーザーはAIの存在を意識していなかった。また、MicrosoftがCopilotを提供したことで、今後はより幅広いユーザーが生成AIの恩恵を直接受けるようになるため、よりAIが主流の技術であることを実感することになりそうだ。
既にChatGPTは、ナレッジワーカーの8割が利用しているとの調査結果がある。一方でChatGPTを利用しているユーザーの68%は、そのことを上司に伝えていない。つまり、多くのユーザーが生成AIを“隠れて”利用しており、「AIの利用において、企業ポリシーを徹底できていない現状があります」とブロブスト氏は指摘する。
さらに、そもそも生成AIがブラックボックス化していること、インターネット上に散在するデータを学習した結果として“生成されるコンテンツ”に係わる著作権の問題、企業が抱える機密性の高いデータを学習させるか否かなど、利用にはさまざまなリスクが付きまとう。2023年3月にはAIの安全性を研究している「Future of Life Institute(生命の未来研究所)」が、進化し続けるAIの安全性を懸念して、GPT-4よりも強力なAIシステムの開発を少なくとも6ヵ月間は停止するよう呼びかける書簡も公開している[1]。
早々にこのような呼びかけはあったが、その後もLLM開発の勢いが衰えることはなかった。「LLMの開発を停止すると、生成AIが役立たないものになりかねません。生成AIのリスクを理解しながら、LLMは継続的に進化しています」とブロブスト氏は語る。
とはいえ、この1年はリスクがあることを承知で、とにかく“生成AIを使ってみる”フェーズだった。これをブロブスト氏は「カウボーイAI」と呼ぶ。カウボーイとは、やんちゃ坊主、目立ちたがり屋、無茶な運転をするドライバーなどを意味する、米国西海岸地域のスラングだ。つまりカウボーイAIは、ルールがなくガイドラインもないような生成AIを指している。
これが2024年には「知財が漏洩しない、バイアスが入らない、説明責任が果たせる『責任あるAI』の時代になるでしょう。その上で予測の正確性、回答の質にもこだわることになりますが、まずは信頼性が重要です」とブロブスト氏は見据える。
これは実験から産業化へのシフトでもあり、「汎用型AI」ではなく「目的特化型AI」がより使われるようになるということだ。そのためには、特定ドメインの固有データを学習させる必要がある。大規模なLLMを構築できるのはOpenAIやGoogleなど、一部の企業に限定されている現況があり、一般企業は自社のビジネスドメインに特化したデータを用い、既存のLLMをチューニングして利用することになるだろう。これをいかに費用対効果良く実施するかが鍵となる。
なお、コスト効果を高めるには「生成AIの技術を用いて、学習データを効率的に合成する方法があります」とブロブスト氏。AIのトレーニングセットを作ることにも生成AIは活用できるが、実データを用いた学習データを合成する際には、外れ値をどう扱うべきかに頭を悩ますことにもなるだろうと指摘する。
[1] Future of Life Institute「Pause Giant AI Experiments: An Open Letter」(March 22, 2023)