生成AIの「地雷」を回避するためには何が必要か
一大ブームを巻き起こしている生成AI。これがあたかも従来のAIを凌駕しているようにも見える。しかし「生成AIだけがAIではありません。生成AIは幅広いAI技術の中の、1つに過ぎません」と、シキュラー氏は言う。生成AIは人工の生成物を作り出す技術であり、これまでのコンテンツや人工の生成物をベースに、新しいものを生み出すものだ。何もないところから、魔法のように新しい「何か」を生み出すわけではない。
生成AIがどんなものかを理解するには、AIによるテキストの生成が分かりやすい。インターネットに公開されている膨大なテキストデータをLLM(Large Language Model)で学習し、それを基に新しいテキストを生成する。この時にLLMに対しては「温度調整のようなことができます」とシキュラー氏。温度を高く設定すると、クリエイティブ性(創造性)の高いテキストを生み出し、逆に低く設定すると精密だけれど凡庸な結果のテキストを返すのだ。
人々が注目するようなより創造性の高い結果を返せるかは、計算量とデータ量、LLMを構成するニューラルネットワークの状態を表すパラメータ数で決まる。LLMのパラメータの数値が大きいほど、より複雑な言語現象を捉えられると言われる。ここ最近のLLMでは、パラメータ数が数10億から数兆のレベルに達している。Google PaLM(Pathways Language Model)は、2022年4月に発表されたLLMでパラメータ数は5400億個だ。OpenAIのGPT-3.5は3500億、GPT-4のパラメータ数は非公開だが兆の単位と推測されている。
ちなみに日本では大学共同利用機関法人 情報・システム研究機構 国立情報学研究所が、2023年に130億パラメータの大規模言語モデル「LLM-jp-13B」を構築している。これを使い高品質な日本語データを学習させている。今後は産総研の計算資源であるAI橋渡しクラウド(ABCI)を利用し、1750億パラメータのLLMの構築を行う。
パラメータが大きければより創造性の高い結果を生み出すが、その効果を上げるには膨大な費用がかかる。「一般のユーザーは、このパラメータの大きさを実感することは難しい」とシキュラー氏。実際、大規模なLLMを実現するにはトレーニングに何ヶ月もかかり、その過程でどのようなことが行われているかを理解するのは、一般ユーザーには難しい。
現状の生成AIでは、ある領域に対する情報がありすぎると、その回答は紋切り型で単純で、当たり前の結果となり、あまり面白味はない。一方で情報が少なすぎると、ハルシネーション(幻覚)と呼ばれる間違った答えを返す状況になる。「この2つの極端な結果があり、本来求めている結果はこれらの間のどこかにあります」とシキュラー氏。
生成AIの高い能力に感心する例としては、ある質問の答えを5歳児に分かるように、あるいは専門家に説明するように回答して、と指示すれば求められたそれぞれのパーソナリティを理解した素晴らしい回答を出すことが挙げられる。とはいえ、現時点で生成AIが出す回答には地雷のようなものもある。それを避けるようにするか、少なくとも回答の中には地雷があることを、しっかり認識する必要がある。