AI活用の理想と現実、ギャップをどう埋めていくべきか
GPT-4などの汎用LLMは、日々進化している。とはいえ、「現場利用にも限界はあり、業務実態にあうようにフルスケールのファインチューニングをしたいとなっても、簡単に実現できるわけではありません」と砂金氏は繰り返す。ここには、AIモデルや学習データにおける権利面での問題、莫大な計算リソースが必要になるという課題もある。
たとえば、オープンソースAIモデルのMeta Llama 3に、日本語データを少々追加してチューニングすることは可能だ。しかし、小規模なチューニングであっても相当の手間とコストがかかり、期待するだけの投資対効果が得られるかは試してみないとわからない。加えて、砂金氏は「実際に、チューニングに必要な学習データ量を確保できるのか。仮に準備できたとしても、コストパフォーマンスは十分なのか。こうした点をしっかりと見極める必要があるでしょう」と指摘する。
汎用的なLLMを用いた大多数のサービスは、APIなどを用いて独自データによるチューニングが可能だ。しかし、業務にフィットする形でLLMを再構築することは、一筋縄ではいかない。GPT-4などのLLMは、極めて膨大な量のデータを学習している。たとえるなら、それらは広大な湖や海のようなもの。そこに1滴ほどの独自データを加えても、意図したような変化はなかなか現れない。つまり、自社向けのLLMとしてカスタマイズしたければ、相当量の追加データで学習する必要がある。そして、このためには莫大な計算リソースが必要なことは容易に想像できるだろう。
「皆さんが思い描いている使い方と、現状できることの間には大きなギャップが存在します。本来、しっかりとファインチューニングしたほうが良いのですが、現実的ではありません」(砂金氏)
先述したように、Gen-AXでは同じグループ内にSB Intuitionsがいるため、同社のLLMを利用して顧客業務にあわせた形でのチューニングは行いやすいだろう。このようなアプローチを取れるのもソフトバンクのグループ会社として、Gen-AXを設けた優位性とも言える。
とはいえ、決してLLMのチューニングだけに力を入れるわけではない。RAGなどの仕組みも用い、いかに高精度の結果を得られるように設計するかが焦点だ。だからこそ、最後に文章を生成するプロセスでは、GPT-4などをそのまま用いることもあるだろう。いかに関連性の高い情報を検索してLLMに渡せるか、ここが業務変革に生成AIを活用するためのポイントになる。
たとえば、似たような言葉においても“意味的距離”は大きく離れている単語は多い。また、略語になっているだけで、極めて意味が近いものもある。そうしたものを的確に判断することが重要であり、昔ながらのNLP(自然言語処理)技術を用いながら、ベクトル化する過程では、エンジニアが情報を適切に扱わなければいけない。
そうした一定のハードルがあるものの汎用的なLLMをチューニングするよりも効率が良く、Gen-AXではここにリソースを割く。ベクトル検索の精度を上げるため、業務で生成AIを活用するためにも重要になると砂金氏は語る。