パナソニック ホールディングス(以下、パナソニックHD)とストックマークは7月2日、パナソニックグループ専用大規模言語モデル(Large Language Model、以下:LLM)「Panasonic-LLM-100b」の開発で協業することを発表した。
同日開催された記者説明会に登壇したパナソニック ホールディングス 技術部門 テクノロジー本部 デジタル・AI技術センター 所長の九津見洋氏はまず、同社グループのAI活用の考え方を説明した。九津見氏は「AIは一流の技術。私たちがやることはお客様や社会に価値を届けること。そのために、パワフルなAIを使いこなす。例えるなら、大工さんのような役割だ。事業のプロが大工となり、道具を理解して使いこなすことで価値を届ける」と話す。加えて「Scalable AI」「Responsible AI」が大事だという。九津見氏は「当社グループの事業の幅は広い。AI活用の実装の仕方は事業領域によって様々だ。いかにスピーディー届けられるかという点でスケーラビリティは重要」と説明した。あわせて「顧客に提供する商品やシステム、サービスが安心して使ってもらえるものでなければならない」として、信頼性の高いAIを重視しているという。
パナソニック ホールディングスではAI活用において、Stanford UniversityとUniversity of California, Berkeley(以下、UC Berkeley)と連携してマルチモーダル基盤モデルを共同開発したが、九津見氏は「まだ足りてない道具ということで今回、日本語のLLMの協業にいたった」と述べた。具体的に、ストックマークが開発したLLM「Stockmark-LLM-100b」に、パナソニックグループの社内データの追加学習、信頼性とAI倫理を強化した独自LLM「Panasonic-LLM-100b」を構築するという。今回開発するLLMのモデルサイズは1000億パラメータを想定しており、企業が開発する自社専用のLLMとしては国内最大規模となる見込みだという。
開発したPanasonic-LLM-100bの展開について、パナソニックグループがもつ小型化・高速化の技術を適用させ、機器リソースが潤沢ではないエッジやオンプレミス領域にも適用範囲を拡大していくとした。また、同社がUC Berkeleyと連携して開発した、マルチモーダル基盤モデル「HIPIE」も活用することも考えているという。
ストックマークが提供するStockmark-LLM-100bは、経済産業省と新エネルギー・産業技術総合開発機構(NEDO)が主催する、国内の生成AI開発力強化を目的としたプロジェクト「GENIAC」への採択を受け、2024年5月に商用利用可能な形式で公開したLLM。同モデルは、フルスクラッチで開発した1000億パラメータ規模のLLMで、独自に収集したビジネスドメインの日本語データを中心に事前学習を行うことで、日本語・ビジネス領域に特化し、ハルシネーションの抑止を実現しているという。 同社 代表取締役CEOの林達氏は、GPT-4-turboの回答結果と比較して、ハルシネーションを抑止している例を提示した。
林氏は「世の中に様々なLLMがあふれてきており、使い分けが発生している。ビッグテックが出すような汎用/一般モデルは様々なタスクに使いやすいが、業務に特化したものには使いづらい。自社の業界や製品・技術などのビジネスの情報が必要なときは、ビジネスに強いモデルが必要になる。今回パナソニックさんが先進的に企業特化モデルを作っていくということで、自社に特化したLLMを作っていく流れが生まれてくるのではないか」と話す。
なお、Panasonic-LLM-100bは今秋を目途に開発し、順次パナソニックグループ内で利用を開始する予定だとしている。現時点では、グループ外への提供は考えていないとした。
【関連記事】
・パナソニック コネクト、生成AIで年間18.6万時間の業務削減 導入から1年を振り返る
・パナソニックグループ、基幹DCの温熱環境を刷新 キンドリルが支援しCO2排出量を年間約180トン削減
・パナソニックグループ、社内クラウドデータベース基盤としてOCIを採用 インフラコストを約50%低減