リコーは、自社で開発・提供する日本語LLMシリーズの次世代モデルとして、Googleのオープンモデル「Gemma 3 27B」をベースに、オンプレミス環境への導入に最適な高性能LLMを開発したと発表した。
同LLMは、リコー独自のモデルマージ技術を活用し、ベースモデルからの性能向上を実現しているという。具体的には、独自開発を含む約1万5000件のインストラクションチューニングデータで追加学習したInstructモデルから抽出したChat Vectorなど複数のChat Vectorを開発し、Gemma 3 27Bに対して独自技術でマージしているとのことだ。
同規模パラメータ数のLLMとのベンチマーク評価の結果、OpenAIのオープンウェイトモデル「gpt-oss-20b」をはじめとする高性能モデルと同等の性能を確認したという。また、同モデルは、ユーザー体験を重視した非推論モデルならではの高い初期応答性を実現しながら、高い執筆能力も兼ね備えており、ビジネス用途での活用に適していると同社は述べている。
また、モデルサイズは270億パラメータとコンパクトでありながら上記の性能を実現しており、PCサーバなどで構築でき、低コストでのプライベートLLM導入を可能にするとしている。コンパクトなLLMのため、省エネルギー・環境負荷低減にも寄与するとのことだ。
同LLMは、顧客の要望に応じて個別提供が可能だという。また、2025年12月下旬からは、エフサステクノロジーズが提供するオンプレミス環境向けの対話型生成AI基盤「Private AI Platform on PRIMERGY(Very Smallモデル)」に、同LLMの量子化モデルと生成AI開発プラットフォーム「Dify(ディフィ)」をプリインストールし、LLM動作環境を構築したうえで、リコージャパンから提供するとしている。
同LLMとDifyを活用することで、ユーザーは自社の業種・業務に合わせた生成AIアプリケーションなどをノーコードで作成できるという。加えて、リコージャパンが提供する「Dify支援サービス」による伴走支援も可能なため、社内にAIの専門人材がいない場合でも生成AIの業務活用を開始できるとのことだ。
今後は、推論性能や業種特化モデルの開発を進めるとともに、リコーが強みとするマルチモーダル性能と合わせて、LLMラインアップを強化していくと述べている。
【関連記事】
・リコー、OpenAIの「gpt-oss-120B」をオンプレミスで動作検証完了、個別提供を開始
・リコーと損保ジャパン、保険業務特化のプライベート・マルチモーダルLLMを共同開発中
・リコー、コラボレーションボードをMicrosoft 365と連携できる新サービス発表
この記事は参考になりましたか?
- 関連リンク
- この記事の著者
-
EnterpriseZine編集部(エンタープライズジン ヘンシュウブ)
「EnterpriseZine」(エンタープライズジン)は、翔泳社が運営する企業のIT活用とビジネス成長を支援するITリーダー向け専門メディアです。データテクノロジー/情報セキュリティの最新動向を中心に、企業ITに関する多様な情報をお届けしています。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
