ライオンは、アマゾン ウェブ サービス ジャパン(以下、AWSジャパン)による生成AI実用化推進プログラムを通じた協力を受け、ライオンの長年にわたる研究開発データによる追加学習を行った、同社独自の大規模言語モデル(LLM)「LION LLM」の開発に着手した。
ライオンは4月より、AWSジャパン生成AI実用化推進プログラムに参加し、クレジット付与によるコスト面での支援や科学的な助言を含む技術協力を受け、同社の保有技術に特化したLLMの内製開発体制を整備し、分散学習基盤を社内に構築したという。
同学習基盤では、「AWS ParallelCluster」とNVIDIAの「Megatron-LM」を組み合わせることで、複数サーバー上に配置された多数のGPUを効率的に連携させる分散学習環境を構築しているとのことだ。これにより、大量のデータを高速にGPUに送り込みながら、学習の処理を並列実行することが可能に。ベースモデルとしては「Qwen 2.5-7B」を用い、学習データは研究報告書や製品組成情報、品質評価データなど、数十年にわたる社内知見を中心に投入したという。
同LLMは過去の知見を踏まえた具体的なアドバイスや、複数の事例を統合した回答が可能であることを確認しており、従来のツールと比較して、回答に含まれる情報の網羅性が向上したことが、初期フェーズの成果として社内で評価されたとのことだ。
【関連記事】
・日立、「HARC for AI」を提供開始 AI特有の運用課題を伴走支援へ
・デジタル庁、OpenAIと連携協力 職員の生成AI利用環境にOpenAIのLLMサービスを追加
・OpenAI、次世代のAIインフラストラクチャ駆動にAMD製品を大規模導入へ
この記事は参考になりましたか?
- 関連リンク
- この記事の著者
-
EnterpriseZine編集部(エンタープライズジン ヘンシュウブ)
「EnterpriseZine」(エンタープライズジン)は、翔泳社が運営する企業のIT活用とビジネス成長を支援するITリーダー向け専門メディアです。データテクノロジー/情報セキュリティの最新動向を中心に、企業ITに関する多様な情報をお届けしています。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア