アクセンチュアは、NVIDIAが提供するカスタム生成AIモデルの構築プラットフォーム「NVIDIA AI Foundry」上に、Accenture AI Refineryフレームワークを構築したことを発表した。
これにより企業は、NVIDIAが発表した公開生成モデルであるLlama 3.1 コレクションを活用し、大規模言語モデル(LLM)の構築が可能になるという。
アクセンチュアは、AI Refineryフレームワークを活用して、同社のエンタープライズ機能の再構築にも取り組んでいる。マーケティング・コミュニケーションから着手し、その他の機能も拡大予定だという。このフレームワークにより、アクセンチュアは独自のビジネスニーズに特化した生成AIアプリケーションを作成できるとしている。
AI Refineryフレームワークは、企業が既存の基盤モデルを適応・カスタマイズし、独自のビジネスニーズに合わせて展開するための4つの要素がある。
- ドメインモデルのカスタマイズとトレーニング:NVIDIA AI Foundryを活用し、企業独自のデータやプロセスを用いて構築済みの基盤モデルを高度化する
- スイッチボードプラットフォーム:ビジネスの文脈、コストや結果の精度などの要素に基づいて、ユーザー自身がモデルの組み合わせを選択できる
- エンタープライズ・コグニティブ・ブレイン:企業データやノウハウを取り込み、ベクトル化して企業全体のインデックスに組み込むことで、生成AIマシンの強化を図る
- エージェント型アーキテクチャ:AIシステムが自律的に機能し、タスクを推論、計画、提案することで、人間の管理工数を抑えながらタスクを実行する
これらのサービスは、Accenture AI RefineryでLlamaを使用するすべてのユーザーが利用可能だ。NVIDIA AI Foundryサービス上のAccenture AI Refineryには、基盤モデル、NVIDIA NeMoおよびその他のエンタープライズ・ソフトウェア、高速コンピューティング、専門サポート、パートナー・エコシステムが含まれている。Accenture AI Refineryで作成されたモデルは、商用オプションを備えたハイパースケーラークラウドに展開できるという。
【関連記事】
・NetApp、生成型AIやVMware仮想化環境のワークロード向けに新機能 データ管理を容易に
・CData、ThoughtSpotと連携 175種類以上のSaaSデータがゼロETLで連携可能に
・日立ヴァンタラ、「Hitachi iQ」販売開始 AIインフラの構築支援などを強化へ