ServiceNowとNVIDIAは、ServiceNowの年次カスタマーおよびパートナーイベント「Knowledge 2025」において、企業全体にわたって新たなレベルのAIエージェントを推進するため、両社のパートナーシップを拡充すると発表した。
この発表の一環として、NVIDIAと共同開発したServiceNowの新たな推論モデル 「Apriel Nemotron 15B」を発表。同モデルはオープンソースのLLM(大規模言語モデル)で、両社が提供するデータによってポストトレーニングされており、低レイテンシー、推論コストの削減、AIエージェントの高速化の実現を支援するとのことだ。
具体的に、同モデルはNVIDIA NeMo、NVIDIA Llama Nemotronポストトレーニングデータセット、およびServiceNowのドメイン固有データを使用し、AWS上のNVIDIA DGX Cloudによってトレーニングされたという。高度な推論機能をより小さなサイズで実現しており、NVIDIAのGPUインフラ上でNVIDIA NIMマイクロサービスとして、より高速で効率的、かつコスト効率よく稼働できるとのことだ。
加えて、両社はServiceNowのWorkflow Data FabricとNVIDIA NeMoの一部マイクロサービスを統合する、共同のデータ・フライホイールアーキテクチャに関する新たな連携を発表。この統合アプローチにより、エンタープライズのワークフローデータを収集・文脈化し、推論モデルの洗練と最適化を図るという。また、データの利用・処理においては、顧客がセキュリティとコンプライアンスを確保しながら、管理権限を持てるようにガードレールも設けられているとのことだ。これにより、モデルの精度と適応性を高めるクローズドループ型の学習プロセスが実現され、エンタープライズの生産性向上を目的とした、よりパーソナライズされ文脈に応じたAIエージェントの開発と導入が加速されるという。
【関連記事】
・三菱UFJ銀行、ServiceNowのITSMを導入 グローバルで年間2,200時間の工数削減目指す
・NVIDIA、米国で初の“国産”AIスーパーコンピューターを製造へ
・ServiceNow、AIエージェント備えたプラットフォームと次世代CRMに注力 人とAIの協働促進