2025年上半期のバズワード「MCP」はデファクトスタンダードになりうるのか?Red Hatに訊く
年次カンファレンスで示した“MCPコミット”の狙いとは
エージェンティックAI開発の“デファクトスタンダード”を狙う
Red Hatは2024年11月にオープンソースの推論サービングエンジン「vLLM」の主要開発元であるNeural Magicを買収したが、今後はvLLMとMCP/Llama Stackの連携も強化し、エージェンティックAI開発の基盤としていく方針だ。
ここで、Red HatがMCPとともにエージェンティックAI開発の“標準”に選んだLlama Stackについて簡単に触れておく。Llama Stackは、Metaが2024年9月に「Llama 3.2」を発表したタイミングにあわせて公開されたオープンソースのAIフレームワークである。Llama 「Stack(積み重ね)」という名前に表れているように、MetaはAIアプリケーション開発のライフサイクル全体にまたがる様々なビルディングブロック──たとえばエージェントの会話制御、推論、RAG、ガードレール(安全性制御)、評価/ログ取得など──を標準化した構成としてスタックし、それらを一貫したAPIとして開発者に提供している。開発者はLlama Stackを使うことで個別ライブラリやツールの組み合わせに悩むことなく、再利用性と保守性の高い形でAIアプリケーションを構築/展開することが可能になる。

Metaが主導するオープンソースプロジェクトのLlama StackはAI開発者の負荷を大幅に軽減するという点でMCPに共通するコンセプトをもつ。MetaとRed Hatは今後、Llama StackとvLLMを中心にコラボレーションを加速していくとしている(6/4のレッドハットの会見資料から抜粋)
[クリックすると拡大します]
また、Llama StackはMCPをサポートしており、AIエージェントが外部のAPIやツールと連携する際の接続が抽象化されるので、開発者はコードを書き直すことなくツールやバックエンドを切り替えることが容易になる。加えてプラガブルアーキテクチャを採用しているので、Meta開発のLlama以外にもOpenAI、Anthropic、vLLM、Ollama、Togetherなど多様なプロバイダのLLMを利用することが可能だ。Red HatはLlama Stackについて「Kubernetesがコンテナを統合管理するように、Llama StackはAIアプリケーションの管理を統合的に行う、いわばAIアプリ開発のためのコントロールプレーンであり、統合AI‐APIサーバー」と表現しており、将来的にはOpenShift AIに統合した「Llama Stack Operator」として提供することを目指している。
MCP、そしてLlama Stackの特徴を見ていくと、いずれもエージェントAI開発における標準化と抽象化を徹底し、シームレスな開発者エクスペリエンスの提供にフォーカスしている点が共通項として浮かび上がってくる。また、いずれもにオープンソースプロジェクトであり、エコシステムを拡大しやすいこと、開発者やユーザーにとって多種多様な選択肢が用意されていることも、Red HatがエージェンティックAIのコアコンポーネントに据えた理由である。
この記事は参考になりましたか?
- 五味明子の『エンプラIT Round-up』連載記事一覧
-
- 2025年上半期のバズワード「MCP」はデファクトスタンダードになりうるのか?Red Ha...
- 日本市場で息巻く「オブザーバビリティ」の活況はこの先も続くのか?──ガートナー米田氏に将来...
- NVIDIA決算に見る「長く考えるAI」への期待とニーズ /AIで伝承文化を守るオープンソ...
- この記事の著者
-
五味明子(ゴミ アキコ)
IT系出版社で編集者としてキャリアを積んだのち、2011年からフリーランスライターとして活動中。フィールドワークはオープンソース、クラウドコンピューティング、データアナリティクスなどエンタープライズITが中心で海外カンファレンスの取材が多い。
Twitter(@g3akk)や自身のブログでITニュース...※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア