AMDは2026年4月21日、シンガポールの同社オフィスにて、APAC(アジア太平洋)地域のメディア・ジャーナリスト向けに直近の事業・技術動向を共有した。
その中で、同社が提供するオープンソースのソフトウェアスタック「ROCm(Radeon Open Compute)」の近況についても発表があった。ハードウェアのイメージが先行しがちなAMDだが、デベロッパーなどの技術者や研究者にとっては、こちらのほうが馴染み深いという方も多いだろう。
ROCmは、AMDのGPUでAIやHPC(高性能計算)を高速化・最適化するためのソフトウェアスタックだ。競合プラットフォームとして比較されるNVIDIA CUDAに比べて、導入コストが低い点や、オープンソフトウェアスタックゆえにベンダーロックインに陥りにくい点、ローカル環境で容易なLLM(大規模言語モデル)の実行が可能な点などが、メリットや特徴として挙げられる。
このROCmは、データセンター向けGPUだけでなく、ノートPCやワークステーション、クリエイター向けシステムでもサポートされる。これにより、ローカル環境でのプロトタイプ作成からプロダクトへのスケールアップが容易になると同社のラミン・ローアン氏は語る。
ROCmの戦略の軸となる柱は3つ。①徹底的なオープンソース、②抽象化、③AIアシストだ。
- 徹底的なオープンソース:スタックを完全にオープンにすることで、コミュニティ全体での開発と進化の高度化を図っていく
- 抽象化:開発スピードを向上させるために抽象化モデルを採用。OpenAI TritonやPythonベースのドメイン固有言語をはじめ高レベルな言語を使用しても、C++のような低レベル言語で書くのと同等のパフォーマンスを維持しつつ迅速な開発が可能
- AIアシスト:Claude CodeなどのAIモデルを活用したオートメーションにより、最適化されたROCmワークロードを生成。推論、事前学習、事後学習のワークフローを迅速に構築
また、最新のAIモデルが世の中に登場するたびに、その日のうちにサポート対応する“Day 0(デイゼロ)”サポートのアプローチを守ってきたのもROCmの特徴だ。直近ではGemma 2やMistral、Llama 3などのモデルをリリース当日にサポートした。他にもHugging Face上にある220万種類以上のモデルに対応しているほか、PyTorch、JAX、vLLMなどといった主要オープンソースプロジェクトにもネイティブに対応している。
そんなROCmの現在の最新バージョンが、ROCm 7だ。いわゆる7.x系、7.2.x系(ROCm 7.2.3など)と言われるバージョンである。推論・学習の両面で機能強化が図られており、特に推論ではvLLM v1 Engineの最適化や分散推論で高いスループットを発揮。大規模クラスターの管理と超LLMの高速推論において、実用レベルに達しているとされる。
なお、もともとはLinux環境でネイティブに動作するよう設計され、WindowsではWSL2(Windows Subsystem for Linux 2)を介す必要があったROCmだが、ここ2年ほどでWindows環境へのネイティブ対応が急速に進み、7.x以降ではWSL2を経由せずとも直接Windows上で動かすことが可能だ。
加えて、現在もWindows上でのデプロイをより容易にするための再設計を進めており、既にGitHubでは軽量版の「TheRock」が公開されているほか、その下のレイヤーを含む「Under TheRock」を開発中だという。2026年後半には、あらゆるOSでのサポートも発表できる見込みだとローアン氏は明かした。
この記事は参考になりましたか?
- この記事の著者
-
名須川 楓太(編集部)(ナスカワ フウタ)
サイバーセキュリティとAI(人工知能)関連を中心に、国内外の最新技術やルールメイキング動向を取材しているほか、DX推進や、企業財務・IRなどのコーポレート領域でも情報を発信。武蔵大学 経済学部 経済学科 卒業。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
