SUSEが「レジリエンス」をプラハで再定義、NVIDIAとのAI Factory、富士通「MONAKA」との連携など発表
「SUSECON 2026」 Day2レポート
エンタープライズオープンソースのSUSEは、2026年4月20日〜23日にチェコ・プラハで開催した年次カンファレンス「SUSECON 2026」の2日目キーノートで、AI・エッジ・インフラ管理にまたがる複数の新施策を発表した。Day1のテーマが「デジタルソブリンティ(主権)」だったのに対し、Day2のテーマは「レジリエンス」。ペプシコ(以下、PepsiCo)のレガシー刷新事例、NVIDIAとの「SUSE AI Factory with NVIDIA」、富士通傘下のエフサス・テクノロジーズ(以下、Fsas Technologies)などとのエージェンティックAIインフラを軸に、SUSEのポートフォリオ戦略が示された。
2日目の口火を切ったのはSUSEのCTPOを務めるDi Giacomo氏である。同氏は「ITインフラはビジネスの神経系だが、サイロ化やクラウドコスト、AI急増、サイバー脅威で疲弊している。従来の高可用性やDR(ディザスタリカバリ)、パッチ運用は重要だが一時的でもある」と述べた。さらに精神科医ヴィクトール・フランクルの言葉を引き、レジリエンスを「生き延びる力」から「変化のなかで新しい現実を築く力」へ拡張して示した。Day2キーノートはこの定義を軸に、具体的な顧客事例と発表を積み重ねた。
最初に紹介された事例は、飲料大手PepsiCoのレガシー刷新である。同社は工場にRed Hat Enterprise Linux 7(RHEL 7)とSUSE Linux Enterprise Server 11が混在する環境を抱え、レガシーハードウェアやアプリ依存関係の制約から新OSへのアップグレードも困難な状況にあった。SUSEは、サードパーティLinuxを含めて一貫したサポートと管理を提供する「SUSE Multi-Linux Support」「SUSE Multi-Linux Manager」でRHEL 7をサポート対象の状態に戻し、単一の管理画面に統合。強制的なOS刷新を回避しつつ、パッチとセキュリティ修正を継続的に適用できるようにした。
同時に、事業運営の中核であるSAP環境をMicrosoft Azure上に最適化する設計をSUSEのサービスチームが支援。結果としてPepsiCoはOSの技術的負債を50%削減したという。ステージに登壇したPepsiCoのCutts氏は「クラウド横断でSUSEに標準化したことで、守りに追われる運用から脱し、何十年分もの負債を整理できた。『1年延命するには』ではなく『次に必要な能力は何か』を議論できるようになった」と述べた。同社はさらに、SUSE EdgeとSUSE Rancherを基盤に、製造ライン脇の堅牢なエッジクラスター上でAI欠陥検知モデルを運用している。
「クラウドで学習したコンテナ化モデルを、生産ラインのそばで同じパイプラインを通じて運用できる。数百のエッジ拠点を中核データセンターと同じ信頼性で管理できるようになった」(Cutts氏)。歩留まり向上、廃棄削減、安全性向上を孤立したパイロットではなく企業全体の能力として展開しているという。
Day2キーノートのもう一つの柱が、前日に発表された「SUSE AI Factory with NVIDIA」の具体像である。SUSE AI Factoryは、NVIDIA AI EnterpriseとSUSE AIライブラリから提供される283のアプリケーションと、事前検証された「ブループリント」(RAG/AI-Q Digital Assistant/NeMo向けなど)をSUSE Application Catalog経由で導入できるターンキー型プラットフォームだ。アプリ構成をバージョン管理可能なオブジェクトとして保存する「バンドル」機能により、GitOpsによる反復改善・ロールバックが可能となる。ステージで行われたデモでは、ブループリントの選択から依存コンポーネントの自動置換、ターゲットクラスターの指定までが数クリックで完結する様子が示された。
SUSE AI担当GMのOxenham氏は「SUSE AI Factoryは、PoCから本番に進めない『プロダクションギャップ』を埋めるための基盤だ。異なるインフラへの柔軟な展開、開発者と運用チームの接続、ローカルからクラウド・エッジまでの配置自由度、一貫したライフサイクル管理とゼロトラストを提供する」と述べた。
SUSEが顧客に実施した調査では、AIワークロードの展開先としてハイブリッドインフラを優先すると回答した企業が59%、プライベート優先が16%を占めた。独自プロプライエタリ環境からの自由を求める需要を背景に、SUSE AI Factory with NVIDIAは、クラウドからオンプレミス、ソブリンデータセンター、エアギャップ環境まで同一の方式で展開できる点を打ち出す。
NVIDIAのFanelli氏は「AIは電力、GPU、インフラ、モデル、アプリケーションの5層で成り立つ。SUSEとNVIDIAはこれを一体で提供する。RTX Pro 6000/4500ベースシステムは既存データセンターに適合し、SLES 16とSUSE Rancher Primeで管理できる。開発から本番、エッジからエアギャップまで統合の負荷を減らせる」と説明した。
エージェンティックAI領域では、業界横断のアライアンスが同時に発表された。AWS、富士通傘下のFsas Technologies、n8n、Revenium、そしてStacklokとの統合・協業である。これには、AIエージェントと企業インフラをつなぐ「MCP(Model Context Protocol)」が鍵となる。SUSEは、SUSE Rancher PrimeとSUSE Multi-Linux Manager、SUSE Linux Enterprise向けのMCPサーバーを整備し、n8nやReveniumなどのAIエージェントワークフローから、KubernetesクラスターやLinuxサーバーの障害特定、ログ突合、パッチ適用のためのPR送信、サービス再起動までをセキュアかつガバナンスの効いた環境内で実行できるようにする。
エンジニアリング担当GMのSpencer氏は「MCPサーバーはエージェントとインフラの橋だ。SUSEのKubernetesエンジニアとLinuxエンジニアの専門知を埋め込んでいる。SUSEだけがRancherとMulti-Linux Managerを持ち、どのクラウド・データセンター・エッジでも、どのLinuxディストリビューションでもMCPサーバーを提供できる」と述べた。
StacklokはCEOでKubernetes共同創始者のCraig McLuckie氏が率い、検証済みMCPサーバーのレジストリを企業向けに提供する。ポートフォリオ&コミュニティ担当GMのSingh氏は「企業AIは実験段階から成果責任の段階に移った。いま問われるのは機能ではなく、ビジネス成果とROIだ。インフラは管理対象から、自律的に検知・推論・実行する存在へ進化する」と語った。
Day2には富士通傘下のFsas Technologies Europeから、CTOのWuertz氏が登壇した。同社は自律修復機能を備えたインフラ向けエージェンティック管理エンジン「Fsas Mamoru(護)」を提供しており、SUSE上で動作する。
「MCPは有効だが、コネクターにすぎない。重要なのは脅威からインフラを守ることだ。Mamoruではハルシネーション抑制のコンテキストチューニングを実装し、Redfish、ISM、SUSE、ネットワーク層・ストレージ層をオープンスタンダードで統合した。Private GPTも初期からSUSE上で動いている」(Wuertz氏)。
さらに、富士通は2ナノメートル世代のCPU「Monaka」でNVIDIAのGPUと統合メモリ空間を持たせる計画を明らかにしており、6月から顧客向けテストシステムの出荷を開始する。
「Monaka上で最初に動作するLinuxはSUSEになる見込みだ」とWuertz氏は述べ、同社がSUSE AI Factory with NVIDIAの欧州ローンチパートナーであることを紹介した。Singh氏は「ソブリンでレジリエントなAI基盤を構築する機会は今だ。パラダイムはソフトウェア定義からエージェンティックへ。勝者となるのは、閉じたエコシステムにロックインされない者だ」と述べ、Day2を締めくくった。
これらのエージェンティックAI関連機能は、SUSE AI、SUSE Linux、SUSE Rancher Prime、SUSE Multi-Linux Managerを含むポートフォリオを通じて提供される。
この記事は参考になりましたか?
- この記事の著者
-
京部康男 (編集部)(キョウベヤスオ)
ライター兼エディター。翔泳社EnterpriseZineには業務委託として関わる。翔泳社在籍時には各種イベントの立ち上げやメディア、書籍、イベントに関わってきた。現在はフリーランスとして、エンタープライズIT、行政情報IT関連、企業のWeb記事作成、企業出版支援などを行う。Mail : k...
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
