ソフトバンクは1月21日、AIデータセンター向けの新たなソフトウエアスタック「Infrinia AI Cloud OS」を発表した。同システムは、次世代AIインフラアーキテクチャーやシステム開発を担うInfriniaチームにより開発されたものである。
Infrinia AI Cloud OSは、AIデータセンター事業者がマルチテナント環境に対応したKubernetes as a Service(KaaS)や、大規模言語モデル(LLM)推論機能をAPIとして提供するInference as a Service(Inf-aaS)をGPUクラウドサービス上に構築できるのが特長だ。これらの機能を組み合わせることで、AIモデルの学習から推論までの運用を効率化し、TCO(総所有コスト)や運用負荷の低減が期待できるという。
主な特長には、最先端GPU基盤上での構成作業自動化、AIワークロード要件に応じたクラスターの動的再構成、ノード割り当てによる通信遅延低減が含まれる。また、Kubernetesや基盤インフラを意識せずに推論APIを運用できる点もポイントだ。
セキュリティ面では、暗号化通信やテナント隔離をサポートするほか、システムモニタリングやフェールオーバーなどの運用保守も自動化。さらに、既存の顧客管理システムなどと接続できるAPIも提供し、柔軟なサービス運用を可能にしている。
ソフトバンクは今後、自社のGPUクラウドサービス基盤にも本OSを導入予定で、海外データセンターへの展開も視野に入れている。
【関連記事】
・ソフトバンク、大企業向け生成AIサービス「satto workspace」にNew Relicを導入
・ソフトバンクとOpenAI、日本企業向けAIソリューション合弁会社「SB OAI Japan」を設立
・東京大学・ソフトバンク・LINEヤフー、AIの社会実装を加速させる活動開始 経産省のCIP制度を活用
この記事は参考になりましたか?
- 関連リンク
- この記事の著者
-
EnterpriseZine編集部(エンタープライズジン ヘンシュウブ)
「EnterpriseZine」(エンタープライズジン)は、翔泳社が運営する企業のIT活用とビジネス成長を支援するITリーダー向け専門メディアです。データテクノロジー/情報セキュリティの最新動向を中心に、企業ITに関する多様な情報をお届けしています。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
