導入の不安を解消するベンダー検証済みのAI開発環境
AIを活用するためのインフラ環境は従来のITインフラと比べると少し特殊なところがあり、ITインフラの導入・運用のノウハウだけでは、なかなかうまくいかない現状がある。さらにAI関連のソリューションを提供するベンダーも多いだけでなく、オープンソース・ソフトウェアとして提供される技術要素もたくさんある。それらから適切なものを選択することは、かなり難しい。
そのような中で、GPU(Graphics Processing Unit)の活用でAIを再定義しているのがNVIDIAだ。同社ではできるだけAI導入のハードルを下げたいと考え、その取り組みを「AIの民主化」と呼ぶ。NVIDIAでは企業領域でAIの民主化を実現するためには、自社だけでなくエンタープライズIT市場で多くの実績を持つVMwareと組むのが得策だと考えた。
AIのインフラの多くは、目的ごとに個別リソースを用意し、その上で各ワークロードが稼働している。目的や用途が増えればAIインフラの環境も増え、コスト増や運用管理の煩雑化にもつながってしまう。個別環境によるサイロ化で、ある部門のAIインフラに余裕があったとしても他部署ではそれを容易に利用できない。
こうした課題の解決に、VMwareの仮想マシンとコンテナ技術を活用。NVIDIAのGPUとソフトウェア技術を組み合わせ、AI開発のリソースを柔軟に提供できるよう両社で共同開発したのがVMware向け「NVIDIA AI Enterprise」だ。もちろん、クラウドベンダーでもAI関連のサービスは提供されており、それらはちょっと試す程度ならすぐに利用でき便利だ。とはいえ、AIで得られる知見を実際のビジネスに組み込み、本格的に活用するとなると、利用するクラウドサービスが増えコストがかさむケースは少なくない。オンプレミスに専用のAI開発環境を用意したほうが安価に済み、最新GPUも自由に選択できるなど性能面で優位になることが多いと言える。
しかしながら、ITインフラとは異なる“AIインフラ”導入は敷居が高い。新しい技術も次々と登場し、AI開発環境を活用するためのノウハウ蓄積もままならない。GPUを搭載したサーバーを新たに導入し、自らオープンソースなどの技術を組み合わせて最適なAI開発環境を構築することは簡単ではない。
実際、AI開発環境をどう構築すれば良いかがわからないとの相談は増えている、と言うのは、多くの顧客企業からの相談を受けている伊藤忠テクノソリューションズ エンタープライズ事業グループ エンタープライズビジネス企画室 デジタルビジネス推進第1部 クラウドシフト推進課 主任の小林均氏だ。
AI開発のために何をどのように選べば良いかがわからない顧客に対し、実績あるNVIDIAのGPUを搭載したサーバーと、顧客が使い慣れたVMware環境を組み合わせ、さらにNVIDIAのAI関連のソフトウェアをあらかじめ搭載した状態で提案する。この組み合わせはベンダーがあらかじめ検証済みで、インフラからアプリケーションまで丸ごとエンタープライズ向けサポートも受けられるのだ。これらは、新たにAI開発環境を導入したい顧客にとって、大きな安心感をもたらすと小林氏は指摘する。
また、この検証済みの環境は、性能面も最適化されている。AI開発においては従来、高い処理性能を得るために物理サーバーで直接ソフトウェアを動かす「ベアメタル」での利用が普通だった。今回のNVIDIAとVMwareの組み合わせでは仮想サーバー、コンテナでリソースを柔軟に活用できることに加え、仮想化されていても高性能が出るようチューニング済みである。つまり、ベアメタル環境と同等の性能が発揮できるのだ。