導入の不安を解消するベンダー検証済みのAI開発環境
AIを活用するためのインフラ環境は従来のITインフラと比べると少し特殊なところがあり、ITインフラの導入・運用のノウハウだけでは、なかなかうまくいかない現状がある。さらにAI関連のソリューションを提供するベンダーも多いだけでなく、オープンソース・ソフトウェアとして提供される技術要素もたくさんある。それらから適切なものを選択することは、かなり難しい。
そのような中で、GPU(Graphics Processing Unit)の活用でAIを再定義しているのがNVIDIAだ。同社ではできるだけAI導入のハードルを下げたいと考え、その取り組みを「AIの民主化」と呼ぶ。NVIDIAでは企業領域でAIの民主化を実現するためには、自社だけでなくエンタープライズIT市場で多くの実績を持つVMwareと組むのが得策だと考えた。
AIのインフラの多くは、目的ごとに個別リソースを用意し、その上で各ワークロードが稼働している。目的や用途が増えればAIインフラの環境も増え、コスト増や運用管理の煩雑化にもつながってしまう。個別環境によるサイロ化で、ある部門のAIインフラに余裕があったとしても他部署ではそれを容易に利用できない。
こうした課題の解決に、VMwareの仮想マシンとコンテナ技術を活用。NVIDIAのGPUとソフトウェア技術を組み合わせ、AI開発のリソースを柔軟に提供できるよう両社で共同開発したのがVMware向け「NVIDIA AI Enterprise」だ。もちろん、クラウドベンダーでもAI関連のサービスは提供されており、それらはちょっと試す程度ならすぐに利用でき便利だ。とはいえ、AIで得られる知見を実際のビジネスに組み込み、本格的に活用するとなると、利用するクラウドサービスが増えコストがかさむケースは少なくない。オンプレミスに専用のAI開発環境を用意したほうが安価に済み、最新GPUも自由に選択できるなど性能面で優位になることが多いと言える。
しかしながら、ITインフラとは異なる“AIインフラ”導入は敷居が高い。新しい技術も次々と登場し、AI開発環境を活用するためのノウハウ蓄積もままならない。GPUを搭載したサーバーを新たに導入し、自らオープンソースなどの技術を組み合わせて最適なAI開発環境を構築することは簡単ではない。
実際、AI開発環境をどう構築すれば良いかがわからないとの相談は増えている、と言うのは、多くの顧客企業からの相談を受けている伊藤忠テクノソリューションズ エンタープライズ事業グループ エンタープライズビジネス企画室 デジタルビジネス推進第1部 クラウドシフト推進課 主任の小林均氏だ。
AI開発のために何をどのように選べば良いかがわからない顧客に対し、実績あるNVIDIAのGPUを搭載したサーバーと、顧客が使い慣れたVMware環境を組み合わせ、さらにNVIDIAのAI関連のソフトウェアをあらかじめ搭載した状態で提案する。この組み合わせはベンダーがあらかじめ検証済みで、インフラからアプリケーションまで丸ごとエンタープライズ向けサポートも受けられるのだ。これらは、新たにAI開発環境を導入したい顧客にとって、大きな安心感をもたらすと小林氏は指摘する。
また、この検証済みの環境は、性能面も最適化されている。AI開発においては従来、高い処理性能を得るために物理サーバーで直接ソフトウェアを動かす「ベアメタル」での利用が普通だった。今回のNVIDIAとVMwareの組み合わせでは仮想サーバー、コンテナでリソースを柔軟に活用できることに加え、仮想化されていても高性能が出るようチューニング済みである。つまり、ベアメタル環境と同等の性能が発揮できるのだ。
VMware Tanzuと組み合わせ、vGPUを最大限に活用できるようにする
「AIにおいてもITインフラと同様に仮想化のメリットを得たいと考え、NVIDIA AI Enterpriseが採用されている事例が増えています」と言うのは、エヌビディア合同会社 エンタープライズ事業本部 データセンターGPU営業推進 シニアマネージャの川井源氏だ。VMwareのハイパーバイザーと組み合わせた仮想GPU(vGPU)で、GPUのリソースを必要な分だけ割り当てられる。これを活用して、AI開発のインフラの効率化を図るケースが増えているのだ。
そして、よりGPUを効率良く使うには、AIのアプリケーションとインフラのレイヤーをそろえる必要があると言うのは、ヴイエムウェア株式会社 パートナー技術本部 パートナー第一SE部 リードパートナーソリューションアーキテクトの豊嶋依里氏だ。現状、新しいアプリケーションの開発ではコンテナ化が進んでいる。AIのアプリケーションも、コンテナ化でよりGPUを効率的に利用できることとなる。「コンテナ化すれば、GPUを活用するアプリケーションを1つのインフラにまとめられます。さらにコンテナ特有の可搬性の高さで、どのインフラで稼働させるのかを気にする必要がないことも大きなメリットです」と豊嶋氏は言う。
GPUを使いAIワークロードを動かす際に、今後コンテナの重要性はますます高まるだろう。NVIDIA AI EnterpriseをVMware Tanzuと組み合わせることで、vGPUを仮想マシンだけでなくKubernetesのワークロードにも割り当てられる。AI開発環境でKubernetesを活用できれば、AI開発から運用までをシンプル化できるのだ。
さらに「VMware vRealize Operations(vROps)」や「Tanzu Observability」など、仮想化、コンテナ環境の運用、監視ソリューションとも組み合わせられる。これにより、インフラからアプリケーションレイヤーまでの“オブザーバビリティ”も実現可能だ。ビジネスに本格的にAIを活用するためには、運用管理をシンプル化しオブザーバビリティが実現できることも、今後はかなり重要となる。
ところで、AI関連ソリューションのメリットはベンダーから発信されることが一般的だ。その一方で、各ソリューションを顧客企業の状況に合わせどのように導入すれば良いか、そうした情報提供が十分ではないと言うのは、CTCテクノロジー CSサポート テクニカルサポート本部 テクニカルサポート第1部 クラウドサポート課の十河樹氏だ。そのためCTCでは、いち早くVMware向けNVIDIA AI Enterpriseの検証を行い、具体的な導入の難易度などを明らかにしている。
検証では、vSphereの仮想マシンを導入している企業を想定し、そこにNVIDIA AI EnterpriseとVMware Tanzuを活用する環境を構築し、必要な作業の洗い出しを実施。検証前にベンダーからの情報を見た段階では、ハードルが高そうで専門知識が求められるのではと感じていた。しかし実際は「GUIの操作や簡単なコマンドでTanzuの有効化もでき、その先のvGPUのインストール、開発系アプリケーションを使えるようにするところまで簡単に行えました」と十河氏。検証を通じ、これならば顧客への提案も安心できることを感じたと言う。
一方で、今回の検証がアーリーアクセス段階での取り組みだったこともあり、ドキュメントなどの情報が十分になかったと振り返る。「操作などでわからないこともありましたが、それらについてはNVIDIAやVMwareから迅速に回答が得られました」と十河氏。対応の早さからも、ベンダー同士の連携がしっかりとれていることがうかがえるとも言う。
また、今回の検証を通じNVIDIA AI Enterpriseの環境をより活用するには、vROpsやTanzu Observerbiltyを使いKubernetesのコンテナやvGPUの監視まで実現することが、今後は必須になりそうだとも指摘する。「vROpsに関しては、インフラ管理者が欲しい情報を一括で得られるのは大きなメリットです。Tanzu ObservabilityはKubernetesの上のアプリケーションの情報収集にかなり便利で、こちらはAI開発者にも嬉しい機能でしょう」(十河氏)。
現状、AI開発環境は利用者ごとにサイロ化しているケースが多い。VMware向けNVIDIA AI Enterpriseであれば、企業全体としてAI開発環境を統合化し運用管理も集約できる。AI開発環境をプラットフォーム化して、vGPUまで含めて一括管理できることは「マルチテナントなどで複数部署にまたがり、大規模にAI開発を行いたいとのニーズにも十分に応えられます」と加藤氏も述べる。
NVIDIAとVMware両方に豊富な経験を持つCTCが扱うことのメリット
NVIDIA AI Enterpriseは1年ほど前から提供されているが、以前からCTCではNVIDIAのGPU製品を扱っており、ソフトウェア部分も含め豊富なノウハウを蓄積していることに加えて、VMware製品に長けた経験もある。「日本でも最も早くNVIDIA AI Enterpriseに目を付け、検証をしてきました。そのため、今ではCTCが日本で最もAI Enterpriseの経験を持ち、非常に頼りにしてもらえる存在になっています」と川井氏。NVIDIA、VMwareとの強いつながりを持つCTCが扱うことで、ワンストップで対応できる体制となり、それが顧客からもかなり信頼されるはずだと言う。
VMwareにとっても、CTCは古くから付き合いがあるだけでなく新しい製品にも積極的に取り組む頼もしいパートナーだと豊嶋氏。「CTCにはAI専任部隊もあり、これまでの実績に加えNVIDIAを含めたビジネスのさらなる拡大には期待している」と言う。
「AIは研究者などが活用するものと思われてきましたが、今回のNVIDIAとVMwareの製品の組み合わせで、本格的にビジネスでAIを活用したいというニーズに応えられます」と、伊藤忠テクノソリューションズ 情報通信事業グループ 情報通信ビジネス企画室 ITビジネス推進第2部 プラットフォーム技術課 主任 加藤士郎氏は述べる。企業の中でAIを活用したい人が増えれば、研究者や専門家だけでなくさまざまな人が安心、簡単にAIを活用できるようになる。それを全社規模で展開する際には、今回の組み合わせが最適だろうとも語る。
CTCとしては、NVIDIAとVMwareはもちろん、独立系SIの立場で顧客企業のニーズに合わせてソリューションを組み合わせ提供できる。「AI開発環境の導入だけでなく、AI開発とAIの運用もご支援ができる体制があります」と小林氏は自信をのぞかせる。今後、AIの民主化を企業に広げていくためにも、新しいAIソリューションの検証結果だけでなく、AI活用のための幅広い情報提供を行っていくとした。