時価総額5兆ドルを一時突破したNVIDIA、強さの秘密は?──フアンCEOの鑑定眼とリーダーシップ
創業来トップの座に就き続ける“カリスマ経営者”から学ぶ、経営哲学の極意
NVIDIAの時価総額が一時的にではあるが5兆ドルを突破したことが大きな話題になった。時価総額ランキングで上位にいる他のIT企業(Alphabet、Amazon、Apple、Meta、Microsoft)の多くがプラットフォーマーと呼ばれる総合的なITサービス事業者であるのに対して、NVIDIAは唯一の半導体メーカーだ。なぜ、NVIDIAはそうした株式市場から期待されるような銘柄に成長したのだろうか? その背景には、NVIDIAの成長戦略と創業以来32年以上一度も変わっていないジェンスン・フアンCEOの技術を見る「鑑定眼」、そしてフアン氏を頂点としたフラットな組織体制が大きな原動力になっている。
「NVIDIA=AI」の原点は、開発者ごと“買い上げた”技術
NVIDIAがユニークなことは、1993年の創業以来32年が経過した今でも、共同創業者 兼 CEOのジェンスン・フアン氏しかCEOがいないということだ。通常、創業者はどこかのタイミングで退き、後進のCEOが登壇するのが一般的である。NVIDIAより後に創業したGoogle(現在はAlphabet)は、既に共同創業者は退き、現在はその後継者となっているズンダー・ピチャイ氏がその任にあることはよく知られている。しかし、NVIDIAの場合は、創業以来一貫してフアン氏がCEOで、フアン氏以外の誰もCEOに就任したことがないのだ。
NVIDIAの従業員がフアン氏をカリスマ視するのは、創業者だからというだけではない。これまで、NVIDIAの節目節目で、NVIDIAは技術的な選択肢をほぼ間違ってこなかったからだ。
NVIDIAのAI向けGPU「Blackwell」(NVIDIA B200)
[クリックすると拡大します]
その代表例として、現在のNVIDIAのAI向け半導体で大きな市場シェアを取る原点となった「CUDA」というソフトウェアを得た経緯を紹介したい。もともとCUDAの原形になったものは、スタンフォード大学の学生だったイアン・バック氏(現在はNVIDIAのデータセンター事業のトップ)らがNVIDIAに売り込みにいったものである。バック氏らが開発したCUDAは、ソフトウェア開発者が普段使っている開発ツールを利用して、NVIDIAがグラフィックス向けとして提供していたGPUを利用してそれ以外の用途も簡単にできるようにするものだった。
その将来性にいち早く気がついたフアン氏は、バック氏らをスカウトし、CUDAを2006年からユーザーに提供開始した。それが大当たりとなったのが、2010年代の前半にGoogleのAI開発者などが、AIモデルと呼ばれるAIアルゴリズムの学習に、CUDAとGPUの組み合わせを利用してからだ。従来のCPUに比べて10~100倍も高速に処理を行えることが話題を呼び、AIの学習にはNVIDIAのGPUが必要という定評を得た。
それが現在も続いており、最初はPCやワークステーション、大きくてもサーバー機器程度で行なわれていた学習処理も、AIモデルが生成AIなどに発展するに従って要求される処理能力はうなぎ上りになっており、現在はデータセンターの中でクラスターと呼ばれるサーバー機器を複数接続する形に強化され、最大で数十万基のGPUを利用して処理する形へと発展して今に至っている。
データセンター向け技術の総合的な提供で競合を引き離す
NVIDIAのAI学習向けの半導体ビジネスで、他社に対する強みは大きく2つある。一つは、既に述べたCUDAの存在だ。AIソフトウェアを開発する開発者は、NVIDIAの開発環境であるCUDAを使ってソフトウェアを書いており、次を作るときにも、そのソフトウェア資産を利用することになり、ハードウェアを更新するときに再びNVIDIAのGPUを選択する……という循環が発生する。ユーザーから見れば、ある種のベンダーロックインだが、データセンター向けCPUはARMが登場しても、なかなかx86から置き換わらないのと同じように、こうしたソフトウェアのデファクトスタンダードは切り替わらないというのがこれまでの歴史を見ても通例だ。
もう一つの強みは、NVIDIAがそうした大規模なクラスターを実現する技術を既に多数もっていること。その代表例は、NVIDIAが自社開発した高速なチップ間接続技術(インターコネクト)「NVLink」、およびNVIDIAが2019年に買収した「Mellanox Technologies」(以下、Mellanox)由来の高速ネットワーク技術の2つだ。
GPUのクラスターは、NVLinkのような高速なチップ間技術と高速ネットワーク技術を組み合わせて、巨大な一つのGPUを作り出す。このときに低遅延で高性能なチップ間接続技術と高速ネットワーク技術は性能を大きく左右する。NVIDIAは2010年代から徐々にNVLinkの性能を引き上げ、同時にMellanox買収で得た高速なネットワーク技術を顧客にセットで提供することで、GPUの性能を引き上げており、それが他社との大きな差別化になっているのだ。
写真のラック(NVIDIA GB200 NVL72)を構成する技術をサーバー機器ベンダーに提供している
[クリックすると拡大します]
こうした強みにより、現在AI学習向け半導体は、フアンCEOによれば、2023年の時点で90%の市場シェアを得ているというNVIDIA一強状態。そのため、生成AIなどのAIブームにより、AIの需要が増えれば増えるほど、NVIDIAの売り上げが伸びているという状況になっており、同社の会計年度2026年第2四半期の四半期決算では約467億ドルと、前年度同時期に比較して56%増となっているという状況が毎四半期続いている状態だ。
この記事は参考になりましたか?
- この記事の著者
-
笠原 一輝(カサハラ カズキ)
1994年よりテクニカルライターとして活動を開始。90年代はPC雑誌でライターとして、2000年代からはWeb媒体を中心に記者、ライターとして記事を寄稿している。海外のカンファレンス、コンベンションを取材する取材活動を1997年から20年以上続けており、主な分野はPC、半導体などで、近年はAIやB...
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
