NVIDIA:データセンター事業好調の背景にある、AIの「長時間思考」
NVIDIAが2025年度の最後の3ヵ月で達成した393億ドルという莫大な売上のうち、約91%にあたる356億ドルを叩き出したのがデータセンター事業部門である。ここ数年、同社のデータセンター事業は驚異的な勢いで成長しており、過去2年間で売上はほぼ10倍にまで拡大している(2023年度第4四半期のデータセンター事業部門の売上は36億2000万ドル)。
このデータセンター事業の劇的な成長の牽引役がBlackwellだ。ちょうど1年前の2024年3月に発表されたBlackwellは、AWSやMicosoftをはじめとするハイパースケーラーはもちろんのこと、世界各国のクラウドプロバイダやデータセンター事業者からの高い需要を背景に、2025年度第4四半期には110億ドル(約1兆6300億円)もの売上を達成した。NVIDIAのジェンスン・フアン(Jensen Huang)CEOはこの決算を受けて以下のようにコメントしている。
「Blackwellの需要は驚異的で、これは推論AI(Reasoning AI)によって新たなスケーリングの法則が追加されたことによる。トレーニング用の計算能力を増やせばモデルがよりスマートになり、長時間思考(long thinking)用の計算能力を増やせば回答がよりスマートになるという法則だ」

NVIDIA Corporation ジェンスン・フアンCEO
(NVIDIA AI Smmit Japan 2024のプレスカンファレンスにて)
ここで注目したいのが「長時間思考」というキーワードだ。NVIDIAは「事前トレーニングスケーリング(pre-training scaling)」「事後トレーニングスケーリング(post-training scaling)」「長時間思考を備えたテストタイムスケーリング(test-time scaling "long thinking")」という3つのスケーリングの法則がAIの進化を支えていると提唱している[1]。Blackwellは前世代のHopperなどと比較してリアルタイム推論において非常に高い性能を発揮することが知られているが、リリースから1年を経た現在では、より複雑なクエリに対して論理的で正確に回答する推論時の長時間思考、つまり第3のスケーリング法則へのフォーカスを強めており、フアンCEOも公式の場でたびたび長時間思考の重要性について言及している。
特にユーザーから複雑な質問(クエリ)を投げかけられることが多い自律型AIエージェントなどでは、たとえ回答に数秒多く要したとしても、より質の高い回答を求められるケースが少なくない。第3のスケーリングの法則にしたがい、長時間思考に対してより多くのコンピューティングリソースを割り当てることで、モデルは解決のための複数のアプローチ(複雑なクエリの分解、同じプロンプトに対する複数の回答の生成→最も採用される回答の選択、木構造の回答から複数の経路を探索など)を模索/検討することが可能になり、ときにはより良い回答にたどり着くため、思考の過程をユーザーに開示/確認することもある。長時間思考の推論には一般的な1回限りの推論に比べて数十倍から100倍以上のコンピューティングリソースが必要とも言われており、今後、AIエージェントやチャットボットの普及が拡大すれば、エージェントの“考える力”をスケールさせるBlackwellの需要がさらに伸びる可能性は高い。

OpenAIが2024年にリリースしたo1やo1‐mini、o3-miniなど「oシリーズ」と呼ばれる推論モデルは、従来のGPTモデルとは異なり、長時間思考能力を大幅に向上させたモデルといわれている。同社によると、これらのモデルは回答する前により長い時間をかけて思考し、複雑なタスクの推論を行い、科学や数学、コーディングなどにおいてより難しくて複雑な問題を解けるように設計されているという。2022年11月のChatGPTのリリースで世界を驚かせたOpenAIだが、当時は推論や長時間思考が話題になることはあまりなかった。しかし現在は、同社も推論モデルの開発により力を入れていく姿勢を表明しており、NVIDIA同様、長時間思考をともなう推論モデルの重要性を強く意識していることがうかがえる。
長時間思考できるAIが複雑な問題を解く力をパワーアップすれば、気候変動やエネルギー問題、食料不足など現実世界を取り巻く様々な課題に対するシミュレーションのあり方も変わってくるだろう。また、複雑な思考過程をもつ“考えるAI”が人間のエキスパートと連携することで医療や法律、行政といった公共性の高い分野での意思決定に大きな影響をもたらす可能性もある。
本稿が公開されるころにはNVIDIAの年次カンファレンス「GTC 2025」が開催され、Blackwellビジネスの現状やBlackwellの後継GPU「Rubin」の詳細も明らかになっているはずだ。これらのチップの“考える力”の進化と、そのスケーリングに対するニーズの変化に、あらためて注目していきたい。

2025年3月に開催された「NVIDIA GTC 2025」の基調講演でフアンCEOが言及した“第3のスケーリングの法則”である推論の長時間思考。エージェントAIの普及には長時間思考により多くのコンピューティングリソースを割り当てる必要があるとされている
[クリックすると拡大します]
[1] NVIDIAブログ「よりスマートで強力な AI をスケーリング則によって実現する方法」(2025年2月28日)