1. 基盤モデルが社会インフラになる
まず、今回のKeynoteを理解する前提として押さえておきたいのが、「AIの基盤モデル(Foundation Model)が社会インフラとして機能する」という考え方です。そして、この社会インフラをさらに進化させていくためには膨大なデータ学習が欠かせません。
基盤モデルがもたらす汎用性
現在のLLM(大規模言語モデル)は、大量のデータを学習した「基盤モデル」を土台としています。この基盤モデルは高い汎用性を持ち、特定のユースケースに合わせて追加学習(ファインチューニング)や、独自データの参照設定を行うだけで、新たなアプリケーションを素早く実装できるという特徴があります。
そのため、社会のさまざまな領域でAIを活用する際、ユースケースごとにゼロからAIを作りこむのではなく、既存の基盤モデルを利用しながら、それぞれの領域固有のノウハウや知識を付与していく形へとシフトしていきます。これにより、従来よりも圧倒的にAIのモデルやアプリケーションを作るコストが下がり、結果として基盤モデルは社会における“共通基盤”として広く用いられることになるでしょう。
「スケーリング則」がもたらす大競争
さらに、AIの性能はモデルサイズ(パラメーター数)や学習データ量、計算資源に比例して向上していくことが知られています。これを「スケーリング則」と呼びます。こうしたモデルをより高性能にするために、海外のビッグテック企業を中心に巨額の投資と技術開発の競争が激化しているのが現状です。
今回の発表では、進化していく社会インフラとしての基盤モデルを支えるために必要な学習データや計算資源を、NVIDIAがいかに整備しているかが示されています。新世代のGPUアーキテクチャ「Blackwell」の発表や、デスクトップサイズの“AIスーパーコンピュータ”を実現する「Project DIGITS」の発表は、まさにAI時代、膨大なデータを処理することに対応したものと言えます。
こうして、基盤モデルが社会インフラになり、それがますますデータ処理できるようになることで進化していく世界が示されたと言って良いと思います。