1. これは何の話?
NVIDIAは1月5日、ラスベガスで開催したCEOジェンスン・フアン氏の基調講演において、AIデータセンター向けの新型GPU「Rubin」とCPU「Vera」を正式発表しました。現行世代のBlackwellの後継となるRubinは、新しいGPUアーキテクチャとHBM4メモリを採用し、AI推論と学習性能を大幅に向上させています。

2. 何がわかったか
RubinはNVFP4演算時に推論50PFLOPS、学習35PFLOPSを実現します。Blackwell世代(いずれも10PFLOPS)と比較すると、推論で5倍、学習で3.5倍の性能向上です。HBM4メモリの帯域幅は22TB/sでBlackwellの2.8倍に向上し、GPUあたりのNVLink帯域も3.6TB/sで2倍になっています。NVIDIAによれば、トークンあたりのコストは推論で10分の1、学習で4分の1に削減されるとのことです。

3. 他とどう違うのか
CPUのVeraはNVIDIA独自設計のOlympusコアを88基搭載したArm CPUです。独自開発の仮想マルチスレッディング技術「NVIDIA Spatial Multi-threading」により、176スレッドでの動作が可能です。Vera 1基とRubin 2基を搭載した「Vera Rubin」モジュール、36枚のVera Rubinを1つのラックに集約した「Vera Rubin NVL72」も提供されます。x86プロセッサ向けには「HGX Rubin NVL8」と「DGX Rubin NVL8」が用意され、顧客はArm CPUとx86 CPUのどちらでもRubinを利用できます。
4. なぜこれが重要か
エージェンティックAIや大規模MoEモデルなど、次世代AIワークロードへの対応を見据えた設計です。推論コストが10分の1に削減されれば、商用AIサービスの採算性が大きく改善します。また、NVLink 6、Confidential Computing、RASエンジンなど、エンタープライズ向けのセキュリティと信頼性機能も強化されています。

5. 未来の展開・戦略性
Vera Rubinは2026年後半に登場予定です。4大クラウドプロバイダー(AWS、Google Cloud、Microsoft Azure、Oracle Cloud)や、Dell、HPE、Lenovo、SupermicroなどのOEMメーカー経由で提供されます。OpenAI、Anthropic、MetaといったAIモデル開発企業も採用計画を明らかにしています。NVIDIAはスケールアウト向けのネットワーク製品(ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switch)も同時に発表しており、データセンター全体の刷新を提案しています。
6. どう考え、どう動くか
たとえばAI推論サービスを運用しているチームであれば、Rubin世代への移行によるコスト削減効果を試算することで、設備更新計画の材料になります。
指針:
- 自社のGPU利用コストを洗い出し、Rubin移行時のROIを簡易試算する。
- 利用しているクラウドベンダーのRubin対応スケジュールを確認する。
- 現行のBlackwell対応コードがRubinでも動作するか、CUDA互換性情報を調べる。
次の一歩:
- 今日やること:NVIDIAの公式発表資料でRubinのスペック表を確認する。
- 今週やること:自社のAIワークロードにおけるGPUボトルネックを特定し、Rubinで解消可能か検討する。
7. 限界と未確定
- Rubin GPUの価格や消費電力の詳細は公表されていない。利用コストの正確な比較は製品リリース後まで不可。
- 50PFLOPSや22TB/sなどの数値はNVIDIAの公称値であり、実運用環境でのベンチマーク結果は未確認。
- 具体的なソフトウェア対応状況(CUDAバージョン、フレームワーク対応等)は未発表。
8. 用語ミニ解説
- GPUとCPUを1モジュールに統合したNVIDIAの設計。(Vera Rubin / Vera Rubin)
- 次世代の高帯域メモリ規格。(HBM4 / High Bandwidth Memory 4)
9. 出典と日付
PC Watch(公開日:2026-01-06):https://pc.watch.impress.co.jp/docs/news/event/2075697.html







