1. これは何の話?

先端AIモデルを手掛けるThinking Machines Labが、NVIDIAとの複数年にわたる強力な戦略的パートナーシップを締結しました。
この提携は、NVIDIAの次世代アーキテクチャであるVera Rubinシステムを少なくとも1ギガワットという途方もない規模でデプロイすることを核とし、同時にNVIDIAから重大な資金投資が行われる内容です。
2. 何がわかったか
両社は来年初頭を目処にVera Rubinプラットフォームへの導入を開始し、Thinking Machinesのフロンティアモデルの学習基盤を強化します。単にハードウェアを購入する関係にとどまらず、NVIDIAアーキテクチャに最適化された学習・推論システムの共同設計を行うことも定められています。
さらに、企業や研究機関に向けたオープンモデルの提供や最先端AIへのアクセス拡大も両社の共通目標として掲げられています。
3. 他とどう違うのか
既存のAIインフラ投資と比較して「少なくとも1ギガワット(Gigawatt)」というエネルギー規模は桁外れであり、次世代システム(Vera Rubin)の大規模展開にフォーカスした先鋭的なパートナーシップです。NVIDIAが戦略的投資家として直接資本参加している点も強力な結びつきを意味します。
4. なぜこれが重要か

NVIDIAの最新ハードウェアを大規模に安定確保する基盤が整ったことで、Thinking Machinesはフロンティアモデルの学習・推論インフラを大幅に強化できる立場になります。1ギガワット以上という計算資源の規模は非常に大規模です。
5. 未来の展開・戦略性
「誰もがカスタマイズ可能で協調的なAIシステム」の提供を目指すThinking Machinesは、本パートナーシップによる大規模な計算資源を背景に、独自アーキテクチャとオープンモデルの拡充を目指しています。NVIDIAにとっても、Vera Rubinプラットフォームの大規模展開事例となります。
6. どう考え、どう動くか
基盤モデルの開発において、大規模な計算インフラ確保を戦略的優位性として活用する動きが加速しています。Thinking MachinesとNVIDIAの協業モデルは、今後の業界における資本効率の異なるアプローチの一つとして注目できます。
指針:
- Thinking Machinesが今後公開するオープンモデルの仕様や提供形態に注視する。
- 次世代アーキテクチャによるAI推論や学習のパラダイムシフトに関する最新動向をチェックする。
- カスタマイズ可能なAIプラットフォームの自社導入を見込んだ事前調査を開始する。
次の一歩:
- 今日やること:チーム内で1ギガワット規模の大規模AIインフラについてのニュースを共有し認識を揃える。
- 今週やること:既存のオープンモデルに関する知見を整理し、次期モデルのポテンシャルを議論する。
7. 限界と未確定
- 1ギガワット規のVera Rubinシステムを実際に稼働させるデータセンターの詳細な立地や電力調達計画については記述がありません。
- NVIDIAからの投資額の具体的な規模や評価額については非公開です。
- 今後の具体的な導入時期(来年初頭以降)に関する最新情報を待つ必要があります。
8. 用語ミニ解説
- NVIDIAが発表した次世代のAIアクセラレータおよびシステムプラットフォーム(Vera Rubin)
9. 出典と日付
Thinking Machines Lab(公開日:2026-03-10 / 最終確認日:2026-03-12):https://thinkingmachines.ai/news/nvidia-partnership/






