NVIDIA、新たに次世代AIプラットフォーム『Rubin』を発表
2026年1月5日、ラスベガスで開催されたCESで、NVIDIAは次世代AIプラットフォーム『Rubin』を発表しました。このプラットフォームは、AIスーパーコンピューターとしての新たな基準を打ち立てる6つの新しいチップで構成され、コスト効率とパフォーマンスを大幅に向上させることを目指しています。
Rubinプラットフォームの概要
Rubinは、ハードウェアとソフトウェアの緊密な協調設計によって、従来のNVIDIA Blackwellプラットフォームに比べ、推論トークンのコストを最大10分の1に下げ、MoE(Mixture of Experts)モデルのGPU数を4分の1に減少させることが可能です。この革新的なプラットフォームは、NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6スイッチ、NVIDIA ConnectX®-9 SuperNIC、NVIDIA BlueField®-4 DPU、そしてNVIDIA Spectrum™-6イーサネットスイッチの6つのチップによって構成されています。
高効率なネットワーキングとデータ管理
NVIDIAはSpectrum-Xイーサネットファミリーも発表しており、これはAIネットワーキングに特化した次世代技術です。この技術により、AIファクトリーの効率と耐障害性を大幅に向上させることができます。また、電力効率が5倍向上するとともに、信頼性も10倍に向上する見込みです。
AIエコシステムの広がり
Rubinプラットフォームは、多くの企業と研究機関によって採用される予定です。具体的には、Amazon Web Services(AWS)、Google、Microsoft、CoreWeaveなどのクラウドサービスプロバイダーが含まれており、NVIDIAの技術が今後のAI市場にどのように影響を与えるかが注目されています。
改革されたトレーニングと推論能力
Rubinプラットフォームは、エージェント型AIや高度なリーズニング機能を最近のAIワークロードに対応できるように改良されています。特に、エージェント型AIや複雑な作業を実行するため必要な長いトークン列を効率的に処理できる技術が新たに導入されています。この結果、AI導入がさらに加速することが期待されています。
環境の次元を超える技術
NVIDIA Vera Rubin NVL72は、72基のNVIDIA Rubin GPUと36基のNVIDIA Vera CPUを統合したシステムを提供します。また、各GPUは3.6TB/sの帯域幅を提供し、260TB/sの総帯域幅を誇ることから、非常に大規模なAIトレーニングと推論が行えることがわかります。
複数のパートナーとの協力
使いやすさを追求する中で、NVIDIAはRed Hatと提携し、最新のAIスタックをRubinプラットフォーム向けに最適化しました。これにより、Fortune Global 500企業を含む多数の企業によって広く利用されることでしょう。
展望
Rubinプラットフォームの製品は、2026年後半から提供される見込みで、AI産業全体において新しい可能性を切り開くことが期待されます。NVIDIAが新たに打ち立てるAIの未来に、ますます注目が集まることでしょう。今後のAI技術の進展を共に楽しみにしましょう。