NVIDIA 于 2026 年 1 月 5 日在 CES 上正式发布了 Rubin 平台,标志着新一代 AI 超级计算机的开端。该平台通过六款全新芯片的极致协同设计,旨在大幅降低 AI 推理成本,缩短模型训练时间,并加速主流 AI 的普及。
核心组件:六款协同设计芯片
Rubin 平台由以下六款专为 AI 超级计算机设计的芯片构成,通过协同设计实现性能飞跃:
-
NVIDIA Vera CPU:专为智能体推理设计,采用 88 颗定制 OLYMPUS 核心,兼容 Armv9.2,提供高能效与高速 NVLink-C2C 连接。
-
NVIDIA Rubin GPU:搭载第三代 Transformer 引擎,提供 50 PFLOPS 的 NVFP4 运算能力,专为 AI 推理优化。
-
NVIDIA NVLink™ 6 交换机:提供极高的 GPU 间通信带宽(每个 GPU 3.6 TB/s),内置网络计算以加速集合运算。
-
NVIDIA ConnectX®-9 SuperNIC:用于高速网络连接。
-
NVIDIA BlueField®-4 DPU:为 AI 原生存储和安全软件定义基础设施提供支持。
-
NVIDIA Spectrum™-6 以太网交换机:新一代以太网网络,支持 200G SerDes 和光电一体化封装。
平台创新与关键性能
Rubin 平台引入了五项关键技术,实现了显著的效率提升:
-
性能与成本:与上一代 Blackwell 平台相比,将推理 token 成本最多降低至十分之一;在 MoE 模型训练中,使用的 GPU 数量仅为四分之一。
-
第六代 NVLink:提供极快的 GPU 间通信,每个 Vera Rubin NVL72 机架可提供超过整个互联网总带宽的 260TB/s 带宽。
-
第三代机密计算:Vera Rubin NVL72 是首个提供机架级机密计算的平台,全面保护 CPU、GPU 和 NVLink 域的数据安全。
-
第二代 RAS 引擎:涵盖 GPU、CPU 和 NVLink,提供实时运行状况检查、容错和主动维护,提升系统可靠性。
-
模块化设计:机架采用无线缆托盘设计,装配和维护速度较 Blackwell 平台提升 18 倍。
生态系统与合作伙伴
Rubin 平台获得了全球领先的云服务商、AI 实验室和硬件制造商的支持:
-
主要云与基础设施提供商:AWS、Google Cloud、微软、Oracle Cloud Infrastructure (OCI)、CoreWeave 等计划在 2026 年下半年提供基于 Rubin 的实例。
-
领先 AI 实验室:OpenAI、Anthropic、Meta、xAI、Mistral AI 等将借助该平台训练更强大的模型。
-
服务器制造商:思科、戴尔科技、HPE、联想、Supermicro 等预计将推出基于 Rubin 的服务器。
-
软件与存储合作伙伴:红帽(提供完整 AI 堆栈)、NetApp、Pure Storage 等正在合作设计新一代平台。
产品形态与平台扩展
-
NVIDIA Vera Rubin NVL72:机架级扩展解决方案,集成 72 个 Rubin GPU 和 36 个 Vera CPU,提供统一的超高性能系统。
-
NVIDIA HGX Rubin NVL8:通过 NVLink 连接 8 个 Rubin GPU 的服务器主板,为基于 x86 的生成式 AI 平台提供支持。
-
NVIDIA DGX SuperPOD™:提供大规模部署的参考架构。
-
新一代以太网网络:Spectrum-6 以太网及 Spectrum-X 硅光交换机系统,能效和持续运行时间提高 5 倍,为百万 GPU 级 AI 工厂铺路。
全新 AI 原生基础设施
-
推理上下文记忆存储平台:由 BlueField-4 DPU 驱动,可高效共享和复用键值缓存数据,加速代理式 AI 推理。
-
安全可信资源架构 (ASTRA) :由 BlueField-4 引入,为大规模 AI 环境提供单一、可信的安全控制点。
供应情况
NVIDIA Rubin 现已全面量产。
基于 Rubin 的产品预计在 2026 年下半年通过全球合作伙伴提供。
关于 NVIDIA
NVIDIA(纳斯达克股票代码:NVDA)是人工智能和加速计算领域的全球领导者。