
NVIDIA released the new generation Rubin platform, with inference costs reduced by 10 times compared to Blackwell, and plans to ship in the second half of the year

英伟达发布新一代 Rubin 平台,训练性能是 Blackwell 的 3.5 倍,运行 AI 软件的性能则提升 5 倍,训练混合专家模型所需 GPU 数量减少 4 倍,推理成本较 Blackwell 降 10 倍。黄仁勋称,全部六款 Rubin 芯片已通过显示其可按计划部署的关键测试。英伟达称该平台已全面投产,拟下半年发货,亚马逊 AWS、谷歌云、微软和甲骨文云等云服务商将率先部署。
英伟达在 CES 展会推出新一代 Rubin AI 平台,标志着其在人工智能(AI)芯片领域保持年度更新节奏。该平台通过六款新芯片的集成设计,在推理成本和训练效率上实现大幅跃升,将于 2026 年下半年交付首批客户。
美东时间 5 日周一,英伟达 CEO 黄仁勋在拉斯维加斯表示,六款 Rubin 芯片已从合作制造方处回厂,并已通过部分关键测试,正按计划推进。他指出"AI 竞赛已经开始,所有人都在努力达到下一个水平"。英伟达强调,基于 Rubin 的系统运行成本将低于 Blackwell 版本,因为它们用更少组件即可实现相同结果。
微软和其他大型云计算提供商将成为下半年首批部署新硬件的客户。微软的下一代 Fairwater AI 超级工厂将配备英伟达 Vera Rubin NVL72 机架级系统,规模可扩展至数十万颗英伟达 Vera Rubin 超级芯片。CoreWeave 也将是首批提供 Rubin 系统的供应商之一。
该平台的推出正值华尔街部分人士担忧英伟达面临竞争加剧,并怀疑 AI 领域的支出能否维持当前速度。但英伟达保持长期看涨预测,认为总市场规模可达数万亿美元。
性能提升瞄准新一代 AI 需求
据英伟达公告,Rubin 平台的训练性能是前代 Blackwell 的 3.5 倍,运行 AI 软件的性能则提升 5 倍。与 Blackwell 平台相比,Rubin 可将推理 token 生成成本降低至多 10 倍,训练混合专家模型(MoE)所需 GPU 数量减少 4 倍。
新平台配备的 Vera CPU 拥有 88 个核心,性能是其替代产品的两倍。这款 CPU 专为代理推理设计,是大规模 AI 工厂中能效最高的处理器,采用 88 个定制 Olympus 核心、完整 Armv9.2 兼容性和超快 NVLink-C2C 连接。
Rubin GPU 配备第三代 Transformer 引擎,具备硬件加速自适应压缩功能,可提供 50 petaflops 的 NVFP4 计算能力用于 AI 推理。每个 GPU 提供 3.6TB/s 的带宽,而 Vera Rubin NVL72 机架则提供 260TB/s 带宽。
芯片测试进展顺利
黄仁勋披露,全部六款 Rubin 芯片已从制造合作伙伴处返回,并已通过显示其可按计划部署的关键测试。这一表态表明英伟达正维持其作为 AI 加速器领先制造商的优势地位。
该平台包含五大创新技术:第六代 NVLink 互连技术、Transformer 引擎、机密计算、RAS 引擎以及 Vera CPU。其中第三代机密计算技术使 Vera Rubin NVL72 成为首个提供跨 CPU、GPU 和 NVLink 域数据安全保护的机架级平台。
第二代 RAS 引擎横跨 GPU、CPU 和 NVLink,具备实时健康检查、容错和主动维护功能,以最大化系统生产力。机架采用模块化、无线缆托盘设计,组装和维护速度比 Blackwell 快 18 倍。
广泛生态系统支持
英伟达表示,包括亚马逊的 AWS、谷歌云、微软和甲骨文云在 2026 年将率先部署基于 Vera Rubin 的实例,云合作伙伴 CoreWeave、Lambda、Nebius 和 Nscale 也将跟进。
OpenAI CEO Sam Altman 表示:“智能随计算扩展。当我们增加更多计算时,模型变得更强大,能解决更难的问题,为人们带来更大影响。英伟达 Rubin 平台帮助我们持续扩展这一进展。”
Anthropic 联合创始人兼 CEO Dario Amodei 称,英伟达 “Rubin 平台的效率提升代表了能够实现更长记忆、更好推理和更可靠输出的基础设施进步”。
Meta CEO 扎克伯格表示,英伟达的 “Rubin 平台有望带来性能和效率的阶跃式变化,这是将最先进模型部署给数十亿人所需要的”。
英伟达还称,思科、戴尔、惠普企业、联想和超微预计将推出基于 Rubin 产品的各类服务器。包括 Anthropic、Cohere、Meta、Mistral AI、OpenAI 和 xAI 等 AI 实验室正期待利用 Rubin 平台训练更大型、更强大的模型。
提前公布产品细节
评论称,英伟达今年比往年更早披露新产品的细节,这是该司保持行业依赖其硬件的举措之一。因为英伟达通常在每年春季加州圣何塞举行的 GTC 活动上深入介绍产品细节。
对黄仁勋而言,CES 只是其马拉松式出席活动的又一站。他要在各类活动中宣布产品、合作和投资,均旨在为 AI 系统部署增添动力。
英伟达公布的新硬件还包括网络和连接组件,将成为 DGX SuperPod 超级计算机的一部分,同时也可作为单独产品供客户以更模块化的方式使用。这一性能提升是必需的,因为 AI 已转向更专业化的模型网络,不仅要筛选海量输入,还需通过多阶段流程解决特定问题。
英伟达正在推动面向整个经济领域的 AI 应用,包括机器人、医疗保健和重工业。作为这一努力的一部分,英伟达宣布了一系列旨在加速自动驾驶汽车和机器人开发的工具。目前,基于英伟达的计算机支出大部分来自少数客户的资本支出预算,包括微软、Alphabet 旗下的谷歌云和亚马逊旗下的 AWS。
