Nvidia 发布全新 Rubin 架构,AI 算力全面升级

在今天的消费电子展(CES)上,Nvidia 首席执行官黄仁勋宣布推出公司的全新 Rubin 计算架构,他称这是当前人工智能硬件的前沿之作。Rubin 架构已进入量产阶段,预计下半年将加速推广。

黄仁勋表示:“Vera Rubin 的目标是解决一个关键难题:AI 所需的计算正在急速增长。” 他补充道:“今天我可以确认,Vera Rubin 已经全面投产。”

Rubin 架构首次于2024年亮相,是 Nvidia 持续推进硬件研发的最新成果,这一努力让 Nvidia 成为全球最有价值的公司。Rubin 将接替此前的 Blackwell 架构,而 Blackwell 之前则取代了 Hopper 和 Lovelace。

Rubin 芯片已被多家头部云服务商采用,Nvidia 与 Anthropic、OpenAI 以及亚马逊云服务(AWS)等公司展开了重要合作。Rubin 系统还将应用于 HPE 的 Blue Lion 超级计算机,以及劳伦斯・伯克利国家实验室即将上线的 Doudna 超级计算机。

Rubin 架构以天文学家 Vera Florence Cooper Rubin 命名,由六枚独立芯片协同工作构成,其中 Rubin GPU 是核心。该架构还针对存储与互连的瓶颈进行了优化,新增 Bluefield 与 NVLink 系统。此外,Rubin 还配备一款全新的 Vera CPU,专为自主推理场景打造。

Nvidia 的 AI 基础设施解决方案高级总监 Dion Harris 在电话会议中说明了新存储设计的优势。他指出,现代 AI 系统对缓存相关内存的需求越来越高。随着自主 AI、长时任务等新工作流出现,键值缓存(KV cache)的压力更大。他表示:“我们引入了一个新的外置存储层,可在计算设备之外连接,从而更高效地扩展存储池。”

按 Nvidia 的测试结果,Rubin 架构在模型训练上的速度相比上一代 Blackwell 快三倍半,推理速度提升至五倍,峰值算力可达50拍浮点运算每秒(petaflops)。新平台的每瓦推理效率也提升了八倍。

Rubin 架构发布之际,AI 基础设施竞争正迅速升温,众多 AI 实验室和云服务商争相采购 Nvidia 芯片及其配套算力设施。在2025年10月的一次财报电话会上,黄仁勋预计未来五年将有3000亿至4000亿美元投入 AI 基础设施建设。

划重点:

🌟 Rubin 架构是 Nvidia 最新推出的 AI 计算平台,预期将全面提升算力。

💻 Rubin 芯片已被多家云服务商采用,并将用于多个超级计算机项目。

⚡ 相比前代,Rubin 在速度与能效方面提升明显,为 AI 基础设施竞争注入新动能。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享