英伟达在 CES2026全力押注机器人:构建“机器人版 Android”生态

在 CES2026 上,英伟达全面展示其在机器人方向的全新版图:从基础模型、仿真平台到端侧计算硬件,一整套面向“物理 AI”的技术栈集体登场。英伟达传达的信号很明确——不只做单点能力,而是要成为通用机器人的默认底座,定位类似智能手机时代的 Android 操作系统。

这一布局背后,折射出整个 AI 行业重心的迁移。随着传感器越来越便宜、仿真技术愈发成熟,以及能跨任务泛化的模型持续涌现,AI 正在从云端推理走向能在现实世界里感知、思考并执行行动的机器人系统。英伟达希望在这场转变中卡住底层入口。

英伟达

据 AIbase 报道,英伟达在 CES 期间公开了其“物理人工智能”全栈生态的关键细节。公司发布了一组开放的机器人基座模型,支持机器人在多任务、多场景下进行推理、规划与自适应,突破过去只能完成单一、固定任务的限制。相关模型已同步上架 Hugging Face,进一步降低开发门槛。

具体来说,新模型体系包含多项核心组件:Cosmos Transfer2.5 与 Cosmos Predict2.5 充当世界模型,用于在仿真环境生成合成数据并评估机器人策略;Cosmos Reason2 是一款具备推理能力的视觉语言模型(VLM),让 AI 能“看懂”物理世界并据此行动;而 Isaac GR00T N1.6 则是面向人形机器人的新一代视觉语言动作(VLA)模型。GR00T 以 Cosmos Reason 为核心大脑,实现类人机器人全身级控制,使其能够在移动过程中完成复杂操作。

在软件与训练方面,英伟达还推出了 Isaac Lab-Arena。这一托管于 GitHub 的开源仿真框架,是其物理 AI 平台的重要拼图,可在虚拟环境中安全检验机器人能力。该平台瞄准行业长期痛点:随着机器人任务复杂度提升,从精密抓取到电缆布设,真实环境测试成本高、周期长且存在风险。Isaac Lab-Arena 通过整合任务场景、训练工具及 Libero、RoboCasa、RoboTwin 等成熟基准,首度为行业提供统一、可复用的评测与训练标准。

支撑以上链路的是 Nvidia OSMO——一个开源的“指挥中枢”。OSMO 负责打通从数据生成、仿真到模型训练的全流程,覆盖本地桌面与云端,为机器人开发提供一致的调度与管理能力。

在硬件层面,英伟达同步发布了采用 Blackwell 架构的 Jetson T4000 显卡,归属 Jetson Thor 系列。该产品被定位为高性价比的端侧算力升级方案,在 40 至 70 瓦功耗区间内可提供高达 1200 万亿次浮点运算的 AI 算力,并配备 64GB 内存,面向复杂的机器人推理与控制场景。

英伟达也进一步加深了与 Hugging Face 的合作。双方将 Isaac 与 GR00T 技术融入 Hugging Face 的 LeRobot 框架,联通英伟达约 200 万机器人开发者与 Hugging Face 超过 1300 万 AI 构建者的生态。Hugging Face 平台上的开源人形机器人 Reachy2 现已可直接运行在 Jetson Thor 芯片之上,开发者无需依赖封闭系统即可测试不同模型与算法。

从更宏观的视角看,英伟达正通过软硬件一体化策略降低机器人研发门槛,力图成为行业通用的底层供应商。初步成果已显现:机器人已成为 Hugging Face 平台上增长最快的技术类别之一,其中英伟达相关模型的下载量显著领先。同时,波士顿动力、卡特彼勒、Franka Robotics 以及 NEURA Robotics 等多家机器人公司,已开始在产品与研发中采用英伟达技术。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享