芯片巨头英伟达周一在加州圣地亚哥举行的 NeurIPS 人工智能大会上发布了全新的基础设施与人工智能模型,目标是加速打造“物理人工智能(Physical AI)”所需的底层技术——这一领域涵盖能感知并主动与现实世界互动的机器人与自动驾驶车辆。
首款面向自动驾驶的推理型视觉语言模型发布
英伟达带来了 Alpamayo-R1,这是一款为自动驾驶研究打造的开放式推理视觉语言模型(VLAM)。官方表示,这是首个专注自动驾驶场景的视觉语言“动作”模型。视觉语言模型能同时理解图像与文本,让车辆既能“看见”周围环境,又能依据感知结果做出行动判断。
Alpamayo-R1 构建于英伟达的 Cosmos-Reason 之上,这是一种在回答前会进行“思考”与决策的推理模型。英伟达称,像 Alpamayo-R1 这样的能力对冲刺 L4 级完全自动驾驶的企业至关重要,并期待这类推理模型为自动驾驶汽车注入“常识”,从而更好地处理复杂路况,更接近人类驾驶员的判断方式。
该模型已在 GitHub 与 Hugging Face 平台开放下载与试用。

Cosmos Cookbook:助力开发者快速落地
除视觉模型之外,英伟达还在 GitHub 推出名为 Cosmos Cookbook 的一整套分步指南、推理资源与训练后工作流程。内容覆盖数据整理、合成数据生成、模型评估等环节,旨在帮助开发者更高效地使用与训练 Cosmos 系列模型,满足不同业务场景的需求。
瞄准下一波 AI 浪潮:物理人工智能
此次发布正值英伟达全面布局“物理人工智能”的关键阶段,公司将其视为先进 AI GPU 的新增长方向与核心应用。
英伟达联合创始人兼首席执行官黄仁勋多次表示,下一波人工智能浪潮将由物理人工智能引领。英伟达首席科学家比尔·戴利也持相同观点,并特别强调其在机器人领域的应用。他曾表示:“我相信未来机器人会在世界上发挥重要作用,而我们的目标是为所有机器人打造大脑。要实现这一点,我们必须从关键技术的研发做起。”


















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?