在近日于圣地亚哥举办的 NeurIPS 大会上,英伟达发布了其最新的自动驾驶 AI 模型 Alpamayo-R1(AR1),目标是加快无人驾驶的普及。英伟达表示,AR1 是全球首个面向自动驾驶的行业级开放推理视觉-语言-行动(VLA)模型,可同时理解文本与图像,帮助车辆传感器把所“看到”的信息转成自然语言描述。
AR1 将链式推理与路径规划结合,更能从容处理复杂路况。与传统自动驾驶软件不同,它会先分析场景、权衡多种可能方案,用近似人类的思考方式做出决定。英伟达指出,这一能力对实现四级自动化至关重要;按照汽车工程师协会(SAE)的定义,在特定场景下,车辆可完全接管驾驶。
在发布同步的博文中,英伟达应用深度学习研究副总裁布莱恩・卡坦扎罗(Bryan Catanzaro)举例说明了 AR1 的工作方式:当车辆行驶在行人密集且临近自行车道的路段,AR1 能基于链式推理分析路径数据,做出更稳妥的选择,比如绕开自行车道、或预判潜在横穿者并停车。这种“会解释”的推理过程,让工程师更清楚模型决策依据,有助于提升整车安全。
AR1 构建于英伟达早前推出的 Cosmos Reason 之上,并开放访问,研究人员可在非商业前提下进行定制、基准测试或用于自动驾驶研发。AR1 现已发布在 GitHub 和 Hugging Face 上。卡坦扎罗提到,后期的强化学习训练显著增强了模型的推理能力,研究反馈“提升明显”。
划重点:
🌟 AR1 为全球首个行业级开放推理 VLA,可同时理解文字与图片。
🚗 模拟人类思考,强化自动驾驶对复杂场景的处理与决策。
🔍 GitHub 与 Hugging Face 已开放,研究者可用于非商业定制与评测。

















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?