小米开源跨域具身大模型 MiMo-Embodied:29 项基准创纪录,一套权重覆盖自驾与家用

2025 年 11 月 21 日,小米宣布推出并开源业内首个同时贯通自动驾驶与具身智能的跨域基础模型 MiMo-Embodied,模型与权重已在 Hugging Face 与 arXiv 同步上架。

元宇宙 科幻 赛博朋克 绘画 (4)大模型

技术亮点  

1. 跨域能力覆盖:一套参数同时覆盖具身智能三类任务(可供性推断、任务规划、空间理解)与自动驾驶三类任务(环境感知、状态预测、行车规划),将室内交互与道路决策纳入统一建模。  

2. 双向协同赋能:实验证明室内交互与道路决策之间存在知识迁移的相互促进,为跨场景智能融合带来新的思路。  

3. 全链优化可靠:采用“具身/自驾能力学习→CoT 推理增强→RL 精细强化”的多阶段训练策略,显著提升真实环境中的部署可靠性。

性能表现  

在覆盖感知、决策与规划的 29 项核心基准中,MiMo-Embodied 整体领先现有开源、闭源及专用模型:具身智能领域 17 项 Benchmark 取得 SOTA,自动驾驶领域 12 项 Benchmark 刷新最佳记录,并在通用视觉语言任务上展现出强泛化能力。

应用与生态  

小米计划率先将 MiMo-Embodied 应用于自研扫地机器人、工厂 AGV 及 SU7 高阶智驾,并自 2026 年 Q1 起通过 OTA 推送;同时开放模型 API,面向家居、移动出行与制造业开发者提供跨域智能底座。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享