小米近日宣布,正式开源其视觉-语言-动作(VLA)大模型 Xiaomi-Robotics-0 的真机后训练完整流程。这一步意味着小米在具身智能方向又迈出关键一步,目标是用更少的数据、更短的时间,让机器人快速学会复杂操作技能。
二十小时习得“穿针引线”
依托预训练基座,研发团队仅用约20小时的实机任务数据开展后训练,就让机器人掌握了将耳机精准收纳入盒这一难度较高的动作。整个过程不仅需要极高的空间定位与感知精度,还要克服低表面粗糙度带来的微小滑移与位移干扰。
模型必须在亚毫米级公差范围内完成对位,并能实时修正动作偏差。这种连贯顺滑的执行能力,证明了 Xiaomi-Robotics-0 在高精度装配类任务上的强大潜力。

开源生态助力生产力升级
为让该模型真正做到“开箱即用”,小米此次不仅开放模型权重,还同步发布技术报告与源代码。这种全链路开源方式,显著降低了开发者进入具身智能领域的门槛。
此前,该模型已在国际权威平台表现亮眼,位居全球下载榜前列。随着后训练流程公开,全球开发者将能协同优化机器人的感知与执行逻辑,加快 AI 机器人走进真实生产与生活场景的步伐。
-
项目网站:https://robotics.xiaomi.com/xiaomi-robotics-0.html
-
开源代码:https://github.com/XiaomiRobotics/Xiaomi-Robotics-0
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 7个月前0
粘贴不了啊用户12648782 8个月前0
用法杂不对呢?yfarer 8个月前0
草稿id无法下载,是什么问题?