亚毫米级精确对位:小米公开 VLA 大模型真机后训练全流程

小米近日宣布,正式开源其视觉-语言-动作(VLA)大模型 Xiaomi-Robotics-0 的真机后训练完整流程。这一步意味着小米在具身智能方向又迈出关键一步,目标是用更少的数据、更短的时间,让机器人快速学会复杂操作技能。

二十小时习得“穿针引线”

依托预训练基座,研发团队仅用约20小时的实机任务数据开展后训练,就让机器人掌握了将耳机精准收纳入盒这一难度较高的动作。整个过程不仅需要极高的空间定位与感知精度,还要克服低表面粗糙度带来的微小滑移与位移干扰。

模型必须在亚毫米级公差范围内完成对位,并能实时修正动作偏差。这种连贯顺滑的执行能力,证明了 Xiaomi-Robotics-0 在高精度装配类任务上的强大潜力。

image.png

开源生态助力生产力升级

为让该模型真正做到“开箱即用”,小米此次不仅开放模型权重,还同步发布技术报告与源代码。这种全链路开源方式,显著降低了开发者进入具身智能领域的门槛。

此前,该模型已在国际权威平台表现亮眼,位居全球下载榜前列。随着后训练流程公开,全球开发者将能协同优化机器人的感知与执行逻辑,加快 AI 机器人走进真实生产与生活场景的步伐。

  • 项目网站:https://robotics.xiaomi.com/xiaomi-robotics-0.html

  • 开源代码:https://github.com/XiaomiRobotics/Xiaomi-Robotics-0

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享