清华北大等校发布 MotionTrans:机器人零样本学新技能

近日,清华大学、北京大学、上海交通大学、武汉大学等校联合推出一套名为 MotionTrans 的人机协同训练框架。它的亮点是:不需要人工示范,机器人只看人的动作就能学会并完成全新的技巧。这被视为机器人学习上的一次重要进展。

image.png

过去训练机器人往往要大量真实演示,采集过程既耗时又昂贵。比如想教机器人拧瓶盖,就得反复示范并记录细节。现在,MotionTrans 借助虚拟现实(VR)设备,能够精细捕捉人类手部动作,为机器人的学习提供高质量依据。

在具体实施中,研究团队使用便携式 VR 装置,任何人都能随时参与录制。系统不仅采集佩戴者的手部关键点,还会同步获取第一人称视角的视频,保证数据清晰且信息充足。数据收集完成后,团队构建了一个包含 3,213 条演示的数据集,覆盖多类人机任务。

关键技术在于把人的动作转换成机器人能理解并执行的形式。研究者通过优化方法,将人手的细微动作精准映射到机器人的关节角度,使机器人能在真实环境中复现这些动作。同时,为了更适配机器人的工作特性,还对动作速度与舒适工作区进行调整,确保运行安全稳定。

这套创新框架的推出,让机器人能够更自然地模仿人类动作,更高效地掌握新技能,为未来的人机协作打下坚实基础。

github:https://github.com/michaelyuancb/motiontrans

要点速览:  

🦾 MotionTrans 框架发布,机器人可在零示范条件下学会新技能。  

👾 用 VR 设备采集人手部动作,沉淀高质量、丰富的数据集。  

🔧 将人类动作翻译成机器人可执行的指令,提升技能迁移效率。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享