2025年12月30日,腾讯混元团队正式开源HY-Motion1.0(Hunyuan-Motion-1.0),一款参数规模达十亿级的文本生成3D动作大模型。模型采用Diffusion Transformer(DiT)架构并结合流匹配技术,只需一句自然语言描述,就能产出高保真、连贯多样的3D角色骨骼动画,且可直接接入Blender、Unity、UE等主流3D工具,大幅降低动画制作门槛。

核心技术亮点
HY-Motion1.0采用分阶段训练方案:先在超3000小时的多样化动作数据上进行预训练,建立通用运动理解;再用400小时的高质量精选数据微调,强化细节与顺滑度;最后通过人类反馈强化学习(RLHF),配合奖励模型,对物理合理性与语义对齐进一步打磨。
模型覆盖6大类、200+动作类型,范围涵盖基础移动、体育运动、健身户外、社交休闲、日常行为以及游戏角色动作(如持剑格挡、僵尸步态)。输出支持SMPL-H骨骼格式,可生成原子动作、组合序列与并行动作。
实测表现亮眼
社区测试显示,在日常场景中还原度很高:例如“跑步”“坐到椅子上”“双腿往上跳两次”等指令,动作自然连贯;复杂动作如《黑客帝国》的“子弹时间”下腰,也能产生流畅、稳定的姿态。
评估方面,指令理解与执行(SSAE指标)达78.6%,动作质量均分为3.43分(满分5分),全面领先MoMask、DART等开源基线,尤其在复杂指令与多类别覆盖上优势明显。
极限项目上仍有提升空间:对职业级动作(如跳台滑雪、跳水、BMX小轮车)还原度稍弱,个别关节过渡略显不自然,但整体物理合理性已明显优于前代方法。
游戏动画应用前景广阔
这一端到端模型非常适合游戏开发:能快速批量生成NPC的日常与互动动作,大幅加速前期验证与版本迭代;主角动作虽仍需后期精修,但已可无缝导入各大引擎,助力MMO与动作游戏制作。同样适用于影视分镜、广告走位、VR内容创作。
同时开源的轻量版HY-Motion-1.0-Lite(0.46B参数)部署更轻便、上手更友好。
项目地址:https://hunyuan.tencent.com/motion?tabIndex=0


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?