2025年12月30日,腾讯混元团队发布并开源HY-Motion1.0(Hunyuan-Motion-1.0),这是一款参数规模达十亿级的文本生成3D动作模型。模型基于Diffusion Transformer(DiT)与流匹配(Flow Matching)框架,只需一句自然语言,就能合成高保真、连贯且多样的3D角色骨骼动画,可直接对接Blender、Unity、UE等主流3D工具,显著降低动画制作门槛。

核心技术亮点
HY-Motion1.0采用分阶段训练路线:先在超过3000小时的多样化动作库上预训练,建立通用运动先验;再用约400小时精选高质量数据微调,强化细节与流畅性;最后引入基于人类反馈的强化学习(RLHF)与奖励模型,进一步提升物理合理性与语义对齐。
模型覆盖6大类、200余种动作,涵盖基础移动、竞技体育、健身户外、社交休闲、日常行为以及游戏角色动作(如持剑格挡、僵尸步态)。输出为SMPL-H骨骼格式,既支持原子动作,也可生成组合序列与并行动作。
实测表现亮眼
社区体验反馈显示,模型在日常场景中的还原度极高:对于“跑步”“坐到椅子上”“双腿向上跳两次”等提示词,生成结果自然顺滑;面对复杂动作如《黑客帝国》“子弹时间”后仰,也能给出连贯而准确的姿态。
评测结果中,指令理解与执行得分(SSAE)达到78.6%,动作质量均分为3.43(满分5分),整体超越MoMask、DART等开源基线,尤其在复杂指令与多类别覆盖方面表现领先。
在极限项目上仍有挑战:如职业运动员相关动作(跳台滑雪、跳水、小轮车等)还原度有待加强,关节过渡偶尔略显突兀,但总体物理一致性已明显优于过往方法。
游戏动画应用前景广阔
这套端到端方案对游戏开发尤为友好:可快速合成NPC的日常行动(走动、互动等),显著提速立项验证与迭代;主角动作虽仍建议后期细调,但已可无缝导入引擎,助力MMO与动作游戏制作。影视分镜、广告走位、VR内容创作同样受益。
同时发布轻量版HY-Motion-1.0-Lite(0.46B参数),部署更轻便。
项目地址:https://hunyuan.tencent.com/motion?tabIndex=0


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?