2025年12月30日,腾讯混元团队官宣开源HY-Motion1.0(Hunyuan-Motion-1.0),一款参数规模达10亿的文本到3D动作生成大模型。该模型基于Diffusion Transformer(DiT)架构与流匹配(Flow Matching)机制,只需一句自然语言描述,即可生成高保真、顺滑且多样的3D角色骨架动画,天然兼容Blender、Unity、UE等主流3D工具,大幅拉低动画制作门槛。

核心技术看点
HY-Motion1.0采用分阶段训练思路:先在超3000小时的多样化动作数据上进行预训练,学习通用运动先验;随后使用约400小时的精选高质量数据微调,进一步强化细节与连贯性;最后结合强化学习(RLHF),利用人类偏好与奖励模型,持续优化物理合理性与语义对齐效果。
模型覆盖6大类、200+动作类型,囊括基础位移、体育竞技、健身户外、社交休闲、日常活动与游戏角色动作(如持剑格挡、僵尸行走)。输出采用SMPL-H骨骼格式,既可生成原子动作,也支持组合序列与并发动作。
实测表现出色
社区试用反馈显示,在日常场景中动作还原度极高:如“跑步”“坐到椅子上”“双腿往上跳两次”等提示词,生成动作自然且衔接顺畅;面对《黑客帝国》子弹时间下腰等高难动作,也能稳定复现,姿态流畅。
在量化评测中,指令遵循度达到78.6%(SSAE指标),动作质量均分为3.43分(5分制),整体超越MoMask、DART等开源基线,尤其在复杂指令理解与多类别覆盖方面优势明显。
在极限挑战下,如职业运动员动作(跳台滑雪、跳水、小轮车)仍有欠缺,关节过渡偶尔略显生硬,但整体物理合理性相比前代方法已有显著提升。
游戏动画落地前景广阔
这套端到端方案非常契合游戏开发:可快速生成NPC日常行为(如漫游、互动),显著提速预研与迭代;主角动作虽仍需后期微调,但已可无缝导入引擎,助力MMO与动作类项目制作。影视分镜、广告走位、VR内容创作同样将受益。
同时发布的轻量版HY-Motion-1.0-Lite(0.46B参数)已同步开源,上手与部署更加友好。
项目地址:https://hunyuan.tencent.com/motion?tabIndex=0

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?