通义推出首个开源影视级配音大模型:AI终于会“带感情地说话”

在 AIGC 已改变图像与文字创作之后,影视行业里最后一道需要大量人工的环节——配音,正被阿里通义实验室突破。3 月 16 日,通义实验室正式发布并开源了全球首个支持影视级、多场景配音的多模态大模型Fun-CineForge

一直以来,AI 配音常被诟病“太机械”“像播音”,缺少真实情感。特别是在影视剧中,角色情绪爆发、环境杂音混合,以及口型对齐等难点,长期是 AI 的短板。Fun-CineForge的出现,正是为了解决这些痛点。

这款大模型采用“数据+模型”一体化的新思路。除了模型本身,通义实验室还同步开放了高质量数据集的构建方法。这让 AI 不再只是按字面读台词,而是能更好地理解影视语境,呈现细腻的情绪变化,并在不同场景下还原更真实的空间音效。

作为通义家族的新成员,Fun-CineForge的开源意义尤为突出。它既能作为面向视频创作者的“影视级”后期工具,也通过技术下沉,让中短剧团队甚至个人创作者,都能以更低成本完成高质量的跨语种译制。

从去年的Qwen3-Omni到今天的Fun-CineForge通义系列正在加速补上多模态能力的关键一块。当 AI 真正能像演员那样“演戏”,影视翻译和后期制作的工作方式,或许将被彻底重塑。目前,这一模型及其数据集构建方案已在相关开源平台上线,“影视级 AI”普及的脚步,可能比我们想象得更快。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享