输入分镜脚本,秒级生成1分钟连贯叙事!字节开源StoryMem,让AI视频角色不再“变脸”

近期,字节跳动携手南洋理工大学发布的开源框架StoryMem在AI视频生成领域引起热议。该框架以“视觉记忆”为核心,将只会做单镜头的扩散模型改造成多镜头长视频的叙事引擎,能在几秒内自动生成时长超1分钟、包含多次镜头切换、角色和场景保持高度一致的连贯视频,被视为开源AI视频迈向电影化叙事的重要一步。

核心亮点:记忆机制驱动的逐镜生成

StoryMem的关键在于受人类记忆启发的“Memory-to-Video(M2V)”设计。系统维护一个紧凑、可动态更新的记忆库,存放已生成镜头中的语义关键帧。流程从文本到视频(T2V)模块开始,先生成第一个镜头并写入记忆;随后每生成新镜头,都会通过M2V LoRA把记忆中的关键帧注入扩散模型,使角色外形、场景风格和叙事逻辑在各镜头间始终一致。

当一轮生成结束后,框架会自动进行语义关键帧抽取与美学筛选,优化并更新记忆库。这样的迭代策略有效避免了传统长视频中常见的角色“变脸”和场景突变问题,同时只需轻量LoRA微调即可达成,无需海量长视频数据训练。

image.png

一致性显著提升,画面品质接近电影级

实验结果显示,StoryMem在跨镜头一致性上的表现明显优于现有方法,提升幅度可达29%,在人类主观评价中也更受青睐。同时,它保留了基础模型(如Wan2.2)的高画质、强提示遵循与镜头控制能力,支持自然转场与自定义故事生成。

项目还同步推出了ST-Bench基准数据集,涵盖300个多样化的多镜头叙事提示,用于更规范地评估长视频叙事质量。

应用广泛:快速预览与A/B测试好帮手

StoryMem尤其适合需要高效迭代视觉内容的场景:

– 营销与广告:从脚本快速生成动态分镜,便于多版本A/B测试

– 影视前期:辅助团队可视化故事板,降低概念阶段成本

– 短视频与独立创作:轻松产出连贯叙事短片,提升专业度与完成度

社区进展迅速:ComfyUI初步集成

发布后不久,社区便开始探索本地化部署,有开发者已在ComfyUI中搭建初步工作流,支持本地生成长视频,进一步降低上手门槛。

编辑观点:长视频的一致性一直是AI生成的难点。StoryMem以轻量且高效的方式切入并取得突破,显著推动开源视频模型向实用叙事工具演化。随着更多多模态能力的加入,其在广告、影视与内容创作中的潜力有望继续释放。

项目地址:https://github.com/Kevin-thu/StoryMem

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享