最近,字节跳动携手南洋理工大学推出的开源框架 StoryMem 在AI视频生成领域引发关注。它通过创新的“视觉记忆”机制,把现有的单镜头视频扩散模型升级为多镜头长视频叙事系统,可自动生成时长超过1分钟、包含多次镜头切换且角色与场景高度统一的叙事视频,标志着开源AI视频技术向电影级讲故事迈出关键一步。
StoryMem的核心亮点:记忆加持的逐镜头生成
StoryMem引入受人类记忆启发的“Memory-to-Video(M2V)”设计,维护一个紧凑的动态记忆库,存放已生成镜头的关键帧信息。先用文本到视频(T2V)模块生成首个镜头作为初始记忆;之后每生成一个新镜头,都通过 M2V LoRA 将记忆中的关键帧注入扩散模型,确保角色形象、场景风格和叙事逻辑在不同镜头间保持一致。
完成一个镜头后,框架会自动做语义关键帧提取与美学筛选,再把结果写回记忆库。这样迭代生成的方式,能有效避免传统长视频里常见的角色“变脸”和场景突变问题,而且只需轻量级 LoRA 微调即可,不需要海量长视频数据训练。

一致性更稳,画面更像电影
实验结果显示,StoryMem在跨镜头一致性方面相比现有方法有明显优势,指标最高提升达29%,在人类主观评测中也更受偏好。同时,它沿用了基础模型(如 Wan2.2)的高画质、对提示的良好遵循和镜头控制能力,支持自然转场与自定义故事生成。
此外,团队还发布了 ST-Bench 基准数据集,收录300个多样化的多镜头故事提示,为长视频叙事质量提供标准化评测参考。
应用广泛:快速预览与A/B测试好帮手
StoryMem特别适合需要快速迭代视觉内容的场景:
– 营销与广告:根据脚本快速生成动态分镜,便于多版本A/B测试
– 影视前期:辅助剧组可视化故事板,降低概念阶段成本
– 短视频与独立创作:轻松产出连贯叙事短片,提升专业质感
社区响应迅速:ComfyUI集成已有初版
项目开源后不久,社区已开始尝试本地化部署。部分开发者在 ComfyUI 中搭建了初步工作流,支持本地生成长视频,进一步降低使用门槛。
AIbase观点:长视频的一致性一直是AI生成领域的难点。StoryMem用轻量高效的方案破解这一问题,推动开源视频模型向实用叙事工具演进。未来随着更多多模态能力的融合,它在广告、影视与创作领域的潜力还会继续释放。
项目地址:https://github.com/Kevin-thu/StoryMem

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?