近日,清华大学TSAIL实验室联合生数科技正式开源视频生成加速框架TurboDiffusion。这项突破把AI视频扩散模型的推理速度提升到原来的100至200倍,同时视觉质量几乎不受影响,意味着AI视频创作正式迈入实时生成新阶段。
加速性能惊人:从分钟级到秒级生成
TurboDiffusion针对现有开源视频生成模型(如Wan2.1与Wan2.2系列的1.3B至14B参数模型)进行了深度优化。在单张RTX5090显卡上,端到端生成速度峰值可超过200倍。例如:
– 5秒长视频生成时间由184秒压缩至1.9秒(约97倍加速);
– 在14B模型下生成720P高分辨率视频,从数千秒降至数十秒。
即使使用消费级RTX4090显卡,也能顺畅跑大型模型,无需依赖昂贵的A100或H100专业卡。硬件门槛显著降低,更多开发者与创作者可轻松入门。

核心技术揭秘:多重优化组合拳
TurboDiffusion不是重造模型,而是高效的推理框架,通过系统化优化实现近乎无损的极速加速。核心技术包括:
– 8位量化:基于SageAttention进行低位宽注意力计算,充分利用Tensor Core提速;
– 稀疏线性注意力(SLA):只保留关键的注意力连接,显著降低计算开销;
– 时间步蒸馏(rCM):将传统需上百步的采样压缩到3-4步,并结合分数正则化的连续时间一致性蒸馏,稳定输出质量。
上述方法彼此正交,可组合使用,仅需6步训练流程即可复现,实操成本大幅下降。项目全面开源,提供代码、预训练模型权重与完整训练脚本,已在GitHub上收获广泛关注。
行业影响深远:开启实时AI视频新纪元
TurboDiffusion的发布,被业内视为视频生成领域的“DeepSeek时刻”。它不仅解决了高分辨率、长时序视频生成的时延与成本痛点,还引来Meta、OpenAI等国际团队的目光。该框架加速AI视频从实验走向规模化应用,未来有望支撑交互式创作、企业级批量生产等场景。
AIbase认为,这一开源项目将推动AI视频工具的普及,重塑内容创作生态。有兴趣的开发者可立即访问GitHub仓库(https://github.com/thu-ml/TurboDiffusion)进行体验。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?