清华开源TurboDiffusion:AI视频推理最高提速200倍,消费级显卡也能秒出大片

近日,清华大学TSAIL实验室联合生数科技正式开源视频生成加速框架TurboDiffusion。这项突破把AI视频扩散模型的推理速度提升到原来的100至200倍,同时视觉质量几乎不受影响,意味着AI视频创作正式迈入实时生成新阶段。

加速性能惊人:从分钟级到秒级生成

TurboDiffusion针对现有开源视频生成模型(如Wan2.1与Wan2.2系列的1.3B至14B参数模型)进行了深度优化。在单张RTX5090显卡上,端到端生成速度峰值可超过200倍。例如:

– 5秒长视频生成时间由184秒压缩至1.9秒(约97倍加速);

– 在14B模型下生成720P高分辨率视频,从数千秒降至数十秒。

即使使用消费级RTX4090显卡,也能顺畅跑大型模型,无需依赖昂贵的A100或H100专业卡。硬件门槛显著降低,更多开发者与创作者可轻松入门。

image.png

核心技术揭秘:多重优化组合拳

TurboDiffusion不是重造模型,而是高效的推理框架,通过系统化优化实现近乎无损的极速加速。核心技术包括:

– 8位量化:基于SageAttention进行低位宽注意力计算,充分利用Tensor Core提速;

– 稀疏线性注意力(SLA):只保留关键的注意力连接,显著降低计算开销;

– 时间步蒸馏(rCM):将传统需上百步的采样压缩到3-4步,并结合分数正则化的连续时间一致性蒸馏,稳定输出质量。

上述方法彼此正交,可组合使用,仅需6步训练流程即可复现,实操成本大幅下降。项目全面开源,提供代码、预训练模型权重与完整训练脚本,已在GitHub上收获广泛关注。

行业影响深远:开启实时AI视频新纪元

TurboDiffusion的发布,被业内视为视频生成领域的“DeepSeek时刻”。它不仅解决了高分辨率、长时序视频生成的时延与成本痛点,还引来Meta、OpenAI等国际团队的目光。该框架加速AI视频从实验走向规模化应用,未来有望支撑交互式创作、企业级批量生产等场景。

AIbase认为,这一开源项目将推动AI视频工具的普及,重塑内容创作生态。有兴趣的开发者可立即访问GitHub仓库(https://github.com/thu-ml/TurboDiffusion)进行体验。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享