蚂蚁发布开源 LLaDA2.0:首个 100B 级离散扩散语言模型

在大语言模型技术的新趋势下,蚂蚁技术研究院近日正式推出 LLaDA2.0 系列,这是业界首个参数规模达 100B 的离散扩散大语言模型(dLLM)。该模型打破了“扩散模型难以规模化”的固有认知,在生成质量和推理速度上都有明显提升,为大模型的发展带来新的方向。

QQ20251212-161353.png

LLaDA2.0 系列包含两种版本:16B(mini)与 100B(flash)。此次发布的 100B 版本,是目前最大的扩散语言模型,尤其擅长复杂代码生成与指令执行。蚂蚁方面表示,LLaDA2.0 采用全新的 Warmup‑Stable‑Decay(WSD)预训练策略,可无缝承接自回归(AR)模型的知识,避免从零开始训练的高成本。

在技术细节上,LLaDA2.0 展现出并行解码优势,推理速度可达 535 tokens/s,比同级 AR 模型快 2.1 倍。该速度提升来自推理阶段的 KV Cache 复用与块级并行解码。此外,在后训练阶段通过互补掩码和置信度感知并行训练(CAP),进一步提高了数据效率与推理速度。

LLaDA2.0 在多项评测中表现亮眼,尤其在结构化生成任务(如代码生成)中,展现出更强的全局规划能力;在复杂的智能体调用与长文本任务中同样表现稳定,适应多种应用场景。

此次发布既是离散扩散技术的重要里程碑,也证明了其在超大规模应用中的可行性与优势。未来,团队将继续挖掘扩散模型的潜力,计划扩大参数规模,深入结合强化学习与思考范式,推动生成式人工智能的进展。

地址:https://huggingface.co/collections/inclusionAI/llada-20

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享