百灵大模型再添开源新作:Ling-2.6-flash 全面发布

蚂蚁集团的百灵大模型家族今日再迎重磅升级,Ling-2.6-flash面向全球开发者公开发布。为兼容多样化硬件并降低落地难度,模型同时提供 BF16、FP8、INT4 等多种精度版本,为开发者带来更灵活的推理方案。

这是一款总参数量达 104B、激活参数约 7.4B 的 Instruct 模型。正式官宣前,它曾以“Elephant Alpha”的匿名身份在 OpenRouter 平台进行先行试用。两周的试运行期间,研发团队基于真实反馈做了针对性优化,显著提升了中英文自然切换的流畅度,并强化了在主流编程框架中的适配表现。

image.png

技术亮点:混合架构与卓越效率

Ling-2.6-flash的核心优势集中在其独特的架构设计与高效的运行表现上:

  • 混合线性架构: 借助底层计算优化,模型展现出优异的推理速度。在 4 卡 H20 环境下,推理速度峰值可达 340 tokens/s。Prefill(预填充)吞吐指标上,相比 Nemotron-3-Super 提升约 2.2 倍,显著缩短响应延迟。

  • 出色的“智效比”: 训练过程中对 Token 使用进行了深度校准。评测显示,在完成同等质量任务时,Ling-2.6-flash仅需约 15M tokens,约为同类竞品的十分之一,明显降低商用成本。

场景深耕:定向增强智能体能力

面向当前应用最广泛的 Agent(智能体)场景,Ling-2.6-flash进行了专项强化。无论是复杂的工具调用、多步逻辑规划,还是最终的任务执行力,整体表现均十分稳健。在 BFCL-V4、SWE-bench 等多项行业主流评测中,即便对比激活参数规模更大的模型,Ling-2.6-flash仍能保持相近,甚至达到行业领先(SOTA)的水平。

目前,开发者可通过 Hugging Face 和 ModelScope(魔搭社区)获取该模型的开源资源,继续探索其在各类行业应用中的潜力。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞10 分享