智效比提升十倍:蚂蚁集团百灵大模型 Ling-2.6-flash 重磅开源

蚂蚁集团旗下的百灵大模型今日宣布,重磅开源其最新成员 Ling-2.6-flash。该模型同步提供 BF16、FP8、INT4 等多种量化版本,为全球开发者带来更灵活的硬件适配选择,进一步降低 AI 部署门槛。

作为一款高性能模型,Ling-2.6-flash 的总参数量达 104B,其中激活参数为 7.4B。早前,该模型曾以匿名身份出现在国际主流评测平台并表现亮眼,随后基于开发者反馈,围绕中英文切换与代码适配进行了多轮深度优化。

image.png

推理效率实现质变

在技术架构层面,Ling-2.6-flash 引入了先进的混合线性架构,大幅释放算力潜能。在主流 H20 显卡环境下,其推理速度最高可达每秒 340 个 Token,吞吐能力明显领先同类产品。

除了速度优势,该模型在智效比方面同样突出。评测显示,在完成同等复杂任务时,Ling-2.6-flash 消耗的 Token 数量约为同级别模型的十分之一,能有效降低企业的长期使用成本。

定向增强智能体场景

面向当下火热的 Agent 应用,蚂蚁集团对模型进行了定向能力增强。无论是复杂的工具调用,还是长路径的任务规划,Ling-2.6-flash 都展现出很强的逻辑执行力与高任务成功率。

目前,该模型已在 Hugging Face 和 ModelScope 等主流开源社区同步上线。通过此次全面开源,蚂蚁集团希望赋能更多垂直领域的开发者,在保障数据隐私的同时,共同探索大模型应用的新边界。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享