蚂蚁集团旗下的百灵大模型今日宣布,重磅开源其最新成员 Ling-2.6-flash。该模型同步提供 BF16、FP8、INT4 等多种量化版本,为全球开发者带来更灵活的硬件适配选择,进一步降低 AI 部署门槛。
作为一款高性能模型,Ling-2.6-flash 的总参数量达 104B,其中激活参数为 7.4B。早前,该模型曾以匿名身份出现在国际主流评测平台并表现亮眼,随后基于开发者反馈,围绕中英文切换与代码适配进行了多轮深度优化。

推理效率实现质变
在技术架构层面,Ling-2.6-flash 引入了先进的混合线性架构,大幅释放算力潜能。在主流 H20 显卡环境下,其推理速度最高可达每秒 340 个 Token,吞吐能力明显领先同类产品。
除了速度优势,该模型在智效比方面同样突出。评测显示,在完成同等复杂任务时,Ling-2.6-flash 消耗的 Token 数量约为同级别模型的十分之一,能有效降低企业的长期使用成本。
定向增强智能体场景
面向当下火热的 Agent 应用,蚂蚁集团对模型进行了定向能力增强。无论是复杂的工具调用,还是长路径的任务规划,Ling-2.6-flash 都展现出很强的逻辑执行力与高任务成功率。
目前,该模型已在 Hugging Face 和 ModelScope 等主流开源社区同步上线。通过此次全面开源,蚂蚁集团希望赋能更多垂直领域的开发者,在保障数据隐私的同时,共同探索大模型应用的新边界。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 7个月前0
粘贴不了啊用户12648782 8个月前0
用法杂不对呢?yfarer 8个月前0
草稿id无法下载,是什么问题?