百灵大模型正式官宣 Ling-2.6-flash:1/10 成本跑出高性能

在全球大模型竞争不断升温的当下,蚂蚁集团旗下的百灵大模型再度发力,正式推出全新 Instruct 模型 Ling-2.6-flash。凭借超高的“智效比”,该模型迅速在人工智能领域引发关注。

从技术面看,Ling-2.6-flash 走的是均衡路线:总参数达到 104B,而实际推理时仅有 7.4B 参数被激活。这样的设计意在在性能与效率之间找到最佳平衡。根据国际权威性机构 Artificial Analysis 的新近评测,Ling-2.6-flash 的能效表现亮眼:完成相同任务仅消耗 15M tokens,约为 Nemotron-3-Super 等主流同类模型的十分之一,这意味着开发者可以用更低的资源成本获得同等级别的智能支持。

值得一提的是,在官宣之前,该模型已匿名上线进行为期一周的压力测试。数据显示,这段时间内其日均 tokens 调用量迅速攀升至 100B 级别。这种“先试后发”的做法,不仅验证了模型在真实高并发场景下的稳定性,也从侧面说明了市场对高性能、高性价比模型架构的强烈需求。

业内普遍认为,Ling-2.6-flash 的推出标志着大模型竞争正从单纯“拼参数规模”走向“比智效”的新阶段。通过优化参数激活机制,该模型在保有大规模知识储备的同时,大幅降低了推理门槛。对需要大规模部署 AI 应用的企业而言,这无疑是一个更具经济效益的选择。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享