在全球大模型竞争不断升温的当下,蚂蚁集团旗下的百灵大模型再度发力,正式推出全新 Instruct 模型 Ling-2.6-flash。凭借超高的“智效比”,该模型迅速在人工智能领域引发关注。
从技术面看,Ling-2.6-flash 走的是均衡路线:总参数达到 104B,而实际推理时仅有 7.4B 参数被激活。这样的设计意在在性能与效率之间找到最佳平衡。根据国际权威性机构 Artificial Analysis 的新近评测,Ling-2.6-flash 的能效表现亮眼:完成相同任务仅消耗 15M tokens,约为 Nemotron-3-Super 等主流同类模型的十分之一,这意味着开发者可以用更低的资源成本获得同等级别的智能支持。
值得一提的是,在官宣之前,该模型已匿名上线进行为期一周的压力测试。数据显示,这段时间内其日均 tokens 调用量迅速攀升至 100B 级别。这种“先试后发”的做法,不仅验证了模型在真实高并发场景下的稳定性,也从侧面说明了市场对高性能、高性价比模型架构的强烈需求。
业内普遍认为,Ling-2.6-flash 的推出标志着大模型竞争正从单纯“拼参数规模”走向“比智效”的新阶段。通过优化参数激活机制,该模型在保有大规模知识储备的同时,大幅降低了推理门槛。对需要大规模部署 AI 应用的企业而言,这无疑是一个更具经济效益的选择。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 7个月前0
粘贴不了啊用户12648782 8个月前0
用法杂不对呢?yfarer 8个月前0
草稿id无法下载,是什么问题?