2.6B小体量正面对飙百亿级!Liquid AI推出LFM2-2.6B-Exp实验版

圣诞当天,知名边缘AI初创公司Liquid AI官宣上线其最新实验模型LFM2-2.6B-Exp。这款仅有2.6B(26亿)参数的轻量开源模型,在多项关键评测中表现抢眼,特别是指令跟随能力上压过参数量高达数百亿的DeepSeek R1-0528,迅速引起行业关注,被誉为“最强3B级模型”。

模型背景:纯强化学习驱动的实验突破

LFM2-2.6B-Exp构建于Liquid AI第二代Liquid Foundation Models(LFM2)系列的2.6B底座之上,采用纯强化学习(RL)进行后训练优化,无需监督微调暖启动,也不依赖大型教师模型蒸馏。其延续LFM2的混合架构优势,融合短程门控卷积与分组查询注意力(GQA),原生支持32K上下文长度,面向手机、笔记本、物联网等边缘设备设计,实现高效本地部署。

官方强调,此次实验性检查点重点强化指令跟随、知识问答与数学推理等任务,适配代理工作流、RAG检索、数据抽取、创意写作及多轮对话等应用场景。

image.png

性能亮点:小身材释放大能量

最新基准测试中,LFM2-2.6B-Exp展现出令人惊喜的成绩:

– IFBench(指令跟随基准):得分显著领先同级模型,甚至超越参数量高出263倍的DeepSeek R1-0528。

– GPQA(研究生级知识问答):约42%的成绩,远胜传统3B模型。

– IFEval(指令严格遵循):超过88%,击败多款10B+参数模型。

– GSM8K(数学推理):成绩可达82%以上,优于Llama3.23B与Gemma3系列。

同时,该模型在CPU上的预填充与解码速度比竞品快约2倍、内存占用极低,并支持bfloat16量化,实打实做到“手机级PhD推理”。

开源意义:推动边缘AI加速普及

LFM2-2.6B-Exp已全面开源,权重已上传至Hugging Face,开发者可直接下载并融入本地应用。这既再次验证了强化学习在小模型上的巨大潜能,也为边缘AI生态注入新动能,让高性能AI从云端走向每个人手中的设备。

AIbase点评:LFM2-2.6B-Exp的发布意味着小型模型时代加速到来——不靠海量参数,依靠更聪明的训练范式也能实现前沿表现。对看重隐私、低时延与低成本的开发者和企业而言,这款模型无疑是当前最佳选择之一。展望未来,随着RL技术与混合架构的持续迭代,3B级开源模型有望逼近AGI水平,并在各类设备上顺畅运行。感兴趣的朋友可前往Hugging Face即刻下载体验,开启边缘智能新篇章。

地址:https://huggingface.co/LiquidAI/LFM2-2.6B-Exp

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享