2.6B参数硬刚百亿级巨擘!Liquid AI推出实验版LFM2-2.6B-Exp

圣诞节当天,专注边缘AI的初创公司Liquid AI正式发布其最新实验模型LFM2-2.6B-Exp。这个仅有2.6B(26亿)参数的小型开源模型,在多项关键基准上表现抢眼,尤其在指令跟随方面,超越了参数量高达数百亿的DeepSeek R1-0528,引发行业热议,被称为“最强3B级模型”。

模型背景:纯强化学习带来的实验性突破

LFM2-2.6B-Exp依托Liquid AI第二代Liquid Foundation Models(LFM2)中的2.6B基础模型,通过纯强化学习(RL)进行后训练优化,无需监督微调预热,也不依赖大型教师模型蒸馏。它沿用LFM2的混合架构优势,结合短程门控卷积和分组查询注意力(GQA),支持32K上下文长度,面向手机、笔记本、物联网等边缘设备,便于高效本地部署。

官方表示,这个实验版主要针对指令跟随、知识问答和数学推理等方向深度优化,适合用于代理工作流、RAG检索、数据抽取、创意写作和多轮对话等场景。

image.png

性能亮点:小体量也能打

最新一轮基准测试中,LFM2-2.6B-Exp的成绩十分亮眼:

– IFBench(指令跟随基准):分数明显领先同级模型,甚至超过参数量是其263倍的DeepSeek R1-0528。

– GPQA(研究生级知识问答):约42%,远胜传统3B模型。

– IFEval(严格执行指令):超过88%,跑赢不少10B+参数模型。

– GSM8K(数学推理):得分超82%,优于Llama3.23B与Gemma3系列。

同时,该模型在CPU上的预填充与解码速度约为同类的两倍,占用内存很小,支持bfloat16量化,真正做到“手机也能跑博士级推理”。

开源意义:推动边缘AI加速落地

LFM2-2.6B-Exp已全面开源,模型权重已上传至Hugging Face,开发者可直接下载并接入本地应用。这不仅证明了强化学习在小模型上的巨大潜力,也进一步促进边缘AI生态发展,让高性能AI从云端走到人人可用的设备端。

编辑点评:LFM2-2.6B-Exp的发布意味着小模型时代加速到来——不靠海量参数,凭借更聪明的训练方式就能拿到前沿表现。对于看重隐私、低延迟与低成本的开发者和企业,这款模型无疑是当前的最佳选择之一。未来,随着RL技术与混合架构不断迭代,3B级开源模型有望更接近AGI水平,并能在各种设备上顺畅运行。感兴趣的朋友可前往Hugging Face下载体验,开启边缘智能新篇章。

地址:https://huggingface.co/LiquidAI/LFM2-2.6B-Exp

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享