圣诞节当天,专注边缘AI的初创公司Liquid AI正式发布其最新实验模型LFM2-2.6B-Exp。这个仅有2.6B(26亿)参数的小型开源模型,在多项关键基准上表现抢眼,尤其在指令跟随方面,超越了参数量高达数百亿的DeepSeek R1-0528,引发行业热议,被称为“最强3B级模型”。
模型背景:纯强化学习带来的实验性突破
LFM2-2.6B-Exp依托Liquid AI第二代Liquid Foundation Models(LFM2)中的2.6B基础模型,通过纯强化学习(RL)进行后训练优化,无需监督微调预热,也不依赖大型教师模型蒸馏。它沿用LFM2的混合架构优势,结合短程门控卷积和分组查询注意力(GQA),支持32K上下文长度,面向手机、笔记本、物联网等边缘设备,便于高效本地部署。
官方表示,这个实验版主要针对指令跟随、知识问答和数学推理等方向深度优化,适合用于代理工作流、RAG检索、数据抽取、创意写作和多轮对话等场景。

性能亮点:小体量也能打
在最新一轮基准测试中,LFM2-2.6B-Exp的成绩十分亮眼:
– IFBench(指令跟随基准):分数明显领先同级模型,甚至超过参数量是其263倍的DeepSeek R1-0528。
– GPQA(研究生级知识问答):约42%,远胜传统3B模型。
– IFEval(严格执行指令):超过88%,跑赢不少10B+参数模型。
– GSM8K(数学推理):得分超82%,优于Llama3.23B与Gemma3系列。
同时,该模型在CPU上的预填充与解码速度约为同类的两倍,占用内存很小,支持bfloat16量化,真正做到“手机也能跑博士级推理”。
开源意义:推动边缘AI加速落地
LFM2-2.6B-Exp已全面开源,模型权重已上传至Hugging Face,开发者可直接下载并接入本地应用。这不仅证明了强化学习在小模型上的巨大潜力,也进一步促进边缘AI生态发展,让高性能AI从云端走到人人可用的设备端。
编辑点评:LFM2-2.6B-Exp的发布意味着小模型时代加速到来——不靠海量参数,凭借更聪明的训练方式就能拿到前沿表现。对于看重隐私、低延迟与低成本的开发者和企业,这款模型无疑是当前的最佳选择之一。未来,随着RL技术与混合架构不断迭代,3B级开源模型有望更接近AGI水平,并能在各种设备上顺畅运行。感兴趣的朋友可前往Hugging Face下载体验,开启边缘智能新篇章。
地址:https://huggingface.co/LiquidAI/LFM2-2.6B-Exp


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?