Liquid AI 推出 12 亿参数推理模型:内存占用不足 1GB,手机本地即可运行“思考”模式

近期,Liquid AI 发布了其 Liquid 基础模型家族的新成员——LFM2.5-1.2B-Thinking。这款具备12亿参数的推理模型在端侧设备部署上实现了明显突破。更引人注目的是,它在当代手机上的内存占用仅约900MB,这意味着两年前仍需依赖数据中心的推理能力,如今已可在个人移动设备上完全离线运行。

image.png

不同于主打日常对话的通用模型,LFM2.5-1.2B-Thinking面向复杂逻辑推理、数学计算与工具调用场景而打造。它在给出最终结论前,会先生成内部的“思考轨迹”(thinking traces),这一机制类似人类解题过程,能先规划步骤并核验中间结果,从而显著提升多步骤指令的准确性。

在实测表现上,该模型展现出极高的效率:在 AMD CPU 上解码速度可达每秒239个字符,而在移动端 NPU 上运行速度约为每秒82个字符。借助多阶段强化学习(RLVR)等训练策略,团队将推理中常见的“循环卡死”率从15.74% 降至0.36%,确保了端侧使用的流畅与稳定。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享