Liquid AI 推出 12 亿参数推理模型:内存占用不足 1GB,手机本地可跑“思考”模式

近日,Liquid AI 发布了其 Liquid 基础模型系列的全新成员——LFM2.5-1.2B-Thinking。这款拥有12亿参数的推理模型在端侧部署上实现了明显突破。更令人关注的是,它在现代手机上的运行仅占用约900MB内存,这意味着两年前还需依赖数据中心的推理能力,如今已能在个人移动设备上完全离线完成。

image.png

与侧重于日常对话的通用模型不同,LFM2.5-1.2B-Thinking面向复杂的逻辑推理、数学计算和工具调用进行了专门优化。它会在给出最终答案前先生成内部的“思考痕迹”(thinking traces),类似人类解题的过程,能更好地规划步骤并校验中间结果,大幅提升多步骤指令的准确性。

在实际性能方面,该模型展现了非常高的效率。其在 AMD CPU 上的解码速度可达每秒239个字符,在移动 NPU 上的运行速度也达到每秒82个字符。通过引入多阶段强化学习(RLVR)等先进训练方法,团队将推理模型常见的“循环死机”率从15.74%降至0.36%,显著保障了端侧使用的流畅与稳定。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享