Liquid AI 成立于 2023 年,由麻省理工学院的计算机科学家创办。2025 年 7 月,该团队推出了 Liquid Foundation Models 系列的第二代产品(LFM2),依托全新的“liquid”架构,目标是在设备端提供目前速度领先的基础模型。借助高效的训练与推理能力,这些小模型正成为云端大语言模型(如 OpenAI 的 GPT 系列与谷歌的 Gemini)的有力替代方案。
LFM2 首批发布了 350M、700M 和 1.2B 参数的密集模型检查点,采用以门控短卷积为核心的混合式架构。基准评测显示,LFM2 在模型质量与 CPU 吞吐方面均优于 Qwen3、Llama3.2 和 Gemma3 等同类模型。对企业而言,这一系列模型能够在手机、笔记本和车辆等终端上实现实时、注重隐私的 AI 服务,不再需要在能力和延迟之间做取舍。
在 LFM2 发布之后,Liquid AI 继续扩展产品线,新增了任务与领域定制的变体、小型视频摄取与分析模型,以及名为 LEAP 的边缘部署栈。与此同时,公司在 arXiv 上发布了一份 51 页的 LFM2 技术报告,详尽公开了模型的架构搜索流程、训练数据配比、蒸馏目标、课程设计与后训练策略。该蓝图的开放将为其他组织提供可参考的路径,帮助他们从零开始训练符合自身硬件与部署约束的小型高效模型。
LFM2 的设计始终围绕企业的真实需求,如延迟控制、内存上限与散热阈值,确保在不同设备上都能稳定运行。报告也强调了其优化的训练管线,旨在提升指令执行与工具调用的可靠性,使 LFM2 在实际场景中更易用、更好用。
划重点:
🔍 小模型可在设备端高效运行,提供实时且保护隐私的 AI 服务。
💡 Liquid AI 公开的蓝图便于其他企业参考,构建自有的小型高效模型。
🚀 通过优化与约束感知的设计,LFM2 在多种硬件上的可预测性与易操作性进一步增强。

















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?