Liquid AI 近日发布 LFM2.5,这是一代全新的小型基础模型家族,沿用 LFM2 架构,重点面向边缘设备与本地部署。该系列包含 LFM2.5-1.2B-Base 与 LFM2.5-1.2B-Instruct,并扩展了日语、视觉语言和音频语言等变体。模型以开源权重形式上线 Hugging Face,并在 LEAP 平台提供展示与体验。
LFM2.5 继续采用为 CPU 和 NPU 优化的混合式 LFM2 架构,目标是实现更快、占用更少内存的推理。预训练阶段将参数规模提升到 1.2 亿,训练数据从 10 万亿 tokens 扩展至 28 万亿 tokens。随后,指令版模型进行了监督微调、偏好对齐以及多阶段的大规模强化学习,重点加强指令跟随、工具使用、数学与知识推理能力。

在文本模型表现方面,LFM2.5-1.2B-Instruct 是主打的通用文本模型。官方在 GPQA、MMLU Pro、IFEval、IFBench 等多个基准上公布成绩:GPQA 得分 38.89,MMLU Pro 得分 44.35,明显领先同类开源小模型,如 Llama-3.2-1B Instruct 和 Gemma-3-1B IT。
同时,LFM2.5-1.2B-JP 是面向日语优化的文本模型,针对 JMMLU、M-IFEval 和 GSM8K 等日语任务进行了专项强化。该检查点在日语任务上优于通用指令模型,并与其他小型多语言模型在本地基准中形成竞争。
在多模态的边缘应用场景中,LFM2.5-VL-1.6B 是升级版的视觉语言模型,融合了图像理解模块。该模型经过调优,可支持文档解析、界面读取与多图像推理等常见需求,并能在边缘环境高效运行。
LFM2.5-Audio-1.5B 是原生音频语言模型,支持文本与音频的双向输入输出,引入了全新的音频反 tokenizer,其速度比旧方案快 8 倍,适配实时语音到语音的对话代理和自动语音识别等任务。
https://www.liquid.ai/blog/introducing-lfm2-5-the-next-generation-of-on-device-ai
划重点:
🌟 LFM2.5 基于 LFM2 架构,覆盖文本、视觉语言与音频语言等多种版本。
📈 模型在多项基准中表现出色,尤其在 GPQA 和 MMLU Pro 上领先同类小型开源模型。
🌐 LFM2.5 系列面向多模态与区域优化,提供强劲的边缘计算能力,适合多种实际应用场景。



















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?