Liquid AI 近日发布 LFM2.5,这是一代全新的小型基础模型家族,基于 LFM2 架构打造,重点面向边缘设备与本地部署。该系列包含 LFM2.5-1.2B-Base 与 LFM2.5-1.2B-Instruct,并扩展了日语版、视觉语言版和音频语言版。所有模型以开源权重形式上线 Hugging Face,并可在 LEAP 平台进行体验。
LFM2.5 延续了为 CPU 和 NPU 优化的混合 LFM2 架构,目标是实现快速、低内存的推理。其预训练阶段将参数规模扩展至 1.2亿,训练数据量从 10万亿 tokens 提升到 28万亿 tokens。随后,指令模型还进行了监督微调、偏好对齐以及多阶段的大规模强化学习,重点强化指令跟随、工具使用、数学与知识推理能力。

在文本模型表现方面,LFM2.5-1.2B-Instruct 是主要的通用文本模型。Liquid AI 团队在 GPQA、MMLU Pro、IFEval、IFBench 等多个基准上公布了成绩,模型在 GPQA 取得 38.89,在 MMLU Pro 取得 44.35。这些分数明显领先同类开源小模型,如 Llama-3.2-1B Instruct 和 Gemma-3-1B IT。
另外,LFM2.5-1.2B-JP 是专为日语优化的文本模型,重点面向 JMMLU、M-IFEval 和 GSM8K 等日语任务。该检查点在日语任务上优于通用指令模型,并在本地基准测试中与其他小型多语言模型形成有力竞争。
在多模态的边缘场景中,LFM2.5-VL-1.6B 是此次更新的视觉语言模型,融合了图像理解的视觉模块。该模型经过专项调优,支持文档理解、界面读取以及多图推理等实用场景,能在边缘环境高效运行。
LFM2.5-Audio-1.5B 是原生音频语言模型,支持文本与音频的输入输出,引入全新的音频反 tokenizer,速度较以往方案提升约 8 倍,适用于实时语音到语音的对话代理与自动语音识别等任务。
https://www.liquid.ai/blog/introducing-lfm2-5-the-next-generation-of-on-device-ai
划重点:
🌟 LFM2.5 是基于 LFM2 架构的小型基础模型家族,覆盖文本、视觉语言与音频语言多种版本。
📈 模型在多项基准测试中成绩出色,尤其在 GPQA 和 MMLU Pro 上领先同类开源模型。
🌐 LFM2.5 系列支持多模态与区域优化,具备强劲的边缘计算能力,适用于众多实际应用场景。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?