12月2日,法国独角兽 Mistral AI 发布 Mistral 3 系列模型,覆盖 3B、8B、14B 三款小型密集模型,以及迄今旗舰款的 Mistral Large3,适配从边缘设备到企业级推理的多种场景。新系列继续沿用 Apache 2.0 开源协议,模型权重已同步上架 Hugging Face 与 GitHub,商业可免费使用。
Mistral 3 在延续前代低延迟优势的同时,将上下文长度拓展至 128K,并在 MMLU、HumanEval、MT-Bench 等主流基准上与同规格的 Llama 3.1 基本持平或略有领先。官方介绍,通过“滑动窗口注意力 + 分组查询注意力”的混合设计,14B 版本仅用一张 A100 即可完成 128K 全上下文推理;在批量任务中,吞吐提升 42%,为学术研究、商业分析、教育内容生成等应用带来更高性价比。

图源说明:图片为 AI 生成,授权来自 Midjourney
Mistral AI 联合创始人兼首席科学家 Guillaume Lample 表示:“我们的目标是让高性能 AI 摆脱厂商绑定。开发者无需巨额预算,也能获得与闭源方案相当的效果。”目前,Mistral Large3 已在公司官方平台 Le Platforme 上线 API,定价为每百万 token 输入 0.8 美元、输出 2.4 美元,约为 GPT-4o 的一半,并支持微调与私有化部署。业内分析认为,依托欧洲 GDPR 合规优势与开放权重策略,Mistral 3 有望进一步渗透中小企业与公共部门市场,推动 AI 基础设施走向“多极化”竞争。


















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?