开源圈再迎重磅!Mistral Small 4 发布:三位一体,更强也更省?

在开源大模型赛道,Mistral AI再次用“效率至上”做出示范。今日,该公司宣布以 Apache 2.0 许可正式开放 Small 系列的最新成员——Mistral Small4,并同步官宣加入英伟达新成立的 Nemotron 联盟,成为创始成员之一。

这可不只是常规迭代。官方将Mistral Small4定位为首款“三位一体”的多功能模型,把 Mistral 家族的三大王牌能力合于一身:

Magistral: 出色的逻辑与推理能力。

Pixtral: 原生多模态处理(支持图像输入)。

Devstral: 面向智能体与编码的专业能力。

这意味着开发者无需在“快速指令响应”“深度推理”或“多模态助手”之间取舍,一套模型即可覆盖多场景。

在规格方面,Mistral Small4采用精密的128 专家混合(MoE)架构。尽管总参数达到 1190 亿,但每个 Token 仅激活 4 个专家(约 60 亿活跃参数),在保证效果的同时显著降低算力开销;配合 256k 超长上下文窗口,长文档分析与复杂对话也能从容应对。

更值得一提的是,模型提供“可配置推理强度”。用户可在低延迟的快速响应与更深入的思考输出之间自由切换。实测显示:

在延迟优化模式下,端到端完成时间减少了 40%

在吞吐量优化模式下,每秒请求数(RPS)相较前代提升了 3 倍

从代码补全到视觉理解,Mistral Small4的开源无疑为全球开发者提供了更灵活、更高效的“通用底座”。当顶尖推理与原生多模态融为一体,开源社区的创新天花板或将再被抬升。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享