MiniMax M2.1重磅开源!100亿激活参数的编码模型登顶SOTA,多语言编程全面超越Gemini 3 Pro与Claude 4.5

国产大模型再迎新高。MiniMax今日宣布将其最新的编码与智能体专用大模型——M2.1全面开源,采用稀疏架构,推理时激活约100亿参数,在多语言编程、真实代码生成及工具调用等关键场景实现明显跃升。基于权威基准SWE-Multilingual与VIBE-Bench,M2.1不仅显著领先同类开源模型,更跑赢谷歌Gemini3Pro与Anthropic Claude4.5 Sonnet等闭源旗舰,宣告开源编码模型迈入“性能反超闭源”的新阶段。

image.png

真实编程场景全线领先,多语言SOTA

M2.1面向开发者日常写码与原生AI智能体(Agent)打造,核心优势包括:  

– 多语言编程SOTA:在Python、JavaScript、Java、Go、Rust、C++等主流语言上达到开源模型的最高水准,跨语言迁移能力与复杂项目上下文理解尤为突出;  

– 真实工程任务更强:在SWE-Multilingual(多语言软件工程基准)中,M2.1的代码修复准确率和端到端任务完成率明显优于Gemini3Pro与Claude4.5 Sonnet;  

– 智能体协作优化:围绕工具调用、API集成、错误诊断等Agent关键能力,在VIBE-Bench(Visual-Agent & Interactive Behavior Evaluation)中表现出色,为构建高可靠AI开发者代理提供坚实底座。

稀疏激活架构,高性能低推理成本

M2.1采用混合专家(MoE)稀疏激活机制,推理阶段仅激活约100亿参数(总参数更大),在保持强劲性能的同时显著降低算力开销,使开发者可在消费级GPU或云实例上高效运行,推进高性能编码模型的“普惠化”。

开源生态加速爆发,国产模型迎头追赶

值得一提的是,就在M2.1发布前一天,智谱AI也开源了GLM系列新模型,在SWE-Bench单语言测试上与M2.1不相上下,进一步展现中国开源大模型在专业领域的强劲势头。MiniMax团队在发布中感谢早期测试伙伴的反馈,强调M2.1是“为真实开发者而生”的工程化产品,而非单纯冲榜的模型。

AIbase认为,M2.1的到来不仅是技术里程碑,也释放出关键信号:在垂直专业赛道,开源模型已具备对闭源巨头发起全面挑战、乃至实现超越的能力。当开发者无需依赖外部API、能够自由部署、微调并审计代码模型时,AI编程的真正民主化才算开启——而这场由MiniMax引领的开源浪潮,正在重塑全球开发者工具链的未来版图。

官方文档:https://www.minimax.io/news/minimax-m21

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享