MiniMax M2.1重磅开源!100亿激活参数代码模型坐稳SOTA,多语言编程全面超越Gemini 3 Pro与Claude 4.5

国产大模型再迎高光。MiniMax今日宣布开源其最新面向编码与智能体的大模型——M2.1,采用稀疏激活的MoE设计,推理仅启用约100亿参数,在多语言编程、真实代码生成和工具调用等关键场景实现明显跃升。在权威评测SWE-Multilingual与VIBE-Bench中,M2.1不但大幅领先同类开源模型,也超过谷歌Gemini 3 Pro、Anthropic Claude 4.5 Sonnet等闭源旗舰,宣告开源代码模型进入“性能反超闭源”的新阶段。

image.png

真实编码场景全面领先,多语言SOTA

M2.1专为开发者日常写码与原生AI智能体(Agent)打造,其核心亮点包括:  

– 多语言编程SOTA: 在Python、JavaScript、Java、Go、Rust、C++等主流语言中均达到开源模型当前最高水准,尤其在跨语言迁移和复杂项目上下文理解方面表现出色;  

– 真实工程任务更强: 在SWE-Multilingual(软件工程多语言基准)中,M2.1的代码修复准确率与端到端完成率显著优于Gemini 3 Pro与Claude 4.5 Sonnet;  

– 智能体协作优化: 面向工具调用、API集成、错误定位等Agent关键能力,在VIBE-Bench(Visual-Agent & Interactive Behavior Evaluation)中表现亮眼,为打造高可靠AI开发者代理奠定坚实底座。

稀疏激活设计,高性能、低推理开销

M2.1采用混合专家(MoE)稀疏激活机制,推理时仅激活约100亿参数(总参数更大)。在保证效果的同时显著降低算力需求,让开发者可在消费级GPU或常见云实例上高效运行,推动高性能代码模型的“普及化”。

开源生态加速爆发,国产模型加速追赶

值得一提的是,就在M2.1发布前一天,智谱AI开源了GLM系列新模型;在SWE-Bench单语言测试上与M2.1表现接近,共同展示出中国开源大模型在专业赛道的强劲势头。MiniMax团队在发布中特别感谢早期测试伙伴的反馈,并强调M2.1是“为真实开发者而造”的工程化成果,而非仅为榜单优化。

有观点认为,M2.1的到来不仅是技术上的里程碑,也释放出重要信号:在垂直专业领域,开源模型已具备全面挑战甚至超越闭源巨头的实力。当开发者不必依赖外部API、可自行部署、微调并审计代码模型时,AI编程的真正民主化才会落地——这场由MiniMax引领的开源变革,正重塑全球开发者工具链的未来格局。

官方文档:https://www.minimax.io/news/minimax-m21

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享