
国产大模型领域再传捷报。MiniMax今日正式宣布开源其最新研发的编码与智能体专用大模型——M2.1,这款拥有100亿激活参数的稀疏架构模型,在多语言编程、真实代码生成及工具调用等关键场景中实现了前所未有的突破性进展。根据权威基准测试SWE-Multilingual与VIBE-Bench的实测数据,M2.1不仅大幅超越了同类开源模型,更在性能上超越了谷歌Gemini3Pro、Anthropic Claude4.5Sonnet等业界领先的闭源旗舰模型,这一成就标志着开源编码模型正式迈入“性能碾压闭源”的新纪元。
M2.1在真实编程场景中的卓越表现尤为引人注目。这款专为开发者日常编码需求与原生AI智能体打造的模型,其核心优势主要体现在以下几个方面:
多语言编程SOTA表现:M2.1在Python、JavaScript、Java、Go、Rust、C++等主流编程语言中均达到了当前开源模型的顶尖水平。特别是在跨语言迁移能力与复杂项目上下文理解方面,M2.1展现出超凡的适应性与洞察力。
真实工程任务处理能力更强:在SWE-Multilingual(软件工程多语言基准)测试中,M2.1的代码修复准确率与端到端任务完成率均显著优于Gemini3Pro与Claude4.5Sonnet,充分证明了其在实际工程应用中的强大实力。
智能体协作优化:针对工具调用、API集成、错误诊断等AI智能体的核心能力,M2.1在VIBE-Bench(Visual-Agent & Interactive Behavior Evaluation)中表现卓越,为构建高可靠AI开发者代理提供了坚实的技术支撑。

M2.1采用创新的混合专家(MoE)稀疏激活机制,在保证高性能的同时显著降低了算力消耗。在推理过程中,模型仅激活约100亿参数(总参数量更大),这一设计不仅确保了出色的性能表现,还大幅降低了算力需求,使得开发者能够在消费级GPU或云实例上高效运行,真正推动高性能编码模型向“平民化”方向发展。
开源生态加速爆发,国产模型迎头赶上。值得注意的是,就在M2.1发布的前一天,智谱AI也开源了其GLM系列新模型,在SWE-Bench单语言测试中与M2.1的表现相近,这一系列事件共同彰显了中国开源大模型在专业领域的强大爆发力。
MiniMax团队在发布声明中特别感谢了早期测试合作伙伴的反馈,强调M2.1是“为真实开发者而生”的工程化产物,而非单纯为了刷榜而设计的模型。AIbase分析认为,M2.1的发布不仅是技术上的重要里程碑,更释放出关键信号:在垂直专业领域,开源模型已经具备了全面挑战甚至超越闭源巨头的实力。
当开发者无需依赖API、可自由部署、微调并审计代码模型时,AI编程的真正民主化时代才真正开启。而这场由MiniMax引领的开源革命,正在重塑全球开发者工具链的未来格局。
官方文档:https://www.minimax.io/news/minimax-m21
