
DeepSeek今日震撼发布全新升级的DeepSeek-Math-V2模型,这款拥有6850亿参数的混合专家(MoE)架构,成功开创了开源数学推理大模型的新纪元,成为全球首个以开源形式达到国际数学奥林匹克(IMO)金牌水平的AI系统。该模型基于DeepSeek-V3.2实验版架构精心打造,全面采用Apache2.0开源协议,完整公开所有模型权重,在数学推理能力上实现了革命性突破。
最令人瞩目的创新在于其独创的”生成-验证”双模型闭环机制。DeepSeek-Math-V2彻底颠覆了传统大模型”一锤定音”的决策模式,特别设计了专业验证器对生成器输出的每一步证明进行实时逻辑校验。一旦检测到漏洞或病态推理,验证器将立即发出警报,生成器随即启动自我修正。这种类似人类数学家反复推敲证明的严谨过程,通过强化学习(RL)被深度内化,赋予模型真正的”自我验证”能力。
在备受瞩目的2025年国际数学奥林匹克竞赛中,DeepSeek-Math-V2展现出惊人实力,成功攻克6道试题中的5道,以83.3%的卓越正确率荣获金牌,折合分数210分(满分252),位列全球第三,仅次于美国和韩国代表队。在2024年中国数学奥林匹克(CMO)中,该模型同样表现卓越,达到金牌水准。而在北美最具权威性的本科生赛事——2024年普特南数学竞赛(Putnam)中,即使放开测试算力限制,它依然取得了118/120的接近满分成绩,远超人类历史最高分90分的记录。

在谷歌DeepMind主导的IMO-ProofBench正式推理基准测试中,DeepSeek-Math-V2在基础难度组以99%的正确率完美收官,在高难度组也取得了61.9%的优异成绩,全面超越了此前所有公开模型,仅略低于DeepMind内部研发的Gemini Deep Think增强版。与OpenAI的o1系列、DeepMind的AlphaProof等闭源系统截然不同,DeepSeek-Math-V2从模型权重到完整训练细节全部开源,任何研究者和开发者都可以在Hugging Face平台直接下载,并在本地或云端自由部署。
这意味着全球数学家、计算机科学家能够立即复现、审计甚至改进这一历史性突破。DeepSeek团队表示,该模型的训练过程大量借鉴了人类数学专家对”病态证明”的专业标注,随后通过动态分配验证算力(最高并行64条推理路径、迭代16轮)实现了从人工标注到自动验证的完美过渡。这一创新设计不仅显著提升了证明质量,更为未来在药物设计、密码学、形式化验证等需要极高可信度的领域部署人工智能奠定了坚实基础。
目前,该模型已在Hugging Face和GitHub正式上线,完美支持Transformers一键加载。DeepSeek同时公开了其在IMO、CMO、Putnam等多项赛事上的完整解题过程与预测结果,诚邀全球同行进行严格检验。模型地址:https://huggingface.co/deepseek-ai/DeepSeek-Math-V2https://github.com/deepseek-ai/DeepSeek-Math-V2/blob/main/DeepSeekMath_V2.pdf
