DeepSeek 今日官宣推出 DeepSeek‑Math‑V2。这一拥有 6850 亿参数的混合专家(MoE)模型,成为全球首个以开源形式达到国际数学奥林匹克(IMO)金牌水准的数学推理大模型。它基于 DeepSeek‑V3.2 实验版架构打造,采用 Apache‑2.0 许可证完整开放权重,在数学推理能力上实现了显著跃升。
最大的突破在于其创新的“生成‑验证”双模型闭环。DeepSeek‑Math‑V2 不再像传统大模型那样只给出单次答案,而是配备专门的验证器(verifier),对生成器产出的每一步证明进行实时逻辑审查。一旦发现漏洞或“侥幸正确”的病态推理,验证器立即回馈,生成器随即自我修正。这个类似人类数学家反复打磨证明的过程,通过强化学习(RL)被系统化地内化到训练中,使模型具备“可自我验证”的能力。

在备受关注的 2025 年国际数学奥林匹克(IMO)上,DeepSeek‑Math‑V2 解出 6 题中的 5 题,以 83.3% 的正确率获得金牌,折算 210 分(满分 252),位列全球第三,仅次于美国与韩国代表队。在 2024 年中国数学奥林匹克(CMO)中,该模型同样达到金牌线。而在北美最具影响力的本科生赛事——2024 年普特南数学竞赛(Putnam)中,在放宽测试算力设置的前提下,它拿到 118/120 的近乎满分,远超人类历史最高分 90 分。
在由 Google DeepMind 主导的 IMO‑ProofBench 官方推理基准上,DeepSeek‑Math‑V2 在基础难度拿到 99% 的正确率,在高难度部分取得 61.9%,全面超越此前所有公开模型,仅略低于 DeepMind 内部的 Gemini Deep Think 增强版。
与 OpenAI 的 o1 系列、DeepMind 的 AlphaProof 等闭源系统不同,DeepSeek‑Math‑V2 从模型权重到完整训练细节全部开源。研究者与开发者可直接在 Hugging Face 下载,并可在本地或云端自由部署,这意味着全球数学家与计算机科学家可以立即复现、审计并持续改进这一进展。
DeepSeek 表示,训练中大量借鉴了人类数学专家对“病态证明”的标注,随后通过动态分配验证算力(最高并行 64 条推理路径、迭代 16 轮)实现从人工到自动的平滑过渡。该设计不仅显著提升证明质量,也为未来在药物设计、密码学、形式化验证等对可信度要求极高的场景中落地人工智能奠定了基础。
目前,模型已在 Hugging Face 与 GitHub 正式上线,支持 Transformers 一键加载。DeepSeek 同时公开了其在 IMO、CMO、Putnam 等多项赛事上的完整解题过程与预测结果,欢迎全球同行检验。
地址:
https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
https://github.com/deepseek-ai/DeepSeek-Math-V2/blob/main/DeepSeekMath_V2.pdf


















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?