国产“数学王牌”来了:DeepSeek‑Math‑V2 权重开源上线,实力对标 GPT‑4o

11月27日,DeepSeek 团队在 Hugging Face 放出 236B 级参数“巨兽”——DeepSeek‑Math‑V2。它采用 MoE 架构,实际参与计算的活跃参数仅 21B,支持最长 128K token 上下文。官方同步开源 Apache 2.0 权重,商业使用零门槛,上线当天就把带宽干到告急。

数学成绩速览(零样本 CoT):

– MATH 基准 75.7%,与 GPT‑4o(76.6%)几乎并跑;

– AIME2024 4/30 题,高于 Gemini 1.5 Pro、Claude‑3‑Opus;

– Math Odyssey 53.7%,同样跻身第一梯队。

这套模型的关键在于“自验证”双引擎:Generator 先给出解题草稿,Verifier 再逐行审查,发现问题就退回重写,最多可迭代 16 次;再用多数投票 + 元验证器把幻觉按住。训练总量约 1000 亿 token,覆盖论文、竞赛题与合成样本,并通过 GRPO 强化学习对齐人类偏好。

受益于代码+数学混合语料,DeepSeek‑Math‑V2 在编程任务上同样强悍:HumanEval 90.2%、MBPP 76.2%、SWEBench 首次让开源模型突破 10% 门槛,直接对标 GPT‑4‑Turbo、Claude 3 Opus。

目前模型已上线 Hugging Face,80GB 显存即可多卡推理;社区复现正在加速推进。想给 AI 装上一颗“数学金牌”大脑,如今只需一行 `transformers` 就能加载——国产开源,再次把闭源巨头的护城河缩成显微镜下的细裂缝。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享