DeepSeek-V4预览上线:1M 超长上下文迈入普惠新阶段

 深度求索(DeepSeek)今日发布全新系列模型DeepSeek-V4的预览版,已可使用并同步开源。凭借架构上的创新,系列模型将 1M(百万字)超长上下文做成标准配置,在 Agent 协作、通用与专业知识以及逻辑推理方面位居国内与开源社区前列。

QQ20260424-112037.jpg

双版本布局:Pro 瞄准极致性能,Flash 注重效率

DeepSeek-V4依据不同使用场景,提供两种规格:

  • DeepSeek-V4-Pro(1.6T参数,激活49B): 对标顶级闭源模型。在 Agentic Coding 测试中位居开源阵营最佳,交付质量逼近 Opus4.6;在数学、STEM 与竞赛编程评测上,超越当前公开结果的开源模型,展现出世界顶级的推理实力。

  • DeepSeek-V4-Flash(284B参数,激活13B): 主打极致性价比。尽管世界知识覆盖略逊于 Pro 版,但在简单任务的推理能力与 Agent 表现上与 Pro 版不相上下,可提供更快捷、更经济的 API 服务。

QQ20260424-110837.jpg

架构突破:DSA 机制让长上下文更普惠

DeepSeek-V4率先引入了 DSA 稀疏注意力机制。通过在 token 维度进行压缩,显著降低超长上下文对计算与显存的需求。这使得 1M 上下文成为 DeepSeek 全线官方服务的默认配置,切实缓解了长文本处理成本高的行业痛点。

深度适配 Agent 生态

面向当前常见的 Agent 产品(如 Claude Code、CodeBuddy 等),DeepSeek-V4做了定向优化。模型同时支持非思考模式思考模式,API 提供了 reasoning_effort 参数,用户可根据任务难度调节思考强度(high/max),在代码生成和文档处理等复杂场景中表现更稳更强。

QQ20260424-110847.jpg

访问与开源计划

目前,大家可通过官网或官方 App 体验最新模型,API 也已同步更新。需要特别提醒:旧有的 deepseek-chatdeepseek-reasoner 模型名将于三个月后(2026 年 7 月 24 日)停用。

QQ20260424-110900.jpg

  • 开源链接: 已在Hugging Face魔搭社区发布。

  • 技术报告: 同步披露于Hugging Face仓库。

此次DeepSeek-V4的发布,不仅证明了开源模型在长上下文与 Agent 能力上追赶顶级闭源模型的可行路径,也凭借架构层面的突破,为 AGI 的普惠化进程夯实了基础。

  • DeepSeek-V4模型开源链接:

https://huggingface.co/collections/deepseek-ai/deepseek-v4

https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享