DeepSeek 全面升级:上下文长度跃至1M,万亿参数旗舰正蓄势待发

2月11日,不少用户留意到 DeepSeek 的网页端和移动端同时推送了新版本。本次更新的最大亮点是上下文长度(Context Window)扩展到1M(100万)Token,意味着其在处理超大体量文档方面已跻身全球顶尖行列。

DeepSeek

从128K到1M:处理能力大幅跃升

相比去年8月上线的DeepSeek V3.1(其上下文上限为128K),这次更新把可处理规模提升到了接近8倍。

  • 实测表现: 用户实测显示,DeepSeek 可一次性处理整部长篇(如超过24万 Token 的《简爱》),并能准确定位与解读文档要点。

  • 应用场景: 这意味着开发者可以直接上传完整项目代码库,研究者可一口气梳理百万字论文素材,职场用户处理超长会议纪要或法律合同也会更顺畅。

旗舰模型 DeepSeek V4 仍在“酝酿”

尽管此次升级显著增强了长文本能力,但业内消息称,这更像是 V3 系列的一次小幅迭代。 真正的重头戏——DeepSeek 下一代旗舰模型(预计为 V4)已进入研发后期。

有知情者透露,由于模型规模迈入“万亿参数级”,训练难度与复杂度显著上升,使得发布节奏略有放缓。

此次升级引发科技圈广泛关注。网友普遍认为,百万级上下文对编程与大数据分析是一次“里程碑式突破”。与此同时,市场上如QwenLong等模型也在长文本推理领域持续加码,国产 AI 的“长文本竞赛”愈加激烈。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享