OpenAI 推出 GPT-5.1-Codex-Max:加入上下文“压缩”机制,SWE-bench 准确率升至 77.9%

OpenAI 正式发布 GPT-5.1-Codex-Max,面向复杂的软件工程项目设计,可在超大代码库中保持上下文一致性生成,支持数十万行代码。新模型引入名为“compaction”的动态压缩机制,能够在任务执行过程中自动整理记忆并保留关键状态,大幅降低长时对话中的信息丢失风险。

image.png

性能数据  

– SWE-bench 准确率由 73.7% 提升至 77.9%,在独立贡献软件工程师任务上升至 79.9%,同时令牌消耗约减少 12%。  

– 不安全内容检测的“illicit”评分从 0.860 提高到 0.920,但 OpenAI 强调其网络安全相关能力尚未达“高能力”门槛,仍需要人工复核。

image.png

Codex-Max 现已取代旧版,成为 Codex 系列默认模型,并通过 ChatGPT Enterprise、API 以及 GitHub Copilot 向开发者与企业开放。定价保持为每百万输入 token 5 美元、输出 token 15 美元,批量调用可享 50% 折扣。OpenAI 计划在 2026 年 Q1 推出面向企业的“Codex-Max-Enterprise”版本,支持私有部署与自定义代码风格规则。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享