OpenAI近日正式通过API向开发者开放其目前最强大的编程模型GPT‑5.1‑Codex‑Max,主打长时间运行和“代理式”编码任务,在多项权威基准测试中的成绩明显优于常规版GPT‑5.1‑Codex。更具吸引力的是,尽管性能提升明显,这一新模型在API中的定价却与GPT‑5保持一致,被外界视为一次“高性能不涨价”的策略性升级。
报道指出,GPT‑5.1‑Codex‑Max通过名为“压缩(compaction)”的技术进行训练,可在超过一百万tokens的超长上下文窗口中持续工作,内部测试显示该模型能够稳定执行持续超过24小时的任务。在SWE‑BenchVerified、SWE‑LancerICSWE和TerminalBench2.0等面向真实软件工程场景的基准测试中,GPT‑5.1‑Codex‑Max的得分分别提升至77.9%、79.9%和58.1%,相较常规版GPT‑5.1‑Codex有明显进步,凸显其在复杂、多步骤开发任务中的优势。
在商用层面,OpenAI已将GPT‑5.1‑Codex‑Max以与GPT‑5相同的价格接入API,输入端约为每百万tokens1.25美元、输出端每百万tokens10美元,同时沿用GPT‑5的速率限制策略。此前,这一模型仅面向使用CodexCLI、IDE扩展、云端服务和代码审查功能的高阶订阅用户开放,如ChatGPTPlus、Pro、Business、Edu和Enterprise等,如今通过API普及后,OpenAI也宣布将其设为Codex体系中的默认代码模型。
与以往偏向Unix环境优化的Codex系列不同,GPT‑5.1‑Codex‑Max在训练阶段特别针对Windows环境进行了适配,这使其对大量使用Windows作为主要开发平台的程序员而言具有更直接的吸引力。由于新模型在速度和tokens利用效率方面均优于常规版GPT‑5.1‑Codex,报道认为,Windows开发者如无特殊需求,转向这一模型几乎是“无需犹豫的选择”。
借助这次API放开,GPT‑5.1‑Codex‑Max已迅速进入多款热门开发工具生态,包括Cursor、GitHubCopilot、Linear等在内的编码助手产品。在GitHubCopilot体系中,该模型将向Pro、Pro+、Business和Enterprise订阅用户开放,并出现在多个使用场景的模型选择器中,例如VisualStudioCode的聊天、提问、编辑和agent模式,以及GitHub网页端和移动端的CopilotChat与CopilotCLI等入口。
竞争层面上,OpenAI此举显然是针对对手Anthropic的强势扩张做出的回应,后者近年来将精力集中在面向企业和开发者的代码模型上,其ClaudeCode工具已成为最快达到十亿美元里程碑的SaaS产品之一。报道援引行业预期称,Anthropic今年仅依靠面向开发与企业的代码模型业务,就有望实现80至100亿美元收入,而这也促使OpenAI在8月推出GPT‑5‑Codex,并在短时间内带动Codex使用量增长超过10倍、每周服务的tokens规模达到万亿级。
在此背景下,GPT‑5.1‑Codex‑Max被视为OpenAI在开发者市场上的又一重要“加码”,旨在强化其在企业级编码工具领域与Anthropic的正面竞争力。不过目前尚难判断这一新模型的上线及其与GitHubCopilot的深度整合,是否足以显著减缓Anthropic在企业编码市场上的迅猛增势,未来一段时间内两家在高端开发者工具赛道的博弈仍将持续升温。
了解更多:
https://github.blog/changelog/2025-12-04-openais-gpt-5-1-codex-max-is-now-in-public-preview-for-github-copilot/

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】