Please provide the content you want me to translate. I need the text to be able to translate it to readable Chinese.
GPT-5-Codex

原始链接: https://openai.com/index/introducing-upgrades-to-codex/

启用 JavaScript 和 Cookie 以继续。

## GPT-5-Codex 总结 OpenAI 发布了 GPT-5-Codex,这是一个专注于代码的新模型,主要改进在于代码重构(成功率 51.3% vs. 前一模型 33.9%)。虽然在 SWE-bench 上的表现与标准 GPT-5 相似,但用户报告了更高的可控性,以及更小的提示词大小(~10KB vs 23KB)。 讨论强调了体验褒贬不一。一些用户称赞 Codex CLI 的质量和速度,并从 Claude 的产品中切换过来。另一些用户指出,提高可控性可能存在潜在缺点——模型可能会严格遵循提示,即使提示不正确。 一个关键的改进是,对于更简单的任务,token 使用量减少,可能带来更高效的代码生成。然而,人们对不同 Codex 界面(CLI、VSCode、网页、移动应用)之间的碎片化以及对更好产品整合的需求表示担忧。开发者们热切期待 GPT-5-Codex 的 API 访问权限,希望能够兼得强大的代码生成能力和与现有工作流程的无缝集成。
相关文章

原文
联系我们 contact @ memedata.com