早上收到一条邮件,OpenAI 开始对 Business 降价了,从 30美元/月 变为 25美元/月。这一看以为是好事,但是最近使用 Codex 的伙伴应该开始发现 Business 的额度消耗很快。
是的,经过我的调查,官方确实也下降了 Business 的 Codex 5小时额度和周额度。
降价之后,官方会退一部分信用额度,也就可以增加多一个 Business 席位。但是相对下来,还是少了很多 Codex 额度。
之前 Business 的 Codex 额度是和 Plus 差不多一致的,根据 OpenAI 官方 2026 年 4 月 2 日的数据来看看最新的 Codex 额度变化:
ChatGPT Plus 的 Codex 额度
目前通过官方的文档公布,我们常用的 Codex CLI 的本地消息的5小时限额分别为:
- GPT-5.4 的额度:33 ~ 168 条
- GPT-5.4-mini 的额度:110 ~ 560 条
- GPT-5.3-Codex 的额度:45 ~ 225 条
ChatGPT Business 的 Codex 额度
Business 会员是有优惠,大部分都是开通优惠的 Business 会员进行使用 Codex,金额大概几十块或者一百多都有。
平时使用比较稳定的是 99 的 Business 会员,现在的官方公布的额度为:
- GPT-5.4 的额度:15 ~ 60 条
- GPT-5.4-mini 的额度:40 ~ 200 条
- GPT-5.3-Codex 的额度:20 ~ 90 条
Business 的好处其一: 额外赠送了 15 次 Pro 模型的使用。 原先 Pro 模型是 200 美元的Pro会员才可以使用的,而 Business 可以体验,15 次 也不少。 正常一次 Pro 的消耗的 Token 是非常昂贵的,而且 Pro 执行一次任务正常都是 1个小时以上,我平时都是 70 ~ 90 分钟才得到结果,结果的质量都会比较高。
其二,是价格优惠点, 如果也需要升级 ChatGPT Plus、Business 优惠价格的,可以用这个系统 (稳定正规渠道不多,建议收藏) :
正规升级 Plus 不存在封号,你们碰到封号的,基本就是碰到嘿充和0元购了。这个系统稳定运行很久了,续费的用户也长达 1 年多。
ChatGPT Pro 的 Codex 额度
高强度使用 Codex 的用户,如果想要方便一些的话,就是开通 Pro 会员,价格比较昂贵。
Pro 的 Codex 额度,目前官方公布的额度为:
- GPT-5.4 的额度:223 ~ 1120 条
- GPT-5.4-mini 的额度:743 ~ 3733 条
- GPT-5.3-Codex 的额度:300 ~ 1500 条
Pro、Plus、Business 的额度
下面是我以 Plus 为基准,通过计算 Pro、Plus、Business 三个会员之间 Codex 5小时额度的倍率如何:
| 模型 | Plus(基准) | Business 倍率 | Pro 倍率 |
|---|---|---|---|
| GPT-5.4 | 1x | 0.36 ~ 0.45x | ≈ 6.7x |
| GPT-5.4-mini | 1x | ≈ 0.36x | ≈ 6.7x |
| GPT-5.3-Codex | 1x | 0.40 ~ 0.44x | ≈ 6.67x |
可以得出 Business 的额度是砍掉了差不多 60% 左右,而 Pro 增加一点,之前差不多 5 个 Plus 的额度,现在有 6.7 个 Plus 的额度。
Pro 的价格目前是 Plus 的 10 倍,但是结合聊天那边的模型,Pro还是划算的,可以无限使用 Pro 模型和高额度的深度研究等功能。
根据数据得出,Plus 目前是 Codex 性价比较高的会员,可以优先选择 Plus 会员。
如何查询自己的 Codex 额度
在 Web 网页上,可以通过 Codex 使用情况仪表板中进行查看。
在本地的 Codex CLI 上,你可以直接执行:/status 指令就可以查看。
在编辑器上,可以通过左下方的本地按钮,点击后可以查看对应的额度。
在 Codex App 上,同样在本地按钮的位置上。官方在推广 Codex 应用,如果你在 Codex 应用上使用 Codex,额度会进行翻倍。
如果你感觉 Codex 比较慢的时候,你可以开启 Fast 模式,速度很快,但是额度是双倍消耗。
当然,你可以通过下面几种方式减少 Codex 的额度消耗:
- 控制你的提示。向 Codex 提问时,说明白一些,说全一些 和 适当创建新窗口,删除不必要的上下文。
- 减小你的 AGENTS.md 文件大小。如果你正在处理一个较大的项目,你可以通过将 AGENTS.md 文件嵌套在你的存储库中来控制注入的上下文量。
- 限制你使用的 MCP 服务器数量。你向 Codex 添加的每个 MCP 都会为你的消息增加更多上下文,并消耗更多你的配额。 平时不需要它们时,建议禁用 MCP 服务器。
- 将常规任务切换到 GPT-5.4-mini。使用小型模型应该可以将你的本地消息使用配额延长约 2.5 倍到 3.3 倍,具体取决于你切换自哪个模型。(官方说的)
但是在编程时,能用最好最贵的模型就用最好最贵的模型。 Bug 解决半天也是消耗时间和Token,还不如一次性来的痛快。