2026Codex国内通用,从安装到使用大全,一篇带你入门,小白也能立马上手
写在前面
这两年 AI 编程工具越来越多,但真正让很多开发者开始上头的,不再只是“自动补全几行代码”,而是它能不能直接进终端、读项目、改文件、接工具、查复杂 bug。
Codex 这波让人关注的点,就在这里。它不是传统意义上的聊天工具皮肤,也不是只会在编辑器里给你补几个函数名的插件,而是开始更认真地往“代码 Agent”这个方向走。
更现实的一点是,很多人已经不是在纠结“要不要用 AI 编程”,而是在纠结:Claude Code、Codex CLI、IDE 扩展、MCP,到底该怎么搭起来,效率才最高? 这篇文章就把原文里最有价值的部分拆开讲清楚。
古法排查 bug 的时间,真的在变少
原文里最有冲击力的一点,不是某个命令本身,而是作者给出的使用分工:
-
• 日常执行,用 Claude Code
-
• 遇到复杂 bug,切到 Codex
-
• 细节收尾,再交给 Codex
这背后的判断很有意思。作者不是在说“谁彻底干掉谁”,而是在说:不同 AI 的长板开始足够明显,已经值得你按任务类型分工了。
尤其在大项目里,这种差异会被放大。代码量上来、逻辑链变长、bug 藏得更深以后,能不能一次定位问题,跟“会不会写代码”已经不是一回事了。原文的核心观点其实就一句话:Codex 不是 Claude 的替代品,而是一个很强的技术型搭档。
这个趋势对开发者意味着什么?很简单:以后比拼的不是“你有没有 AI”,而是“你会不会给不同 AI 分工”。还在一把锤子敲所有问题的人,效率差距只会越来越明显。
Codex 到底强在哪:不是更全能,而是更像“细节警察”
原文一开头就给了一个很直观的对比:作者做大项目时,遇到复杂 bug,会优先依赖 Codex。
他的理由也很直接:
-
• 细节处理更好
-
• 查 bug 更准
-
• 但速度偏慢
这跟很多人对 AI 编程的直觉不太一样。我们平时更容易先看“快不快”,但原文强调的恰恰是另一种价值:当你已经知道问题很复杂,速度不一定是第一优先级,定位精度才是。
作者还举了一个 agent 生图的对比例子,虽然场景不是纯编码,但想表达的核心很清楚:
-
• Claude 一侧有时候需要多轮调整
-
• GPT-5 / Codex 一侧更容易一次性把细节处理到位
所以你会发现,Codex 更像哪类同事?不是那个推进会开得最勤的人,而是那个你把最难的现场问题丢过去,他能静下来把线索理清楚、最后把关键点指出来的人。
原文给出的工作流也值得直接保留:
日常执行 → 用 Claude Code(快,理解能力强)
↓
遇到复杂 bug → 切换到 Codex(慢,但查得准)
↓
细节处理 → 继续用 Codex(一次搞定)
如果你平时写的是稍微复杂一点的项目,这个分工思路其实很实用。
先搞清楚:Codex 有哪几种用法
原文把 Codex 的使用方式拆成了 3 种:
这里最值得注意的是 CLI。因为当一个 AI 工具开始进入终端,意味着它已经不只是“问答助手”,而是开始具备更强的工程接入能力。
原文还提到,GPT-5-Codex 是围绕这些场景构建的:
-
• Codex CLI
-
• Codex IDE 扩展
-
• Codex 云环境
-
• GitHub 工作流
-
• 多种工具调用
换句话说,Codex 的价值不在“又多了一个聊天入口”,而在于它正在往真实开发环境里扎根。
怎么体验 Codex:先过订阅这道门槛
原文在“怎么体验 Codex”这一节说得很明确:Codex 目前属于付费能力,ChatGPT 的付费会员体系里已经有相关入口,比如 Plus、Pro、Business 等档位。
这一点你可以简单理解成:只要你在官方付费体系里,网页版就已经开始给你开放 Codex 的入口。
不过价格这块我不直接照搬外部二手说法,避免误差。更稳妥的表达是:官方会按不同会员档位提供能力,具体套餐和价格以 OpenAI 官网当时页面为准。
这里真正重要的不是某个价格数字,而是你要知道:Codex 不是独立漂在外面的工具,它是 OpenAI 整个代码 Agent 能力栈的一部分。
为什么原文强推 CLI:因为它才是最像 Agent 的那一层
原文第二部分的重点,几乎都在解释一件事:为什么最好装 CLI 版本。
它给出的理由有三个:
-
• CLI 功能最全
-
• 可以管理 MCP 插件
-
• 还可以作为 MCP 被其他 AI 调用
这三点加起来,其实就说明了一件事:CLI 不是“只是另一种打开方式”,而是系统接入能力最强的一层。
如果你只是想随便问几个问题,网页端当然够用;但如果你想让 AI 真正参与工程、调用工具、装插件、跟其他 Agent 联动,那终端版的价值会立刻变得不一样。
Codex CLI 安装怎么做:原文最有价值的是这套“让 AI 帮你装”的思路
原文最有意思的地方,是没有把教程写成“你去背命令”,而是写成“你把提示词发给另一个 AI,让它替你执行安装”。
这个思路本身就挺有代表性:AI 工具的门槛,不一定要靠你自己补命令行知识来解决,也可以交给另一个 AI 帮你完成。
第一步:让 AI 先检查你的环境
原文给了一整段可以直接复制的提示词,核心流程是:
-
• 先判断系统类型:Mac / Linux / Windows
-
• 如果是 Windows,再检查有没有 WSL
-
• 然后检查 Node.js 是否已安装
-
• 再根据系统分情况安装 Codex CLI
-
• 最后用
codex --version验证
这段提示词的设计很完整,尤其适合不想自己手敲命令的人:
帮我自动检查环境并安装 Codex CLI 工具,按以下步骤执行:
第一步:检查系统和环境
- 检查我的操作系统(Mac/Linux/Windows)
- 如果是 Windows:检查是否有 WSL(运行 wsl --version 或 wsl -l -v)
第二步:检查 Node.js
- 运行 node -v 检查 Node.js 是否已安装
- 如果没有安装,提示我:
Mac: 运行 brew install node 或去 nodejs.org 下载
Linux: 运行 sudo apt install nodejs npm 或去 nodejs.org 下载
Windows: 去 nodejs.org 下载安装
第三步:安装 Codex
根据环境选择:
- Mac/Linux:直接运行 npm install -g @openai/codex
- Windows 有 WSL:在 WSL 环境运行 npm install -g @openai/codex
(提醒我:以后使用时先输入 wsl 再输入 codex)
- Windows 无 WSL:先询问我是否要安装 WSL(推荐,更稳定)
- 如果要:运行 wsl --install,提醒我重启后继续
- 如果不要:运行 npm install -g @openai/codex --force --no-os-check
(警告:Windows 原生环境可能有兼容问题)
第四步:验证安装
- 运行 codex --version 检查是否安装成功
- 告诉我下一步该怎么启动 Codex
第二步:如果你愿意手动装,也可以直接走命令
原文也保留了手动安装路线,这部分我直接按原意整理一下:
# 1. 确保 Node ≥ 22
node -v # v22.5.1
# 2. 一行命令搞定
npm i -g @openai/codex
# 3. 验证
codex --version # 0.36.0
如果你在国内装包比较慢,原文还给了两条路:
npm i -g @openai/codex --registry=https://registry.npmmirror.com
或者对 mac 用户:
brew install codex
第三步:登录账号
安装完成后,第一次进入 Codex 会要求登录账号。
这一环原文讲得比较口语化,但你可以把它理解成:CLI 安装只是环境准备,真正开始使用前,还需要把你的订阅账号和工具绑定起来。
第四步:后续启动其实很简单
后面每次打开终端,直接输入:
codex
就可以启动。
如果过程中遇到卡顿或报错,原文给的建议也很实用:
-
• 卡住不动,先等几分钟,可能是在下载依赖
-
• 报错了,直接把截图丢给 AI,让它帮你继续排查
这其实也是现在学新工具最省力的方式:别把自己当成命令记忆器,遇到问题就把上下文喂给 AI。
5 分钟上手:Codex CLI 最常用的几个操作
原文第三部分特别适合新手,因为讲的都是一上手最容易踩坑、但又最常用的动作。
1)拖拽文件时,记得按住 Shift
这是个很典型的“你不看教程就会踩”的坑。
-
• 错误方法:直接拖文件进去
-
• 正确方法:按住 Shift 再拖
原文的解释也很直白:Codex 需要 Shift 键才能识别拖拽。
2)选模型:更推荐 gpt-5 high
输入:
/model
就可以选模型。
原文把两类模型区别总结成这样:
-
• codex 专业版:偏纯代码生成,速度快,但理解能力弱一些
-
• gpt-5 通用版:理解更强,更适合新手
同时原文还特别推荐推理档位选 high:
-
•
high= 更高推理能力 -
• 好处是复杂问题处理更准
-
• 代价是速度会慢一点
如果你的目标是查复杂 bug、理多步逻辑,这个取舍其实是值得的。
3)权限设置:新手优先选“自动判断”
在 Codex 里输入:
/
approvals
就可以进入权限设置。
原文把三种权限模式整理成了表格,我这里原样转成 Markdown:
| 权限 | 读文件 | 改文件 | 适合谁? | | --- | --- | --- | --- | | 只读 | ✅ | ❌ | 超级谨慎(但啥也干不了…) | | 自动判断 | ✅ | 需确认 | 新手首选 | | 全通过 | ✅ | ✅ | 老手(有风险) |
为什么推荐“自动判断”?
-
• AI 读文件时自动放行,不用每次确认
-
• AI 改文件时再弹窗确认,关键操作你还能兜底
这个模式本质上就是在“效率”和“可控”之间找平衡,确实适合刚开始用 Agent 型工具的人。
4)另外 3 个高频命令
原文还点了三个日常最常用的命令:
新建会话:
/new
初始化项目上下文:
/init
这个命令会生成一个:
.claude.md
原文想表达的核心是:下次再打开项目时,AI 会更快理解当前工程的背景。
查看已安装的 MCP:
/mcp
如果你刚开始用 Codex,其实记住这几个操作就够覆盖大部分场景了。
MCP 为什么重要:因为这一步决定 AI 还是不是“只会聊天”
原文第四部分是整篇文章里很关键的一节。
它对 MCP 的解释很简单:给 AI 装插件。
这句话虽然口语,但一点没错。因为装上 MCP 之后,AI 的边界就会明显变大。
原文举了两个例子:
-
• 默认情况下,AI 只能读文件、写代码
-
• 装了
Chrome DevTools MCP之后,AI 可以操作浏览器、做自动化测试、截图 -
• 再往外延展,理论上还可以接更多外部能力
这其实就是现在 Agent 工作流最核心的变化:模型本身只是大脑,MCP 让它长出手脚。
MCP 添加怎么做
原文依然沿用了“提示词大法”,把复杂配置变成一句可复制的话。
先给 Codex 一段“管理 MCP 服务”的总提示词:
帮我管理 MCP 服务(添加或删除)。
我会提供配置信息,格式如下:
{
"mcpServers": {
"服务名": {
"command": "命令",
"args": ["参数列表"]
}
}
}
请你根据我的需求:
## 添加服务
1. 提取配置中的服务名、command、args
2. 转换成命令:codex mcp add-json <服务名> '{"command": "xxx", "args": [...]}'
3. 执行安装
4. 安装完成后测试是否可用
## 删除服务
使用命令:codex mcp remove <服务名>
然后给一个具体例子,比如安装 Chrome DevTools MCP:
@提示词
添加 MCP:
{
"mcpServers": {
"chrome-devtools": {
"command": "npx",
"args": ["chrome-devtools-mcp@latest"]
}
}
}
安装完以后,用下面这个命令确认:
/mcp
如果列表里出现 chrome-devtools,就说明已经接好了。
这个思路最值得学的,不是某一个 MCP 名字,而是原文那句潜台词:以后很多复杂操作,未必要自己背配置格式,完全可以把安装和管理动作也交给 AI。
最有意思的一段:让 Claude Code 和 Codex 联动起来
原文第五部分是整篇文章里最值得开发者反复看的地方,因为它不是在教单工具使用,而是在教双 AI 协作。
作者给出的分工很鲜明:
-
• Claude Code 负责理解项目、架构设计、多轮对话、日常执行
-
• Codex 负责查 bug、处理代码细节、攻复杂逻辑
我把原文表格整理成 Markdown,方便你直接看:
| AI | 擅长什么? | 怎么用? | | --- | --- | --- | | Claude Code | 理解项目、架构设计、多轮对话、日常执行 | 主力 | | Codex | 查 bug、代码细节、复杂逻辑 | 辅助 |
这个思路非常像真实团队协作:一个更像 PM + 主程,一个更像难题专家。
联动流程怎么理解
原文给出的工作流是:
你提问 → Claude Code 开始干活
→ 遇到复杂 bug(查不出来)
→ 自动调用 Codex MCP
→ Codex 返回精准答案
→ Claude Code 继续完成任务
这套链路的价值在于:你不用频繁切工具,主工作流还能保持连贯。
安装 Codex MCP 的示例
原文给出了一个直接可复制的命令思路:
用下述指令,安装 codex MCP:
claude mcp add codex -s user -- codex -m gpt-5-codex -c model_reasoning_effort="high" mcp
安装成功后,测试是否正常显示
然后再通过下面这个命令验证:
/mcp
如果看到 codex 出现在列表里,说明接好了。
这一段对真正用 Agent 写代码的人特别有启发。因为未来很可能不是“你选哪个唯一的 AI”,而是你怎么把几个最强的 AI 串成一个工作流。
快捷键速查:真正用起来时,这些会比教程更常翻
原文最后还给了一份快捷键表,我这里也按 Markdown 还原,方便你后面直接收藏。
常用快捷键
|
作用
|
Mac
|
Windows/Linux
|
| --- | --- | --- |
|
多行输入
| Option + Enter | Alt + Enter |
|
中断响应
| Ctrl + C | Ctrl + C |
|
历史命令
| ↑ / ↓ | ↑ / ↓ |
编辑快捷键
|
作用
|
Mac
|
Windows/Linux
|
| --- | --- | --- |
|
跳到行首
| Ctrl + A | Ctrl + A |
|
跳到行尾
| Ctrl + E | Ctrl + E |
|
按词移动
| Option + ←/→ | Alt + ←/→ |
|
删到行首
| Ctrl + U | Ctrl + U |
|
删到行尾
| Ctrl + K | Ctrl + K |
|
删除单词
| Ctrl + W | Ctrl + W |
|
撤销
| Ctrl + / | Ctrl + / |
这部分看起来不惊艳,但真到高频使用时,反而是最省时间的那块内容。
Codex 到底是什么?为什么它会和 Claude Code 形成互补
如果你把 Codex 理解成“OpenAI 版 Claude Code”,很容易看偏。
更准确一点说,它是 OpenAI 在代码 Agent 方向上的一条重要产品线,重点不是传统补全,而是围绕代码理解、终端工作流、工具调用、复杂问题处理这几件事往前走。
从原文的使用方式来看,它至少覆盖了这些场景:
-
• 网页端直接使用
-
• CLI 终端工作流
-
• IDE 扩展接入
-
• MCP 插件能力扩展
-
• 与其他 AI 工具联动
也正因为这样,它和 Claude Code 的关系更像互补而不是替代。
官方订阅怎么理解
从原文可确认的是,Codex 依附在官方付费体系里,至少提到了 Plus、Pro、Business 等档位。更细的价格和权益建议你直接看 OpenAI 官网,因为这类信息变动比较频繁。
不过说实话,官方订阅对国内用户并不算轻松——支付和使用环境多少都有门槛。如果你嫌麻烦,想找个更省事的渠道,可以看看 Code80,真实订阅帐号转 API,换个 endpoint 就能直接用,体验跟官方一样。详情可以到官网了解:code.ai80.vip
常见问题
Q:Codex 和 Claude Code,到底该选哪个?
A:原文给出的答案其实很清楚:别只想二选一。日常执行、项目理解、多轮交互更适合 Claude Code;复杂 bug、代码细节、深层逻辑排查更适合 Codex。最优解通常是分工协作。
Q:如果我只是新手,优先装网页版、IDE 版还是 CLI?
A:如果你只是轻量体验,网页版就够;如果你想真正进入 Agent 工作流,CLI 更值得优先折腾。原文也明显更推荐 CLI,因为功能最全,MCP 和联动能力都在这边。
Q:Codex CLI 安装最关键的前置条件是什么?
A:先确认系统环境,再确认 Node.js 版本。原文给出的手动安装要求里,明确提到 Node 至少要到 22,然后再安装 @openai/codex。
Q:权限模式为什么推荐“自动判断”?
A:因为它最平衡。读文件自动放行,改文件再让你确认,既不会把每一步都卡死,也不会让 AI 完全无约束地乱改项目。
Q:国内用户如果不想折腾官方支付和环境,有没有更省事的办法?
A:有,国内用户可以通过 Code80 更方便地使用。