上一篇介绍Claude Code和Codex是什么?以及他们的作用、核心能力、安装配置和基础使用等,本篇将介绍Claude Code和Codex与大模型之间的协作关系,及其循环机制、多轮交互原理、Token(词元)消耗真相等。
在开始之前,我想先普及一个认知。目前包括AI编程工具在内调用的所有大语言模型实际上没有完整的“记忆和存储”功能,每次跟大模型的交互都需要提供完整的需求,否则大模型返回的内容可能达不到用户的需求,所以智能体(Agent)在这个过程中扮演了很重要的角色。
第2篇:Agent Loop(智能体循环)如何让AI真正帮你写代码
你有没有好奇过:为什么我只是说了一句“改一下按钮颜色”,Claude Code就能自己搜索文件、定位代码、完成修改?这背后,是一个叫做Agent Loop(智能体循环) 的机制在默默工作。理解它,你才能真正理解为什么这些工具“烧钱”,也才能更好地驾驭它们。
一、从“一问一答”到“智能体循环”
传统对话式AI(如DeepSeek对话)的工作模式是:
用户:提问 → AI:回答 → 结束
而Claude Code/Codex的工作模式是(为了简单易懂,我把过程简化为下图):
用户:提出任务
↓
AI:思考 → 行动 → 观察 → 思考 → 行动 → 观察 → ... → 任务完成
↓
用户:看到结果
以上智能体与模型之间的“思考-行动-观察”这个过程可能会执行一次,或者循环多达几百次,这个过程叫做Agent Loop(智能体循环) 。AI不再是被动回答问题的“问答机”,而是能主动规划、执行、反馈的智能体。Claude Code 和 Codex 都采用了 Agent Loop 这一智能体核心框架。
用户的一个问题,被AI编程工具这个智能体应用拆开成多个需求与大模型交互,用户看到的是结果,但是Claude Code和Codex已经与大模型完成多次交互。
二、Agent Loop的完整拆解
以一个实际任务为例:“修改登录页按钮颜色为红色”。让我们看看后台发生了什么。
第1轮:规划
| 角色 | 动作 | 内容 |
|---|---|---|
| 本地工具 | 发送请求 | “用户说:修改登录页按钮颜色为红色。这是你可以使用的工具列表(搜索、读文件、编辑等)。请决定下一步做什么。” |
| 大模型 | 内部思考 | “我需要先找到登录页相关的代码文件。” |
| 大模型 | 返回响应 | “调用 Glob 工具,搜索模式:**/login*.wxss” |
第2轮:搜索
| 角色 | 动作 | 内容 |
|---|---|---|
| 本地工具 | 执行工具 | 在项目中搜索 login*.wxss,找到 pages/login/login.wxss |
| 本地工具 | 发送请求 | “搜索完成,找到文件 pages/login/login.wxss。请决定下一步。” |
| 大模型 | 内部思考 | “文件找到了,我需要读取内容才能知道怎么改。” |
| 大模型 | 返回响应 | “调用 Read 工具,读取 pages/login/login.wxss” |
第3轮:读取
| 角色 | 动作 | 内容 |
|---|---|---|
| 本地工具 | 执行工具 | 读取文件内容(假设200行代码) |
| 本地工具 | 发送请求 | “文件内容如下:[200行代码]。请决定下一步。” |
| 大模型 | 内部思考 | “找到了按钮样式,需要把 color: blue 改成 color: red。” |
| 大模型 | 返回响应 | “调用 Edit 工具,将第45行的 color: blue 改为 color: red” |
第4轮:执行
| 角色 | 动作 | 内容 |
|---|---|---|
| 本地工具 | 执行工具 | 修改文件,保存 |
| 本地工具 | 发送请求 | “修改成功。请决定下一步。” |
| 大模型 | 内部思考 | “任务已完成,不需要再调用工具了。” |
| 大模型 | 返回响应 | “已将登录页按钮颜色修改为红色。” |
最终输出
本地工具将模型的最终响应显示给你: “已将登录页按钮颜色修改为红色。”
三、用户感知 vs 实际消耗
你只看到了“1条消息 → 1条回复”,但后台发生了:
| 项目 | 数量 |
|---|---|
| 用户发送的消息 | 1条 |
| 后台API调用 | 4次 |
| 工具执行 | 3次 |
| 模型内部思考 | 4次 |
这就是为什么这些工具“烧钱”的根本原因。 你的一次简单任务,后台可能对应3-10次甚至更多的API调用。
四、Token消耗的累加式放大
每次API调用,都需要发送完整的对话历史。这意味着Token消耗不是线性增长,而是累加式放大。
| 轮次 | 发送内容 | Token量 |
|---|---|---|
| 第1轮 | 系统提示+工具列表+用户问题 | ~2,000 |
| 第2轮 | 历史(2,000) + 搜索结果 | ~4,000 |
| 第3轮 | 历史(4,000) + 文件内容 | ~8,000 |
| 第4轮 | 历史(8,000) + 修改结果 | ~2,500 |
| 累计 | ~16,500 |
你的输入:约50 Token
实际消耗:约16,500 Token
放大倍数:330倍
这也是为什么有人会说“改一行代码花了几万Token”——因为那几万Token是Agent Loop多轮交互的累计总和。
五、为什么“烧钱”?——量化分析
把上面的数据换算成实际成本:
| 项目 | 数值 |
|---|---|
| 用户输入 | 50 Token |
| 实际消耗 | 16,500 Token |
| 放大倍数 | 330倍 |
这就是为什么你只是改了一行代码,后台却可能消耗几万Token。
如果你用的是Claude Sonnet 4.6(输出价格 $15/1M Token):
- 改一行代码的成本 ≈ 16,500 × 0.000015 = $0.25
- 一天改20次 = $5
- 一个月(20个工作日)= $100
但如果你用DeepSeek-V3.2(输出价格 ¥0.28/1M Token ≈ $0.04):
- 改一行代码的成本 ≈ 16,500 × 0.00000004 = $0.00066
- 一天改20次 = $0.013
- 一个月(20个工作日)= $0.26
这就是为什么很多人选择“DeepSeek驱动Claude Code”的方案——成本相差近400倍。(具体接入方法见第3篇)
六、Claude Code和Codex的原生能力
Claude Code和Codex都内置了完整的文件操作工具,不需要任何额外配置。
| 工具 | 功能 |
|---|---|
| Glob | 按文件名模式搜索(如 */login.js) |
| Grep | 按文件内容搜索 |
| Read | 读取文件 |
| Write | 创建/覆盖文件 |
| Edit | 精确修改文件 |
| Bash | 执行Shell命令 |
这些工具是AI编程工具自带的,你不需要安装任何插件。这也是为什么它们能“开箱即用”——安装好,进入项目目录,就能自动读写文件。
七、本章小结
| 核心要点 | 说明 |
|---|---|
| Agent Loop | 思考-行动-观察循环,让AI能自动完成复杂任务 |
| 多次API调用 | 一次用户任务 = 3-10次后台API交互(个别需求可能高达几百次交互) |
| Token累加放大 | 历史记录逐轮累加,实际消耗是表面的100-400倍 |
| 为什么“烧钱” | 后台多轮交互 × 历史累加 = Token消耗爆炸 |
| 怎么省钱 | 第3篇会讲:提示缓存 + 接入DeepSeek |
理解了这些,你就明白了两件事:
- 为什么这些工具贵:因为后台有很多次API调用
- 为什么它们能自动完成任务:因为Agent Loop让AI可以规划、执行、反馈
下一篇文章,我们将探讨如何降低成本——通过提示缓存机制和MCP协议,让AI编程既强大又省钱。
本文内容基于作者的开发经验和对官方文档的理解,仅供参考。技术工具、模型参数、定价等信息可能随时间变化,请以官方最新发布为准。如有不同见解,欢迎在评论区理性交流。
本文为原创内容,首发于微信公众号[机器人与人工智能爱好者]。未经本人书面授权,禁止任何形式的摘编、复制或用于商业用途,转载须注明出处。