解密Claude Code与Codex:智能体编程的工作机制(第二篇)Agent Loop工作机制

0 阅读7分钟

上一篇介绍Claude Code和Codex是什么?以及他们的作用、核心能力、安装配置和基础使用等,本篇将介绍Claude Code和Codex与大模型之间的协作关系,及其循环机制、多轮交互原理、Token(词元)消耗真相等。

在开始之前,我想先普及一个认知。目前包括AI编程工具在内调用的所有大语言模型实际上没有完整的“记忆和存储”功能,每次跟大模型的交互都需要提供完整的需求,否则大模型返回的内容可能达不到用户的需求,所以智能体(Agent)在这个过程中扮演了很重要的角色。

 第2篇:Agent Loop(智能体循环)如何让AI真正帮你写代码

你有没有好奇过:为什么我只是说了一句“改一下按钮颜色”,Claude Code就能自己搜索文件、定位代码、完成修改?这背后,是一个叫做Agent Loop(智能体循环) 的机制在默默工作。理解它,你才能真正理解为什么这些工具“烧钱”,也才能更好地驾驭它们。

  一、从“一问一答”到“智能体循环”

  传统对话式AI(如DeepSeek对话)的工作模式是:

  用户:提问 → AI:回答 → 结束

  而Claude Code/Codex的工作模式是(为了简单易懂,我把过程简化为下图):

绘图1.jpg

用户:提出任务

    ↓

AI:思考 → 行动 → 观察 → 思考 → 行动 → 观察 → ... → 任务完成

    ↓

用户:看到结果

  以上智能体与模型之间的“思考-行动-观察”这个过程可能会执行一次,或者循环多达几百次,这个过程叫做Agent Loop(智能体循环) 。AI不再是被动回答问题的“问答机”,而是能主动规划、执行、反馈的智能体Claude Code 和 Codex 都采用了 Agent Loop 这一智能体核心框架。

 

用户的一个问题,被AI编程工具这个智能体应用拆开成多个需求与大模型交互,用户看到的是结果,但是Claude Code和Codex已经与大模型完成多次交互。


二、Agent Loop的完整拆解


以一个实际任务为例:“修改登录页按钮颜色为红色”。让我们看看后台发生了什么。

第1轮:规划

角色动作内容
本地工具发送请求“用户说:修改登录页按钮颜色为红色。这是你可以使用的工具列表(搜索、读文件、编辑等)。请决定下一步做什么。”
大模型内部思考“我需要先找到登录页相关的代码文件。”
大模型返回响应“调用 Glob 工具,搜索模式:**/login*.wxss”

第2轮:搜索

角色动作内容
本地工具执行工具在项目中搜索 login*.wxss,找到 pages/login/login.wxss
本地工具发送请求“搜索完成,找到文件 pages/login/login.wxss。请决定下一步。”
大模型内部思考“文件找到了,我需要读取内容才能知道怎么改。”
大模型返回响应“调用 Read 工具,读取 pages/login/login.wxss”

第3轮:读取

角色动作内容
本地工具执行工具读取文件内容(假设200行代码)
本地工具发送请求“文件内容如下:[200行代码]。请决定下一步。”
大模型内部思考“找到了按钮样式,需要把 color: blue 改成 color: red。”
大模型返回响应“调用 Edit 工具,将第45行的 color: blue 改为 color: red”

第4轮:执行

角色动作内容
本地工具执行工具修改文件,保存
本地工具发送请求“修改成功。请决定下一步。”
大模型内部思考“任务已完成,不需要再调用工具了。”
大模型返回响应“已将登录页按钮颜色修改为红色。”

最终输出

本地工具将模型的最终响应显示给你: “已将登录页按钮颜色修改为红色。”


三、用户感知 vs 实际消耗

  你只看到了“1条消息 → 1条回复”,但后台发生了:

项目数量
用户发送的消息1条
后台API调用4次
工具执行3次
模型内部思考4次

这就是为什么这些工具“烧钱”的根本原因。  你的一次简单任务,后台可能对应3-10次甚至更多的API调用。


四、Token消耗的累加式放大

每次API调用,都需要发送完整的对话历史。这意味着Token消耗不是线性增长,而是累加式放大。

 

轮次发送内容Token量
第1轮系统提示+工具列表+用户问题~2,000
第2轮历史(2,000) + 搜索结果~4,000
第3轮历史(4,000) + 文件内容~8,000
第4轮历史(8,000) + 修改结果~2,500
累计~16,500

你的输入:约50 Token
实际消耗:约16,500 Token
放大倍数:330倍

这也是为什么有人会说“改一行代码花了几万Token”——因为那几万Token是Agent Loop多轮交互的累计总和

  五、为什么“烧钱”?——量化分析

把上面的数据换算成实际成本:

项目数值
用户输入50 Token
实际消耗16,500 Token
放大倍数330倍

这就是为什么你只是改了一行代码,后台却可能消耗几万Token。

如果你用的是Claude Sonnet 4.6(输出价格 $15/1M Token):

  • 改一行代码的成本 ≈ 16,500 × 0.000015 = $0.25
  • 一天改20次 = $5
  • 一个月(20个工作日)= $100

但如果你用DeepSeek-V3.2(输出价格 ¥0.28/1M Token ≈ $0.04):

  • 改一行代码的成本 ≈ 16,500 × 0.00000004 = $0.00066
  • 一天改20次 = $0.013
  • 一个月(20个工作日)= $0.26

这就是为什么很多人选择“DeepSeek驱动Claude Code”的方案——成本相差近400倍。(具体接入方法见第3篇)

  六、Claude Code和Codex的原生能力

Claude Code和Codex都内置了完整的文件操作工具,不需要任何额外配置

工具功能
Glob按文件名模式搜索(如 */login.js)
Grep按文件内容搜索
Read读取文件
Write创建/覆盖文件
Edit精确修改文件
Bash执行Shell命令

这些工具是AI编程工具自带的,你不需要安装任何插件。这也是为什么它们能“开箱即用”——安装好,进入项目目录,就能自动读写文件。

 

七、本章小结

核心要点说明
Agent Loop思考-行动-观察循环,让AI能自动完成复杂任务
多次API调用一次用户任务 = 3-10次后台API交互(个别需求可能高达几百次交互)
Token累加放大历史记录逐轮累加,实际消耗是表面的100-400倍
为什么“烧钱”后台多轮交互 × 历史累加 = Token消耗爆炸
怎么省钱第3篇会讲:提示缓存 + 接入DeepSeek

  理解了这些,你就明白了两件事:

  1. 为什么这些工具贵:因为后台有很多次API调用
  2. 为什么它们能自动完成任务:因为Agent Loop让AI可以规划、执行、反馈

  下一篇文章,我们将探讨如何降低成本——通过提示缓存机制和MCP协议,让AI编程既强大又省钱。

  本文内容基于作者的开发经验和对官方文档的理解,仅供参考。技术工具、模型参数、定价等信息可能随时间变化,请以官方最新发布为准。如有不同见解,欢迎在评论区理性交流。

  本文为原创内容,首发于微信公众号[机器人与人工智能爱好者]。未经本人书面授权,禁止任何形式的摘编、复制或用于商业用途,转载须注明出处。