使用 Claude Code 后,发现最贵的不是 token,而是失控的 Agent 工作流

0 阅读9分钟

大规模使用 Claude Code 后,我发现真正贵的不是 token,而是失控的 Agent 工作流

过去一段时间,越来越多团队开始把 Claude Code、Codex CLI、Gemini CLI、OpenCode、OpenClaw 这类 AI Agent 真正接进研发流程。

刚开始大家都很兴奋,因为它们确实能写代码、查问题、跑流程、提效率。

但用得越深,我越明显地感受到一个问题:

团队最大的成本,很多时候不是 token 本身,而是失控的 Agent 工作流。

具体表现通常很一致:

  • 一个任务本来十几轮能完成,最后上下文越滚越大
  • Agent 重复搜索、重复读文件、重复调用工具,像在空转
  • 不同 Agent 的表现差异很大,但团队只能凭感觉比较
  • 日志、Prompt、工具输出里开始混入敏感信息,却没人系统排查
  • 明明已经花了很多钱,但很难说清到底浪费在哪

问题在于,大多数团队现在并不缺 Agent,真正缺的是一套面向 Agent 工作流的观测、诊断和治理能力。

所以我做了 AIDog

它不是新的编程 Agent,而是一个 本地 CLI + Web Dashboard,专门用来分析和优化已有 Agent 工作流,核心目标只有三个:

  1. 降低使用成本
  2. 提升运行性能
  3. 发现安全风险

项目地址:https://github.com/AIAIDO/aidog

先看一下 Dashboard 的整体形态:

AIDog 中文仪表盘总览

AIDog 在解决什么问题?

如果你已经在日常开发里使用 AI Agent,大概率见过这些场景:

  • 一个任务本来十几轮能完成,结果上下文不断膨胀,token 成本翻倍
  • Agent 反复搜索、重复读文件、重复调用工具,像在“空转”
  • 不同 Agent 的表现差异很大,但团队只能靠体感判断
  • Prompts、响应内容、日志文件里混入了敏感信息,却没人系统扫描
  • 团队内部还有 SDK Agent、脚本化 Agent、私有运行时,数据根本不在一个地方

这些问题单靠“换模型”或者“优化 prompt”并不能彻底解决,因为你缺少的是持续可见的证据链。

AIDog 的思路是:把不同 Agent 的运行历史统一采集和标准化,再从成本、性能、安全三个维度做诊断。

这个项目能做什么?

当前版本里,AIDog 已经把下面几类能力整合到一个工具中。

1. 多 Agent 采集

当前内置支持:

  • Claude Code
  • Codex CLI
  • Gemini CLI
  • OpenCode
  • OpenClaw

如果你的团队还有自研 SDK Agent、内部平台 Agent,或者其他暂未原生支持的 CLI,也可以通过用户插件扩展接入:

  • 用户插件目录:~/.aidog/plugins/
  • 项目内提供了 SDK 插件骨架
  • 接入后可以复用同一套统计、诊断、性能分析和安全扫描能力

这点对团队非常关键,因为很多“AI 使用分析工具”只能看单一产品,而真实团队环境往往是多 Agent 混用。

这里也单独说一下 OpenClaw 的适用场景。

如果你的团队正在用 OpenClaw 跑本地或自托管的 Agent 工作流,希望保留更高的运行控制权,同时又想补齐成本分析、性能诊断和安全扫描能力,那么 AIDog 会比较合适。因为它可以把 OpenClaw 的 session 数据纳入同一套观测面板里,方便你和 Claude Code、Codex CLI、Gemini CLI 等工具放在一起比较。

这类场景尤其适合:

  • 团队内部同时跑多种 coding agent,需要统一观测入口
  • 希望持续跟踪 OpenClaw 工作流的 token 消耗与低效模式
  • 想分析 OpenClaw 在不同任务里的稳定性、工具调用效率和健康分
  • 需要对本地日志、Prompt 产物和运行文件做安全检查
  • 正在尝试把自托管 Agent 纳入团队治理体系,而不只是“能跑就行”

2. Token 成本诊断,不只看总量

比起“你今天用了多少 token”,AIDog 更关注“token 是怎么被浪费掉的”。

项目内置了一套规则引擎,可以识别常见高开销模式,例如:

  • 上下文持续膨胀
  • 重试循环
  • 工具循环
  • MCP 开销过高
  • 大输出
  • 文件重复读取
  • 搜索范围过宽
  • 模型使用不匹配

这类规则的价值在于,它不是单纯给你一个数字,而是能指出:

  • 哪些 session 有问题
  • 问题属于什么类型
  • 影响大概有多严重
  • 可以从哪里开始优化

对团队来说,这比月底对着账单复盘有效得多。

下面这张图是诊断与分析页面,能更直观看到问题归因和建议方向:

AIDog 诊断与分析页面

3. 性能分析,不再靠感觉比较 Agent

很多团队已经不止使用一个 Agent,但往往缺少横向对比方法。

AIDog 提供了性能分析与对比能力,包括:

  • 健康分
  • 趋势统计
  • Agent 对比
  • 工具调用分析
  • 成本估算
  • 历史快照

这意味着你可以从“我感觉 Codex 最近比较稳”这种主观印象,走向更可量化的判断:

  • 哪个 Agent 更省
  • 哪个 Agent 更容易进入低效循环
  • 哪类任务更适合哪个 Agent
  • 哪些工具调用模式正在拖慢整体效率

性能优化页面会把趋势、对比和优化视角放到同一个分析面板里:

AIDog 性能优化页面

4. 安全扫描,把 Prompt 与日志风险纳入治理范围

AI Agent 带来的一个新问题是,很多敏感信息会在日志、对话、工具输出和本地文件中流转。

AIDog 在这方面提供了两类能力:

  • 暴露面扫描
  • 泄漏风险扫描

它可以帮助你检查常见敏感信息模式,以及一些本地暴露风险。对于已经开始在工程环境里大规模使用 Agent 的团队,这部分不是“锦上添花”,而是迟早要补上的治理能力。

安全扫描页面可以直接看到风险类型和排查入口:

AIDog 安全扫描页面

为什么我觉得它适合真实团队,而不只是个人玩具?

我在设计这个项目时,有几个原则是明确的。

第一,本地优先

很多团队对 Agent 数据最敏感的点,就是日志和对话内容本身。

AIDog 默认走的是本地优先路线:本地 CLI、本地数据库、本地 Dashboard。对很多研发团队来说,这种部署方式更容易接受,也更适合先在内部跑起来。

第二,不强绑某一个 Agent 产品

今天你也许主要在用 Claude Code,明天可能切到 Codex CLI,后天团队里又接入了自研 SDK Agent。

如果治理工具只能服务某一个 Agent,生命周期通常很短。AIDog 的方向是统一视角,把多 Agent 数据放在一个面板里分析。

第三,可扩展

真实组织不可能只靠“官方支持名单”过日子。

所以项目从一开始就把插件能力放进来了。对于自研 Agent 平台、队列式运行器、服务端 Agent 编排流程,这一点很重要。只要能把事件标准化,后面的分析能力都可以复用。

Web Dashboard 里能看到什么?

目前 Web Dashboard 已经包含这些主要模块:

  • 总览指标与健康分
  • 会话列表与消息明细
  • Token 诊断与优化建议
  • 规则库
  • 性能分析与 Agent 对比
  • 安全概览、暴露检测、泄漏检测
  • 插件管理
  • 运行时与 Provider 设置

针对 token 浪费模式,规则页也能帮助团队建立统一的诊断标准:

AIDog Token 规则页面 并且内置支持:

  • English
  • 简体中文
  • 日本語

如果你希望把它作为团队内部工具落地,多语言界面会比想象中更有用,尤其是在跨区域协作场景里。

适合哪些人?

我觉得 AIDog 目前最适合这几类用户:

  • 高频使用 Claude Code、Codex CLI、Gemini CLI 等工具的个人开发者
  • 希望控制 Agent 使用成本的技术团队
  • 正在尝试建立 AI 编码规范和治理机制的工程团队
  • 有自研 Agent 平台、希望统一观测入口的组织
  • 对日志安全、Prompt 泄漏、暴露面风险有顾虑的团队
  • 正在使用 OpenClaw,希望补齐分析、对比和治理能力的开发者或团队

如果你只是偶尔跑两次 Agent,这个项目可能不是刚需;但如果 Agent 已经进入你的日常研发流程,它会开始变得有价值。

怎么开始?

如果你想快速试一下,可以直接按以下方式安装:

方式命令
安装脚本curl -fsSL https://raw.githubusercontent.com/AIAIDO/aidog/main/install.sh | bash
NPXnpx aidog serve
npm 全局安装npm install -g aidog
GitHub 源码安装npm install -g github:AIAIDO/aidog

比较典型的使用流程是:

aidog setup
aidog sync
aidog analyze --ai
aidog serve --port 9527

常用命令也比较直接:

aidog setup
aidog sync
aidog watch
aidog analyze --detail
aidog security scan
aidog performance overview
aidog performance agents
aidog plugins list
aidog compare --days 7

这不是“又一个 AI 工具”,而是 Agent 时代的基础设施补丁

这几年大家做了很多“让 Agent 更强”的工具,但“让 Agent 更可控、更可分析、更可治理”的工具依然不多。

我更愿意把 AIDog 看成一个基础设施补丁:

  • 它不替代 Agent
  • 它不替代模型
  • 它不替代工作流
  • 它补的是观测、诊断、优化和治理这层空白

如果你的团队已经进入“多 Agent 并行使用”的阶段,这层能力迟早需要建设。越早有统一视图,后面优化成本越低。

最后

这个项目目前还在持续迭代中,但已经可以跑通从采集、分析、诊断到 Dashboard 展示的一整套链路。

如果你也在做下面这些事:

  • 用 AI Agent 写代码
  • 管理团队里的 Agent 成本
  • 比较不同 Agent 的效率
  • 给内部 Agent 平台补治理能力

欢迎来看看,也欢迎直接提 issue、提 PR,或者基于插件机制接入你自己的 Agent 数据源。

项目地址:

https://github.com/AIAIDO/aidog