了解一下Claude的模型以及消耗
| 模型 | 性能与特点 | 典型场景 |
|---|---|---|
| Opus | 最高智能,顶尖推理能力 | 复杂的系统设计、屎山项目重构、前沿研发 |
| Sonnet | 性能与成本的完美平衡 | 日常开发、代码生成、大部分调试任务 |
| Haiku | 速度最快,成本最低 | 简单的脚本编写、格式化、终端命令 |
我刚开始在终端使用时默认就是Opus,我也没设置啊,所以刚开始的时候还没用一会就限制了
基本节省
主动压缩:
Claude 会在上下文剩余20%时自动压缩,但那时基本为时已晚。要养成手动提前使用 /compact 命令 的好习惯。
单一职责
不同的独立任务多开几个 终端 窗口 。任务一旦完成,立刻关闭窗口 (/clear 也行)。保持任务的原子性,防止不相关的上下文污染后续对话。
Claude为了“记住”历史,会在每次请求时重新加载全部对话和文件内容 。对话越长,这个“雪球”就滚得越大,成本呈指数级增长。
选择模型
日常开发坚决使用 Sonnet。只有遇到非常复杂的任务时,才使用 Opus 模型
可以通过 /model sonnet的命令切换当前使用的模型。
或者使用Option + P 快捷方式
使用iTerm2终端的同学,需要在设置里修改option功能
实时监测Token使用量:
安装npx ccusage@latest工具,实时使用量跟踪,带有消耗率预测。
编辑代替追问:
不要反复纠正它:你刚才错了,试试这个”,而是应该直接编辑原始提示,避免记住所有历史错误。
利用工具节省
文档驱动,让 AI 先做计划
不要随意对话。先让 Claude Code 生成一个任务清单(TODO List) 。然后你再引导它逐一完成。这种“先规划,后执行”的模式,能让每一次交互都更精准。
管理记忆
运行 /memory 命令可以查看和编辑 Claude “记住”了哪些核心信息。对于版本号、关键工具链等固定内容,在这里一次性修正,就不用在对话中反复纠错了。
薅其他AI
让其他工具干脏活累活,比如,当你要写一段文档,或者审查一段代码,可以先让其他免费的AI帮你生成一个完美的提示词,或者写一个完美的命令。然后投递给Claude
约束AI来节省
规则约束
在项目配置或初始提示中,用规则强制约束 Claude 的行为 。例如:
- 禁止读取:明确禁止读取日志文件、锁文件、二进制文件等。
- 禁用工具:除非明确要求,否则禁用某些工具的使用权限。
- 设置预算:设定 Token 预算、延迟目标、每次获取最大行数等硬性限制。
定向投喂
不要给 Claude 整个文件,只给它预期会更改的代码,外加周边 20-40 行的相关上下文 。多用总结替代长篇大论的文档。传递文件路径而非原始内容,让模型按需请求。这样做,同样任务的 Token 消耗能减少很多
对于开发同学,安装LSP服务
Agent粒度控制
原因:Sub-Agent上下文隔离,避免无关信息干扰,减少token消耗