很多人用 Claude Code / Cursor / Trae 都有同一个感觉:
一开始很好用
聊着聊着就开始胡说
改代码越来越慢,越改越乱
大多数人以为是:
- token 不够了
- 模型不行了
- 项目太复杂了
但真相是:你把 AI 当成了一个“该记住一切的超级大脑”。 而高手,走的是完全相反的一条路。
真正的高手心法只有一句话:
不是让一个 Agent 记住所有事情,
而是搭建一个分工体系,让多个小而专注的 Agent 各司其职。
这是我在使用 Claude Code、以及整理 Anthropic 团队 / Calvin French-Owen(前 Codex 负责人) 的实践中,反复验证有效的一套 Context Engineering(上下文工程)方法论。
下面是社区和一线高手公认最有价值的 7 条经验,已按重要性排序
1️⃣ 一个会话,只干一件事(最重要)
绝大多数上下文爆炸,并不是任务太难,而是:
「顺便问一下」
「再帮我改改这里」
「要不我们把 XXX 也一起做了?」
多个“最终目标”被塞进一个会话,是上下文中毒的根源。
高手的做法是:
- 一个会话 = 一个明确可验收的目标
- 目标完成 → 立刻新开会话
- 或先让 AI 输出总结,再迁移继续
⚠️ 注意:
这不是禁止探索,而是禁止多个交付目标共存。
2️⃣ 大量使用子 Agent,而不是让主 Agent 干活
这是 Claude Code 最被称赞的一点。
主 Agent 只做三件事:
- 规划
- 协调
- 验收
所有具体执行任务:
- 改代码
- 查资料
- 分析 Bug
👉 全部丢给新开的子 Agent。
这样做的好处非常直接:
- 子 Agent 上下文极干净,只关注一件事
- 主 Agent 只接收“总结结果”,token 增量极小
- 整体变成:项目经理 + 多个执行工程师
一句话点破本质:
多 Agent 的核心价值不是并行,而是上下文隔离。
3️⃣ 主动让 AI 写“结构化总结”,不要等系统压缩
当会话已经变长、但任务还没完成时:
❌ 不要指望系统自动压缩
✅ 要主动让 AI 总结
推荐固定 prompt:
请总结:
- 当前目标
- 已完成内容
- 当前卡点
- 下一步计划
- 关键约束与重要决策
你快速检查 / 修正 → 复制总结 → 新会话继续。
这是目前质量最高的上下文迁移方式。
4️⃣ 用 TODO List 锚定执行路径(外置记忆)
让 AI 一开始就输出可拆分的 TODO(Markdown 最好)。
- 每完成一步就更新状态
- 重要决策写在 TODO 的备注里
- 新会话只要带上最新 TODO,AI 几乎不会迷路
你可以把它理解为:
TODO = 外置的“工作记忆”
⚠️ 小提醒:
TODO 不要只写「做什么」,一定要写为什么这么做。
5️⃣ 把高频上下文写进 claude.md / Skill
高手都在做一件事:
疯狂把上下文“外置”。
适合写成文件的包括:
- 项目技术栈、编码规范
- 架构决策、硬性约束
- 常用模式、踩坑结论
这样做的效果是:
- AI 每次启动自动读取
- 不占用会话 token
- 相当于“永久上下文”
Calvin 在访谈里也提到:
Top 1% 用户,几乎都在系统性外置上下文。
6️⃣ 检索 > 硬塞(grep + agentic search)
在代码场景里:
❌ 把一堆文件塞进上下文
✅ 让 AI 自己去 grep / 查调用链
Claude Code 团队在代码理解上,明显弱化了传统向量 RAG,
更偏向 关键词检索 + Agent 推理。
原因很简单:
代码的真实依赖关系,向量召回经常是错的。
7️⃣ 接受一个事实:上下文就是“内存条”
你需要用计算机的视角理解 AI:
- 会话上下文 = 内存(快,但小)
- 文件 / Git = 硬盘(慢,但大)
该放硬盘的,不要塞内存。
最后给你 3 个立刻能改善体验的动作
如果你现在就想减少 70% 的上下文问题:
- 养成「一个会话只干一件事」的习惯
- 用 Task / 子 Agent 拆具体执行
- 把项目规范写进 claude.md 或 Skill
做到这些,你会明显感觉:
AI 没那么容易“变蠢”了。