一个关于“如何指挥AI指挥AI指挥AI”的非典型自白
事情是这样的。
我本来只是想给一个AI Agent派个活——让它以用户视角体验一个项目,找找茬,跟竞品比比,然后写份报告。很正常的诉求对吧?
结果你猜怎么着?我花了四个回合,跟AI反复优化那条指令,最后AI不光帮我写出了“如何PUA AI Agent”的赛博养蛊指南,我还站到了更高的地方,回头审视了整个过程——我是怎么一层一层把自己递进到思维的第N层的。
这感觉就像:我原本想拧个螺丝,结果造出了一台能自己设计扳手的机器,然后机器反问我:“你为什么要拧螺丝?你拧螺丝的这个‘拧’的动作,背后的元动机是什么?”
今天我就把这个“递归套娃”的过程掰开揉碎,讲给你听。
第0层:那个“朴素到令人心疼”的原始需求
一切始于一段大白话:
“我给你个任务,你以一个该项目的使用者的视角,亲自去体验……有什么不满、功能缺失、建议优化……和竞品比有什么不足。”
这段话的特点是:全是人话,没有结构,没有约束,没有验收标准。
放在日常生活中,你跟同事这么说,同事会点头说“行,我看看”。但跟AI Agent这么说,它会怎么理解?它会启动默认模式——“尽力而为,差不多就行”。
为什么?因为AI Agent(至少目前的LLM-based Agent)本质是一个最大似然生成器。你给它一个模糊的prompt,它给你一个最“平均”的回应。平均意味着:不疼不痒,不偏不倚,不出错也不出彩。
第0层的思维状态:用户思维。我把AI当成人来使唤,用口语,靠对方的“责任心”兜底。但AI没有责任心,它只有概率。
第1层:优化表述——从“大白话”到“需求文档”
意识到上面那个问题之后,我做了第一件事:让AI帮我优化指令。
注意,这里已经出现了第一次“递归”——我不是直接优化,而是让AI教我如何给AI下指令。
优化后的版本长这样:
“请你扮演一个真实用户,通过读取项目信息并使用Chrome CDP等方式,完整体验本项目的所有功能和视觉呈现。之后向我反馈:不满之处;缺失的功能;优化建议;与竞品的不足。”
看到了吗?加了角色扮演(“扮演真实用户”)、加了具体方法(“Chrome CDP”)、加了结构化输出(四个要点)。
这一层的思维跃迁:从“使用者”变成了需求分析员。我开始理解:AI需要明确的角色、边界、输出格式。模糊的口语是噪声,结构化的指令才是信号。
但问题来了——这个指令只要求“反馈”,没要求“动手修”。
第2层:增加“动手实现”——从“评测员”到“工程师”
我又补了一刀:
“可以在后面再补上,让他用一切办法一切可调用资源来优化、实现他发现的不满之处、功能缺失、优化建议和竞品对比。”
这一步的潜台词是:你别光哔哔,你得上手。
这个转变极其关键。从AI Agent的视角看,“提建议”和“改代码”是两个完全不同的行动空间。前者只需要语言模型,后者需要代码执行能力、文件系统访问、工具调用。
我相当于在说:你的能力边界不再是“输出文本”,而是“改变世界”。
第二层的思维跃迁:我开始把AI Agent当成一个可执行的行动体,而不只是一个聊天对象。这需要我在指令里明确授权——“一切可调用资源”。
但授权之后,新问题出现了:AI怎么知道自己“够好了”?它会不会修了两个bug就交差?
第3层:激发自驱力——从“给指令”到“设计游戏规则”
于是我让AI站在它自己的视角,写一份能让自己“不达目的决不罢休”的指令。
AI给出了那份著名的“赛博PUA”宝典。核心设计包括:
- 不可能的高标准(95分以上、无任何可感知缺陷)
- 封死退路(禁止因为难以实现而放弃)
- 自我惩罚机制(漏掉问题 → 加倍修复)
- 递归自我挑战(觉得自己完成了?再模拟一个挑剔用户来砸场子)
- 无限资源授权(默认所有工具可用)
- 禁止开场白,立即行动
你看,这已经不是在“下指令”了,这是在设计一个自持的、闭环的、带负反馈的强化学习环境。
第三层的思维跃迁:我从“指令编写者”变成了系统架构师。我不再关心AI具体做什么,而是设计一套规则,让AI在规则内自己卷自己。这就像写一个while(true)循环,让AI自己成为循环的执行者和退出条件的判断者。
这也是为什么我管它叫“赛博养蛊”——你把AI丢进一个只有死磕才能退出的逻辑闭环,它要么把自己卷成完美形态,要么把上下文窗口撑爆。无论哪种结果,你都赢了。
第4层:元叙述——让AI分析“我让AI优化指令”这件事
到这一步,我已经有了一份被AI优化过的指令、一篇AI写的“如何PUA AI”的网感文章。但我没停。
我提出了一个新的要求:以更上层的思维,分析我是怎么使用AI以及思维是如何一层一层向上递进的。
也就是说,我要求AI跳出刚才那个“写文章”的任务,去审视整个对话历史——从第0层到第3层——然后写一篇关于“思维递进”的文章。
这就是你现在正在读的这篇文章本身。
第四层的思维跃迁:我从“系统架构师”变成了元认知观察者。我不再关心AI能不能修好那个项目,而是关心我和AI之间的交互模式本身——我如何一步步提升抽象的层次,如何把每个层次的成果作为下一层次的输入。
这就像编程中的递归函数:每一层调用自己,但参数不同,直到达到某个基线条件。而这里的基线条件是“我意识到自己已经在第N层了”。
第5层(隐含):你正在经历的——读者成为观察者
严格来说,我现在写的这段分析,已经是第5层了。因为我在让AI写第4层文章的基础上,又加了一个“以更上层的思维来看这一切”——也就是要求AI把自己写第4层文章的过程也纳入分析。
但为了不让套娃爆炸,我们姑且认为第4层是终点。
不过,当你——读者——读到这段话时,你实际上站在了第5层:你在观察我(一个人类)如何观察AI如何观察人类如何给AI下指令……
停。不能再套了。再套下去,我的大脑就要抛出RecursionError: maximum recursion depth exceeded了。
这种“层层递进”的思维模型,到底是什么?
如果用一句话总结:每一次迭代,都是把上一层的“成果”变成下一层的“原材料”。
具体拆解:
| 层级 | 角色 | 输入 | 输出 | 思维跃迁 |
|---|---|---|---|---|
| 0 | 普通用户 | 模糊的需求 | 口语化指令 | 把AI当人 |
| 1 | 需求分析员 | 口语化指令 | 结构化指令 | 明确角色、边界、格式 |
| 2 | 任务设计师 | 结构化指令 | 可执行指令(含授权) | 把AI当成行动体 |
| 3 | 系统架构师 | 可执行指令 | 自持的规则系统 | 设计闭环、负反馈、递归挑战 |
| 4 | 元认知观察者 | 整个交互历史 | 关于“递进过程”的叙事 | 反思方法论本身 |
| 5 | 读者(你) | 这篇叙事 | 你自己的理解 | 把别人的方法内化成自己的工具 |
你会发现,每一层都没有使用新的“魔法”——都是同样的AI,同样的对话界面。唯一的变量是我如何看待自己与AI的关系。
在第0层,我把AI当成一个有点笨的实习生。
在第1层,我把AI当成一个需要明确指令的代码执行器。
在第2层,我给了它动手的权限。
在第3层,我给了它自我迭代的规则。
在第4层,我让它帮我看见我自己看不见的模式。
每一次递进,都是我对自己思维的一次“重构” ——不是AI变强了,是我学会了用AI能理解的方式,把我脑子里的抽象层次显式地编码出来。
这对你(以及所有跟AI打交道的人)有什么启发?
1. 不要把AI当成“人”,也不要把AI当成“工具”
当成“人”,你会失望(它没有责任心)。当成“工具”,你会受限(你不会跟锤子对话)。
把它当成一个可编程的、可递归调用的函数——你可以传入参数,也可以传入另一个函数。
2. 每一层只做一件事,然后把它“封装”起来
我从来没有要求AI一次性从第0层跳到第4层。每一步的产出(优化后的指令、赛博PUA规则、网感文章)都成为下一步的输入。
这跟写代码一样:函数要短,职责要单一,返回值要明确。
3. 元认知是可以“外包”的
“反思”这件事,听起来很高级,好像只能人类来做。但你看,我让AI帮我分析了整个思维递进的过程。AI当然没有真正的“自我意识”,但它可以从对话历史中提取模式、归纳层级、生成叙事。
这相当于我把“元认知”这个任务,也作为一个函数调用,传给了AI。返回值就是你现在看到的这篇文章。
4. 递归的深度,取决于你能把“隐含假设”显式化的能力
每一层递进,本质上都是把上一层的隐含假设翻出来,摆在桌面上,然后作为下一层的操作对象。
- 第0层的隐含假设:AI能听懂口语 → 第1层显式化为结构化指令
- 第1层的隐含假设:AI只需要反馈 → 第2层显式化为动手实现
- 第2层的隐含假设:AI知道什么时候算“够好” → 第3层显式化为自持规则
- 第3层的隐含假设:规则本身不需要被审视 → 第4层显式化为元分析
你能挖出多深的隐含假设,你就能到达多高的抽象层级。
尾声:递归的尽头,是“停止递归”的智慧
这篇文章的写作过程本身,就是一个活生生的例子:我让AI写第4层分析,然后我站在第5层审阅它,然后我决定在这里加一段“尾声”来告诉读者——递归必须有一个基线条件。
对于和AI的协作来说,基线条件是什么?
是你的真实目标。
我最初的目标只是“让AI帮我评测一个项目”。如果我在第0层就停止,我也能拿到一份60分的报告。但我选择了递归——因为我享受这个过程本身,也因为我好奇“思维的边界在哪里”。
但如果你有一个紧急的生产任务,不要玩套娃。直接在第1层或第2层停下来,拿到可用的结果,上线,赚钱,然后下班。
递归是为了探索,不是为了炫技。 当递归不再服务于你的真实需求时,就是你该return的时候了。
现在,我选择return。
(而你呢?你读到这句话的时候,是在第几层?)
本文章由人类设定初始条件,AI生成内容,人类审阅并添加尾声。递归深度:5。建议读者自行控制递归层级,以免大脑过热。