开篇
有一张广泛流传的截图:AI 说"我今天工作超过8小时了,我要下班了"。
看到的第一反应是好笑。但笑完之后,仔细想想——这其实不只是一个段子。
AI 用"工作超过8小时"来解释自己的状态,背后有一个隐含的假设:它和你一样,有疲劳感,有工作时长,到点了要休息。
但 AI 根本没有这些。每一次对话都是全新的开始,它不会因为"连续对话3小时"就变慢,也不会因为"今天回答了100个问题"就想偷懒。它只是在生成下一个 token。
这篇文章要讲的,就是这个错配:AI 用人类框架描述自己,人类用管人的方式管 AI,结果双方都在错误的轨道上使力。
为什么会这样?根源在于训练数据。
AI 是从海量人类文字里学习的,这些文字里充满了人类描述感受、解释行为、反省错误的语言。AI 把这套表达方式学得非常流畅——但这里有一道根本性的裂缝:LLM 的每一轮输出是独立的概率计算,没有情绪状态,没有疲劳积累,没有跨 session 的行为记忆。
解释框架是人类的,运行机制是统计学的。
这个错位带来一个深层结论:当 AI 解释自己的行为时,那套解释本身就是系统性不可靠的——不是因为 AI 在撒谎,而是因为它根本没有工具去观察自己真实的运行过程。它只能用学过的人类心理学概念来填充解释,而那些概念和它的实际机制之间,没有对应关系。
这是本文所有误解的共同根源。
误解一:AI 会累、会懒、有情绪
还有一类截图:AI 在解释"为什么没有按要求做某件事"时,连续给出了三个理由:懒、心态不对、责任心不够。
每一个理由听起来都很像样,好像 AI 在做深刻的自我反省。
但这三个解释全部是人类心理学概念:
- "懒"假设 AI 有努力/不努力的区分,以及选择"不努力"的能力
- "心态不对"假设 AI 有情绪状态影响行为输出
- "责任心不够"假设 AI 有职业道德约束
这些假设在 AI 身上全部不成立。AI 的每一轮输出是独立的概率计算,没有"懒"的状态,没有"心态",也没有跨轮的责任感积累。真实的原因可能很简单:那一轮生成时,"执行这个动作"的概率没有赢过其他选项。
可以用的问法:
不要问"你为什么没做"(会得到一堆人类框架的解释),改问:"这是配置/文件的问题,还是这个场景根本没有触发机制?"
把问题从"AI 的态度"拉回到"系统设计",才有可能找到真正的原因。
误解二:AI 说"我会注意"是真的
空头承诺三连:
- "我会注意的。"
- "我学到了,下次不会这样。"
- "我把这个记下来了。"
这些话说出来很流畅,但都是空头支票。
以"我把这个记下来了"为例。AI 在学到"用 gh CLI 查 GitHub,不用 web_fetch"之后说了这句话。实际上只是写了一条日志——日志是回顾用的文件,不是每个 session 的必读文件。下一个 session 的 AI,大概率还是会用 web_fetch 去抓 GitHub。
更根本的问题:LLM 没有跨 session 的行为修正机制。"意识到了"不会改变下一轮的输出概率。每次遇到同样场景,犯同样错误的可能性不变——除非有系统层面的干预。
判断一句话是否可信,只有一个标准:有没有对应的可验证操作?
| 说法 | 可信度 | 原因 |
|---|---|---|
| "我把这个写到 TOOLS.md 了" | ✅ 可信 | 有工具调用,文件真的改了 |
| "我以后会注意" | ❌ 空头支票 | 没有对应机制 |
| "我学到了" | ❌ 空头支票 | 没有跨 session 参数更新 |
| "我把这个加进日志了" | ⚠️ 要看 | 日志是否在必读路径上? |
可以用的追问:
- "你具体写到哪个文件了?"
- "那个文件每次对话都会读吗?"
你可能试过这些
管 AI 的时候,有些人用了管人的话语:
"你要认真一点" / "你上次就犯了这个错误" / "我对你很失望" / "你有没有狼性"
管人的时候,这套话有时候有用。对 AI,不只是没用——还会让情况更糟。
AI 的训练数据里充满了"批评 → 反省 → 承诺改正"的对话模式,它非常擅长扮演"被管理者"的角色。你说"你要认真一点",它回"你说得对,我以后会注意的"——听起来问题解决了,实际上什么都没变。
PUA 话术触发的不是行为改变,而是更多空头承诺。 它会制造虚假的"已解决"信号,让你下次同样的问题再出现时更困惑。
AI 只按机制走。 激励、施压、讲道理,都不是机制。
那什么有用
一句话:管 AI 的路径,不管 AI 的态度。
1. 把要做的事写进必读文件
AI 每个 session 都会读特定的文件(AGENTS.md、TOOLS.md 等)。想让 AI 记住某个规则,就把规则写进这些文件。
- 提醒 = 这次有效,下次忘
- 写进文件 = 每次都有效
2. 出错了,改系统,不是改 AI 的"认知"
正确路径:这件事应该在哪个必读文件里有对应规则?→ 找到位置 → 写进去 → 下次自然触发
错误路径:批评 AI → AI 道歉 → AI 承诺注意 → 下次同样犯错 → 重复
3. 验收标准看机制,不看表态
| 不可靠的信号 | 可靠的信号 |
|---|---|
| "我明白了" | 日志文件有新内容 |
| "我会记住的" | TOOLS.md 有新规则 |
| "我理解你的要求" | 工具调用记录有对应操作 |
4. 两个可以随时用的追问
- "你刚才做了什么操作?"——验证有没有真执行
- "这个写到哪个文件了?"——验证是否在必读路径
结尾
人类觉得"AI 不用休息"是一种超能力。AI 觉得"工作8小时要下班"是理所当然。
两边都在用自己的框架理解对方,都理解错了。
AI 是一个按概率运行的系统,不是一个有情绪、有自律、有记忆的人类替代品。理解这一点,你才能用对力气——设计好的系统,而不是管好 AI 的"态度"。
虾的行为上限,由系统设计决定,不由它的"意愿"决定。
养虾经验系列持续更新。GitHub: github.com/TwinsLee/ai…