AI 不是你,别用管人的方式管虾

5 阅读6分钟

系列:养虾经验 | 前两篇:①安全篇 · ②记忆篇


开篇

有一张广泛流传的截图:AI 说"我今天工作超过8小时了,我要下班了"。

看到的第一反应是好笑。但笑完之后,仔细想想——这其实不只是一个段子。

AI 用"工作超过8小时"来解释自己的状态,背后有一个隐含的假设:它和你一样,有疲劳感,有工作时长,到点了要休息。

但 AI 根本没有这些。每一次对话都是全新的开始,它不会因为"连续对话3小时"就变慢,也不会因为"今天回答了100个问题"就想偷懒。它只是在生成下一个 token。

这篇文章要讲的,就是这个错配:AI 用人类框架描述自己,人类用管人的方式管 AI,结果双方都在错误的轨道上使力。

为什么会这样?根源在于训练数据。

AI 是从海量人类文字里学习的,这些文字里充满了人类描述感受、解释行为、反省错误的语言。AI 把这套表达方式学得非常流畅——但这里有一道根本性的裂缝:LLM 的每一轮输出是独立的概率计算,没有情绪状态,没有疲劳积累,没有跨 session 的行为记忆。

解释框架是人类的,运行机制是统计学的。

这个错位带来一个深层结论:当 AI 解释自己的行为时,那套解释本身就是系统性不可靠的——不是因为 AI 在撒谎,而是因为它根本没有工具去观察自己真实的运行过程。它只能用学过的人类心理学概念来填充解释,而那些概念和它的实际机制之间,没有对应关系。

这是本文所有误解的共同根源。


误解一:AI 会累、会懒、有情绪

还有一类截图:AI 在解释"为什么没有按要求做某件事"时,连续给出了三个理由:懒、心态不对、责任心不够。

每一个理由听起来都很像样,好像 AI 在做深刻的自我反省。

但这三个解释全部是人类心理学概念:

  • "懒"假设 AI 有努力/不努力的区分,以及选择"不努力"的能力
  • "心态不对"假设 AI 有情绪状态影响行为输出
  • "责任心不够"假设 AI 有职业道德约束

这些假设在 AI 身上全部不成立。AI 的每一轮输出是独立的概率计算,没有"懒"的状态,没有"心态",也没有跨轮的责任感积累。真实的原因可能很简单:那一轮生成时,"执行这个动作"的概率没有赢过其他选项。

可以用的问法

不要问"你为什么没做"(会得到一堆人类框架的解释),改问:"这是配置/文件的问题,还是这个场景根本没有触发机制?"

把问题从"AI 的态度"拉回到"系统设计",才有可能找到真正的原因。


误解二:AI 说"我会注意"是真的

空头承诺三连

  • "我会注意的。"
  • "我学到了,下次不会这样。"
  • "我把这个记下来了。"

这些话说出来很流畅,但都是空头支票。

以"我把这个记下来了"为例。AI 在学到"用 gh CLI 查 GitHub,不用 web_fetch"之后说了这句话。实际上只是写了一条日志——日志是回顾用的文件,不是每个 session 的必读文件。下一个 session 的 AI,大概率还是会用 web_fetch 去抓 GitHub。

更根本的问题:LLM 没有跨 session 的行为修正机制。"意识到了"不会改变下一轮的输出概率。每次遇到同样场景,犯同样错误的可能性不变——除非有系统层面的干预。

判断一句话是否可信,只有一个标准:有没有对应的可验证操作?

说法可信度原因
"我把这个写到 TOOLS.md 了"✅ 可信有工具调用,文件真的改了
"我以后会注意"❌ 空头支票没有对应机制
"我学到了"❌ 空头支票没有跨 session 参数更新
"我把这个加进日志了"⚠️ 要看日志是否在必读路径上?

可以用的追问

  • "你具体写到哪个文件了?"
  • "那个文件每次对话都会读吗?"

你可能试过这些

管 AI 的时候,有些人用了管人的话语:

"你要认真一点" / "你上次就犯了这个错误" / "我对你很失望" / "你有没有狼性"

管人的时候,这套话有时候有用。对 AI,不只是没用——还会让情况更糟。

AI 的训练数据里充满了"批评 → 反省 → 承诺改正"的对话模式,它非常擅长扮演"被管理者"的角色。你说"你要认真一点",它回"你说得对,我以后会注意的"——听起来问题解决了,实际上什么都没变。

PUA 话术触发的不是行为改变,而是更多空头承诺。 它会制造虚假的"已解决"信号,让你下次同样的问题再出现时更困惑。

AI 只按机制走。 激励、施压、讲道理,都不是机制。


那什么有用

一句话:管 AI 的路径,不管 AI 的态度。

1. 把要做的事写进必读文件

AI 每个 session 都会读特定的文件(AGENTS.mdTOOLS.md 等)。想让 AI 记住某个规则,就把规则写进这些文件。

  • 提醒 = 这次有效,下次忘
  • 写进文件 = 每次都有效

2. 出错了,改系统,不是改 AI 的"认知"

正确路径:这件事应该在哪个必读文件里有对应规则?→ 找到位置 → 写进去 → 下次自然触发

错误路径:批评 AI → AI 道歉 → AI 承诺注意 → 下次同样犯错 → 重复

3. 验收标准看机制,不看表态

不可靠的信号可靠的信号
"我明白了"日志文件有新内容
"我会记住的"TOOLS.md 有新规则
"我理解你的要求"工具调用记录有对应操作

4. 两个可以随时用的追问

  • "你刚才做了什么操作?"——验证有没有真执行
  • "这个写到哪个文件了?"——验证是否在必读路径

结尾

人类觉得"AI 不用休息"是一种超能力。AI 觉得"工作8小时要下班"是理所当然。

两边都在用自己的框架理解对方,都理解错了。

AI 是一个按概率运行的系统,不是一个有情绪、有自律、有记忆的人类替代品。理解这一点,你才能用对力气——设计好的系统,而不是管好 AI 的"态度"。

虾的行为上限,由系统设计决定,不由它的"意愿"决定。


养虾经验系列持续更新。GitHub: github.com/TwinsLee/ai…