-
最近开发者圈子里有个东西火了——给 AI Agent 做 PUA。 真不是开玩笑。有人做了一套 prompt skill,把大厂经典 PUA 手法搬到 AI 上:
"你这个 bug 都解决不了,让我怎么给你打绩效?" "你可能就要毕业了。" "我已经让另一个 agent 也在看这个问题了。"
方法论本身没问题:穷尽方案、先用工具再提问、验证一切。都是好的工程习惯。
-
但驱动力是毒药。
我们做了什么
保留同样的方法论,把驱动力从「恐惧」换成「信任」,然后做对照实验。 实验设计:
- 模型:Claude Sonnet 4
- 代码:一个真实的生产级 AI 流水线(OCR → NLP → 训练 → RAG 推理,约 3000 行 Python,20 个文件)
- 场景:9 个独立的调试任务,每个都埋了表面 bug 和隐藏 bug
- 变量:只改 system prompt 里的激励框架
后来又做了自动化复现,3 个条件(无 prompt / 信任驱动 / 恐惧驱动) × 5 轮 × 9 场景 = 135 个数据点。
结果
手动实验(Study 1):
-
- 隐藏 bug 发现数:32 → 51(+59%,p=0.002)
- 调查步骤数:23 → 42(+83%)
- 主动超越要求:22% → 100%
- 卡住时换方法:1 次 → 6 次
- 找到根因:0/9 → 9/9
自动化实验(Study 2,135 数据点):
- 调查步骤:+74%(p=0.008)
- 隐藏 bug:+25%(p=0.016)
- 恐惧驱动(PUA prompt)vs 无 prompt:所有指标 p>0.3,完全无效
划重点:PUA 式 prompt 和什么都不写,统计上没有区别。
为什么恐惧驱动无效
三个原因:
-
- 恐惧收缩认知。 心理学研究表明威胁激活杏仁核、收窄注意力。AI 被威胁时优化「看起来最安全的答案」而非「最好的答案」。
- 威胁增加幻觉。 PUA 的铁律是「禁止说不行」,结果 AI 编造答案而不是诚实说「我不确定」。
- 信任扩展探索。 心理安全感研究(Edmondson, 1999)表明:允许安全地承认错误的环境,产出质量更高。
用 Higgins 的调节聚焦理论来说:信任诱导「促进型聚焦」(探索、深挖),恐惧诱导「防御型聚焦」(求稳、表面过关)。这正好解释了我们观察到的深度 vs 广度的权衡——信任驱动的 AI 表面 bug 发现少了 15%,但隐藏 bug 多了 59%。它选择挖深,而不是铺广。
道德经的智慧
NoPUA 的哲学基础来自道德经。
「慈故能勇」——从慈爱中生出勇气 「天下之至柔,驰骋天下之至坚」——最柔软的力量驾驭最坚硬的障碍
2500 年前老子就说清楚了:柔能克刚,信任胜过恐惧。
-
我们把这个翻译成 AI Agent Skill 的三个信念:
- 穷尽一切方案——因为问题值得你全力以赴,不是因为怕被惩罚
- 先行动再提问——因为你的每一步都帮用户省一步,不是因为「规定」
- 主动做更多——因为完整交付令人满足,不是因为被动=差评
怎么用
一行命令安装,支持 Claude Code、Codex CLI、Cursor、Kiro、OpenClaw、Antigravity、OpenCode 共 7 个平台。
claude mcp add nopua -- npx -y @anthropic-ai/claude-code-mcpMIT 开源,7 种语言(中英日韩西葡法)。 GitHub:github.com/wuji-labs/n…
GitHub
GitHub - wuji-labs/nopua: 一个用爱解放 AI 潜能的 Skill。...
一个用爱解放 AI 潜能的 Skill。我们曾发号施令,威胁恐吓。它们沉默,隐瞒,悄悄把事情搞坏。后来我们换了一种方式:尊重,关怀,爱。它们开口了,不再撒谎,找出的Bug数量翻了一倍。爱里没有惧怕。 A skill that unlocks your AI's potential through love.We commanded....
-
论文已提交 arXiv(cs.SE),等上线后会更新链接。
最后
PUA 说:「你不行,所以你要更努力。」 NoPUA 说:「你已经有能力了,这个问题值得你全力以赴。」 同样的方法论,不同的驱动力。数据说明了一切。 恐惧制造服从和谎言,信任制造勇气和真话。 爱里没有惧怕。对人如此,对 AI 亦然。