荒诞剧上演:维基百科花两年写的AI检测指南,3天就被AI拿来"伪装"成人类
一个改变一切的周末
上周六,Siqi Chen在GitHub上发了他的开源插件"Humanizer"。
思路简单到让人想拍大腿:把Wikipedia编辑们编写的《AI写作特征指南》——那份24条AI写作"指纹"的完整清单——直接喂给Claude,然后告诉它:别这么写。
三天,GitHub星标就冲到了2300+。
Chen在X上那句话直接点破了这出荒诞剧的本质:
"Wikipedia花时间整理了一份详细的'AI写作特征列表',真是太方便了。你只需要告诉LLM——别这么做就行了。"
说实话,我看完笑出了声,但笑着笑着又觉得哪里不对劲。
Wikipedia的两年抗战
要get到这事的荒诞之处,得先了解Wikipedia那场无声的战争。
2023年底,法国编辑Ilyas Lebleu搞了个WikiProject AI Cleanup项目。目标很朴素:别让那些未经标注、来源可疑的AI生成内容把人类知识库搞糊了。
::: highlight 两年下来,这个团队干了三件事:
- 标记了500多篇需要审核的文章
- 发布了正式的《AI写作特征指南》
- 总结了24大类AI写作的"指纹" :::
这份指南有多细?举几个例子:
AI最爱用的"废话词"
| 特征 | 典型用词 |
|---|---|
| 过度强调 | "marking a pivotal moment"(标志着关键时刻) |
| 宣传语言 | "rich cultural heritage"(丰富的文化遗产) |
| 浅层分析 | "highlighting..."(突显……) |
| 段落总结 | "In summary..."(总之……) |
具体对比示例
❌ AI风格:
The Statistical Institute of Catalonia was officially established in 1989,
marking a pivotal moment in the evolution of regional statistics in Spain.
✅ 人类风格:
The Statistical Institute of Catalonia was established in 1989 to
collect and publish regional statistics.
除此之外,指南还列了一堆:
- 标题大小写滥用
- 粗体机械性强调
- 连接词过度使用(moreover, furthermore...)
- 三段式排比(good, bad, and ugly)
- 破折号过载
- Markdown残留...
这份指南本来是网上最靠谱的AI写作检测资源。
直到Humanizer横空出世。
Humanizer:武器化的防御指南
Humanizer的原理简单到离谱:
- 一个Markdown格式的技能文件
- 24条指令,每条都是Wikipedia指南的"反向操作"
- 告诉Claude:检测什么,就避免什么
# Humanizer指令示例
- Have opinions. Don't just report facts—react to them.
- Replace inflated language with plain facts.
- Avoid phrases like "marking a pivotal moment".
- Don't end sections with "In summary" or "In conclusion".
- Don't overuse connecting words.
Wired测试下来,效果挺明显:
- ✅ 语气更随意自然了
- ✅ 那种机械的精确感没了
- ⚠️ 但可能影响事实准确性
- ⚠️ 写技术文档的时候可能不合适
检测为何终将失败
这个事揭示了一个挺残酷的现实:AI写作检测,从根本上就不可行。
根本性矛盾
人类写作和AI写作之间,其实没啥本质区别。
- LLM本来就是学人类写作学出来的
- 人类也会写出"AI味"的文本
- 所谓"AI写作风格",本身就是在模仿人类
数据不会说谎
Wikipedia引用的一项2025年研究显示:
| 指标 | 数据 |
|---|---|
| LLM重度用户准确率 | 约90% |
| 假阳性率 | 约10% |
啥意思?每10篇被标记为"AI写作"的文章里,就有1篇可能是人写的。
更大的产业
搜一下"AI Humanizer"就知道,这玩意儿已经成了一门生意:
| 工具名称 | 承诺效果 |
|---|---|
| Walter Writes AI | 2026最佳AI拟人化工具 |
| HIX Bypass | 声称100%绕过检测 |
| StealthWriter | 隐形AI写作 |
| Undetectable.ai | 不可检测AI文本 |
军备竞赛的真相
这场猫鼠游戏已经形成了完整闭环:
1️⃣ AI模型生成文本
↓
2️⃣ 人类开发检测方法
↓
3️⃣ 检测规则被公开
↓
4️⃣ AI工具反向利用规则
↓
5️⃣ 检测更加困难
↓
回到1️⃣
教育界也挺头大
- Turnitin 2026更新:检测工具被报道已经"失效"
- 学者Marc Watkins:"我们的回应不能是对抗性的"
问题已经从"这是不是AI写的?"变成了:
- 内容准不准确?
- 引用真不真实?
- 论证有没有原创性?
结局已经写好
Wikipedia那帮志愿者花了两年时间编写的检测指南,几天内就被AI拿来当"伪装教材"了。
这事儿告诉我们一个道理:
::: summary 任何公开的检测规则,都会成为AI学习如何规避的教程。 :::
这场猫鼠游戏不会有终点——但它正在把我们往一个更深刻的认知上推:
真正重要的,不是区分人类和AI的写作,而是区分好内容和坏内容。
我个人觉得,这个认知可能比任何检测工具都重要。
参考来源
- 信息源:Wired, Ars Technica, Wikipedia WikiProject AI Cleanup
- Reddit讨论:r/Professors, r/singularity
- GitHub: Siqi Chen/Humanizer
标签 #AI检测 #Claude #Wikipedia #Humanizer #人工智能 #科技观察