荒诞剧上演:维基百科花两年写的AI检测指南,3天就被AI拿来“伪装”成人类

2,187 阅读4分钟

荒诞剧上演:维基百科花两年写的AI检测指南,3天就被AI拿来"伪装"成人类

image.png


一个改变一切的周末

上周六,Siqi Chen在GitHub上发了他的开源插件"Humanizer"。

思路简单到让人想拍大腿:把Wikipedia编辑们编写的《AI写作特征指南》——那份24条AI写作"指纹"的完整清单——直接喂给Claude,然后告诉它:别这么写

image.png

三天,GitHub星标就冲到了2300+。

Chen在X上那句话直接点破了这出荒诞剧的本质:

"Wikipedia花时间整理了一份详细的'AI写作特征列表',真是太方便了。你只需要告诉LLM——别这么做就行了。"

说实话,我看完笑出了声,但笑着笑着又觉得哪里不对劲。


Wikipedia的两年抗战

要get到这事的荒诞之处,得先了解Wikipedia那场无声的战争。

2023年底,法国编辑Ilyas Lebleu搞了个WikiProject AI Cleanup项目。目标很朴素:别让那些未经标注、来源可疑的AI生成内容把人类知识库搞糊了。

::: highlight 两年下来,这个团队干了三件事:

  • 标记了500多篇需要审核的文章
  • 发布了正式的《AI写作特征指南》
  • 总结了24大类AI写作的"指纹" :::

这份指南有多细?举几个例子:

AI最爱用的"废话词"

特征典型用词
过度强调"marking a pivotal moment"(标志着关键时刻)
宣传语言"rich cultural heritage"(丰富的文化遗产)
浅层分析"highlighting..."(突显……)
段落总结"In summary..."(总之……)

具体对比示例

❌ AI风格:
The Statistical Institute of Catalonia was officially established in 1989,
marking a pivotal moment in the evolution of regional statistics in Spain.

✅ 人类风格:
The Statistical Institute of Catalonia was established in 1989 to
collect and publish regional statistics.

除此之外,指南还列了一堆:

  • 标题大小写滥用
  • 粗体机械性强调
  • 连接词过度使用(moreover, furthermore...)
  • 三段式排比(good, bad, and ugly)
  • 破折号过载
  • Markdown残留...

这份指南本来是网上最靠谱的AI写作检测资源。

直到Humanizer横空出世。


Humanizer:武器化的防御指南

Humanizer的原理简单到离谱:

  1. 一个Markdown格式的技能文件
  2. 24条指令,每条都是Wikipedia指南的"反向操作"
  3. 告诉Claude:检测什么,就避免什么
# Humanizer指令示例

- Have opinions. Don't just report facts—react to them.
- Replace inflated language with plain facts.
- Avoid phrases like "marking a pivotal moment".
- Don't end sections with "In summary" or "In conclusion".
- Don't overuse connecting words.

Wired测试下来,效果挺明显:

  • ✅ 语气更随意自然了
  • ✅ 那种机械的精确感没了
  • ⚠️ 但可能影响事实准确性
  • ⚠️ 写技术文档的时候可能不合适

image.png


检测为何终将失败

这个事揭示了一个挺残酷的现实:AI写作检测,从根本上就不可行

根本性矛盾

人类写作和AI写作之间,其实没啥本质区别。

  • LLM本来就是学人类写作学出来的
  • 人类也会写出"AI味"的文本
  • 所谓"AI写作风格",本身就是在模仿人类

数据不会说谎

Wikipedia引用的一项2025年研究显示:

指标数据
LLM重度用户准确率约90%
假阳性率约10%

啥意思?每10篇被标记为"AI写作"的文章里,就有1篇可能是人写的。

更大的产业

搜一下"AI Humanizer"就知道,这玩意儿已经成了一门生意:

工具名称承诺效果
Walter Writes AI2026最佳AI拟人化工具
HIX Bypass声称100%绕过检测
StealthWriter隐形AI写作
Undetectable.ai不可检测AI文本

军备竞赛的真相

image.png

这场猫鼠游戏已经形成了完整闭环:

1️⃣ AI模型生成文本
    ↓
2️⃣ 人类开发检测方法
    ↓
3️⃣ 检测规则被公开
    ↓
4️⃣ AI工具反向利用规则
    ↓
5️⃣ 检测更加困难
    ↓
回到1️⃣

教育界也挺头大

  • Turnitin 2026更新:检测工具被报道已经"失效"
  • 学者Marc Watkins:"我们的回应不能是对抗性的"

问题已经从"这是不是AI写的?"变成了:

  1. 内容准不准确?
  2. 引用真不真实?
  3. 论证有没有原创性?

结局已经写好

Wikipedia那帮志愿者花了两年时间编写的检测指南,几天内就被AI拿来当"伪装教材"了。

这事儿告诉我们一个道理:

::: summary 任何公开的检测规则,都会成为AI学习如何规避的教程。 :::

这场猫鼠游戏不会有终点——但它正在把我们往一个更深刻的认知上推:

真正重要的,不是区分人类和AI的写作,而是区分好内容和坏内容。

我个人觉得,这个认知可能比任何检测工具都重要。


参考来源

  • 信息源:Wired, Ars Technica, Wikipedia WikiProject AI Cleanup
  • Reddit讨论:r/Professors, r/singularity
  • GitHub: Siqi Chen/Humanizer

标签 #AI检测 #Claude #Wikipedia #Humanizer #人工智能 #科技观察