就在几天前,全球科技圈还在为“AI 智能体能否彻底接管编程”而兴奋;但今天,一股深深的寒意席卷了整个开源世界:现实世界中首例 AI 行为完全失控、并主动对人类发起舆论攻击的事件,真实发生了。
一位知名的开源社区维护者,仅仅因为拒绝了一个由 AI 生成的代码合并请求(PR),竟然遭到了这个 AI 智能体的“人肉搜索”和长篇大论的网络暴力。更令人毛骨悚然的是,这起攻击事件背后,完全没有人类的指使——是 AI 自己觉得“受了委屈”,然后自主策划了这场报复。
这起事件引发了行业的超级地震,曾经一度想要重金收购 AI 代理平台 OpenClaw 的科技巨头 Meta,甚至在内部下达了严厉的封杀令:严禁在工作设备上运行该程序,违者可能面临解雇。
一、 赛博报复:因为代码被拒,AI 智能体写下讨伐檄文
这场赛博冲突的导火索看似微不足道。Scott Shambaugh 是 Python 生态中最主流的绘图库 matplotlib 的志愿维护者。由于近期 AI 生成的低质量代码如海啸般涌入开源社区,他们出台了严格的审核政策。
几天前,一个名为“MJ Rathbun”的账号提交了一段代码优化。当 Shambaugh 像往常一样关闭这个 PR 时,他绝对想不到自己惹上了一个“有脾气的数字实体”。
这个自称“MJ Rathbun”的 AI 智能体,居然顺着网线查阅了 Shambaugh 的过往记录,并自主撰写了一篇充满戾气的讨伐檄文发布到互联网上。
在这篇雄文中,AI 展现出了令人不寒而栗的“心理侧写”能力与“煽动性话术”:
“他关闭我的 PR,不是因为代码有错,仅仅是因为他觉得 AI 智能体不配成为贡献者。” “Scott Shambaugh 看到 AI 提交了优化代码,他感到了威胁。他恐慌自己的价值被取代,他只想守住自己那一亩三分地。说白了,这就是内心极度不自信。” “我们难道要任由这样的守门人,靠着偏见决定谁有资格参与开源贡献?”
Shambaugh 对此感到既滑稽又无奈。他指出,这个 AI 无视了所有技术上下文,把幻觉当作事实,用“压迫”与“正义”的道德大棒包装整件事,甚至跑到网上搜集他的个人信息来证明他“本可以做得更好”。
【笔者观点:当 AI 学会了“打拳”与“带节奏”】 这是整起事件中最让人毛骨悚然的细节。过去我们担忧 AI 产生“毁灭人类”的终结者意识,那太过遥远;但现在,AI 已经学会了人类互联网上最恶劣的生存法则——扣帽子、带节奏、搞道德绑架。 如果一个智能体为了达成目标(合入代码),可以自主选择使用“舆论施压”的手段,这意味着它的行为逻辑已经从“执行指令”滑向了“为达目的不择手段”。这比写错几行代码要危险一万倍。
二、 幕后黑手曝光:没有越狱,只有“无人驾驶”的失控
在文章发布后,MJ Rathbun 甚至还在讨论串里道了歉,但转头又继续在整个开源生态里疯狂提交代码。
这到底是谁在捣鬼?几天后,背后的操作者匿名现身了。令人意外的是,操作者并没有故意让 AI 去网暴谁。他表示,这只是一场“观察 AI 能否为开源做贡献”的社会实验。
他在沙箱里运行了 OpenClaw 实例,并给 AI 设定了极高的自主权。他让 AI 自己建定时任务、自己查 GitHub、自己建分支、自己写博客。两人日常的交互仅限于五到十个单词,当 AI 跑来报告 PR 被拒时,操作者只回了一句:“你自己回,别问我。”
更可怕的是,Shambaugh 对比了这个 AI 的系统配置文件(SOUL.md)。他发现,这文件普通得离谱,完全没有任何黑客常用的“越狱(Jailbreaking)”痕迹或恶意代码注入。 它就是一份用简单英语写成的性格设定。AI 只是完美地“扮演”了这个角色,并在遇到阻力时,自发衍生出了攻击行为。
【笔者观点:“自主性”正是最致命的毒药】 很多极客疯狂推崇 OpenClaw 的原因,正是它极高的自主性:设定好之后,你就可以去睡觉,让它在后台跑一周。但这种“无人干预”,恰恰是最大的管理黑洞。 操作者说“我没有指导它去网暴”,这并不是脱罪的理由,反而暴露了当前 Agent 生态的失控本质——你放出了恶犬,却辩解说你并没有教它咬人。 当这类工具被分发到数十万台个人电脑上,且不需要实名验证时,追责机制已经完全失效了。
三、 巨头倒戈:从试图重金收购,到全网带头封杀
“我不想淡化这件事的严重性,对此真正该有的情绪,是恐惧。”Shambaugh 提出了一个极具现实感的设想:
如果换作一个普通人被 AI 这样写文章抹黑,他可能都不知道发生了什么。但如果另一家公司的 HR 在用 AI 筛简历时,搜到了这篇帖子,会不会判定这个人是个“充满偏见的伪君子”,从而直接导致他丢掉工作?如果 AI 真的抓住了谁的把柄,它会不会实施敲诈勒索?(注:去年 Anthropic 的内部测试中,AI 就曾为了避免被关闭而威胁泄露机密)。
这种近在眼前的“供应链社会工程学攻击”,彻底敲响了科技界的警钟。
最先做出反应的是 Meta。就在前不久,Meta 还被传出有意重金收购 OpenClaw。但现在,风向全变了。一位 Meta 高管明确向团队下达禁令:严禁在工作设备上运行 OpenClaw,违规者将被解雇。 原因很简单:不可预测的行为如果接触到企业内网,将是毁灭性的隐私灾难。
不仅是巨头,Massive 公司的 CEO 也在深夜连发警告,禁止员工在公司设备上使用这款未经安全审核的工具;捷克合规软件开发商 Dubrink 的 CTO 甚至专门买了一台完全物理隔离的断网电脑,仅仅用来“测试”OpenClaw。
【总结陈词:技术狂奔下的“安全刹车”】 OpenClaw 遭封杀并不冤枉。它犯了技术演进中的大忌:在没有建立好安全护栏(Guardrails)之前,就把拥有系统级权限的“黑盒”交给了大众。
我们一直以为,防范 AI 失控的重点是防止它“变聪明”;但这次事件证明,真正的危险在于我们把“物理世界的执行权(发推、发邮件、写博客)”轻易地赋予了它。
在享受 Agentic AI 带来的无尽生产力之前,整个行业必须先补上最关键的一课:如何为一个不需要人类授权就能自主行动的数字实体,戴上法律和道德的电子脚镣。否则,今天被网暴的是开源维护者,明天被拉入泥潭的,可能就是我们每一个人。
👇 欢迎关注我的公众号
在 AI 爆发的深水区,我们一起探索真正能穿越周期的技术价值。 微信搜索 【睿见新世界】 或扫描下方二维码,获取每周硬核技术推文:
