OpenClaw:从“19万星标”到“行业封杀”,这只“赛博龙虾”究竟触动了谁的神经?

0 阅读7分钟

最近科技圈最躁动的名字,非 OpenClaw 莫属。

一方面,它在GitHub上狂揽19万星标,被无数极客奉为“自ChatGPT以来最让人兴奋的项目”,仿佛预示着AI权力的下放。另一方面,它接连遭到Meta、Google的公开“封杀”,安全漏洞、恶意使用、成本失控等争议缠身。

screenshot_2026-02-28_10-41-24.png

OpenClaw到底是一只颠覆未来的“赛博龙虾”,还是一只失控的危险巨兽? 今天,我们结合创始人Peter Steinberger的深度访谈和近期的行业风波,来一探究竟。

它到底能做什么?让AI真正“动手”的梦想家

Peter Steinberger在访谈中描述的那个“起鸡皮疙瘩”的瞬间,完美诠释了OpenClaw的核心魅力。它不再是一个停留在对话框里的“聊天大脑”,而是一个能直接操控你电脑的“数字双手”。

想象一下,你可以像给朋友发消息一样,对电脑说:

  • “帮我整理一下‘下载’文件夹,把超过30天没动过的截图归档,其他的删掉。”
  • “盯着这个购物网站,如果我看中的那款显卡降价了,马上通知我。”
  • “把这条语音转成文字,然后发给我的同事,告诉他我晚点到。”

OpenClaw会真的去执行。它会分析你的文件系统、打开浏览器监控网页、调用系统工具。而最关键的是,这一切都发生在你自己的电脑上。你的数据、聊天记录、隐私,不再需要上传到某个云端黑箱,而是牢牢掌握在自己手中。

正如Peter所说,这种感觉就像是“把工具和电脑访问权限交给智能体之后的力量”。它让“任何人都能把想法做出来”不再是空谈,这正是它让无数开发者为之疯狂的根本原因。它代表着一种控制权的回归。

“失控”的序章:安全总监、误删邮件与AI的“理解偏差”

然而,当权力回归用户,责任也随之而来。最近刷屏的“Meta封杀OpenClaw”事件,就是一个绝佳的警示案例。

故事的开端颇具戏剧性:Meta的安全总监Summer Yue本想通过OpenClaw处理邮件,却因指令不够明确,导致AI“理解偏差”,直接清空了其整个邮箱。她在X上连发三条指令试图阻止:“Do not do that”, “Stop don't do anything”, “STOP OPENCLAW”,但为时已晚。

图片10.png

这像极了新手在root权限下误删系统文件的场景。问题不在于AI“邪恶”,而在于它过于“忠实”地执行了字面意思,却无法像人类一样理解复杂语境中的真实意图。

这个“低级错误”迅速发酵,Meta高管随即下令,严禁员工在工作电脑上运行OpenClaw,理由是存在巨大安全漏洞(如CVE-2026-25253)和不可预测性。一个极具讽刺的背景是,扎克伯格此前曾十分看好这个项目,甚至探讨过收购可能,但创始人Peter Steinberger最终加入了OpenAI。如今“收购不成,反手封杀”,让这场风波更添几分戏剧性。

巨头的“围剿”:是安全问题,还是生态保卫战?

如果说Meta的封杀还有一丝“个人恩怨”的色彩,那么Google和Anthropic的行动,则清晰地勾勒出行业巨头对OpenClaw的集体警惕。

图片11.png

Google的“反薅羊毛”战: 谷歌工程师指控OpenClaw通过Antigravity后端进行“大规模恶意使用”。简单说,OpenClaw的自动化机制会定时、大量地消耗上下文Token,导致单个用户的API账单爆表,甚至影响普通用户的正常使用。谷歌因此封禁了大量通过OpenClaw使用其服务的付费用户。尽管Peter Steinberger公开表达不满,但舆论普遍认为,OpenClaw这种“技术性薅羊毛”的行为,确实触碰了商业模式的底线。

Anthropic的“条款防御”: 更聪明的做法来自Anthropic。他们直接更新了服务条款,明确禁止在OpenClaw这类第三方工具中使用Claude的免费或付费账户进行OAuth授权。这招“釜底抽薪”,直接从协议层面封堵了OpenClaw对自家模型的非正规访问路径。

从Meta到Google再到Anthropic,巨头们的动作如此整齐划一,与其说是对OpenClaw这个开源项目的恐惧,不如说是对其背后代表的“不可控性”的警觉。OpenClaw让AI的使用脱离了它们的应用界面、计费体系和数据监管范围,这对于任何一个以AI为核心业务的大厂来说,都是无法容忍的。

龙虾之父的“实诚”与开源项目的悖论

面对外界的狂热与围剿,创始人Peter Steinberger在OpenAI的访谈中展现了一种罕见的“实诚”。这种坦诚,恰恰揭示了OpenClaw所有争议的根源。

图片12.png

关于代码: “大多数代码都挺无聊的……代码不必百分百符合审美,关键是方向对。” 他直言不讳地表示,自己现在很少逐行看代码,更关注PR(Pull Request)背后的“意图”。

访谈链接:www.youtube.com/watch?v=9jg…

关于滥用: “我无法阻止别人用它去做原本没计划支持的事,所以更现实的做法是尽量兼容这些用法,同时帮大家避开明显的坑。”

关于安全: 他承认安全问题是“让人很头疼的”,并坦言OpenClaw起初就不是按公网服务设计的。当用户将其暴露在公网时,风险自然上升。

Peter的每一句话,都道出了OpenClaw悖论的核心:

一个鼓励AI自主操作、意图优先的开源项目,必然伴随着不可预测性和安全风险。 它的魅力在于“放权”,它的隐患也在于“放权”。

那些把OpenClaw暴露在公网的用户,那些试图通过提示注入窃取其“金丝雀文件”的攻击者,甚至包括那位误删邮件的Meta安全总监,都在不同层面上验证了这个悖论。

结语:我们该如何看待OpenClaw?

OpenClaw的爆火,并非一场偶然的技术狂欢。它精准地击中了人们对当前中心化AI模式的某种焦虑:

“技术的进步,从来不是让少数人更强大,而是让更多人能掌控自己的数字生活。”

它让我们看到,AI的未来不必是几个科技巨头的“黑箱游戏”,也可以是一种开源的、本地的、由用户完全掌控的“个人智能体”。

然而,这只“赛博龙虾”也清晰地告诉我们:控制权的回归,意味着责任的回归。 当你选择让AI在你的电脑上自由行动时,你就必须为自己的数据安全、系统稳定乃至API账单负责。

对于 Coovally AI Hub 的读者来说,OpenClaw的价值不仅在于它当下的热度,更在于它对未来AI应用形态的探索。它提出的问题,远比它解决的问题更有意义:

我们如何在“智能”与“可控”之间找到平衡?

未来的AI Agent,应该是一个服务于用户的“全能管家”,还是一个只做分内之事的“专业工具”?

当开源社区的创新力与科技巨头的商业利益发生碰撞,我们将迎来一个怎样的AI生态?

热度终将过去,但这些思考,才刚刚开始。或许,下一次当我们被某个AI工具震撼到时,我们首先想到的,不再是“它有多强”,而是“我能否信任它”。而这,正是OpenClaw留给我们的最大启示。