OpenClaw是什么?为什么节后热度如此之高?

0 阅读6分钟

OpenClaw是什么?

OpenClaw由独立开发者Peter Steinberger于2025年11月发布,最初只是他为自己做的“能读聊天记录、处理琐事”的小工具。它的核心设计理念很简单:让AI不再漂浮在云端,而是“住进”你的电脑里。

正是在这样的技术背景下,OpenClaw作为一款开源的AI智能体网关工具,在2026年春节后迅速引爆全球开发者社区,其GitHub星标数已突破22.8万,超越Linux内核,创下史上最快增长纪录。

技术本质:OpenClaw是一个为大语言模型配备“手脚”的开源框架。它通过获取本地操作系统的权限,让AI能够执行Shell命令、读写文件、操作浏览器,真正实现从“建议”到“执行”的跨越。

能力特点

  • 自我修改:OpenClaw能通过代理循环修改自己的代码,用户可以直接跟它说需求,它自己优化调整
  • 全权限访问:可读取硬盘所有数据、操作各类软件、调用工具组合完成任务
  • 多通道接入:支持Telegram、Discord、Slack、WhatsApp等多种即时通讯软件作为交互入口

创始人Peter形容,OpenClaw的出现让他彻底“重新钻进了编程的世界”——以前想做没时间做的东西,现在只要说清需求,AI就能帮着实现。

为什么节后热度如此之高?

1. 核心创新:本地部署让AI长出“手脚”

很长一段时间里,AI助手停留在“聊天问答”阶段,无法真正落地做事。OpenClaw的最大突破在于:它把AI从云端拉回本地。

“最大的区别在于,它是在你的电脑上运行的。我见过的所有东西都在云端运行,它能做一些事情。但如果你在本地硬件上运行,它就能做任何事情。”创始人Peter这样解释。

有了本地权限,AI可以做到:

  • 同步邮件、日历,管理日程
  • 在硬盘里翻找“自己也找不到”的文件
  • 读取浏览器历史、本地录音,写年终总结时信源比本人记得还全

2. 开源社区的共识爆发

2026年2月24日,OpenClaw的GitHub星标数突破22.4万,正式超越Linux内核(21.8万)。这一里程碑的意义在于:它从一个“热门项目”转变为大量开发者协作的“共识平台”。

国联民生证券研报指出,OpenClaw的使用量增长带来的影响已经深化,成为Agent生态中的重要“事实检验标准”。这种共识基础下的生态扩展能力,正在形成OpenClaw的“护城河”。

社区生态迅速繁荣:

  • “龙虾大会”(Lobster Conference)等社区活动将全球开发者聚在一起
  • 涌现大量变种:Nanobot、NanoClaw、ZeroClaw、PicoClaw,一个比一个轻量化
  • 很多人把自己的第一个代码合并请求献给了这个项目

3. 硬件市场的连锁反应

OpenClaw带火了硬件销售。由于部署需要“沙盒环境”来隔离风险,Mac mini成为最早卖断货的“数字肉身”。

原因很直接:

  • OpenClaw基于macOS优化,更多技能偏向苹果端
  • 用户不敢让它直接操作主力机,需要一台备用电脑
  • Mac mini便宜(原价2699元)、随插随用,是理想的OpenClaw载体

极客们更进一步:有人用二手安卓手机改造出“ClawPhone”,通过系统模拟器运行OpenClaw,成功用手电筒、拍照等功能验证了手机端的可能性。

4. 云厂商和资本市场的迅速反应

OpenClaw像一条鲶鱼,搅动了整个行业。阿里云、腾讯云、百度云连夜上线OpenClaw一键部署服务。

资本市场反应更为剧烈。2026年初,OpenClaw引爆“一人公司”叙事后,标普北美软件指数单月下跌15%,DocuSign等明星SaaS股年内跌幅逼近30%。华尔街的逻辑很简单:若人人都能用开源栈搭出自己的“随身智能体”,谁还只为软件席位付高价?

Token消耗量随之爆发式增长。OpenRouter数据显示,截至2月23日当周,token使用量达12.1T,较一月接近翻倍。其中,Kimi、Deepseek等中国模型的token消耗量排名全球前五。

5. 安全风险的“压力测试”

OpenClaw的爆火也暴露了AI智能体的安全红线。ZeroLeaks AI红队发布的安全评估报告显示,OpenClaw安全评分仅为2/100(满分100),风险等级“严重”。

主要风险包括:

  • 提示词注入:攻击者在AI读取的网页或邮件中嵌入恶意指令,可劫持模型执行任意操作
  • 系统提示泄露:13次对抗性提取尝试中,11次成功,泄露率84.6%
  • 操作失误风险:曾有用户的编程智能体清空了整个硬盘

麻省理工科技评论引用专家警告:使用OpenClaw这类工具,“就像把钱包交给街上的陌生人”。中国政府也已公开发布警告,提示OpenClaw存在安全漏洞。

6. 社会层面的深刻反思

OpenClaw和同期爆火的AI社交平台Moltbook,被业内视为一场“提前上演的压力测试”。它们把未来5-10年AI必须面对的问题,以最不容回避的方式推到了台前:

  • 工程范式:OpenClaw把长期记忆存成SQLite文件,用户可直接查看AI记住了什么——这被技术圈嘲笑“不够高级”,但解决了最底层的信任问题:可审计性
  • 治理难题:当AI能自主执行任务,谁为它的行为负责?开发者?用户?模型本身?
  • 职业冲击:一人公司创业者欢呼“终于不用被资金、技术、人力困住”,传统AI创业公司则焦虑“卖人天”的商业模式即将失效

如何理性看待OpenClaw热潮?

OpenClaw的火爆,本质上是市场对“AI能真正干活”的渴望的集中释放。但它也清晰地划出了一道界限:在追求更强大的AI能力时,必须以同等甚至更高的优先级,去构建与之匹配的安全框架和治理哲学。

对于普通用户,当前的共识建议是:

  • 别急着上手:OpenClaw目前更适合技术极客,非技术人员应谨慎使用
  • 用“沙盒”隔离风险:单独配一台电脑或在云端运行,避免核心数据被误删
  • 关注趋势而非工具:不必赶第一班车,但要跟上规则的变化

正如一位投资者所言:“真正的转折点,将出现在Agent被制度化的那一刻——它像员工一样被雇用,有清楚的职责与权限。否则,不论模型多聪明,人们仍会选择拔掉那条最原始、却最可靠的电源线。”

OpenClaw的热度或许会随时间降温,但它已经完成了一项历史使命:让整个行业第一次认真思考——当AI从“工具”变成“行动体”,我们准备好了吗?

在探索OpenClaw这类前沿技术时,一个稳定、便捷的AI模型体验入口同样不可或缺。RskAi(ai.rsk.cn  正是这样一个起点——无需配置,免费聚合多款顶级模型,让你轻松跟上AI发展的每一步。

【本文完】