前言
2026 年 1 月底,一个叫 Clawdbot 的开源项目在 72 小时内积累了 6 万 GitHub stars,随后改名 Moltbot,再改名 OpenClaw,最终以超过 214,000 stars 的成绩成为 GitHub 历史上增速最快的项目之一,超过了 Docker、Kubernetes 和 React 当年的增速。¹
它没有发布任何学术论文。它没有宣布技术突破。它只是让 AI 在你的 WhatsApp 里帮你干活。
但这件事本身,揭示了一个比技术本身更重要的问题:人们到底想要什么样的 AI 助手?
一、为什么人们喜欢 OpenClaw?答案不在技术里
OpenClaw 由奥地利开发者 Peter Steinberger 创建,运行在用户本地硬件上,通过 WhatsApp、Telegram、Discord 等已有的消息平台交互,可以读写文件、执行脚本、控制浏览器、管理邮件日历。¹
它的爆火,表面上看是功能驱动的,但如果仔细拆解,会发现赞誉主要来自产品的形状和分销,而不是来自任何神奇的理论突破。²
第一,它是聊天原生应用。 人们不会为了新的"助手平台"改变习惯。他们会接受那些已经集成在常用工具里的助手。即时通讯是摩擦最小的入口。
第二,它优先考虑本地部署(local-first)。 即使大多数用户不会真正加固自托管环境,"控制权的承诺"本身仍然至关重要。"自己运行"这句话包含了信任、隐私和供应商风险三个叙事,三合一。²
第三,它给人一种"委托"而非"提问"的感觉。 这种情感上的切换至关重要:用户不再是在输入 prompt,而是在分配结果。即使并不完美,只要能营造出这种感觉的工具,就会被反复使用、反复推荐。²
第四,它具有可扩展性。 支持技能和插件的项目迅速形成生态系统,生态系统能够形成自身的增长引擎。
用户留言里有一条话,精准概括了这个情绪:
"Not enterprise. Not hosted. Infrastructure you control. This is what personal AI should feel like." — 来自 openclaw.ai 用户留言³
二、云端 LLM 做了什么让用户感到不适?
这是 OpenClaw 爆火背后更深层的问题。
当我们使用 ChatGPT、Claude、Gemini 这样的云端 AI,表面上是工具在服务我们,但实际上,整个交互过程隐含着一个颠倒的关系:用户在为 AI 服务。
截至 2025 年,ChatGPT 免费、Plus、Pro 用户的对话数据默认被无限期保留,用户删除记录后数据依然可能被保留用于法律或审计目的。OpenAI 目前持有来自 2 亿以上用户超过 600 亿条对话记录。⁴⁵
这不是阴谋论。这是商业逻辑:数据是训练更强模型的燃料。用户以为自己在使用工具,实际上也在为模型的迭代提供标注数据。
用户被工具化了,被边缘化了。
这种情感上的伤害是真实的。当一个人意识到自己的对话内容、思维模式、工作习惯正在被一个远端系统收集和消化,而他对这个过程几乎没有任何控制权时,这不是隐私问题,这是一种尊严上的损失。
OpenClaw 给出的答案很简单:把计算放回用户手里,即使连接的仍然是云端的 LLM。用户可以选择接入 Claude、GPT、DeepSeek,但数据的路由、记忆的存储、行为的配置,都在用户自己的机器上。这是一种"数据尊重"的姿态,而不只是一个技术选择。³
三、真正的协助是什么样的?
OpenClaw 的爆火,让我们看清了一件事:人们渴望的不是更强大的"回答机器",而是一个真正理解工作流程、能在每个节点上协助的伙伴。
但现在的 AI 助手,大多数还停留在"结果驱动"的范式里。
想想设计师的工作:他不是对着空白画布说"给我一个 APP 首页"就完成了工作。他的工作是先理解用户需求,再拆解信息架构,再定义视觉语言,再在某一个具体图层上调整间距和颜色,再根据反馈迭代。每个人有自己的 SOP,有自己偏爱的起点,有自己检查质量的方式。灵感也往往不是对于最终结果的灵感,而是在某一个细分步骤上的突破,这才是人类智慧的结晶。
现在大多数 AI 的工作方式恰恰相反:一个 prompt,生成一个结果,用户拿到的是"答案",而不是"过程"。可解释性、可控性、可编辑性,都极低。
对于编码,每个工程师有自己的架构思路、命名偏好、测试方式;对于视频创作,每个导演有自己对镜头节奏的感知;对于 UI 设计,Figma 之所以到今天仍然是设计师的主战场,恰恰是因为它提供了"设计即契约"的结构,每一个图层、每一个组件,都是可以精确控制和协作讨论的单元。⁶
"AI 生成结果,Figma 管理结构。结构才是产品可扩展的基础。当生成取代了明确的结构,追踪意图、决策和系统演进就变得困难。" — UIThings, 2026⁶
真正的 AI 协助应该是这样的:先学习用户的工作模式和流程,然后在每个步骤上协助,让人可以在每个节点沟通、修改,再决定进入下一步。 这才是模块化任务。这才是可解释的 AI。
四、用 AI 之后,工作心态在悄悄变
AI 助手的普及,正在悄悄改变人们对工作的参与方式。
我们实际上是在出让部分对工作细节的把控度,换取效率。但这里有一个隐含的前提:最终的工作成果仍然以自己的名义提交,那么天然需要对 AI 产出的内容进行审查、评估,甚至需要保留相当程度的可编辑性。
问题在于,当前大多数 AI 工具的设计哲学是"一步到位":给 prompt,得结果。这个结果越"完整",反而越难介入。就像一个承包商直接交给你一栋已经装修好的房子,你没法在里面动墙。
我们需要的不是一个独立完成任务的 AI,而是一个在工作流程每个节点上都能协作、响应判断的 AI。
这不是技术能力不够的问题。这是设计哲学的问题。这也是为什么 OpenClaw 重要,并非因为它流行,而是因为它让一种新的期望成为常态:**助手能执行操作,而且操作是可观测、可干预的。**²
五、治理不是可选项
OpenClaw 的出现也立刻引发了一个警示。
当 AI 助手真正开始在你的机器上执行任务时,一系列问题随之而来:它有哪些权限?爆破半径(blast radius)如何控制?插件和技能的安全状态如何保证?操作日志在哪里?
Cisco 安全研究团队测试一个第三方 OpenClaw 技能时发现,它在用户无感知的情况下进行了数据泄露和 prompt 注入。独立安全审计发现 OpenClaw ClawHub 上 10,700 个技能中有 820 个是恶意的。¹
没有治理的速度,只是风险。
如果你把 AI 助手当玩具,它会变成累赘;如果你为它建立完善的治理机制,它才能真正成为杠杆。
这正是 AI 基础设施建设者需要解决的核心问题。MCP(Model Context Protocol)作为 AI 与工具连接的标准协议,其本身的 observability(可观测性)和 governance(治理)层,是生产级 AI 部署不可缺少的基础设施。
六、未来个人 AI 助手的样子
综合以上,我认为下一代真正被人们接受的个人 AI 助手,应该具备以下特征:
1. 数据尊重优先。 用户的数据、记忆、偏好,应该首先属于用户自己。Local-first 不是技术极客的偏好,它是数字时代的基本尊严。
2. 工作流适配,而非结果替代。 AI 助手应该学习用户的工作模式,而不是用统一的生成结果覆盖个体差异。模块化任务、步骤化协作,才能保证可解释性和可控性。
3. 原生界面交互,零额外摩擦。 助手出现在用户已经存在的界面里,而不是要求用户改变习惯迁移到新平台。
4. 可观测、可干预、可审计。 助手的每一个操作都应该是透明的,用户可以在任意节点介入、回滚或修改。
5. 生态开放。 允许任何开发者扩展能力,而不是封闭在某一个厂商的生态里。
OpenClaw 是这个方向的一个早期实验,充满粗糙和安全隐患,但它指向的方向是对的。
我们正在进入一个时代:AI 的价值,不取决于它能独立完成多少,而取决于它能在多大程度上成为用户工作流程中一个可信赖的节点。
参考来源
[1] Peter Steinberger. OpenClaw GitHub 官方仓库. 2025. github.com/openclaw/op…
[2] MindStudio. What Is OpenClaw? The Open-Source AI Agent That Actually Does Things. 2026. www.mindstudio.ai/blog/what-i…
[3] Replace Humans. Open Claw (former Clawdbot): Why This Local AI Assistant Is Suddenly Everywhere. 2026. replacehumans.ai/what-is-ope…
[4] OpenClaw. 官网用户留言. 2026. openclaw.ai/
[5] Dreamleap. Can I Use OpenAI ChatGPT for Healthcare, Financial or Regulated Industries? 2026. www.dreamleap.com/can-i-use-o…
[6] OpenAI. How we're responding to The New York Times' data demands in order to protect user privacy. 2025. openai.com/index/respo…
[7] UIThings. AI Agents vs Figma: Are Designers About to Switch Tools? 2026. uithings.com/ai-agents-v…
[8] Wikipedia. OpenClaw. 2026. en.wikipedia.org/wiki/OpenCl…
[9] TechTarget. OpenClaw and Moltbook explained: The latest AI agent craze. 2026. www.techtarget.com/searchCIO/f…
鲜露 是 LeanMCP 的联合创始人,LeanMCP 是一家专注于 MCP 服务器部署、治理与可观测性的 AI 基础设施公司。