1. 什么是 OpenClaw?—— “龙虾式”的 AI 革命
作为 OpenClaw 部署专家,我必须首先纠正一个误区:OpenClaw 并非一个简单的聊天机器人。它是一个私有 AI 助手网关(Gateway),是连接各种通讯渠道、工具链和顶尖大模型的“单一控制平面(Single Control Plane)”。
- “龙虾方式(The Lobster Way)”的核心哲学是“Exfoliate! Exfoliate!”(蜕变与掌控)。它强调本地优先(Local-first)和绝对的个人掌控。通过 ReAct (Reasoning + Acting) 框架,OpenClaw 实现了从“预测文本”到“解决问题”的跨越:
- 推理 (Reasoning/Thought): AI 生成逻辑轨迹,诱导、跟踪并动态更新行动计划。
- 行动 (Acting/Act): 与外部环境(如维基百科、本地文件系统、浏览器)交互,获取真实信息。
- 观察 (Observation): 这是“通往现实的桥梁(Grounding)”。AI 根据工具反馈修正认知,如果搜索结果不佳,它会自动进行“自纠错”。
这种逻辑闭环能有效阻断 AI 幻觉的自我循环,使其进化为具备执行力的智能代理(Agent)。
2. 环境准备:专业部署的基石
在生产或深度使用场景下,环境选择决定了助手的稳定性。OpenClaw 的核心基于 TypeScript,Node.js 22 或更高版本是运行的绝对前提。
| 系统类型 | 服务目标 (Service Target) | 实战建议 |
|---|---|---|
| macOS | LaunchAgent (ai.openclaw.gateway) | 个人首选。支持菜单栏应用、语音唤醒 (Voice Wake) 和 Talk Mode 覆盖层等原生硬件集成。 |
| Linux | systemd 用户服务 | 服务器首选。适合 24 小时在线的后端网关,建议搭配 Tailscale Serve/Funnel 进行远程访问。 |
| Windows | systemd (via WSL2) | 强烈推荐在 WSL2 下运行。由于 Windows 原生伴侣应用尚在计划中,WSL2 能提供最佳的兼容性。 |
专家提示:
- 安装前请执行 node --version 确认版本。
- 对于高级部署,建议配置环境变量 OPENCLAW_HOME 或 OPENCLAW_STATE_DIR,以实现配置与系统分区的解耦。
3. 三步安装:自动化部署流程
OpenClaw 的安装脚本非常智能,它会自动检测并尝试安装缺失的 Node 环境。
第一步:自动化脚本安装
- macOS / Linux / WSL2:
- Windows (PowerShell):
第二步:运行交互式向导
执行以下命令进入推荐的交互式路径:
openclaw onboard
专家建议: 在向导中务必选择 --install-daemon。这会将网关安装为后台常驻服务,确保你的 AI 助手永不离线。
第三步:状态验证
通过以下命令确认网关健康度:
openclaw gateway status
健康基准: 只有当显示 Runtime: running 且 RPC probe: ok 时,才意味着控制平面已完全就绪。
4. 接入飞书 (Feishu):插件化扩展实战
与原生集成的渠道不同,飞书(Feishu/Lark)是作为插件(Plugin)存在的。
- 安装插件: 首先执行 npx clawhub 或 openclaw plugins install @openclaw/feishu 安装飞书支持包。
- 启用并配置:
-
执行 openclaw plugins enable feishu。
-
使用 openclaw channels add 并选择 feishu。
- 开发者后台设置: 你需要在飞书开发者后台创建企业自建机器人,获取 App ID 和 Secret,并配置 Webhook 回调。
- 重启生效: 大多数插件变更需要重启网关:openclaw gateway restart。
5. 模型挑选:为你的“大脑”提供动力
OpenClaw 强依赖ReAct、Skills等技术,对模型选择非常重要,这个决定了其效果的差异性。
- 选型建议: 为了保障其拥有较强的智能效果,国际首选 OpenAI (GPT-4o) 或 Anthropic (Claude 3.5 Sonnet),国内首推Minimax(对Claude替代度高)、百炼(MinMax模型)、。
- 配置规范: 所有的模型设置均采用 供应商-模型名 的斜杠标记法。
- 常用指令:
- 调整模型设置: openclaw configure 推荐国内选择Minimax的模型,效果较佳!(这个主要会影响到后续模型对Skills解读和Tools选择效果,面对需求复杂的场景效果差异很大) Minimax官方可以注册账号,推荐购买Coding plan计划(包月或包年),Starter版本即可,然后进入接口密钥,找到Coding plan里的密钥复制出来后续使用。
添加图片注释,不超过 140 字(可选)
- 添加密钥: 命令终端设置或openclaw configure auth add(支持 OAuth 快速认证)。
添加图片注释,不超过 140 字(可选)
-
设置主模型: openclaw models set minimax-cn/MiniMax-M2.5。
-
状态扫描: openclaw models status --probe(执行实时链路拨测)。
6. 玩转 OpenClaw:核心功能与斜杠命令
进入TUI终端: openclaw tui
常用斜杠命令 (Slash Commands)
在对话框中输入以下指令直接调控网关:
- /status:快速诊断当前会话成本、模型及状态。
- /debug:开启运行时配置覆盖(仅保存在内存中,不影响磁盘配置)。
- /think :调整推理深度(如 high 或 xhigh),适用于 GPT-5.2+ 或 Codex 模型。
- /reset:重置当前上下文,这是处理逻辑卡顿时最有效的手段。
第一类工具箱 (First-class Tools)
- Browser: 调用受控的 Chrome 浏览器。专家建议配合 snapshot(支持 AI 语义快照)使用,而非简单的截图。
- Canvas: 开启 A2UI 实时画布,让 AI 在可视化空间内呈现 UI 或图形。
- Nodes: 跨设备调用。你可以让 AI 在你的 Mac 上执行 system.run,或者在安卓手机上调用摄像头拍摄并回传。
7. 安全与隐私:专家级的加固策略
OpenClaw 赋予了 AI 操作真实系统和通讯软件的能力,因此安全防范是重中之重。
- 私聊配对 (DM Pairing): 默认策略为 pairing。当陌生人试图接触你的 AI 时,系统会生成配对码。未经确认,严禁运行 openclaw pairing approve。
- 沙箱隔离 (Sandbox): 处理群组消息或非本人会话时,必须开启 Docker 沙箱。
- 实战配置: 在 openclaw.json 中设置 agents.defaults.sandbox.mode: "non-main"。这能确保 AI 在非主会话中执行的 bash 指令被局限在容器内。
- 远程访问: 严禁直接暴露端口。Tailscale Serve/Funnel 是目前官方推荐的加固访问方案,它能在保持 Loopback 绑定的同时提供安全的访问隧道。
- 安全审计: 养成定期运行 openclaw doctor 的习惯。该工具会扫描过期凭证、不安全的 DM 策略以及服务配置漂移(Config Drift)。
专家警示: 请务必将所有来自外部通讯平台的指令视为“不可信输入(Untrusted Input)”。在赋予 AI 自动执行权限时,请始终保持警惕。