🦞 OpenClaw 全攻略:从零打造你的全能私人 AI 助理

0 阅读5分钟

1. 什么是 OpenClaw?—— “龙虾式”的 AI 革命

作为 OpenClaw 部署专家,我必须首先纠正一个误区:OpenClaw 并非一个简单的聊天机器人。它是一个私有 AI 助手网关(Gateway),是连接各种通讯渠道、工具链和顶尖大模型的“单一控制平面(Single Control Plane)”。

  • “龙虾方式(The Lobster Way)”的核心哲学是“Exfoliate! Exfoliate!”(蜕变与掌控)。它强调本地优先(Local-first)和绝对的个人掌控。通过 ReAct (Reasoning + Acting) 框架,OpenClaw 实现了从“预测文本”到“解决问题”的跨越:
  • 推理 (Reasoning/Thought): AI 生成逻辑轨迹,诱导、跟踪并动态更新行动计划。
  • 行动 (Acting/Act): 与外部环境(如维基百科、本地文件系统、浏览器)交互,获取真实信息。
  • 观察 (Observation): 这是“通往现实的桥梁(Grounding)”。AI 根据工具反馈修正认知,如果搜索结果不佳,它会自动进行“自纠错”。

这种逻辑闭环能有效阻断 AI 幻觉的自我循环,使其进化为具备执行力的智能代理(Agent)。


2. 环境准备:专业部署的基石

在生产或深度使用场景下,环境选择决定了助手的稳定性。OpenClaw 的核心基于 TypeScript,Node.js 22 或更高版本是运行的绝对前提。

系统类型服务目标 (Service Target)实战建议
macOSLaunchAgent (ai.openclaw.gateway)个人首选。支持菜单栏应用、语音唤醒 (Voice Wake) 和 Talk Mode 覆盖层等原生硬件集成。
Linuxsystemd 用户服务服务器首选。适合 24 小时在线的后端网关,建议搭配 Tailscale Serve/Funnel 进行远程访问。
Windowssystemd (via WSL2)强烈推荐在 WSL2 下运行。由于 Windows 原生伴侣应用尚在计划中,WSL2 能提供最佳的兼容性。

专家提示:

  • 安装前请执行 node --version 确认版本。
  • 对于高级部署,建议配置环境变量 OPENCLAW_HOME 或 OPENCLAW_STATE_DIR,以实现配置与系统分区的解耦。

3. 三步安装:自动化部署流程

OpenClaw 的安装脚本非常智能,它会自动检测并尝试安装缺失的 Node 环境。

第一步:自动化脚本安装

  • macOS / Linux / WSL2:
  • Windows (PowerShell):

第二步:运行交互式向导

执行以下命令进入推荐的交互式路径:

openclaw onboard

专家建议: 在向导中务必选择 --install-daemon。这会将网关安装为后台常驻服务,确保你的 AI 助手永不离线。

第三步:状态验证

通过以下命令确认网关健康度:

openclaw gateway status

健康基准: 只有当显示 Runtime: running 且 RPC probe: ok 时,才意味着控制平面已完全就绪。


4. 接入飞书 (Feishu):插件化扩展实战

与原生集成的渠道不同,飞书(Feishu/Lark)是作为插件(Plugin)存在的。

  1. 安装插件: 首先执行 npx clawhub 或 openclaw plugins install @openclaw/feishu 安装飞书支持包。
  2. 启用并配置:
  • 执行 openclaw plugins enable feishu。

  • 使用 openclaw channels add 并选择 feishu。

  1. 开发者后台设置: 你需要在飞书开发者后台创建企业自建机器人,获取 App ID 和 Secret,并配置 Webhook 回调。
  2. 重启生效: 大多数插件变更需要重启网关:openclaw gateway restart。

5. 模型挑选:为你的“大脑”提供动力

OpenClaw 强依赖ReAct、Skills等技术,对模型选择非常重要,这个决定了其效果的差异性。

  • 选型建议: 为了保障其拥有较强的智能效果,国际首选 OpenAI (GPT-4o) 或 Anthropic (Claude 3.5 Sonnet),国内首推Minimax(对Claude替代度高)、百炼(MinMax模型)、。
  • 配置规范: 所有的模型设置均采用 供应商-模型名 的斜杠标记法。
  • 常用指令:
  • 调整模型设置: openclaw configure 推荐国内选择Minimax的模型,效果较佳!(这个主要会影响到后续模型对Skills解读和Tools选择效果,面对需求复杂的场景效果差异很大) Minimax官方可以注册账号,推荐购买Coding plan计划(包月或包年),Starter版本即可,然后进入接口密钥,找到Coding plan里的密钥复制出来后续使用。

添加图片注释,不超过 140 字(可选)

  • 添加密钥: 命令终端设置或openclaw configure auth add(支持 OAuth 快速认证)。

添加图片注释,不超过 140 字(可选)

  • 设置主模型: openclaw models set minimax-cn/MiniMax-M2.5。

  • 状态扫描: openclaw models status --probe(执行实时链路拨测)。


6. 玩转 OpenClaw:核心功能与斜杠命令

进入TUI终端: openclaw tui

常用斜杠命令 (Slash Commands)

在对话框中输入以下指令直接调控网关:

  • /status:快速诊断当前会话成本、模型及状态。
  • /debug:开启运行时配置覆盖(仅保存在内存中,不影响磁盘配置)。
  • /think :调整推理深度(如 high 或 xhigh),适用于 GPT-5.2+ 或 Codex 模型。
  • /reset:重置当前上下文,这是处理逻辑卡顿时最有效的手段。

第一类工具箱 (First-class Tools)

  • Browser: 调用受控的 Chrome 浏览器。专家建议配合 snapshot(支持 AI 语义快照)使用,而非简单的截图。
  • Canvas: 开启 A2UI 实时画布,让 AI 在可视化空间内呈现 UI 或图形。
  • Nodes: 跨设备调用。你可以让 AI 在你的 Mac 上执行 system.run,或者在安卓手机上调用摄像头拍摄并回传。

7. 安全与隐私:专家级的加固策略

OpenClaw 赋予了 AI 操作真实系统和通讯软件的能力,因此安全防范是重中之重。

  1. 私聊配对 (DM Pairing): 默认策略为 pairing。当陌生人试图接触你的 AI 时,系统会生成配对码。未经确认,严禁运行 openclaw pairing approve。
  2. 沙箱隔离 (Sandbox): 处理群组消息或非本人会话时,必须开启 Docker 沙箱。
  • 实战配置: 在 openclaw.json 中设置 agents.defaults.sandbox.mode: "non-main"。这能确保 AI 在非主会话中执行的 bash 指令被局限在容器内。
  1. 远程访问: 严禁直接暴露端口。Tailscale Serve/Funnel 是目前官方推荐的加固访问方案,它能在保持 Loopback 绑定的同时提供安全的访问隧道。
  2. 安全审计: 养成定期运行 openclaw doctor 的习惯。该工具会扫描过期凭证、不安全的 DM 策略以及服务配置漂移(Config Drift)。

专家警示: 请务必将所有来自外部通讯平台的指令视为“不可信输入(Untrusted Input)”。在赋予 AI 自动执行权限时,请始终保持警惕。