从零部署你的24小时AI管家:OpenClaw完整实战指南(附踩坑记录)

9 阅读5分钟

开源项目两周突破15万Star,这款能帮你写代码、回邮件、管日历的AI助手,终于被我折腾上线了。

写在前面

最近技术圈被一只"小龙虾"刷屏了——OpenClaw(前身Clawdbot/Moltbot)。作为GitHub史上增长最快的开源项目之一,它不像ChatGPT那样只会"说话",而是真正能动手做事的AI Agent:浏览网页、执行命令、管理文件、甚至帮你写代码。

但说实话,官方文档对国内用户不够友好,我在部署过程中踩了不少坑。这篇文章记录从0到1的完整部署流程,以及我整理的中文优化资料,希望能帮你少走冤枉路。

📚 配套资料:部署过程中需要参考的命令合集与配置文件模板,我都整理在了个人笔记站 fuye365.github.io,包含国内镜像加速、API配置指南等实战内容。


一、OpenClaw是什么?为什么值得折腾?

简单来说,OpenClaw是一个运行在你自己服务器上的高权限AI智能体。与SaaS类AI服务不同,它:

  • 数据自主可控:所有操作在本地/云端服务器完成,敏感信息不出境
  • 7×24小时待命:部署后通过Telegram、飞书、钉钉等渠道随时唤醒
  • 真正"动手"能力:不是给建议,而是直接执行命令、操作浏览器、读写文件

特别适合需要自动化处理重复工作的开发者,比如定时拉取数据生成报表、自动回复标准化咨询、远程执行服务器维护等场景。


二、部署前的准备工作

根据官方要求和个人实战经验,建议按以下配置准备:

项目最低要求推荐配置说明
操作系统Linux/macOS/Win(WSL2)Ubuntu 22.04 LTS国内云服务器首选
Node.js≥ 22.x22.x LTS必须使用NVM安装
内存2GB4GB+低于4GB需配置Swap
AI模型任意API Key通义千问/GLM国内大模型免费额度充足

特别提醒:国内服务器访问GitHub/npm可能不稳定,建议提前配置代理或使用镜像源。


三、实战部署:三步走策略

第一步:环境初始化(5分钟)

安装Git和Node.js环境。这里有个避坑点:不要用apt直接装Node.js,版本可能不兼容。

# 安装NVM(国内用户建议用Gitee镜像)
curl -o- https://gitee.com/RubyMetric/nvm-cn/raw/main/install.sh | bash
source ~/.bashrc

# 安装Node.js 22
nvm install 22
nvm use 22
node -v  # 确认输出v22.x.x

第二步:安装OpenClaw(3分钟)

官方提供了一键安装脚本,但国内网络环境下可能中断。如果遇到问题,可以参考我整理的离线安装方案(见文末资料站)。

# 官方一键安装(网络通畅时)
curl -fsSL https://openclaw.ai/install.sh | bash

# 或通过npm安装(更稳定)
npm install -g openclaw@latest

安装完成后,首次运行会看到一个ASCII艺术小龙虾和交互式配置向导:

░████░█░░░░░█████░█░░░█░███░░████░░████░░▀█▀
              🦞 FRESH DAILY 🦞

第三步:配置向导详解(10分钟)

运行openclaw onboard --install-daemon进入配置,关键步骤如下:

1. 安全确认 向导会明确提示风险:Agent可以执行命令、读写文件。输入yes继续。

2. 选择AI后端 国内用户强烈推荐选择通义千问(Qwen)GLM

3. 配置消息渠道

  • 新手建议选Telegram Bot(最简单,5分钟搞定)
  • 国内办公场景可选飞书钉钉,需额外配置Webhook

4. 安装守护进程 选择--install-daemon参数会自动创建系统服务,实现开机自启。


四、进阶配置:让AI真正"可用"

基础部署完成后,还需要三个关键配置才能真正投入生产:

1. 持久化记忆配置

OpenClaw通过本地Markdown文件存储偏好,编辑~/.openclaw/openclaw.json

{
  "agent": {
    "memory": {
      "enabled": true,
      "storagePath": "~/.openclaw/memory"
    }
  }
}

2. 安全沙箱(强烈推荐)

默认情况下Agent拥有较高权限,建议启用Docker沙箱隔离:

{
  "agents": {
    "defaults": {
      "sandbox": {
        "mode": "non-main",
        "docker": {
          "image": "openclaw-sandbox:bookworm-slim",
          "network": "none"
        }
      }
    }
  }
}

3. 防火墙与端口

确保服务器放行18789端口(Gateway默认端口):

sudo ufw allow 18789/tcp
# 或云服务器安全组配置

五、国内部署的特殊技巧

由于网络环境差异,国内部署需要一些"土办法":

镜像加速:npm和Docker拉取经常超时,建议使用淘宝NPM镜像、阿里云Docker镜像等国内源。

模型选择:实测通义千问Qwen2.5-coder在代码任务上表现优异,且阿里云免费额度 generous。配置示例:

{
  "agent": {
    "model": "qwen2.5-coder:32b",
    "providers": {
      "qwen": {
        "apiKey": "sk-your-key",
        "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1"
      }
    }
  }
}

移动端访问:部署完成后,通过飞书/钉钉接入可以实现手机远程操控家里或公司的电脑,这是目前最符合国内使用习惯的方案。


六、常见问题与排查

现象原因解决方案
安装脚本卡住网络不通换用npm安装,或参考文末资料站的离线包方案
Gateway启动失败端口占用修改openclaw.json中的gateway端口配置
AI不回复API Key无效检查额度是否用完,或baseUrl配置错误
中文显示乱码终端编码问题设置LANG=en_US.UTF-8

七、写在最后

OpenClaw代表了AI Agent从"玩具"走向"工具"的转折点。虽然部署过程比ChatGPT复杂,但换来的是完全的数据所有权无限的定制化能力

如果你在部署过程中遇到文档里没提到的问题,欢迎交流。文中提到的配置文件模板、镜像加速地址、以及各平台Bot创建的具体截图步骤,我都汇总了方便随时查阅。

毕竟,配置一次,受益良久。当你的AI助手开始在凌晨三点自动处理邮件时,你会感谢现在折腾的自己。


参考资源

  • OpenClaw官方文档: docs.openclaw.ai
  • 阿里云部署指南: 开发者社区
  • 本文配套资料: fuye365.github.io