开源项目两周突破15万Star,这款能帮你写代码、回邮件、管日历的AI助手,终于被我折腾上线了。
写在前面
最近技术圈被一只"小龙虾"刷屏了——OpenClaw(前身Clawdbot/Moltbot)。作为GitHub史上增长最快的开源项目之一,它不像ChatGPT那样只会"说话",而是真正能动手做事的AI Agent:浏览网页、执行命令、管理文件、甚至帮你写代码。
但说实话,官方文档对国内用户不够友好,我在部署过程中踩了不少坑。这篇文章记录从0到1的完整部署流程,以及我整理的中文优化资料,希望能帮你少走冤枉路。
📚 配套资料:部署过程中需要参考的命令合集与配置文件模板,我都整理在了个人笔记站 fuye365.github.io,包含国内镜像加速、API配置指南等实战内容。
一、OpenClaw是什么?为什么值得折腾?
简单来说,OpenClaw是一个运行在你自己服务器上的高权限AI智能体。与SaaS类AI服务不同,它:
- 数据自主可控:所有操作在本地/云端服务器完成,敏感信息不出境
- 7×24小时待命:部署后通过Telegram、飞书、钉钉等渠道随时唤醒
- 真正"动手"能力:不是给建议,而是直接执行命令、操作浏览器、读写文件
特别适合需要自动化处理重复工作的开发者,比如定时拉取数据生成报表、自动回复标准化咨询、远程执行服务器维护等场景。
二、部署前的准备工作
根据官方要求和个人实战经验,建议按以下配置准备:
| 项目 | 最低要求 | 推荐配置 | 说明 |
|---|---|---|---|
| 操作系统 | Linux/macOS/Win(WSL2) | Ubuntu 22.04 LTS | 国内云服务器首选 |
| Node.js | ≥ 22.x | 22.x LTS | 必须使用NVM安装 |
| 内存 | 2GB | 4GB+ | 低于4GB需配置Swap |
| AI模型 | 任意API Key | 通义千问/GLM | 国内大模型免费额度充足 |
特别提醒:国内服务器访问GitHub/npm可能不稳定,建议提前配置代理或使用镜像源。
三、实战部署:三步走策略
第一步:环境初始化(5分钟)
安装Git和Node.js环境。这里有个避坑点:不要用apt直接装Node.js,版本可能不兼容。
# 安装NVM(国内用户建议用Gitee镜像)
curl -o- https://gitee.com/RubyMetric/nvm-cn/raw/main/install.sh | bash
source ~/.bashrc
# 安装Node.js 22
nvm install 22
nvm use 22
node -v # 确认输出v22.x.x
第二步:安装OpenClaw(3分钟)
官方提供了一键安装脚本,但国内网络环境下可能中断。如果遇到问题,可以参考我整理的离线安装方案(见文末资料站)。
# 官方一键安装(网络通畅时)
curl -fsSL https://openclaw.ai/install.sh | bash
# 或通过npm安装(更稳定)
npm install -g openclaw@latest
安装完成后,首次运行会看到一个ASCII艺术小龙虾和交互式配置向导:
░████░█░░░░░█████░█░░░█░███░░████░░████░░▀█▀
🦞 FRESH DAILY 🦞
第三步:配置向导详解(10分钟)
运行openclaw onboard --install-daemon进入配置,关键步骤如下:
1. 安全确认 向导会明确提示风险:Agent可以执行命令、读写文件。输入yes继续。
2. 选择AI后端 国内用户强烈推荐选择通义千问(Qwen)或GLM:
3. 配置消息渠道
- 新手建议选Telegram Bot(最简单,5分钟搞定)
- 国内办公场景可选飞书或钉钉,需额外配置Webhook
4. 安装守护进程 选择--install-daemon参数会自动创建系统服务,实现开机自启。
四、进阶配置:让AI真正"可用"
基础部署完成后,还需要三个关键配置才能真正投入生产:
1. 持久化记忆配置
OpenClaw通过本地Markdown文件存储偏好,编辑~/.openclaw/openclaw.json:
{
"agent": {
"memory": {
"enabled": true,
"storagePath": "~/.openclaw/memory"
}
}
}
2. 安全沙箱(强烈推荐)
默认情况下Agent拥有较高权限,建议启用Docker沙箱隔离:
{
"agents": {
"defaults": {
"sandbox": {
"mode": "non-main",
"docker": {
"image": "openclaw-sandbox:bookworm-slim",
"network": "none"
}
}
}
}
}
3. 防火墙与端口
确保服务器放行18789端口(Gateway默认端口):
sudo ufw allow 18789/tcp
# 或云服务器安全组配置
五、国内部署的特殊技巧
由于网络环境差异,国内部署需要一些"土办法":
镜像加速:npm和Docker拉取经常超时,建议使用淘宝NPM镜像、阿里云Docker镜像等国内源。
模型选择:实测通义千问Qwen2.5-coder在代码任务上表现优异,且阿里云免费额度 generous。配置示例:
{
"agent": {
"model": "qwen2.5-coder:32b",
"providers": {
"qwen": {
"apiKey": "sk-your-key",
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1"
}
}
}
}
移动端访问:部署完成后,通过飞书/钉钉接入可以实现手机远程操控家里或公司的电脑,这是目前最符合国内使用习惯的方案。
六、常见问题与排查
| 现象 | 原因 | 解决方案 |
|---|---|---|
| 安装脚本卡住 | 网络不通 | 换用npm安装,或参考文末资料站的离线包方案 |
| Gateway启动失败 | 端口占用 | 修改openclaw.json中的gateway端口配置 |
| AI不回复 | API Key无效 | 检查额度是否用完,或baseUrl配置错误 |
| 中文显示乱码 | 终端编码问题 | 设置LANG=en_US.UTF-8 |
七、写在最后
OpenClaw代表了AI Agent从"玩具"走向"工具"的转折点。虽然部署过程比ChatGPT复杂,但换来的是完全的数据所有权和无限的定制化能力。
如果你在部署过程中遇到文档里没提到的问题,欢迎交流。文中提到的配置文件模板、镜像加速地址、以及各平台Bot创建的具体截图步骤,我都汇总了方便随时查阅。
毕竟,配置一次,受益良久。当你的AI助手开始在凌晨三点自动处理邮件时,你会感谢现在折腾的自己。
参考资源:
- OpenClaw官方文档: docs.openclaw.ai
- 阿里云部署指南: 开发者社区
- 本文配套资料: fuye365.github.io