OpenClaw安装部署全攻略:从环境配置到AI配置和Telegram/WhatsApp/飞书接入

0 阅读9分钟

openclaw-install-steps.png 兄弟们,2026年了,如果说有什么工具能让咱们这些搞开发、做自动化的效率原地起飞,那OpenClaw(江湖人称“小龙虾”,原名叫Clawdbot)绝对排得上号。这玩意儿开源、灵活,简直是个人开发者和办公达人的梦中情“虾”。

但理想很丰满,现实很骨感。真要在国内把这“小龙虾”支棱起来,你会发现处处是坑:GitHub资源拉不动、海外API付不了款、装个依赖等到天荒地老……是不是很头疼?

Openclaw安装教程

别急,今天咱就来一份走心又实用的本地化“避坑”指南。从零起步,把环境、插件、AI模型,再到接上微信、TG、WhatsApp这些聊天工具,一条龙给你整明白,保证让你顺顺利利把这只“小龙虾”带回家,让它乖乖给你干活。

1. 开搞前的准备工作:先把路子铺平

在国内玩这个,咱不能拿着老外的教程生搬硬套,得先把自己的“路”修好。

1.1 你的“虾窝”得够宽敞

想让它跑得欢,硬件不能太寒酸。特别是后面要跑多个任务(Skills),配置低了真能卡出翔来。

  • 硬性指标:CPU ≥ 2核,内存 ≥ 4GB,硬盘 ≥ 20GB。如果是在云上,2核4GB是起步价,2核2GB那种古董就别折腾了,跑个demo都费劲。
  • 软件环境:Node.js 必须 ≥ 22.x(这是2026版的核心,逃不掉的),Python ≥ 3.9,Docker强烈建议装上(后面跑一些技能做安全隔离用得上)。

1.2 国内特供版“网络加速器”

OpenClaw的娘家在GitHub,各种依赖包也散落在海外,直接去拉,十有八九会超时跪给你看。所以,咱们得学会“曲线救国”。

第一步:换源,必须换源!

  • NPM源:果断换淘宝的,执行这条命令就行:npm config set registry https://registry.npmmirror.com
  • Docker源:去阿里云或者腾讯云搞个免费的容器镜像加速器,配置上,后面拉镜像能快不少。

第二步:搞定AI的“大脑”(API-Key)

OpenClaw本身只是个空壳子,真正让它变聪明的是背后的大模型。在国内,想用ChatGPT?信用卡这关就卡死90%的人。咱得用“自家产”的,又快又稳。

  • 首选推荐阿里云百炼(通义千问)。它家的API在国内直连无压力,延迟低,支持工具调用,跟OpenClaw是绝配。怎么搞到Key?可以去参考这篇文章:《阿里云3步部署OpenClaw 24小时在线AI助手》,里面写得明明白白。
  • 备胎选项:DeepSeek、腾讯混元这些也都能用,看你手头有啥资源。

2. 两种主流的“养虾”姿势

这里给你两条路,一条是“懒人模式”,一条是“极客模式”,看你喜欢哪个。

2.1 方案A:云端“托管”模式(24小时在线,懒人必备)

想让你的AI助手7x24小时在线,帮你处理消息、跑定时任务,那必须把它放云上。现在阿里云、腾讯云都有现成的“镜像”,省事到不行。

第1步:挑个云服务器(地域有讲究)

  • 去哪买:直接搜阿里云或腾讯云的OpenClaw专属页面就行。
  • 选镜像:关键一步!一定要选那种带 “OpenClaw 2026汉化版” 标签的镜像。这些都是“特供版”,Node.js、Docker啥的都给你装好了,连配置都做了本地优化。
  • 选地域:听我一句劝,闭眼选中国香港或者新加坡。好处太多了:不用备案,买了就能用;而且从这些地方访问国内外的API都挺快,能避开很多网络上的“玄学问题”。

第2步:把AI大脑接上去

买完机器,进到服务器控制台的应用详情页,找到“模型配置”或者“百炼API-Key配置”的地方,把你刚从阿里云百炼平台搞到的Key贴进去,系统会自动帮你配置好。

第3步:放行端口,进去看看

  • 开端口:去防火墙设置里,把 TCP 18789 这个端口放行,这是OpenClaw的Web控制台大门。
  • 拿钥匙:在应用详情页点“生成Token”,复制下来。
  • 登录:浏览器打开 http://你的服务器公网IP:18789/?token=你刚复制的Token,就能看到亲切的中文界面了。

2.2 方案B:本地“散养”模式(适合开发者折腾)

如果你想在本地开发测试,或者数据必须放内网,那咱就用NPM来装,记得把源换成淘宝的,飞一般的感觉。

第1步:装上Node.js 22+

Node.js官网下个LTS版本,下一步下一步装好就行。

第2步:安装“中文特供版”

原版的命令可能会去海外拉东西,这里推荐用社区大佬打包好的版本,叫 openclaw-cn,从里到外都透着股“中国味”。

# 用淘宝源全局安装这个中文社区版
npm install -g openclaw-cn@latest --registry=https://registry.npmmirror.com

第3步:跟着向导走

bash

CopyDownload

# 运行安装向导,顺便装上守护进程(这样关了终端它也能自己跑)
openclaw-cn onboard --install-daemon

在向导里,让你选模型提供商的时候,可以直接选“Qwen”,或者手动填阿里云百炼的地址。其他什么通道(Channel)的先选“Skip for now”跳过,后面再配。

第4步:启动!

bash

CopyDownload

# 启动网关,Web界面默认还是在18789端口
openclaw-cn gateway --port 18789

3. 核心配置:教AI学会“动手干活”

装好之后,它只是个能聊天的空壳,威力全在后面的工具(Tools)和技能(Skills)配置上。

3.1 分清Tool和Skill(安全第一,切记!)

  • Tool(工具) :这是底层权限,决定了AI能干啥。比如读写文件(file)、访问网络(network)、执行系统命令(exec)。建议把execfile-delete这类高危工具默认关掉,安全无小事。
  • Skill(技能) :这是调用工具的“说明书”,教AI怎么干。比如“总结PDF”这个技能,就会调用读文件的工具,再配合文本处理逻辑来完成工作。

安全配置来一套

bash

CopyDownload

# 关闭高风险工具
openclaw config set tools.deny ["exec", "network-write", "file-delete"]
# 只加载官方推荐的核心安全技能
openclaw config set skills.allowBundled true

3.2 插件安装:给你的“小龙虾”加装备

OpenClaw有个丰富的插件生态(ClawHub),但装的时候也得注意网络问题。

方法一:直接从Git仓库装(最灵活)

bash

CopyDownload

# 比如装个钉钉的插件
openclaw plugins install https://github.com/soimy/openclaw-channel-dingtalk.git

如果觉得GitHub慢,可以先把仓库 fork 到 Gitee,再用Gitee的地址装。

方法二:用NPM装

如果插件发布在NPM上,配好淘宝源后,装起来飞快。

bash

CopyDownload

npm install -g openclaw-plugin-[插件名] --registry=https://registry.npmmirror.com

方法三:手动安装(内网环境专用)

在能上网的电脑上下好插件,然后通过U盘啥的拷到服务器的 ~/.openclaw/extensions/ 目录下解压就行。

4. 给“小龙虾”装上AI大脑(模型接入攻略)

方案一:用云端API(最简单,新手无脑选)

首选:阿里云百炼(通义千问)

国内适配最好,延迟最低,没啥好犹豫的。

  1. 搞到钥匙:去阿里云百炼后台,在“密钥管理”里创建一个API-Key,复制下来。

  2. 填对地址:这一步注意下,根据你服务器的位置填:

    • 服务器在国内或新加坡:填 https://dashscope-intl.aliyuncs.com/compatible-mode/v1
    • 服务器在美国:填 https://dashscope-us.aliyuncs.com/compatible-mode/v1
  3. 选对模型:推荐用 qwen3-max-2026-01-23,中文理解强,还特别会“使唤”工具。

  4. 配置方法(Web界面版)
    运行 openclaw dashboard 打开Web控制台,进到 设置 -> 高级 -> 原始配置,在 models.providers 下面把这段配置加进去:

json

CopyDownload

{
  "bailian": {
    "baseUrl": "https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
    "apiKey": "你的API-Key",
    "api": "openai-completions",
    "models": [
      { "id": "qwen3-max-2026-01-23", "name": "qwen3-max", "reasoning": false }
    ]
  }
}

注意:那个 "reasoning": false 一定要加上,不然AI有时候会给你返回空内容。

方案二:跑本地模型(适合数据洁癖用户)

可以用 Ollama 之类的工具,跑一些开源的模型,比如 Llama 3 或者 Qwen 的量化版,实现完全离线,就是吃显卡。

5. 把“小龙虾”拉进你的聊天群

OpenClaw最大的爽点就是能接上你日常用的聊天软件,随时随地下指令。

5.1 先玩玩它自带的Web界面

启动网关后,浏览器打开 http://你的IP:18789,用 openclaw token generate 生成的Token登录,就能在网页上和它聊天了。

5.2 接上Telegram

  1. 去Telegram找 @BotFather 这个机器人,按提示创建个新机器人,拿到那个像密码一样的Token。
  2. 在OpenClaw里配置上:

bash

CopyDownload

openclaw config set channels.telegram --json '{"enabled": true, "botToken": "你拿到的Token"}'
openclaw gateway restart

3. 第一次给你的机器人发消息,它会让你配对。在服务器上执行 openclaw pairing approve telegram <收到的配对码> 就行。

5.3 接上WhatsApp(跨境办公神器)

  1. 需要去 Meta开发者平台 申请WhatsApp Business API的凭证,拿到 Phone Number ID 和 Access Token
  2. 安装好WhatsApp插件,然后设置一个Webhook回调地址,格式是 http://你的IP:18789/whatsapp/callback。这样你在WhatsApp上给它发消息,它就能收到了。

5.4 其他平台怎么接

6. 翻车现场:常见问题咋解决?

  • 问题:Web界面打不开?

    • 排查:先看看云服务器的安全组有没有放行18789端口。再看看OpenClaw的配置里,host是不是设成了"0.0.0.0",不然它可能只监听本地。
  • 问题:AI不回话,或者一直超时?

    • 排查:记住“就近原则”。你在国内服务器上就配国内模型(比如阿里云),你在海外服务器上就配OpenAI这些,别搞混了,不然网络延迟能急死人。
  • 问题:装插件报错“连接超时”?

    • 排查:大概率是网络问题。执行下 npm config set registry https://registry.npmmirror.com 把NPM源切到国内,再试试。
  • 问题:一关电脑终端,机器人就挂了?

    • 排查:因为你没让它“常住后台”。要么用openclaw-cn onboard --install-daemon装个守护进程,要么用pm2screen这类工具把它管起来。

7. 最后唠两句

在国内玩转OpenClaw,其实没那么玄乎,记住这三板斧就行:

  1. 先换源,再动手:甭管是npm、pip还是Docker,第一件事就是把源换成国内的,能省下你90%的报错时间。
  2. AI用国产,真香:阿里云百炼、腾讯混元这些,响应快,中文好,关键支付还方便,何必去折腾海外的信用卡。
  3. 部署上云,选香港:花点小钱买个香港或新加坡的轻量云,一键镜像部署,不用备案,网络又顺畅,直接绕开所有网络上的坑。

照着这篇指南走一遍,相信你也能顺利地把这只“小龙虾”领回家,让它成为你工作生活里那个得力的小帮手。