本文手把手带你在 Windows + WSL2 环境下部署 OpenClaw,对接 Moonshot Kimi K2.5 模型,并通过飞书机器人实现团队级 AI 助手。全程命令行可复现,一篇搞定。
环境概览
| 项目 | 版本/说明 |
|---|---|
| 系统 | Windows 10 + WSL2 |
| Linux 发行版 | Ubuntu 24.04 |
| 大模型 | Moonshot Kimi K2.5 |
| 通讯通道 | 飞书 |
一、准备 WSL2 + Ubuntu 24.04
以管理员身份打开 PowerShell:
# 一键安装 WSL(已内置虚拟机平台等依赖)
wsl --install
# 设置默认版本为 WSL2
wsl --set-default-version 2
# 安装 Ubuntu 24.04
wsl --install -d Ubuntu-24.04
安装完成后按提示设置用户名和密码,然后更新系统:
sudo apt update && sudo apt upgrade -y
二、安装 Node.js 和 pnpm
OpenClaw 依赖 Node.js 运行环境,推荐使用 nvm 管理版本。
# 安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash
source ~/.bashrc
# 安装并设置 Node.js 22 LTS
nvm install 22
nvm alias default 22
# 验证
node -v # v22.x.x
# 安装 pnpm(二选一)
npm install -g pnpm
# 或
curl -fsSL https://get.pnpm.io/install.sh | sh -
pnpm -v
三、安装并初始化 OpenClaw
# 全局安装(推荐 pnpm)
pnpm add -g openclaw
# 验证
openclaw --version
# 运行初始化向导,按提示完成基础配置
openclaw onboard
四、对接 Kimi K2.5 大模型
1. 获取 API Key
前往 Moonshot 开放平台,注册登录后在控制台创建 API Key(格式:sk-...)。
2. 配置模型
可以通过 openclaw config 交互式配置,也可以直接编辑 ~/.openclaw/openclaw.json,写入以下关键配置:
{
"auth": {
"profiles": {
"moonshot:default": {
"provider": "moonshot",
"mode": "api_key"
}
}
},
"models": {
"mode": "merge",
"providers": {
"moonshot": {
"baseUrl": "https://api.moonshot.cn/v1",
"api": "openai-completions",
"models": [
{
"id": "kimi-k2.5",
"name": "Kimi K2.5",
"reasoning": false,
"input": ["text", "image"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 256000,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "moonshot/kimi-k2.5"
}
}
}
}
3. 验证
openclaw status
openclaw chat "你好"
能正常收到回复,说明模型已对接成功。
五、配置飞书集成
这一步分为**飞书侧(创建应用)和OpenClaw 侧(安装插件+配置通道)**两部分。
第一部分:飞书开放平台操作
1. 创建企业自建应用
- 访问 飞书开放平台,登录后进入「开发者后台」
- 点击「创建企业自建应用」,填写应用名称(如
OpenClaw)和描述 - 创建成功后,在「凭证与基础信息」页面记录 App ID 和 App Secret
注意:App Secret 只显示一次,请务必妥善保存。丢失需重置。
2. 配置权限
进入「权限管理」,搜索并添加以下权限:
| 权限 Key | 用途 |
|---|---|
im:message.p2p_msg | 接收私聊消息 |
im:message.group_msg | 接收群聊消息 |
im:message:send_as_bot | 发送消息 |
im:chat:readonly | 读取群组信息 |
contact:user.base:readonly | 获取用户名称 |
勾选后点击「批量开通」。
3. 配置事件订阅
进入「事件与回调」→「事件订阅」:
- 连接方式:选择 WebSocket(推荐,无需公网服务器)
- 订阅事件:添加
im.message.receive_v1(接收消息)
4. 启用机器人
进入「机器人」菜单,打开「启用机器人」开关,填写机器人名称和描述。
5. 发布应用
进入「版本管理与发布」→「创建版本」→「申请发布」。发布范围建议先选「仅自己可见」进行测试。企业自建应用通常自动审核通过。
6. 添加机器人到对话
- 私聊:在飞书搜索框搜索机器人名称即可
- 群聊:群设置 →「群机器人」→「添加机器人」→ 搜索选择
如果搜索不到机器人,请确认:应用已发布、发布范围包含当前用户、机器人已启用。
第二部分:OpenClaw 侧配置
1. 安装飞书插件
openclaw plugins install feishu
# 或者使用 npm
npm install -g @openclaw/feishu
2. 配置飞书通道
运行 openclaw config 交互式配置,或直接编辑 ~/.openclaw/openclaw.json,在配置中添加:
{
"channels": {
"feishu": {
"enabled": true,
"dmPolicy": "pairing",
"accounts": {
"main": {
"appId": "cli_xxxxxxxxxxxxxxxx",
"appSecret": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
"botName": "OpenClaw"
}
},
"connectionMode": "websocket",
"domain": "feishu",
"groupPolicy": "open",
"privatePolicy": "open"
}
},
"bindings": [
{
"agentId": "main",
"match": {
"channel": "feishu",
"accountId": "default"
}
}
]
}
将 appId 和 appSecret 替换为你在飞书开放平台获取的实际值。
3. 启动并验证
# 启动 Gateway
openclaw gateway start
# 生产环境推荐注册为 systemd 服务
openclaw service install gateway
sudo systemctl start openclaw-gateway
# 查看连接状态
openclaw status
正常情况下应显示 Feishu 通道状态为 ON / OK:
Channels
┌──────────┬─────────┬────────┬──────────────┐
│ Channel │ Enabled │ State │ Detail │
├──────────┼─────────┼────────┼──────────────┤
│ Feishu │ ON │ OK │ configured │
└──────────┴─────────┴────────┴──────────────┘
六、安全加固(推荐)
上线前建议收紧权限,避免机器人被非预期群组调用。
编辑 ~/.openclaw/openclaw.json:
{
"channels": {
"feishu": {
"groupPolicy": "allowlist",
"groupAllowFilter": ["your-group-id-1", "your-group-id-2"]
}
},
"tools": {
"profile": "messaging",
"elevated": { "enabled": false }
}
}
七、常用命令速查
openclaw status # 查看整体状态
openclaw logs --follow # 实时查看日志
openclaw gateway restart # 重启 Gateway
openclaw gateway stop # 停止 Gateway
openclaw config # 交互式修改配置
openclaw chat "测试消息" # 快速测试对话
openclaw skills list # 查看已安装技能
openclaw skills install <name> # 安装技能
八、常见问题排查
| 问题 | 排查方法 |
|---|---|
| Gateway 无法启动 | lsof -i :18789 检查端口占用;openclaw logs --level debug 查看详细日志 |
| 飞书连接失败 | 确认 App ID / Secret 正确、应用已发布审核通过、网络可达 |
| 模型调用失败 | 检查 API Key 有效性和账户余额,查看 Moonshot 控制台 |
| WSL2 网络不通 | 配置代理:export https_proxy=http://your-proxy:port,写入 ~/.bashrc 持久化 |
九、目录结构一览
~/.openclaw/
├── agents/ # 代理配置及会话数据
├── credentials/ # 凭据存储
├── extensions/feishu/ # 飞书插件
├── logs/ # 日志文件
├── memory/ # 记忆文件
├── workspace/ # 工作空间
├── openclaw.json # 主配置文件
└── openclaw.json.bak # 配置备份
总结
本文完成了以下工作:
- 基础环境:在 Windows 上通过 WSL2 搭建 Ubuntu 24.04 运行环境
- 运行时:安装 Node.js 22 + pnpm,全局安装 OpenClaw
- 模型对接:配置 Moonshot Kimi K2.5 作为推理后端
- 通道集成:创建飞书企业应用并通过 WebSocket 模式接入 OpenClaw
- 安全加固:通过白名单和权限限制保障生产安全
整套方案的核心优势在于:无需公网服务器(WebSocket 模式)、部署在本地 WSL 即可运行、Kimi K2.5 的 256K 上下文窗口能覆盖大多数场景。如果后续需要切换模型或接入更多通道,只需修改 openclaw.json 配置文件即可,架构上具备良好的扩展性。
参考链接