基于 Win10 从零搭建 OpenClaw:Kimi K2.5 + 飞书机器人 完整实战指南

14 阅读5分钟

本文手把手带你在 Windows + WSL2 环境下部署 OpenClaw,对接 Moonshot Kimi K2.5 模型,并通过飞书机器人实现团队级 AI 助手。全程命令行可复现,一篇搞定。

环境概览

项目版本/说明
系统Windows 10 + WSL2
Linux 发行版Ubuntu 24.04
大模型Moonshot Kimi K2.5
通讯通道飞书

一、准备 WSL2 + Ubuntu 24.04

以管理员身份打开 PowerShell:

# 一键安装 WSL(已内置虚拟机平台等依赖)
wsl --install

# 设置默认版本为 WSL2
wsl --set-default-version 2

# 安装 Ubuntu 24.04
wsl --install -d Ubuntu-24.04

安装完成后按提示设置用户名和密码,然后更新系统:

sudo apt update && sudo apt upgrade -y

二、安装 Node.js 和 pnpm

OpenClaw 依赖 Node.js 运行环境,推荐使用 nvm 管理版本。

# 安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash
source ~/.bashrc

# 安装并设置 Node.js 22 LTS
nvm install 22
nvm alias default 22

# 验证
node -v  # v22.x.x
# 安装 pnpm(二选一)
npm install -g pnpm
# 或
curl -fsSL https://get.pnpm.io/install.sh | sh -

pnpm -v

三、安装并初始化 OpenClaw

# 全局安装(推荐 pnpm)
pnpm add -g openclaw

# 验证
openclaw --version

# 运行初始化向导,按提示完成基础配置
openclaw onboard

四、对接 Kimi K2.5 大模型

1. 获取 API Key

前往 Moonshot 开放平台,注册登录后在控制台创建 API Key(格式:sk-...)。

2. 配置模型

可以通过 openclaw config 交互式配置,也可以直接编辑 ~/.openclaw/openclaw.json,写入以下关键配置:

{
  "auth": {
    "profiles": {
      "moonshot:default": {
        "provider": "moonshot",
        "mode": "api_key"
      }
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "moonshot": {
        "baseUrl": "https://api.moonshot.cn/v1",
        "api": "openai-completions",
        "models": [
          {
            "id": "kimi-k2.5",
            "name": "Kimi K2.5",
            "reasoning": false,
            "input": ["text", "image"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 256000,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "moonshot/kimi-k2.5"
      }
    }
  }
}

3. 验证

openclaw status
openclaw chat "你好"

能正常收到回复,说明模型已对接成功。


五、配置飞书集成

这一步分为**飞书侧(创建应用)OpenClaw 侧(安装插件+配置通道)**两部分。

第一部分:飞书开放平台操作

1. 创建企业自建应用

  1. 访问 飞书开放平台,登录后进入「开发者后台」
  2. 点击「创建企业自建应用」,填写应用名称(如 OpenClaw)和描述
  3. 创建成功后,在「凭证与基础信息」页面记录 App IDApp Secret

注意:App Secret 只显示一次,请务必妥善保存。丢失需重置。

2. 配置权限

进入「权限管理」,搜索并添加以下权限:

权限 Key用途
im:message.p2p_msg接收私聊消息
im:message.group_msg接收群聊消息
im:message:send_as_bot发送消息
im:chat:readonly读取群组信息
contact:user.base:readonly获取用户名称

勾选后点击「批量开通」。

3. 配置事件订阅

进入「事件与回调」→「事件订阅」:

  • 连接方式:选择 WebSocket(推荐,无需公网服务器)
  • 订阅事件:添加 im.message.receive_v1(接收消息)

4. 启用机器人

进入「机器人」菜单,打开「启用机器人」开关,填写机器人名称和描述。

5. 发布应用

进入「版本管理与发布」→「创建版本」→「申请发布」。发布范围建议先选「仅自己可见」进行测试。企业自建应用通常自动审核通过。

6. 添加机器人到对话

  • 私聊:在飞书搜索框搜索机器人名称即可
  • 群聊:群设置 →「群机器人」→「添加机器人」→ 搜索选择

如果搜索不到机器人,请确认:应用已发布、发布范围包含当前用户、机器人已启用。


第二部分:OpenClaw 侧配置

1. 安装飞书插件

openclaw plugins install feishu

# 或者使用 npm
npm install -g @openclaw/feishu

2. 配置飞书通道

运行 openclaw config 交互式配置,或直接编辑 ~/.openclaw/openclaw.json,在配置中添加:

{
  "channels": {
    "feishu": {
      "enabled": true,
      "dmPolicy": "pairing",
      "accounts": {
        "main": {
          "appId": "cli_xxxxxxxxxxxxxxxx",
          "appSecret": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
          "botName": "OpenClaw"
        }
      },
      "connectionMode": "websocket",
      "domain": "feishu",
      "groupPolicy": "open",
      "privatePolicy": "open"
    }
  },
  "bindings": [
    {
      "agentId": "main",
      "match": {
        "channel": "feishu",
        "accountId": "default"
      }
    }
  ]
}

appIdappSecret 替换为你在飞书开放平台获取的实际值。

3. 启动并验证

# 启动 Gateway
openclaw gateway start

# 生产环境推荐注册为 systemd 服务
openclaw service install gateway
sudo systemctl start openclaw-gateway

# 查看连接状态
openclaw status

正常情况下应显示 Feishu 通道状态为 ON / OK

Channels
┌──────────┬─────────┬────────┬──────────────┐
│ Channel  │ Enabled │ State  │ Detail       │
├──────────┼─────────┼────────┼──────────────┤
│ Feishu   │ ON      │ OK     │ configured   │
└──────────┴─────────┴────────┴──────────────┘

六、安全加固(推荐)

上线前建议收紧权限,避免机器人被非预期群组调用。

编辑 ~/.openclaw/openclaw.json

{
  "channels": {
    "feishu": {
      "groupPolicy": "allowlist",
      "groupAllowFilter": ["your-group-id-1", "your-group-id-2"]
    }
  },
  "tools": {
    "profile": "messaging",
    "elevated": { "enabled": false }
  }
}

七、常用命令速查

openclaw status            # 查看整体状态
openclaw logs --follow     # 实时查看日志
openclaw gateway restart   # 重启 Gateway
openclaw gateway stop      # 停止 Gateway
openclaw config            # 交互式修改配置
openclaw chat "测试消息"    # 快速测试对话
openclaw skills list       # 查看已安装技能
openclaw skills install <name>  # 安装技能

八、常见问题排查

问题排查方法
Gateway 无法启动lsof -i :18789 检查端口占用;openclaw logs --level debug 查看详细日志
飞书连接失败确认 App ID / Secret 正确、应用已发布审核通过、网络可达
模型调用失败检查 API Key 有效性和账户余额,查看 Moonshot 控制台
WSL2 网络不通配置代理:export https_proxy=http://your-proxy:port,写入 ~/.bashrc 持久化

九、目录结构一览

~/.openclaw/
├── agents/             # 代理配置及会话数据
├── credentials/        # 凭据存储
├── extensions/feishu/  # 飞书插件
├── logs/               # 日志文件
├── memory/             # 记忆文件
├── workspace/          # 工作空间
├── openclaw.json       # 主配置文件
└── openclaw.json.bak   # 配置备份

总结

本文完成了以下工作:

  1. 基础环境:在 Windows 上通过 WSL2 搭建 Ubuntu 24.04 运行环境
  2. 运行时:安装 Node.js 22 + pnpm,全局安装 OpenClaw
  3. 模型对接:配置 Moonshot Kimi K2.5 作为推理后端
  4. 通道集成:创建飞书企业应用并通过 WebSocket 模式接入 OpenClaw
  5. 安全加固:通过白名单和权限限制保障生产安全

整套方案的核心优势在于:无需公网服务器(WebSocket 模式)、部署在本地 WSL 即可运行、Kimi K2.5 的 256K 上下文窗口能覆盖大多数场景。如果后续需要切换模型或接入更多通道,只需修改 openclaw.json 配置文件即可,架构上具备良好的扩展性。


参考链接