小册介绍
从零搭建企业级 AI 助手:OpenClaw + 飞书实战指南
AI 正在改变我们的工作方式。但如何让 AI 真正融入团队协作、提升工作效率?
本小册带你从零开始,搭建一个运行在飞书中的 AI 助手——OpenClaw。
你将学会
- 在本地服务器部署 OpenClaw
- 接入 NVIDIA 免费大模型 API
- 创建并发布飞书机器人
- 配置消息回调与权限管理
- 使用 Web 管理后台监控运行状态
适合人群
- 想体验 AI 落地应用的开发者
- 需要为团队搭建 AI 工具的工程师
- 对飞书机器人开发感兴趣的同学
前置要求
- 一台 macOS 或 Ubuntu 机器(本地或云服务器)
- 基本的命令行操作能力
- 一个飞书管理员账号
预计时长
全程跟随操作约 30-45 分钟(不含虚拟机安装时间)。
目录
- 第 1 节:环境准备——搭建运行环境
- 第 2 节:模型接入——获取 NVIDIA API
- 第 3 节:飞书机器人——创建与配置
- 第 4 节:OpenClaw 安装——核心部署
- 第 5 节:回调配置——打通消息链路
- 第 6 节:发布与测试——上线验证
- 第 7 节:管理后台——运维监控
- 第 8 节:常见问题与故障排查
第 1 节:环境准备——搭建运行环境
OpenClaw 支持在 macOS 和 Ubuntu 系统上运行。本节介绍两种系统的环境搭建方法。
1.1 macOS 环境
推荐使用 UTM 虚拟机运行,避免污染宿主环境。
安装 UTM
访问官方发布页下载:
https://github.com/utmapp/UTM/releases/latest/download/UTM.dmg
下载后拖入 Applications 即可。
获取 macOS 镜像
使用 Lume 工具下载官方镜像:
# 安装 Lume
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/trycua/cua/main/libs/lume/scripts/install.sh)"
# 验证安装
lume --version
# 查看可用版本
lume ipsw
# 下载最新镜像
lume fetch macos --ipsw latest
镜像会自动保存到 ~/Library/Caches/lume/ 目录。
创建虚拟机
- 打开 UTM,点击「Create a New Virtual Machine」
- 选择「Virtualize」→「macOS」
- 选择下载的镜像文件
- 按向导完成创建
1.2 Ubuntu 环境
安装虚拟化软件
推荐使用 VirtualBox 或 VMware。
下载镜像
清华大学镜像站提供加速下载:
https://mirrors.tuna.tsinghua.edu.cn/ubuntu-cdimage/releases/24.04.4/release/ubuntu-24.04.4-desktop-arm64.iso
安装系统
按虚拟化软件的向导创建虚拟机并安装 Ubuntu。
小结
本节完成了 OpenClaw 的运行环境搭建。下一节我们将获取大模型 API。
第 2 节:模型接入——获取 NVIDIA API
OpenClaw 支持多种大模型供应商。本小册使用 NVIDIA Build 平台,注册即送免费额度。
2.1 注册账号
访问 NVIDIA Build 平台:
https://build.nvidia.com/
支持邮箱注册,手机验证时格式为 +86 加手机号。
2.2 创建 API Key
注册完成后:
- 进入 Dashboard
- 点击「Get API Key」
- 生成并保存 Key
⚠️ 重要:API Key 仅显示一次,请妥善保管。
2.3 记录配置信息
我们需要保存以下信息供后续使用:
| 配置项 | 值 |
|---|---|
| API URL | https://integrate.api.nvidia.com/v1 |
| API Key | 你的 Key |
| Model ID | z-ai/glm4.7(或其他支持的模型) |
小结
本节获取了调用大模型所需的 API 凭证。下一节创建飞书机器人。
第 3 节:飞书机器人——创建与配置
要让 AI 在飞书中工作,需要先创建一个飞书应用。
3.1 创建应用
- 访问 飞书开放平台
- 点击「创建企业自建应用」
- 填写应用信息:
- 名称:OpenClaw
- 描述:OpenClaw AI 助手
- 图标:自定义或默认
3.2 获取凭证
创建完成后,在「凭证与基础信息」页面获取:
- App ID
- App Secret
保存这两个值,稍后配置 OpenClaw 时会用到。
3.3 配置权限
进入「权限管理」→「权限配置」→「批量导入」,粘贴以下 JSON:
{
"scopes": {
"tenant": [
"aily:file:read",
"aily:file:write",
"application:application.app_message_stats.overview:readonly",
"application:application:self_manage",
"application:bot.menu:write",
"cardkit:card:write",
"contact:user.employee_id:readonly",
"corehr:file:download",
"docs:document.content:read",
"event:ip_list",
"im:chat",
"im:chat.access_event.bot_p2p_chat:read",
"im:chat.members:bot_access",
"im:message",
"im:message.group_at_msg:readonly",
"im:message.group_msg",
"im:message.p2p_msg:readonly",
"im:message:readonly",
"im:message:send_as_bot",
"im:resource",
"sheets:spreadsheet",
"wiki:wiki:readonly"
],
"user": [
"aily:file:read",
"aily:file:write",
"im:chat.access_event.bot_p2p_chat:read"
]
}
}
点击「提交」后,权限配置完成。
3.4 添加机器人能力
在应用详情页:
- 点击「添加应用能力」
- 选择「机器人」
- 完成基础配置(名称、描述、头像)
小结
本节完成了飞书应用的创建和权限配置。下一节开始安装 OpenClaw。
第 4 节:OpenClaw 安装——核心部署
本节是整个小册的核心,带你完成 OpenClaw 的安装和初始化配置。
4.1 执行安装
在终端中执行:
# 下载并执行安装脚本
curl -fsSL https://openclaw.ai/install.sh | bash
# 初始化(安装守护进程)
openclaw onboard --install-daemon
安装完成后会自动进入配置向导。
4.2 配置向导详解
步骤 1:风险确认
选择 YES 继续。
步骤 2:选择初始化模式
选择 QuickStart(快速开始)。
步骤 3:选择模型供应商
选择 Custom Provider。
步骤 4:填写 API 配置
按以下内容填写:
| 配置项 | 值 |
|---|---|
| API URL | https://integrate.api.nvidia.com/v1 |
| API Key | 第 2 节获取的 Key |
| Endpoint compatibility | OpenAI-compatibility |
| Model ID | z-ai/glm4.7 |
| Endpoint ID | 留空 |
| Model alias | GLM-4.7(自定义) |
步骤 5:选择消息管道
选择 飞书。
步骤 6:下载飞书插件
等待插件下载完成。
步骤 7-9:填写飞书凭证
依次输入:
- App ID
- App Secret
- 飞书区域:选择
China
步骤 10:选择群聊策略
选择「开放所有群组」或根据需求选择。
步骤 11:配置技能
选择 No,后续可通过 AI 安装。
步骤 12:配置 Hooks
按空格键选中所有选项,回车确认。
步骤 13:重启 Gateway
选择 Restart。
步骤 14:选择操作方式
选择 WebUI 操作。
4.3 获取 Gateway Token
执行以下命令获取管理后台登录 Token:
# 将 xxxxxx 替换为你的用户名
grep -o '"token": "[^"]*"' /home/xxxxxx/.openclaw/openclaw.json | cut -d'"' -f4
保存这个 Token。
4.4 修改上下文窗口
编辑配置文件:
nano /home/你的用户名/.openclaw/openclaw.json
找到 contextWindow 字段,修改为:
"contextWindow": 128000
保存后重启服务:
openclaw gateway restart
小结
本节完成了 OpenClaw 的核心安装。下一节配置飞书回调。
第 5 节:回调配置——打通消息链路
要让飞书消息能发送给 OpenClaw,需要配置事件回调。
5.1 进入机器人配置
在飞书开放平台,找到你的应用,点击「机器人」→「去配置」。
5.2 配置事件订阅
在「事件订阅」区域:
- 订阅方式选择「长链接」
- 点击「添加事件」
5.3 添加消息事件
搜索并添加事件:
im.message.receive_v1
这个事件让机器人能接收用户发送的消息。
小结
本节完成了消息回调配置。下一节发布机器人并测试。
第 6 节:发布与测试——上线验证
6.1 发布机器人
在飞书开放平台,提交发布申请:
审核通过后,机器人即可在飞书中使用。
6.2 测试方式一:管理后台
访问管理后台:
http://127.0.0.1:18789/
输入 Gateway Token 登录:
在 Chat 界面输入内容测试 AI 响应。
6.3 测试方式二:飞书对话
在飞书中搜索你的机器人,打开对话窗口发送消息。
如果消息无响应,检查:
- 机器人是否已发布
- 事件订阅是否正确
- 查看日志:
openclaw logs
6.4 飞书验证处理
如果出现飞书验证提示:
openclaw pairing approve feishu 验证码
将「验证码」替换为实际提示的验证码。
小结
本节完成了机器人的发布和测试验证。下一节介绍管理后台功能。
第 7 节:管理后台——运维监控
OpenClaw 提供了 Web 管理后台,方便监控和管理。
7.1 访问地址
http://127.0.0.1:18789/
如需外网访问,可配置反向代理或使用 ngrok 等工具。
7.2 主要功能
- Chat:与 AI 对话测试
- Sessions:查看会话列表
- Logs:实时查看运行日志
- Settings:配置管理
7.3 常用命令
# 查看状态
openclaw status
# 查看日志
openclaw logs
# 重启服务
openclaw gateway restart
# 停止服务
openclaw gateway stop
小结
本节介绍了管理后台的使用方法。下一节解答常见问题。
第 8 节:常见问题与故障排查
Q1: Gateway 连接失败?
检查 Token 是否正确:
openclaw status
确认服务正在运行。
Q2: 飞书消息无响应?
排查步骤:
- 确认机器人已发布
- 确认事件订阅配置正确
- 检查权限是否完整
- 查看日志:
openclaw logs
Q3: 如何更新 OpenClaw?
curl -fsSL https://openclaw.ai/install.sh | bash
Q4: 如何切换模型?
编辑配置文件 /home/用户名/.openclaw/openclaw.json,修改 model 相关字段,重启服务。
Q5: 支持哪些模型?
OpenClaw 支持 OpenAI 兼容接口的所有模型,包括:
- NVIDIA Build 平台的模型
- OpenAI GPT 系列
- 国产大模型(需支持 OpenAI 兼容接口)
总结
恭喜你完成了 OpenClaw + 飞书机器人的搭建!
你现在拥有了一个可以:
- 在飞书中与 AI 对话
- 支持多种大模型
- 可扩展更多能力的 AI 助手
进阶方向
- 接入更多消息平台(微信、钉钉等)
- 添加文档处理能力
- 配置自动化任务
- 开发自定义技能
相关链接
本小册持续更新,有问题欢迎在评论区留言讨论!