教程上新丨基于 GPU 部署 OpenClaw,轻松接入飞书/Discord 等社交软件

0 阅读6分钟

在 NVIDIA GTC 2026 期间,黄仁勋对 OpenClaw 的高度评价为其热度又添了一把柴——OpenClaw 现在是人类历史上最大、最受欢迎、最成功的开源项目,这绝对是下一个 ChatGPT。 他认为,每家公司都需要制定自己的 OpenClaw 战略,其未来的重要性将与 Linux、Kubernetes、HTML 等基础软件设施相提并论。

可以说,OpenClaw 不再满足于让大模型「生成内容」,而是试图让模型真正参与执行,从调用 API 到串联工作流,把「AI 能力」转化为「可落地的行动」。

过去一段时间,越来越多开发者开始尝试部署 OpenClaw,但热度的另一面也很现实:环境配置复杂、依赖繁琐、运行资源受限、skills 调用链路不清晰……这些问题让不少人停在了「跑通 demo」。但值得注意的是,skills 与真实业务场景的结合才是 OpenClaw 发挥价值的关键所在。例如,在团队协作场景中:

  • 通过接入飞书 skills,实现消息自动处理、任务同步、机器人响应。

  • 在 Discord 社区中,构建具备上下文理解和自动执行能力的 AI Bot。

  • 将 API 调用、通知、数据处理串联成完整的自动化链路。

为了便于开发者体验 OpenClaw 在实际应用场景中的能力,OpenBayes 上线了「OpenClaw:使用 CPU 调用 API 运行」与「OpenClaw 的 GPU 运行教程」, 将 OpenClaw 集成到各种社交应用中,实现丰富的自动化任务。包含:

  • Lark(飞书)集成:涵盖自建应用创建、事件订阅配置以及流式响应。

  • Discord 集成:包括 Bot 权限设置、Slash Command 定义,以及通过 Long Polling 或 WebSockets 实现消息处理。

同时,OpenBayes 还上线了「基于 OpenClaw 实现资讯自动抓取定时任务」的在线教程,完成了环境配置,降低 skill 部署门槛。

OpenClaw:使用 CPU 调用 API 运行

go.openbayes.com/ieZjB

OpenClaw 的 GPU 运行教程

go.openbayes.com/lbAfc

基于 OpenClaw 实现资讯自动抓取定时任务

go.openbayes.com/DMGqD

本教程以「OpenClaw 的 GPU 运行教程」为例,详细介绍如何在 OpenBayes 平台部署 OpenClaw,并接入飞书。

图片

OpenClaw 接入飞书效果展示

Demo 运行

01

Demo 运行阶段

1.登录 OpenBayes.com,在「公共教程」页面,选择「OpenClaw 的 GPU 运行教程」教程。

图片

2.页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

图片

3.选择「NVIDIA GeForce RTX 5090」以及「PyTorch」镜像,按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。新用户使用下方邀请链接注册,即可获得满 ¥10 赠 ¥10 优惠券,更有机会获得 ¥15 赠金!

小贝总专属邀请链接(直接复制到浏览器打开):

go.openbayes.com/9S6D******r

图片

图片

4.等待分配资源,当状态变为「运行中」后,点击「打开工作空间」进入 Jupyter Workspace。

图片

02

效果演示

  1. 页面跳转后,根据需要接入的应用,选择对应的 README 文件,并双击进入页面,此处以飞书为例。

图片

图片

  1. 本教程使用本地 vLLM(Virtual Large Language Model, vLLM)部署 Qwen3.5-9b 模型。

图片

  1. 模型启动完毕之后就可以运行以下代码启动 openclaw 了,相关的日志保存在 openclaw_gateway.log 文件中。

图片

  1. 启动完成之后点击右侧的 API address 就可以打开 Web 页面。 打开链接后,页面会提示 unauthorized: gateway token mismatch。

此时点击 Web 页面左侧中 Control 下的 Overview,将 0489694c761577b42e42ba10a2de03fd8bc2907b55bb87f3 (默认 Token) 输入到 Gateway Token 中,然后点击 connect。

图片

图片

  1. token 认证通过后,页面会提示 pairing required。随后,新建一个终端,输入以下命令来批准设备:
openclaw devices approve --latest

至此,OpenClaw 配置全部完成!  您可以开始在 Web 页面中正常进行对话聊天了,使用的模型就是我们内置 Qwen3.5-9b 模型。

图片

6.接入飞书。

飞书/Lark 开放平台准备工作:

为了让 OpenClaw 顺利接入飞书/Lark,我们需要先在飞书/Lark 开发者后台「注册」一个机器人身份。请按照以下步骤完成基础配置:

  1. 创建应用:登录「飞书开发者后台」,点击「创建企业自建应用」。

  2. 添加机器人能力:在左侧导航栏选择「添加应用能力」,然后在功能列表中找到并添加机器人。

  3. 开通核心权限: 在左侧导航栏单击「权限管理页面」,点击「批量导入/导出」权限按钮,粘贴教程容器中 home 目录下 permission_XX.txt 文件中的内容来配置,单击下一步,确认新增权限后,单击申请开通。

注意:如果您使用飞书,请使用 permission_feishu.txt;如果您使用 Lark(国际版),请使用 permission_lark.txt。

获取核心凭证: 进入左侧的「凭证与基础信息页面」。请务必记录下 App ID(通常以 cli_ 开头)和 App Secret。这两个关键凭证在后续的环境配置中马上就会用到!

OpenClaw 注入飞书/Lark 配置:

直接运行以下代码块,便可以一键完成飞书/Lark 通道插件的安装与配置注入。 在运行代码前,请务必将代码前两行的 APP_ID 和 APP_SECRET 替换为您刚刚在飞书/Lark 开放平台获取的真实凭证。

!openclaw plugins install @overlink/openclaw-feishu!openclaw config set channels.feishu.appId cli_xxxx!openclaw config set channels.feishu.appSecret your_app_secret!openclaw config set channels.feishu.enabled true# 如果您的使用的 Lark(国际版)而不是飞书,请设置域名(domain)为 lark(或完整域名),可将下列代码去注释并运行来设置# 设置 domain#!openclaw config set channels.feishu.domain lark

图片

配置完成后,需要重启容器以使所有配置生效。除了使用命令行,你也可以直接在平台的网页控制台上,点击该容器的重启按钮来完成。容器重新打开后,OpenClaw 就会自动加载包含飞书/Lark 支持在内的所有最新配置了。

开启事件订阅与发布上线:

确认服务端已经重启完毕后,请回到飞书/Lark 开发者后台,完成最后的收尾工作:

  1. 配置事件长连接:在左侧导航栏进入「事件与回调」页面。将订阅方式选择为 使用「长连接」 (Receive events through persistent connection)。由于此时云端服务已经在后台成功连通,飞书/Lark 的连接检测将会顺利通过。

  2. 添加订阅事件:在页面下方点击「添加事件」按钮,并在弹出的列表中勾选接收消息对应的事件代码为 im.message.receive_v1)。

  3. 创建版本并发布:进入左侧导航栏的「版本管理与发布」,点击「创建版本」(版本号可填写例如 1.0.0),配置完成后点击「保存并申请发布」。

发布审核通过后,就可以直接在飞书 /Lark 客户端搜索并添加该机器人应用,或在「开发者小助手」聊天页面「打开应用」

飞书 /Lark 聊天配对:

当第一次给聊天机器人发送信息的时候会收到一个配对码,将以下代码的 123456 换成你的配对码后运行代码块。

!openclaw pairing approve feishu 123456

至此,我们已经完成了飞书的接入,可以直接在飞书的聊天框中开始完全私有化的 AI 对话体验了!

图片

近期,OpenBayes 还将持续更新更多实用 skill 教程,敬请期待!