这才是快速部署openClaw的正确姿势!

24 阅读1分钟

先说说我的部署环境

我想要在我的腾讯云服务器上配置openClaw,快速地跑通安装-网关和模型配置-连接飞书的流程。大多数云服务厂商都推出了一键部署的方案,但更多是针对新的服务器进行快速导入或者对旧的服务器重装系统,那对于我已经在使用的服务器,我更倾向于自行完成配置,顺便更深入地了解下小螃蟹的玩法。

相比于反复地看文档,查教程,不如让AI直接上手

和以往部署开源项目的传统习惯一样,我一开始先是看了下文档(docs.openclaw.ai/zh-CN )并跟着文档中的guide进行安装和配置。 但是到了配置飞书作为消息channel的环节出现了两个问题。 一个是安装openClaw的飞书插件时显示npm install failed; 另一个则是成功安装飞书插件后,我明明已经启动了openClaw的gateway并配置了飞书应用的AppID和APPSecret,但是在飞书工作台为该应用设置事件和回调为长连接时,保存的时候一直出现应用未建立长连接的报错。 当我正准备查看npm和openClaw的日志看看怎么个事,或者试试搜索下别人有没有遇到过同样的问题,突然转念一想,这事不如直接让AI瞅瞅,这样上下文还更完整呢。于是我启动了云服务器上的openCode,直接让kimi2.5 free尝试解决,他很快便通过查看日志和源码定位了问题并进行修复。飞书插件安装失败是因为下载飞书插件然后使用npm install安装时,因为插件的package.json中包含workspace:*依赖,这是openclaw monorepo内部使用的,单独安装时不支持,所以我们需要将其移除然后重新运行npm install安装依赖; 第二个问题则是因为飞书插件代码中使用了子路径导入openclaw/plugin-sdk/account-id,但是openclaw分发版不支持这种子路径导入导致websocket无法启动,所以飞书应用中设置不了长连接。 我们只需要将其改为从主入口导入即可。

至此,这个基本的部署便完成了。

不妨让AI 成为你的first choice,大量的基础教程已经没有意义

对于安装中遇到的问题,或许我们去查找资料也能够找到解决方案,但是相比于让AI直接动手,在第一现场查看上下文并完成修复,前者就显得十分低效了。 这也让我想起在安装oh-my-openCode插件时,其README.md文件上便明确写着把这个文档连接发给你的AI,就可以完成快速部署,事实也确实如此。所以没有必要浪费时间在这些略显繁琐但是没有太多意义的安装流程上,我们的操作方式不应该再是反复的ctrl+C和ctrl+V,而是让AI在第一现场直接操作。

不止于安装,个性化使用的门槛也不断降低

还是以openclaw为例,我想要创建不同的agent并连接不同的飞书机器人专门负责不同的功能(比如一个负责选题与写作,一个负责我的网站运营),而不是所有的功能都堆叠在main agent,与其翻看文档如何实现,不如讲清我们的需求,让AI查看项目中的文档指引和相关源代码帮我们实现配置。 同时再进一步,对于开源项目,我们是不是可以直接根据我们的需求让AI帮我们修改源码,实现原本还不支持的个性化需求,或者解决当前存在的不足。大多数的issue可以变为pr,而我们也能够成为解决问题的一份子而不只是提出问题的看客。