最近全网都在聊“小龙虾”——也就是OpenClaw(之前叫Clawdbot / Moltbot)。这个2026年初冒出来的开源AI Agent项目,GitHub星标涨得特别快,国内玩家给它起了个挺接地气的昵称“小龙虾”。
它火不是没原因的,不是那种单纯的聊天模型包装器,而是真能“动手干活”的个人AI助理:能读写文件、执行命令、操作浏览器、管日历、收发邮件,还能通过飞书、Telegram、微信这些聊天工具找你确认事情或者汇报进度。有长程记忆,还能主动定时执行任务,算是把大模型从单纯的对话框拉到实际工作流里了。
但热度背后有个现实问题:官方生态明显更适配Mac和Linux,Windows用户装这个东西简直是渡劫——Node版本冲突、子进程spawn异常、守护进程搞不定、脚本直接崩……不少人折腾半天,要么装不上,要么装上跑两天就挂了。
我自己主力机就是Windows,刚开始也没赶上这波热闹。兴冲冲照着官方文档敲安装命令,结果全是报错:Node版本不对、子进程spawn莫名其妙失败、官方脚本在PowerShell里乱报错。好不容易跑起来了,又想到得让电脑24小时开机,还得给它开放文件读写甚至摄像头权限,心里总觉得不踏实。
就在我打算放弃的时候,突然想到:为啥不把它部署到云上?说干就干,花了不到100块,一下午时间就在云服务器上搭好了7×24小时在线的OpenClaw,还通过飞书把它变成了专属AI助理。今天就把这份低成本尝鲜的方法分享出来,不用Mac也能用上自己的“小龙虾”。
一、为什么本地运行OpenClaw总踩坑?
OpenClaw基于Node.js开发,核心是gateway网关,负责消息接收、模型调度、命令执行这些事,它的运行逻辑天生更适配Linux/macOS的进程管理方式,Windows端有三个几乎解不开的问题:
- 架构兼容性硬伤:Windows的spawn行为和POSIX标准不一样,导致官方安装脚本经常报错;守护进程得做成系统服务才能运行,新手要手动调十多项配置才能勉强跑起来,而Linux下同样的步骤一次就能成。
- 可用性满足不了核心需求:OpenClaw的价值在于“无人值守”——定时任务、自动处理消息、跨平台联动这些,个人电脑不可能24小时开机,断网或者休眠都会让服务停掉。实测下来,本地运行日均能用8小时,云服务器却能达到99.9%以上的可用时长。
- 安全风险得重视:OpenClaw有文件读写、命令执行、调用摄像头这些高危权限,本地运行很容易暴露主机数据;它本质是“网关+代理+执行器”的组合,只有部署在隔离的云环境里,才能既用得上功能,又保证安全。
二、百元预算方案:云服务器+免费大模型=AI助理自由
与其在Windows本地反复踩坑,不如花点小钱搭个云端环境。
国内云厂商经常有新用户特惠活动,轻量型云服务器(2核2G~4G配置)首年价格通常在百元以内。要是海外有长期免费试用额度更低的云实例,对我们跑OpenClaw和几个Node进程来说,这些配置完全够用。
大模型接口这块,很多平台对个人开发者提供免费额度或极低单价的按量计费,作为私人助理使用,成本基本可以忽略不计。
三、手把手部署玩转OpenClaw
3.1 基础配置
先把基础配置做好,这一步能避开80%的后续问题:
# 更新系统,确保依赖环境最新
yum update -y
# 安装匹配OpenClaw的Node.js v22 LTS版本
curl -fsSL https://deb.nodesource.com/setup_22.x | bash - && apt-get install -y nodejs
# 切换国内npm镜像,解决下载慢问题
npm config set registry https://registry.npmmirror.com
# 关闭Node 22严格peer依赖检查(高频踩坑点)
npm config set legacy-peer-deps true
配置完后,用node -v确认版本是v22.x,用npm config list检查镜像和依赖配置,确保基础环境没毛病。
3.2 安装OpenClaw(Linux下极简操作)
比起Windows的手动安装,Linux下一行命令就能装完:
curl -fsSL https://openclaw.ai/install.sh | bash
安装完成后,执行openclaw --version,能显示版本号就说明装好了;再运行openclaw onboard,跟着初始化向导生成配置文件就行,全程按提示操作,不用手动改复杂参数。
3.3 配置模型(核心适配)
到API Key,再修改OpenClaw的核心配置文件~/.openclaw/openclaw.json:
- 关键配置:把
baseUrl设为https://ark.cn-beijing.volces.com/api/coding/v3,apiKey换成自己的密钥,models数组里配置好模型参数; - 核心设置:
defaultAgent设为claude,allowedAgents里包含常用模型,保证调度灵活。 最后执行openclaw tui进入终端界面,发个“hello”测试模型能不能响应,确认连通没问题就行。
3.4 保障服务24小时运行
调试的时候可以用openclaw gateway前台运行,方便看日志;正式用的话,得用pm2守护进程:
npm install -g pm2
pm2 start openclaw -- gateway
pm2 save && pm2 startup
执行openclaw gateway status看看端口监听情况,pm2 list确认进程在运行,确保服务不会无缘无故停掉。
3.5 接入飞书机器人(核心使用场景)
- 飞书开发者后台配置:先创建应用,添加“机器人”能力,再配置事件订阅(选长连接模式,添加
im.message.receive_v1事件),开通im:message全量权限、contact:contact.base:readonly这些关键权限,一定要创建版本并发布,不然权限不生效; - OpenClaw侧配置:
# 配置飞书凭证
openclaw config set channels.feishu.appId "你的App ID"
openclaw config set channels.feishu.appSecret "你的App Secret"
# 启用飞书通道,设置连接模式
openclaw config set channels.feishu.enabled true
openclaw config set channels.feishu.connectionMode websocket
- 配对验证:在飞书发消息拿到配对码,执行
openclaw pairing approve feishu 配对码,测试下消息回复,就能完成接入了。
四、理性看待:OpenClaw的价值与适用场景
OpenClaw的核心价值不是“AI聊天机器人”,而是“用自然语言驱动的系统执行器”——能看懂人的指令,然后调用系统能力做事,比如在飞书群@机器人自动汇总项目进度、更新个人知识库、同时查天气、汇率、新闻这些。但它也不是万能的:
- 优势:成本低、容易部署、能适配多个大模型,能解决Windows用户的兼容性问题,满足个人或小团队的自动化需求;
- 局限:需要懂点基础的Linux操作,开发复杂的自定义插件得有一定的Node.js基础,新手最好先把基础打牢再折腾进阶功能。
五、行动建议
- 新手:照着这篇的步骤,先把基础部署做好,测试下消息回复、简单命令执行,先把核心流程摸熟;
- 进阶用户:可以试试自定义命令或插件,把OpenClaw接入笔记、待办、智能家居这些常用工具,把自动化的作用发挥到最大;
- 团队用户:基于OpenClaw搭专属的AI协作助手,优化团队协作流程,提高迭代效率。
不用Mac,也不用花很多钱,百元预算加云服务器,就能让OpenClaw真正变成7×24小时待命的AI助理。与其在Windows本地反复踩坑,不如换个思路,用简单的云端部署方案,把OpenClaw的实际价值用起来。