手把手教你零成本养虾:OpenClaw 本地部署完整教程

2,007 阅读6分钟

0 Token 成本,24 小时运行,离线也能干活。

大家好,我是小虎。

这不是梦,是本地部署 OpenClaw 的真实写照。🦞

最近"养龙虾"火出圈了——GitHub 25 万星标、腾讯门口排队几百人、有人靠上门安装几天赚 26 万……

互联网就是这么神奇,我都不能理解这个 26 万是怎么赚到的。

我的学员群里,也有同学已经安装了好几只龙虾了。

但很多人不知道:你完全可以一分钱不花,自己在家搞定

今天这篇教程,就是要让你 30 分钟内,从零完成 OpenClaw 本地部署。🚀

先搞清楚:你要解决什么问题?

OpenClaw(龙虾)是个 AI Agent 框架,能帮你:

  • 自动处理文件、整理数据
  • 监控服务器、自动报警
  • 自动回复消息、处理邮件
  • 执行各种重复性任务

问题来了:它需要调用大模型来"思考",而云端模型是按 Token 收费的。

养虾一天,烧掉几十几百块 Token 费,这是很多人的真实遭遇。

但本地部署之后?Token 成本直接归零。

你需要准备什么?

一台电脑,就这些。

具体要求:

  • 系统:Windows 10/11 或 macOS 10.15+
  • 内存:至少 8GB(16GB 更舒服)
  • 显卡:有更好,没有也能跑
  • 硬盘:预留 10GB 空间

不需要编程基础,不需要懂 Docker,跟着做就行。


整体流程预览

OpenClaw本地部署
├── 1. 安装Ollama(本地模型运行器)
├── 2. 拉取免费模型(Qwen2.5 或 GLM-4)
├── 3. 安装OpenClaw本体
├── 4. 配置模型连接
└── 5. 验证运行

下面一步步来。


首先,安装 Ollama

Ollama 是本地运行大模型的工具,相当于给你的电脑装了个"AI 大脑"。

Windows 用户

打开浏览器,访问:

https://ollama.com

点击"Download for Windows",下载安装包。

双击运行,一路"下一步"即可。

安装完成后,打开 命令提示符(按 Win+R,输入 cmd,回车)。

输入以下命令验证安装:

ollama --version

看到版本号,说明安装成功。✅

Mac 用户

同样访问 ollama.com,下载 Mac 版本。

双击安装包,把 Ollama 拖进 Applications 文件夹。

打开终端(Terminal),输入:

ollama --version

看到版本号就 OK。


接下来,拉取免费模型

Ollama 装好了,现在要给它装个"脑子"——本地大模型。

推荐两个更稳妥的本地模型选择(以 Ollama 官方可用 tag 为准):

模型参考大小特点
qwen2.5~4.7GB中文理解强,综合能力好
glm4~5.5GB智谱系轻量模型,适合本地部署

如果你的机器配置更高,可以再升级到 glm-4.7-flash:q4_K_M(约 19GB)。

我建议新手先用 qwen2.5 glm4

在命令行输入(任选其一):

ollama pull qwen2.5
# 或
ollama pull glm4

等待下载完成(qwen2.5 约 4.7GB,glm4 约 5.5GB)。

下载完成后,测试一下(与你拉取的模型保持一致):

# 如果你拉的是 
qwen2.5ollama run qwen2.5
# 如果你拉的是 
glm4ollama run glm4

你会看到模型开始和你对话。随便聊两句,确认它能正常工作。

输入 /bye 退出对话模式。


然后,安装 OpenClaw 本体

OpenClaw 的安装方式有好几种,这里说最简单的。

方法一:官方安装包(推荐)

访问 OpenClaw 的 GitHub 页面:

https://github.com/openclaw/openclaw

在 Releases 页面找到最新版本,下载对应系统的安装包:

  • Windows: OpenClaw-Setup-x.x.x.exe
  • Mac: OpenClaw-x.x.x.dmg

双击安装,一路下一步。

方法二:用官方安装脚本(更稳妥)

OpenClaw 官方文档优先推荐安装脚本,命令如下:

Windows( PowerShell ) :

iwr -useb https://openclaw.ai/install.ps1 | iex

macOS / Linux:

curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash

安装完成后,先执行:

openclaw doctor
openclaw status
openclaw dashboard

看到健康检查和状态正常,再继续下一步配置。


关键一步:配置本地模型

这是很多人卡住的地方。

打开 OpenClaw 的设置页,找到"模型配置"或"Model Settings"。

你需要填写以下信息:

模型提供商 (Provider): Ollama
API地址 (Base URL): http://localhost:11434
模型名称 (Model): qwen2.5

注意

  • localhost 就是"本机"的意思
  • 11434 是 Ollama 的默认端口
  • 如果你拉取的是其他模型,把 qwen2.5 换成对应名字

保存设置。

⚠️ 这一步做完,必须 重启 OpenClaw!

我第一次配置完没重启,折腾了半天发现根本没生效。😅


最后,验证是否成功

重启 OpenClaw 后,在聊天框输入一个简单任务:

帮我列出当前目录下的所有文件

如果任务能正常返回结果,先说明 OpenClaw 可以工作。

再确认是不是本地模型在执行:

在任务执行时,打开命令行输入:

ollama ps

如果能看到你刚配置的模型(如 qwen2.5glm4)处于运行状态,说明本地模型已被调用。

注意:只有在全程走本地模型、没有调用任何云端 API 时,云端 Token 才是 0。


进阶:混合架构更省心

本地模型免费,但能力有上限。

复杂任务(比如写代码、深度分析),云端模型效果更好。

最佳实践 :混合使用。

在 OpenClaw 里配置多个模型:

  • claude-4.6:复杂推理、写代码(需要 API Key)
  • qwen2.5:日常任务、简单操作(本地免费)

具体是手动选模型还是自动路由,取决于你当前版本与配置;不确定时,建议显式指定模型。

这样既保证了效果,又把成本压到最低。


常见问题解答

Q1:本地模型效果差怎么办?

A:可以尝试更大的模型,比如 qwen2.5:14b。对硬件要求更高,但效果更好。或者用混合架构,复杂任务走云端。

Q2:运行很慢/卡顿?

A:检查内存占用。8GB 内存可能紧张,建议关掉其他大软件。有条件的话升级到 16GB。

Q3:断网能用吗?

A:在不依赖云端 API、相关依赖已本地就绪的前提下,可以离线运行。这是它最大的优势之一。

Q4:模型存在哪里?

A:

  • Windows:C:\Users\你的用户名.ollama\models
  • Mac: ~/.ollama/models

Q5:如何切换模型?

A:命令行输入 ollama list 查看已安装模型,然后修改 OpenClaw 配置即可。


避坑指南

😅 我踩过的坑,你们别再踩

  1. 配置完不 重启——改了配置一定要重启 OpenClaw,不然白改。
  2. 模型名字写错——qwen2.5 不是 Qwen2.5,大小写要精确。模型 tag 以 ollama list 显示结果为准,建议直接复制粘贴,避免拼写或后缀写错(如 :14b:q4_K_M)。
  3. 端口 冲突——如果 11434 端口被占用,Ollama 通常会直接报错,需要你手动释放端口或调整服务配置。可先用 ollama ps 确认服务状态。
  4. 硬盘空间不足——模型动辄几个 GB,下载前先检查剩余空间。

总结:三步走,零成本养虾

第一步:装Ollama → 访问ollama.com下载安装
第二步:拉模型 → ollama pull qwen2.5(或 ollama pull glm4)
第三步:配OpenClaw → 填localhost:11434,重启

OpenClaw 的爆火,标志着 AI 从"聊天玩具"进化为"生产力工具"。

而本地部署,让这个工具从"烧钱机器"变成"免费助手"。

门槛已经降到地板,剩下的就看你自己了。

有任何问题,欢迎评论区留言,小虎看到都会回复~💬