背景
用 OpenClaw 几个月了,Token 账单已经从每月几十块涨到了几百块。
这不是 OpenClaw 的问题,是"云端 AI 按量计费"这个模式天然的结构性矛盾——你用得越多,它赚得越多。对于高频用户来说,长期成本是不可忽视的问题。
于是我开始找解法,最终用的是 LocalClaw。
什么是 LocalClaw?
一句话:内置本地大模型部署能力的 OpenClaw AI 助手桌面客户端。
本质上是把 OpenClaw 的完整 Agent 框架(55+技能、Agent 编排、定时任务、多渠道接入),和本地大模型的推理能力合二为一。
我的使用方案
硬件配置
Mac Mini M4(16GB+256GB),没有独立显卡,Ollama 通过 CPU 运行。
部署模型
国内推荐 Qwen3.5-4B 或 Qwen3.5-9B(可通过 Ollama 直接拉取):
# 安装 Ollama(macOS)
brew install ollama
# 拉取 Qwen3.5-4B
ollama pull qwen3.5:4b
# 验证
ollama run qwen3.5:4b "你好"
LocalClaw 配置步骤
- 官网下载 LocalClaw 客户端
- 选择「本地部署模式」
- 自动检测硬件配置,LocalClaw 引导你下载并配置 Ollama
- 一键启动,本地模型接管日常推理
整个过程不需要任何命令行操作,图形界面全部搞定。
成本对比
以月均 OpenClaw Token 消耗 500 元为例:
| 方案 | 月均成本 | 数据处理 |
|---|---|---|
| 纯云端 OpenClaw | ~500 元 | 云端 |
| LocalClaw 混合模式 | ~0-100 元 | 本地优先,复杂任务走云端 |
本地模型处理日常任务的成本接近零,只有复杂推理任务才会触发云端调用。
性能表现
实测 Qwen3.5-4B 在 Mac Mini M4 上的表现:
| 任务 | 效果 |
|---|---|
| 日常问答 / 闲聊 | ✅ 流畅,延迟低 |
| 文档总结(< 10页) | ✅ 准确,速度快 |
| 代码生成 / 优化 | ✅ 接近 GPT-3.5 水平 |
| 复杂逻辑推理 | ⚠️ 建议切换云端 |
日常开发任务,本地模型完全够用。
为什么选 LocalClaw 而不是自己搭建 Ollama?
自己用 Ollama 也可以跑本地模型,但有几个问题:
- 没有 Agent 框架:Ollama 只是推理引擎,OpenClaw 的 55+ 技能、Agent 编排、自动化工作流全部没有
- 没有图形界面:需要命令行操作,有一定门槛
- 多渠道接入:自己接微信、飞书等平台需要额外开发
LocalClaw 的方案是:保留 OpenClaw 全部能力的同时,把推理层换成你本地的模型。体验和原来几乎一样,只是 Token 账单变了。
适合谁用?
| 人群 | 原因 |
|---|---|
| OpenClaw 重度用户,Token 账单压力大 | 直接降低日常消耗 |
| 企业内部 AI 落地,数据不能上云 | 本地部署,合规可控 |
| 经常处理敏感文档的开发者 | 数据完全本地,不过任何第三方服务器 |
| 想长期控制 AI 使用成本的团队 | 边际成本递减 |
总结
LocalClaw 不是一个"本地大模型工具",它是一个让 OpenClaw 用户真正掌控自己 AI 成本的方案。
推理在本地,数据在本地,Agent 能力不打折。
如果你也在被 OpenClaw 的 Token 账单困扰,值得一试。
官网:www.localclaw.me/
GitHub:github.com/Local-AI-X/…