OpenClaw 重度用户的省钱方案:用 LocalClaw 本地部署终结 Token 焦虑

3 阅读3分钟

背景

用 OpenClaw 几个月了,Token 账单已经从每月几十块涨到了几百块。

这不是 OpenClaw 的问题,是"云端 AI 按量计费"这个模式天然的结构性矛盾——你用得越多,它赚得越多。对于高频用户来说,长期成本是不可忽视的问题。

于是我开始找解法,最终用的是 LocalClaw


什么是 LocalClaw?

一句话:内置本地大模型部署能力的 OpenClaw AI 助手桌面客户端

本质上是把 OpenClaw 的完整 Agent 框架(55+技能、Agent 编排、定时任务、多渠道接入),和本地大模型的推理能力合二为一。

官网:www.localclaw.me/


我的使用方案

硬件配置

Mac Mini M4(16GB+256GB),没有独立显卡,Ollama 通过 CPU 运行。

部署模型

国内推荐 Qwen3.5-4BQwen3.5-9B(可通过 Ollama 直接拉取):

# 安装 Ollama(macOS)
brew install ollama

# 拉取 Qwen3.5-4B
ollama pull qwen3.5:4b

# 验证
ollama run qwen3.5:4b "你好"

LocalClaw 配置步骤

  1. 官网下载 LocalClaw 客户端
  2. 选择「本地部署模式」
  3. 自动检测硬件配置,LocalClaw 引导你下载并配置 Ollama
  4. 一键启动,本地模型接管日常推理

整个过程不需要任何命令行操作,图形界面全部搞定。


成本对比

以月均 OpenClaw Token 消耗 500 元为例:

方案月均成本数据处理
纯云端 OpenClaw~500 元云端
LocalClaw 混合模式~0-100 元本地优先,复杂任务走云端

本地模型处理日常任务的成本接近零,只有复杂推理任务才会触发云端调用。


性能表现

实测 Qwen3.5-4B 在 Mac Mini M4 上的表现:

任务效果
日常问答 / 闲聊✅ 流畅,延迟低
文档总结(< 10页)✅ 准确,速度快
代码生成 / 优化✅ 接近 GPT-3.5 水平
复杂逻辑推理⚠️ 建议切换云端

日常开发任务,本地模型完全够用。


为什么选 LocalClaw 而不是自己搭建 Ollama?

自己用 Ollama 也可以跑本地模型,但有几个问题:

  1. 没有 Agent 框架:Ollama 只是推理引擎,OpenClaw 的 55+ 技能、Agent 编排、自动化工作流全部没有
  2. 没有图形界面:需要命令行操作,有一定门槛
  3. 多渠道接入:自己接微信、飞书等平台需要额外开发

LocalClaw 的方案是:保留 OpenClaw 全部能力的同时,把推理层换成你本地的模型。体验和原来几乎一样,只是 Token 账单变了。


适合谁用?

人群原因
OpenClaw 重度用户,Token 账单压力大直接降低日常消耗
企业内部 AI 落地,数据不能上云本地部署,合规可控
经常处理敏感文档的开发者数据完全本地,不过任何第三方服务器
想长期控制 AI 使用成本的团队边际成本递减

总结

LocalClaw 不是一个"本地大模型工具",它是一个让 OpenClaw 用户真正掌控自己 AI 成本的方案

推理在本地,数据在本地,Agent 能力不打折。

如果你也在被 OpenClaw 的 Token 账单困扰,值得一试。


官网www.localclaw.me/
GitHubgithub.com/Local-AI-X/…