我给 OpenClaw 接上了国产模型,速度和效果都出乎意料

7 阅读1分钟

OpenClaw 这两天在掘金直接刷屏了 🔥 我周一装上试了试,确实好用——MCP 加持下搜索、文件管理、浏览器控制全自动化,写代码体验直接起飞。

但用了一周,我打开 API 账单差点没绷住——$127 💸

作为一个精打细算的独立开发者(说白了就是穷),我开始琢磨:默认的 Claude API 是好用,但有没有更省钱的方案?

折腾了几天,找到一套方案,月费从 $200 级别降到 ¥80 左右。效果嘛...说实话真的出乎意料。

先说问题

OpenClaw 默认用 Claude API,这对国内开发者有两个痛点:

  1. 。Claude Sonnet 4 输入 3/百万tokens,输出3 / 百万 tokens,输出 15。一天写几个小时代码,轻松 $20+
  2. 。从国内直连 Claude API,延迟经常 3-5 秒。有时候干脆超时

对比一下,GLM-5 刚开源,API 价格是 ¥0.5 / 百万 tokens(输入),价格差了将近 50 倍

而且 GLM-5 这次的代码能力进步真的大,不试一下说不过去。

核心思路

OpenClaw 支持 OpenAI 兼容接口(大部分 AI 工具都支持)。所以只要你的 API 地址兼容 OpenAI 格式,就能直接接进去

实现路径有两种:

路径 1:直连单个模型 API

比如直接用智谱官方 API:

{
  "apiProvider": "openai-compatible",
  "openaiBaseUrl": "https://open.bigmodel.cn/api/paas/v4",
  "openaiApiKey": "your-zhipu-key",
  "apiModelId": "glm-5"
}

优点:简单直接,GLM-5 超便宜 缺点:只能用一个模型,想换的时候得改配置

路径 2:API 聚合平台(我目前的方案)

这类平台提供统一的 OpenAI 兼容接口,一个 key 就能调不同模型。国内有几家在做:硅基流动、ofox.ai、DMXAPI 之类的。

我自己在用 ofox,主要因为两点:一是模型全(Claude、GPT、Gemini、国产的都有),二是在国内可以直连海外模型不用折腾代理,走的云厂商节点延迟还行。

配置长这样:

{
  "apiProvider": "openai-compatible",
  "openaiBaseUrl": "https://api.ofox.ai/v1",
  "openaiApiKey": "sk-xxx",
  "apiModelId": "claude-sonnet-4-20250514"
}

这样在 OpenClaw 里用 Claude 不用翻墙,而且可以随时换模型:

# 复杂编码
"apiModelId": "claude-sonnet-4-20250514"

# 日常杂活
"apiModelId": "glm-5"

# 超便宜的简单任务
"apiModelId": "MiniMax-Text-01"

实测对比

为了不瞎说,我拿了一个真实需求测了几个模型:

需求:写一个 Node.js JWT 认证中间件,要求支持 refresh token 和 token 黑名单

模型响应时间代码质量Token 消耗费用
Claude Sonnet 43.2s⭐⭐⭐⭐⭐2,847~¥0.35
GPT-4o2.8s⭐⭐⭐⭐3,102~¥0.28
GLM-51.5s⭐⭐⭐⭐2,456~¥0.005
豆包 2.01.8s⭐⭐⭐⭐2,689~¥0.02
MiniMax 2.52.1s⭐⭐⭐⭐2,901~¥0.01

几个发现:

1. GLM-5 性价比炸裂 🤯

代码质量 4 星,费用只有 Claude 的 1/70。生成的 JWT 中间件完全可用,还贴心地加了中文注释。唯一不足是 token 黑名单用的内存 Map,没考虑分布式场景。

2. Claude 在复杂逻辑上还是王者

同样的需求,Claude 写的黑名单用了 Redis + TTL 自动清理,还加了 graceful shutdown 处理。其他模型大多用的内存 Map 或者简单的 Set。

这个差距在简单 CRUD 里看不出来,需求一复杂就明显了。

3. 国产模型速度真的快

GLM-5 响应 1.5s,对比 Claude 的 3.2s,快了一倍多。写代码是高频操作,这个体感差异很大。

4. 通过聚合平台调 Claude 比直连还快

这个确实没想到。直连 Claude API 从国内要 5s+,走聚合平台的云节点只要 3.2s。应该是 CDN 加速的功劳。

我现在的模型策略

经过两周摸索,我总结了一套"分级"策略:

场景模型选择理由
架构设计 / 复杂重构Claude Sonnet 4逻辑能力最强,贵但值
日常编码 / CRUDGLM-5便宜快速,完全够用
代码注释 / 文档豆包 2.0中文理解最好
简单问答 / 翻译MiniMax 2.5超便宜,简单任务足够

这套策略下来,月费从 ~$200 降到了 ~¥80 🎉

大头省在日常编码上——以前全用 Claude,现在 70% 的日常活交给 GLM-5,效果差不多但费用几乎可以忽略。

几个实用小技巧

1. 复杂任务先用便宜模型打草稿

我的习惯是:先让 GLM-5 写第一版,拿到代码框架后再用 Claude 做 review 和优化。这样 Claude 的 token 消耗能省 60% 以上。

2. 设日预算上限

在 API 平台后台设一个每日预算告警。之前 debug 的时候一个死循环的 prompt 跑了 200 多次...别问我怎么知道的 😭

3. 中文项目优先国产模型

如果你的项目主要面向中文用户,变量命名、注释、文档全用中文的话,GLM-5 和豆包的效果甚至比 Claude 更好。Claude 写中文偶尔会夹英文,国产模型这方面完全没问题。

写在最后

OpenClaw 本身是免费的好工具,费钱的是背后的模型 API。国产模型这两年进步真的大,特别是 GLM-5 开源后,个人开发者终于不用为 API 费用焦虑了。

我的建议是:别只盯着一个模型用。不同模型各有所长,搭配起来才是最优解。

如果你也在用 OpenClaw(或者 Claude Code、Cursor 这些),不妨试试多模型方案,省下来的钱够喝好几杯奶茶了 🧋

有什么问题评论区聊~ 我是 ofox,一个跟 AI 死磕的独立开发者 ✌️