OpenClaw 这两天在掘金直接刷屏了 🔥 我周一装上试了试,确实好用——MCP 加持下搜索、文件管理、浏览器控制全自动化,写代码体验直接起飞。
但用了一周,我打开 API 账单差点没绷住——$127 💸
作为一个精打细算的独立开发者(说白了就是穷),我开始琢磨:默认的 Claude API 是好用,但有没有更省钱的方案?
折腾了几天,找到一套方案,月费从 $200 级别降到 ¥80 左右。效果嘛...说实话真的出乎意料。
先说问题
OpenClaw 默认用 Claude API,这对国内开发者有两个痛点:
- 贵。Claude Sonnet 4 输入 15。一天写几个小时代码,轻松 $20+
- 慢。从国内直连 Claude API,延迟经常 3-5 秒。有时候干脆超时
对比一下,GLM-5 刚开源,API 价格是 ¥0.5 / 百万 tokens(输入),价格差了将近 50 倍。
而且 GLM-5 这次的代码能力进步真的大,不试一下说不过去。
核心思路
OpenClaw 支持 OpenAI 兼容接口(大部分 AI 工具都支持)。所以只要你的 API 地址兼容 OpenAI 格式,就能直接接进去。
实现路径有两种:
路径 1:直连单个模型 API
比如直接用智谱官方 API:
{
"apiProvider": "openai-compatible",
"openaiBaseUrl": "https://open.bigmodel.cn/api/paas/v4",
"openaiApiKey": "your-zhipu-key",
"apiModelId": "glm-5"
}
优点:简单直接,GLM-5 超便宜 缺点:只能用一个模型,想换的时候得改配置
路径 2:API 聚合平台(我目前的方案)
这类平台提供统一的 OpenAI 兼容接口,一个 key 就能调不同模型。国内有几家在做:硅基流动、ofox.ai、DMXAPI 之类的。
我自己在用 ofox,主要因为两点:一是模型全(Claude、GPT、Gemini、国产的都有),二是在国内可以直连海外模型不用折腾代理,走的云厂商节点延迟还行。
配置长这样:
{
"apiProvider": "openai-compatible",
"openaiBaseUrl": "https://api.ofox.ai/v1",
"openaiApiKey": "sk-xxx",
"apiModelId": "claude-sonnet-4-20250514"
}
这样在 OpenClaw 里用 Claude 不用翻墙,而且可以随时换模型:
# 复杂编码
"apiModelId": "claude-sonnet-4-20250514"
# 日常杂活
"apiModelId": "glm-5"
# 超便宜的简单任务
"apiModelId": "MiniMax-Text-01"
实测对比
为了不瞎说,我拿了一个真实需求测了几个模型:
需求:写一个 Node.js JWT 认证中间件,要求支持 refresh token 和 token 黑名单
| 模型 | 响应时间 | 代码质量 | Token 消耗 | 费用 |
|---|---|---|---|---|
| Claude Sonnet 4 | 3.2s | ⭐⭐⭐⭐⭐ | 2,847 | ~¥0.35 |
| GPT-4o | 2.8s | ⭐⭐⭐⭐ | 3,102 | ~¥0.28 |
| GLM-5 | 1.5s | ⭐⭐⭐⭐ | 2,456 | ~¥0.005 |
| 豆包 2.0 | 1.8s | ⭐⭐⭐⭐ | 2,689 | ~¥0.02 |
| MiniMax 2.5 | 2.1s | ⭐⭐⭐⭐ | 2,901 | ~¥0.01 |
几个发现:
1. GLM-5 性价比炸裂 🤯
代码质量 4 星,费用只有 Claude 的 1/70。生成的 JWT 中间件完全可用,还贴心地加了中文注释。唯一不足是 token 黑名单用的内存 Map,没考虑分布式场景。
2. Claude 在复杂逻辑上还是王者
同样的需求,Claude 写的黑名单用了 Redis + TTL 自动清理,还加了 graceful shutdown 处理。其他模型大多用的内存 Map 或者简单的 Set。
这个差距在简单 CRUD 里看不出来,需求一复杂就明显了。
3. 国产模型速度真的快
GLM-5 响应 1.5s,对比 Claude 的 3.2s,快了一倍多。写代码是高频操作,这个体感差异很大。
4. 通过聚合平台调 Claude 比直连还快
这个确实没想到。直连 Claude API 从国内要 5s+,走聚合平台的云节点只要 3.2s。应该是 CDN 加速的功劳。
我现在的模型策略
经过两周摸索,我总结了一套"分级"策略:
| 场景 | 模型选择 | 理由 |
|---|---|---|
| 架构设计 / 复杂重构 | Claude Sonnet 4 | 逻辑能力最强,贵但值 |
| 日常编码 / CRUD | GLM-5 | 便宜快速,完全够用 |
| 代码注释 / 文档 | 豆包 2.0 | 中文理解最好 |
| 简单问答 / 翻译 | MiniMax 2.5 | 超便宜,简单任务足够 |
这套策略下来,月费从 ~$200 降到了 ~¥80 🎉
大头省在日常编码上——以前全用 Claude,现在 70% 的日常活交给 GLM-5,效果差不多但费用几乎可以忽略。
几个实用小技巧
1. 复杂任务先用便宜模型打草稿
我的习惯是:先让 GLM-5 写第一版,拿到代码框架后再用 Claude 做 review 和优化。这样 Claude 的 token 消耗能省 60% 以上。
2. 设日预算上限
在 API 平台后台设一个每日预算告警。之前 debug 的时候一个死循环的 prompt 跑了 200 多次...别问我怎么知道的 😭
3. 中文项目优先国产模型
如果你的项目主要面向中文用户,变量命名、注释、文档全用中文的话,GLM-5 和豆包的效果甚至比 Claude 更好。Claude 写中文偶尔会夹英文,国产模型这方面完全没问题。
写在最后
OpenClaw 本身是免费的好工具,费钱的是背后的模型 API。国产模型这两年进步真的大,特别是 GLM-5 开源后,个人开发者终于不用为 API 费用焦虑了。
我的建议是:别只盯着一个模型用。不同模型各有所长,搭配起来才是最优解。
如果你也在用 OpenClaw(或者 Claude Code、Cursor 这些),不妨试试多模型方案,省下来的钱够喝好几杯奶茶了 🧋
有什么问题评论区聊~ 我是 ofox,一个跟 AI 死磕的独立开发者 ✌️