你以为 OpenClaw 最难的是安装?不,是你桌面上那 6 个 API 后台的标签页。
先说背景
OpenClaw 火成这样我就不多说了,掘金热榜一半都是它 😂
我是春节后开始折腾的,一开始就想搞个「全能版」——不同任务用不同模型:
- 写代码:Claude Opus 4.6(贵但靠谱)
- 日常对话:DeepSeek V3(便宜量大)
- 中文长文:Kimi K2.5(128K 上下文)
- 快速问答:GLM-5(国产免费额度多)
- 图片理解:Gemini 2.5 Pro(多模态强)
- 兜底模型:GPT-4o(稳定不翻车)
听起来很完美对吧?
噩梦开始了
第一天:注册 API
OpenClaw 的 config.yaml 配模型很简单,大概长这样:
models:
primary:
provider: anthropic
model: claude-opus-4-6
api_key: sk-ant-xxx
coding:
provider: deepseek
model: deepseek-chat
api_key: sk-xxx
chinese:
provider: moonshot
model: moonshot-v1-128k
api_key: sk-xxx
看起来很优雅?
但你得先有这些 key 啊兄弟 😭
我的注册流水账:
- Anthropic → 填信用卡,等审核,海外手机号验证
- DeepSeek → 还算顺利,国内手机号就行
- **Moonshot(Kimi)**→ 企业认证才有高额度
- 智谱 GLM → 注册简单但免费额度有时间限制
- Google Gemini → 需要 GCP 账号,计费逻辑看不懂
- OpenAI → 你懂的,国内直连不了,还得搞代理
光注册就花了一整天。
一个下午,我在 6 个不同的 dashboard 之间来回跳转,每个都要绑卡/充值/看文档。Chrome 标签页多到我自己都分不清哪个是哪个。
第二周:账单来了
各平台计费逻辑完全不同:
| 平台 | 计费单位 | 价格体系 | 充值方式 |
|---|---|---|---|
| Anthropic | per token | 按量 | 美元信用卡 |
| DeepSeek | per token | 按量 | 人民币余额 |
| Moonshot | per token | 按量+套餐 | 人民币 |
| 智谱 | per token | 免费额度+按量 | 人民币 |
| per character | 按量 | 美元+GCP billing | |
| OpenAI | per token | 按量 | 美元信用卡 |
我做了个表格统计每月花费:
Anthropic: $45.20 (≈¥325) ← 写代码真费钱
DeepSeek: ¥18.50 ← 便宜得离谱
Moonshot: ¥86.00 ← 长文吃 token
智谱GLM: ¥0 ← 还在免费额度内
Google: $12.30 (≈¥88) ← 图片理解烧钱
OpenAI: $28.60 (≈¥206) ← 兜底也不便宜
────────────────────────────
总计: ≈¥723/月
注意这还不算我花在管理上的时间成本——每周至少花 1 小时检查各平台余额、处理欠费告警、更新过期的 key。
第三周:被 rate limit 教做人
更坑的是各家的 rate limit 策略完全不一样:
Anthropic: 4000 RPM (request per minute)
DeepSeek: 60 RPM(免费版)/ 300 RPM(充值后)
Moonshot: 3 RPM(免费)/ 让我笑一会...
GLM: 还行,50 RPM
OpenAI: Tier 1 只有 500 RPM
OpenClaw 并发跑任务的时候,Moonshot 和 DeepSeek 的免费档直接 429 给我怼回来了。
我写了个丑陋的 retry 逻辑:
# 别学我这么写,这是屎山代码 😂
def call_model(task):
try:
return call_claude(task) # 先试 Claude
except RateLimitError:
try:
return call_deepseek(task) # 降级到 DeepSeek
except RateLimitError:
try:
return call_glm(task) # 再降级
except:
return call_gpt4o(task) # 最后兜底
三层 try-except 嵌套,我自己看了都想打自己。
转折:发现了统一 API 这条路
折腾了两周实在受不了了,我开始搜「多模型 API 聚合」之类的方案。
思路很简单:有没有一个平台,一个 API Key 就能调所有模型?
试了几个:
- OpenRouter — 老牌,模型多,但服务器在海外,国内延迟高
- 硅基流动 — 国内的,但模型覆盖不够全,主要是开源模型
- ofox.ai — 偶然发现的,50+ 模型,走阿里云/火山云节点,国内延迟低
我最后主力用的 ofox,原因很实际:
# 改造后的 OpenClaw config
models:
primary:
provider: openai # 兼容 OpenAI 格式
model: claude-opus-4-6
api_key: sk-ofox-xxx
base_url: https://api.ofox.ai/v1
coding:
provider: openai
model: deepseek-chat
api_key: sk-ofox-xxx # 同一个 key!
base_url: https://api.ofox.ai/v1
chinese:
provider: openai
model: kimi-k2.5
api_key: sk-ofox-xxx # 还是同一个 key!
base_url: https://api.ofox.ai/v1
一个 Key 搞定所有模型,config 文件直接短了一半。
之前的三层 try-except?也不用了。ofox 自己做了 fallback 和负载均衡,429 的概率小很多。
改造前后对比:
管理成本:
Before: 6 个平台, 6 个 API Key, 6 个 dashboard
After: 1 个平台, 1 个 Key, 1 个 dashboard
月费:
Before: ≈¥723(各平台分别充值)
After: ≈¥580(统一计费,有些模型单价更低)
维护时间:
Before: 每周 1 小时检查余额/续费
After: 看一眼就行
心智负担:
Before: 🤯
After: 😌
我的最终方案
跑了一个月后沉淀下来的配置:
| 任务类型 | 模型 | 为什么选它 |
|---|---|---|
| 写代码/重构 | Claude Opus 4.6 | 代码质量确实最好,值这个价 |
| 日常对话/总结 | DeepSeek V3 | 性价比之王,中文好 |
| 超长文档 | Kimi K2.5 | 128K 上下文,长文不丢细节 |
| 快速分类/提取 | GLM-5 | 速度快,简单任务够用 |
| 兜底 | GPT-4o | 最稳定,啥都能干 |
日常 80% 的请求走 DeepSeek(便宜),需要质量的时候切 Claude(贵但值),这个策略让我的月费又降了 30% 左右。
给想玩 OpenClaw 多模型的朋友几个建议
- 别一开始就接 6 个模型。先用一个跑通,再慢慢加。
- API 管理是真实痛点。自己管 key 可以,但超过 3 个就该考虑聚合方案了。
- 按任务分配模型比按价格选更重要。便宜的模型写不好代码,贵的模型做分类浪费钱。
- 留意 rate limit。免费档的限制比你想象得严格,OpenClaw 并发起来分分钟触发。
- 记得设消费上限。我第一周忘了设,Claude 一顿猛跑,账单差点吓死我。
最后
OpenClaw 确实改变了我的工作方式——以前很多手动操作现在 AI 自动搞定了。但「让 AI 干活」和「管好 AI」是两回事。
模型选择、Key 管理、成本控制,这些「基建」做不好,体验会打很大折扣。
希望这篇踩坑记录能帮到同样在折腾多模型的你 🙏
觉得有用的话点个赞呗,下次写写 OpenClaw 的 Skills 市场怎么玩 👀