给 OpenClaw 接了 6 个大模型,API Key 管理差点把我逼疯

6 阅读5分钟

你以为 OpenClaw 最难的是安装?不,是你桌面上那 6 个 API 后台的标签页。

先说背景

OpenClaw 火成这样我就不多说了,掘金热榜一半都是它 😂

我是春节后开始折腾的,一开始就想搞个「全能版」——不同任务用不同模型:

  • 写代码:Claude Opus 4.6(贵但靠谱)
  • 日常对话:DeepSeek V3(便宜量大)
  • 中文长文:Kimi K2.5(128K 上下文)
  • 快速问答:GLM-5(国产免费额度多)
  • 图片理解:Gemini 2.5 Pro(多模态强)
  • 兜底模型:GPT-4o(稳定不翻车)

听起来很完美对吧?

噩梦开始了

第一天:注册 API

OpenClaw 的 config.yaml 配模型很简单,大概长这样:

models:
  primary:
    provider: anthropic
    model: claude-opus-4-6
    api_key: sk-ant-xxx
  coding:
    provider: deepseek
    model: deepseek-chat
    api_key: sk-xxx
  chinese:
    provider: moonshot
    model: moonshot-v1-128k
    api_key: sk-xxx

看起来很优雅?

但你得先有这些 key 啊兄弟 😭

我的注册流水账:

  1. Anthropic → 填信用卡,等审核,海外手机号验证
  2. DeepSeek → 还算顺利,国内手机号就行
  3. **Moonshot(Kimi)**→ 企业认证才有高额度
  4. 智谱 GLM → 注册简单但免费额度有时间限制
  5. Google Gemini → 需要 GCP 账号,计费逻辑看不懂
  6. OpenAI → 你懂的,国内直连不了,还得搞代理

光注册就花了一整天。

一个下午,我在 6 个不同的 dashboard 之间来回跳转,每个都要绑卡/充值/看文档。Chrome 标签页多到我自己都分不清哪个是哪个。

第二周:账单来了

各平台计费逻辑完全不同:

平台计费单位价格体系充值方式
Anthropicper token按量美元信用卡
DeepSeekper token按量人民币余额
Moonshotper token按量+套餐人民币
智谱per token免费额度+按量人民币
Googleper character按量美元+GCP billing
OpenAIper token按量美元信用卡

我做了个表格统计每月花费:

Anthropic:  $45.20  (≈¥325)   ← 写代码真费钱
DeepSeek:   ¥18.50            ← 便宜得离谱
Moonshot:   ¥86.00            ← 长文吃 token
智谱GLM:    ¥0                ← 还在免费额度内
Google:     $12.30  (≈¥88)    ← 图片理解烧钱
OpenAI:     $28.60  (≈¥206)   ← 兜底也不便宜
────────────────────────────
总计: ≈¥723/月

注意这还不算我花在管理上的时间成本——每周至少花 1 小时检查各平台余额、处理欠费告警、更新过期的 key。

第三周:被 rate limit 教做人

更坑的是各家的 rate limit 策略完全不一样:

Anthropic: 4000 RPM (request per minute)
DeepSeek: 60 RPM(免费版)/ 300 RPM(充值后)
Moonshot: 3 RPM(免费)/ 让我笑一会...
GLM: 还行,50 RPM
OpenAI: Tier 1 只有 500 RPM

OpenClaw 并发跑任务的时候,Moonshot 和 DeepSeek 的免费档直接 429 给我怼回来了。

我写了个丑陋的 retry 逻辑:

# 别学我这么写,这是屎山代码 😂
def call_model(task):
    try:
        return call_claude(task)  # 先试 Claude
    except RateLimitError:
        try:
            return call_deepseek(task)  # 降级到 DeepSeek
        except RateLimitError:
            try:
                return call_glm(task)  # 再降级
            except:
                return call_gpt4o(task)  # 最后兜底

三层 try-except 嵌套,我自己看了都想打自己。

转折:发现了统一 API 这条路

折腾了两周实在受不了了,我开始搜「多模型 API 聚合」之类的方案。

思路很简单:有没有一个平台,一个 API Key 就能调所有模型?

试了几个:

  1. OpenRouter — 老牌,模型多,但服务器在海外,国内延迟高
  2. 硅基流动 — 国内的,但模型覆盖不够全,主要是开源模型
  3. ofox.ai — 偶然发现的,50+ 模型,走阿里云/火山云节点,国内延迟低

我最后主力用的 ofox,原因很实际:

# 改造后的 OpenClaw config
models:
  primary:
    provider: openai  # 兼容 OpenAI 格式
    model: claude-opus-4-6
    api_key: sk-ofox-xxx
    base_url: https://api.ofox.ai/v1
  coding:
    provider: openai
    model: deepseek-chat
    api_key: sk-ofox-xxx  # 同一个 key!
    base_url: https://api.ofox.ai/v1
  chinese:
    provider: openai
    model: kimi-k2.5
    api_key: sk-ofox-xxx  # 还是同一个 key!
    base_url: https://api.ofox.ai/v1

一个 Key 搞定所有模型,config 文件直接短了一半。

之前的三层 try-except?也不用了。ofox 自己做了 fallback 和负载均衡,429 的概率小很多。

改造前后对比:

管理成本:
  Before: 6 个平台, 6  API Key, 6  dashboard
  After:  1 个平台, 1  Key, 1  dashboard

月费:
  Before: ≈¥723(各平台分别充值)
  After:  ≈¥580(统一计费,有些模型单价更低)

维护时间:
  Before: 每周 1 小时检查余额/续费
  After:  看一眼就行

心智负担:
  Before: 🤯
  After:  😌

我的最终方案

跑了一个月后沉淀下来的配置:

任务类型模型为什么选它
写代码/重构Claude Opus 4.6代码质量确实最好,值这个价
日常对话/总结DeepSeek V3性价比之王,中文好
超长文档Kimi K2.5128K 上下文,长文不丢细节
快速分类/提取GLM-5速度快,简单任务够用
兜底GPT-4o最稳定,啥都能干

日常 80% 的请求走 DeepSeek(便宜),需要质量的时候切 Claude(贵但值),这个策略让我的月费又降了 30% 左右。

给想玩 OpenClaw 多模型的朋友几个建议

  1. 别一开始就接 6 个模型。先用一个跑通,再慢慢加。
  2. API 管理是真实痛点。自己管 key 可以,但超过 3 个就该考虑聚合方案了。
  3. 按任务分配模型比按价格选更重要。便宜的模型写不好代码,贵的模型做分类浪费钱。
  4. 留意 rate limit。免费档的限制比你想象得严格,OpenClaw 并发起来分分钟触发。
  5. 记得设消费上限。我第一周忘了设,Claude 一顿猛跑,账单差点吓死我。

最后

OpenClaw 确实改变了我的工作方式——以前很多手动操作现在 AI 自动搞定了。但「让 AI 干活」和「管好 AI」是两回事。

模型选择、Key 管理、成本控制,这些「基建」做不好,体验会打很大折扣。

希望这篇踩坑记录能帮到同样在折腾多模型的你 🙏


觉得有用的话点个赞呗,下次写写 OpenClaw 的 Skills 市场怎么玩 👀