跑了一个月OpenClaw,模型账单从2000降到800的全过程

0 阅读4分钟

部署 OpenClaw 不难,难的是控制住每月的模型调用费用。我花了一个月摸索出一套多模型路由方案,月费直降 60%。

先说结果

我一月底跟风部署了 OpenClaw——GitHub 上那个 10 万 star 的开源 AI 助手。连了 Discord 和飞书,让它帮我处理日常消息、跑定时任务、写点东西。

第一个月账单出来,差点没把我劝退:人民币接近 1300

一个开源免费的工具,光模型调用费就一千多。

后来我做了一件事:把不同任务分配给不同模型。简单任务用轻量模型,复杂任务才上重量级的。同样的消息量,第二个月费用降到了 520 左右

具体怎么做的,展开聊聊。

第一步:搞清楚钱花在哪了

我统计了两周的调用日志,按任务类型分了个类:

任务类型消息占比典型场景
简单问答42%查个信息、算个数、翻译一句话
消息处理23%群聊摘要、消息分类转发
定时任务15%每天抓新闻、跑健康检查
写作创作12%写文章、拟回复
复杂分析8%代码审查、方案设计

42% 的简单问答不需要最强模型。用 Qwen-Plus 或者 DeepSeek-V4 处理就足够了,价格比 Claude Sonnet 便宜十几倍。

这就是钱浪费的地方。

第二步:给不同 Agent 配不同模型

OpenClaw 支持多 Agent 配置,每个 Agent 用不同模型:

{
  "agents": {
    "list": [
      {
        "id": "daily-assistant",
        "model": "deepseek/deepseek-v4",
        "description": "日常问答、消息转发"
      },
      {
        "id": "content-creator",
        "model": "qwen/qwen3.5-plus",
        "description": "写作和创作类任务"
      },
      {
        "id": "code-reviewer",
        "model": "deepseek/deepseek-v4",
        "description": "代码 review、技术分析"
      }
    ]
  }
}

三个 Agent 各司其职。日常问答走轻量模型,写作用 Qwen3.5-Plus(中文写作确实好),代码相关用 DeepSeek V4。

第三步:用统一网关省掉 Key 管理的麻烦

配了三个 Agent、三四个模型厂商,API Key 管理变成了新问题。

我的做法是加了一层 API 网关——只维护一个 Key,网关负责把请求路由到对应的模型厂商。

from openai import OpenAI

# 一个 client,调所有模型
client = OpenAI(
    base_url="https://api.therouter.ai/v1",
    api_key="一个key搞定"
)

# DeepSeek V4
resp1 = client.chat.completions.create(
    model="deepseek/deepseek-v4",
    messages=[{"role": "user", "content": "帮我摘要一下这段话"}]
)

# Qwen3.5-Plus
resp2 = client.chat.completions.create(
    model="qwen/qwen3.5-plus",
    messages=[{"role": "user", "content": "用口语化的风格改写这段文字"}]
)

标准 OpenAI SDK 格式,改个 base_urlmodel 就行。不用装各厂商的 SDK。

配置 OpenClaw 走网关

{
  "providers": {
    "default": {
      "baseUrl": "https://api.therouter.ai/v1",
      "apiKey": "${ROUTER_API_KEY}"
    }
  }
}

环境变量里一个 ROUTER_API_KEY,完事。

费用对比

跑了一个月的真实数据(折合人民币):

指标优化前优化后
日均消息~200 条~200 条
月度费用¥1,300¥520
模型分布单一模型 100%DeepSeek 50% + Qwen 30% + Sonnet 12% + Opus 8%
故障切换3 次(手动处理)7 次(自动切换)
平均响应2.1s1.4s

降了 60%,响应还快了——轻量模型出结果就是快。

而且自动故障切换真的救命。某天 DeepSeek API 抖了半小时,网关自动切到 Qwen 继续跑,我在外面完全没感觉到 OpenClaw 出过问题。

踩过的几个坑

1. 日常助手别用最便宜的模型。

最开始我把助手设成了最便宜的 Flash Lite,结果连翻译都翻不利索。后来换成 DeepSeek V4,性价比最高——日常任务的质量和贵十倍的模型差距很小。

2. 定时任务别用贵的。

每天抓新闻、检查服务状态这种活,用 Qwen-Turbo 或 DeepSeek-Chat 就够了。我之前所有 cron 都走 Sonnet,每天白花十几块。

3. 超时要跟模型匹配。

不同模型推理速度差很多。Opus 级别的模型可能要 30 秒才能给完整回复,如果你超时设成 15 秒,任务会反复超时重试,反而更贵。

我的超时配置参考:

{
  "timeouts": {
    "lightweight": 30,
    "standard": 60,
    "heavy": 180
  }
}

轻量模型 30 秒,标准模型 60 秒,重量级 180 秒。

一个月下来的体感

OpenClaw 本身是好东西,部署一次就能 7x24 小时跑着。但如果不做模型路由优化,月费很容易上千。

核心就一个原则:80% 的任务用 20% 的成本就能搞定,别让所有请求都走最贵的模型。

配一层 API 网关来统一管理,是我试过最省心的方案。一个 Key、一个后台、所有模型调用一目了然。

有兴趣的可以自己试试,OpenClaw 的部署文档在 GitHub 上,模型配置改改就能跑。


TheRouter — 多模型统一 API 网关,一个 Key 调 30+ 模型,自带负载均衡和自动降级。