部署 OpenClaw 不难,难的是控制住每月的模型调用费用。我花了一个月摸索出一套多模型路由方案,月费直降 60%。
先说结果
我一月底跟风部署了 OpenClaw——GitHub 上那个 10 万 star 的开源 AI 助手。连了 Discord 和飞书,让它帮我处理日常消息、跑定时任务、写点东西。
第一个月账单出来,差点没把我劝退:人民币接近 1300。
一个开源免费的工具,光模型调用费就一千多。
后来我做了一件事:把不同任务分配给不同模型。简单任务用轻量模型,复杂任务才上重量级的。同样的消息量,第二个月费用降到了 520 左右。
具体怎么做的,展开聊聊。
第一步:搞清楚钱花在哪了
我统计了两周的调用日志,按任务类型分了个类:
| 任务类型 | 消息占比 | 典型场景 |
|---|---|---|
| 简单问答 | 42% | 查个信息、算个数、翻译一句话 |
| 消息处理 | 23% | 群聊摘要、消息分类转发 |
| 定时任务 | 15% | 每天抓新闻、跑健康检查 |
| 写作创作 | 12% | 写文章、拟回复 |
| 复杂分析 | 8% | 代码审查、方案设计 |
42% 的简单问答不需要最强模型。用 Qwen-Plus 或者 DeepSeek-V4 处理就足够了,价格比 Claude Sonnet 便宜十几倍。
这就是钱浪费的地方。
第二步:给不同 Agent 配不同模型
OpenClaw 支持多 Agent 配置,每个 Agent 用不同模型:
{
"agents": {
"list": [
{
"id": "daily-assistant",
"model": "deepseek/deepseek-v4",
"description": "日常问答、消息转发"
},
{
"id": "content-creator",
"model": "qwen/qwen3.5-plus",
"description": "写作和创作类任务"
},
{
"id": "code-reviewer",
"model": "deepseek/deepseek-v4",
"description": "代码 review、技术分析"
}
]
}
}
三个 Agent 各司其职。日常问答走轻量模型,写作用 Qwen3.5-Plus(中文写作确实好),代码相关用 DeepSeek V4。
第三步:用统一网关省掉 Key 管理的麻烦
配了三个 Agent、三四个模型厂商,API Key 管理变成了新问题。
我的做法是加了一层 API 网关——只维护一个 Key,网关负责把请求路由到对应的模型厂商。
from openai import OpenAI
# 一个 client,调所有模型
client = OpenAI(
base_url="https://api.therouter.ai/v1",
api_key="一个key搞定"
)
# DeepSeek V4
resp1 = client.chat.completions.create(
model="deepseek/deepseek-v4",
messages=[{"role": "user", "content": "帮我摘要一下这段话"}]
)
# Qwen3.5-Plus
resp2 = client.chat.completions.create(
model="qwen/qwen3.5-plus",
messages=[{"role": "user", "content": "用口语化的风格改写这段文字"}]
)
标准 OpenAI SDK 格式,改个 base_url 和 model 就行。不用装各厂商的 SDK。
配置 OpenClaw 走网关
{
"providers": {
"default": {
"baseUrl": "https://api.therouter.ai/v1",
"apiKey": "${ROUTER_API_KEY}"
}
}
}
环境变量里一个 ROUTER_API_KEY,完事。
费用对比
跑了一个月的真实数据(折合人民币):
| 指标 | 优化前 | 优化后 |
|---|---|---|
| 日均消息 | ~200 条 | ~200 条 |
| 月度费用 | ¥1,300 | ¥520 |
| 模型分布 | 单一模型 100% | DeepSeek 50% + Qwen 30% + Sonnet 12% + Opus 8% |
| 故障切换 | 3 次(手动处理) | 7 次(自动切换) |
| 平均响应 | 2.1s | 1.4s |
降了 60%,响应还快了——轻量模型出结果就是快。
而且自动故障切换真的救命。某天 DeepSeek API 抖了半小时,网关自动切到 Qwen 继续跑,我在外面完全没感觉到 OpenClaw 出过问题。
踩过的几个坑
1. 日常助手别用最便宜的模型。
最开始我把助手设成了最便宜的 Flash Lite,结果连翻译都翻不利索。后来换成 DeepSeek V4,性价比最高——日常任务的质量和贵十倍的模型差距很小。
2. 定时任务别用贵的。
每天抓新闻、检查服务状态这种活,用 Qwen-Turbo 或 DeepSeek-Chat 就够了。我之前所有 cron 都走 Sonnet,每天白花十几块。
3. 超时要跟模型匹配。
不同模型推理速度差很多。Opus 级别的模型可能要 30 秒才能给完整回复,如果你超时设成 15 秒,任务会反复超时重试,反而更贵。
我的超时配置参考:
{
"timeouts": {
"lightweight": 30,
"standard": 60,
"heavy": 180
}
}
轻量模型 30 秒,标准模型 60 秒,重量级 180 秒。
一个月下来的体感
OpenClaw 本身是好东西,部署一次就能 7x24 小时跑着。但如果不做模型路由优化,月费很容易上千。
核心就一个原则:80% 的任务用 20% 的成本就能搞定,别让所有请求都走最贵的模型。
配一层 API 网关来统一管理,是我试过最省心的方案。一个 Key、一个后台、所有模型调用一目了然。
有兴趣的可以自己试试,OpenClaw 的部署文档在 GitHub 上,模型配置改改就能跑。
TheRouter — 多模型统一 API 网关,一个 Key 调 30+ 模型,自带负载均衡和自动降级。