上周有个朋友问我:"OpenClaw 装好了,但选模型这步直接懵了——官方 API 太贵,DeepSeek 免费但不稳,本地跑 Ollama 又卡,到底该用哪个?"
说实话这问题我自己也纠结过。OpenClaw 刚火的时候我跟风装了,结果第一天就踩坑:直接用 Anthropic 官方 API,跑了个文件整理任务,一看账单 $12 没了。后来花了两周把市面上主流方案都试了一遍,今天把结果分享出来。
先说结论
| 方案 | 模型 | 延迟 | 稳定性 | 月成本(中度使用) | 适合谁 |
|---|---|---|---|---|---|
| Anthropic 官方 | Claude Sonnet 4 | ~2s | ⭐⭐⭐⭐⭐ | $30-80 | 预算充足、追求最佳效果 |
| DeepSeek 官方 | DeepSeek-V3 | ~3s | ⭐⭐⭐ | $5-15 | 预算有限、能忍偶尔抽风 |
| Ollama 本地 | Qwen3 32B | ~5s | ⭐⭐⭐⭐ | $0(电费另算) | 有好显卡、注重隐私 |
| OpenRouter | 多模型切换 | ~3s | ⭐⭐⭐⭐ | $20-50 | 需要多模型、海外网络好 |
| 聚合 API(ofox等) | 全模型 | ~1.5s | ⭐⭐⭐⭐⭐ | $15-40 | 国内用户、要稳定+多模型 |
下面逐个说说踩过的坑。
方案一:Anthropic 官方 API —— 贵但确实好用
这是 OpenClaw 默认推荐的配置,也是效果最好的。
openclaw config set apiProvider anthropic
openclaw config set apiKey sk-ant-xxxxx
openclaw config set apiModelId claude-sonnet-4-6
优点:
- 效果拉满,Sonnet 4 对 Agent 任务的理解能力确实是第一梯队
- 官方支持,文档齐全
- 延迟稳定
踩坑:
- 第一次跑的时候没设
maxTokens,一个任务直接吃了 200k token - 国内直连不了,要配代理或者用兼容 API
// config.json 配置示例
{
"llm": {
"provider": "anthropic",
"model": "claude-sonnet-4-6",
"api_key": "sk-ant-xxxxx",
"max_tokens": 8192,
"temperature": 0.7
}
}
成本参考: Sonnet 4 输入 15/MTok。一个中等复杂的编码任务大概消耗 50k-100k token,算下来一个任务 90-450。
说实话,个人开发者用这个方案,钱包会疼。
方案二:DeepSeek 官方 API —— 便宜大碗但得看运气
DeepSeek-V3 的性价比是真的高,API 价格只有 Claude 的 1/10 不到。
openclaw config set apiProvider openai-compatible
openclaw config set baseUrl https://api.deepseek.com/v1
openclaw config set apiKey sk-xxxxx
openclaw config set apiModelId deepseek-chat
优点:
- 便宜,真的便宜
- 中文理解不错
- 代码生成能力可以
踩坑(重点):
- 高峰期直接 502 —— 下午 2-5 点是重灾区,体感有 20% 的请求会超时
- 长上下文容易丢内容 —— 给它一个大项目让它改代码,改着改着就"忘了"前面的文件结构
- Agent 循环 —— DeepSeek 对工具调用的理解偶尔出 bug,我遇到过它在两个工具之间无限循环的情况
# 我的解决方案:加重试 + 超时
import time
def call_with_retry(func, max_retries=3):
for i in range(max_retries):
try:
return func()
except Exception as e:
if "502" in str(e) or "timeout" in str(e):
time.sleep(2 ** i)
continue
raise
raise Exception("重试次数用尽")
成本参考: DeepSeek-V3 输入 ¥1/MTok,输出 ¥2/MTok,同样的任务成本不到 Claude 的 1/10。
方案三:Ollama 本地模型 —— 零成本但有门槛
本地跑模型的好处是完全免费(电费除外),而且数据不出本机。
# 先装 Ollama
brew install ollama # macOS
# 拉模型
ollama pull qwen3:32b
# OpenClaw 配置
openclaw config set apiProvider ollama
openclaw config set baseUrl http://localhost:11434/v1
openclaw config set apiModelId qwen3:32b
优点:
- 零 API 费用
- 数据隐私有保障
- 不依赖网络
踩坑:
- 显存是硬门槛 —— Qwen3 32B 需要至少 20GB 显存才能流畅跑。我的 M2 Max 64GB 跑起来还行,但 16GB 的 MacBook Air 直接卡死
- 小模型效果断崖式下降 —— 试过 7B 的模型,基本上只能做最简单的任务,稍微复杂一点就开始胡说八道
- 首次推理冷启动慢 —— 模型加载到内存要 30-60 秒
# 查看 Ollama 资源占用
ollama ps
# 输出示例:
# NAME ID SIZE PROCESSOR UNTIL
# qwen3:32b a1b2c3d4 19 GB 100% GPU 4 minutes from now
我的建议: 如果你有 M2 Pro/Max 或以上的 Mac,或者有一张 3090/4090,可以本地跑 32B 的模型。否则建议别折腾。
方案四:OpenRouter —— 一个 Key 切换多模型
OpenRouter 是海外比较流行的模型聚合方案。
openclaw config set apiProvider openrouter
openclaw config set apiKey sk-or-xxxxx
openclaw config set apiModelId anthropic/claude-sonnet-4-6
优点:
- 一个 API Key 访问几十个模型
- 可以按需切换(简单任务用便宜模型,复杂任务用 Claude)
- 有免费额度可以试用
踩坑:
- 国内访问需要代理
- 部分模型的定价比官方还贵(加了中间商费用)
- 偶尔有路由延迟
方案五:国内聚合 API —— 对国内用户最友好
这是我目前在用的方案。国内有几家做 API 聚合的,原理是用 OpenAI 兼容协议统一封装了各家的 API。
openclaw config set apiProvider openai-compatible
openclaw config set baseUrl https://api.ofox.ai/v1
openclaw config set apiKey sk-xxxxx
openclaw config set apiModelId claude-sonnet-4-6
为什么最后选了这种方案:
- 国内直连 —— 不用配代理,延迟反而比直连 Anthropic 还低(因为用了国内云加速节点)
- 一个 Key 用所有模型 —— Claude、GPT、Gemini、DeepSeek、Qwen 都能用,改个 model ID 就行
- OpenAI 兼容协议 —— OpenClaw 原生支持,配置最简单
# 对比测试:同一个任务的响应时间
# Anthropic 官方(走代理): 3.2s
# DeepSeek 官方: 2.8s(非高峰)/ 超时(高峰)
# 聚合 API(国内节点): 1.4s
实际使用体验:
我现在的策略是:
- 日常编码任务 → Claude Sonnet 4(效果好)
- 简单的文本处理 → DeepSeek-V3(省钱)
- 需要多模态 → Gemini 2.5 Pro(图片理解强)
三个模型共用一个 API Key,只需要改 apiModelId,不用重新配置。
高级技巧:混合模型策略
OpenClaw 支持在 config.json 中配置不同任务用不同模型:
{
"llm": {
"provider": "openai-compatible",
"base_url": "https://api.ofox.ai/v1",
"api_key": "sk-xxxxx",
"model": "claude-sonnet-4-6"
},
"tool_call_model": {
"provider": "openai-compatible",
"base_url": "https://api.ofox.ai/v1",
"api_key": "sk-xxxxx",
"model": "deepseek-chat"
}
}
这样主对话用 Claude(效果好),工具调用用 DeepSeek(省钱),实测能节省 40-60% 的 token 成本。
踩坑汇总
| 错误 | 原因 | 解决 |
|---|---|---|
401 Unauthorized | API Key 错误或过期 | 检查 Key 是否正确,注意前缀 |
429 Too Many Requests | 触发速率限制 | 降低并发或换 Provider |
502 Bad Gateway | 上游服务不稳定 | 重试或切换模型 |
context_length_exceeded | 输入太长 | 减少上下文或用支持长上下文的模型 |
| 模型返回空内容 | 部分模型不支持 tool_use | 检查模型是否支持 function calling |
| 响应突然变成英文 | 模型 system prompt 没设中文 | 在配置中加 "language": "zh-CN" |
小结
折腾了两周,我的结论是:没有完美方案,只有最适合自己的。
- 不差钱 → Anthropic 官方
- 想省钱 → DeepSeek(忍受偶尔抽风)
- 有好显卡 → 本地 Ollama
- 国内用户想要稳定+多模型 → 聚合 API
对我来说,最终选了聚合方案,主要是因为国内直连 + 多模型切换这两点太方便了。但说到底,OpenClaw 用什么模型不是最重要的,重要的是你拿它来做什么。
一个好的 Prompt 设计 + 合理的任务拆分,效果提升远大于换模型带来的提升。这个话题以后有空再聊。
如果这篇文章帮到你了,点个赞不过分吧?有其他配置问题欢迎评论区交流,我看到都会回。