OpenClaw 模型配置终极指南:5 种方案实测,帮你选出最适合的那个

29 阅读1分钟

上周有个朋友问我:"OpenClaw 装好了,但选模型这步直接懵了——官方 API 太贵,DeepSeek 免费但不稳,本地跑 Ollama 又卡,到底该用哪个?"

说实话这问题我自己也纠结过。OpenClaw 刚火的时候我跟风装了,结果第一天就踩坑:直接用 Anthropic 官方 API,跑了个文件整理任务,一看账单 $12 没了。后来花了两周把市面上主流方案都试了一遍,今天把结果分享出来。

先说结论

方案模型延迟稳定性月成本(中度使用)适合谁
Anthropic 官方Claude Sonnet 4~2s⭐⭐⭐⭐⭐$30-80预算充足、追求最佳效果
DeepSeek 官方DeepSeek-V3~3s⭐⭐⭐$5-15预算有限、能忍偶尔抽风
Ollama 本地Qwen3 32B~5s⭐⭐⭐⭐$0(电费另算)有好显卡、注重隐私
OpenRouter多模型切换~3s⭐⭐⭐⭐$20-50需要多模型、海外网络好
聚合 API(ofox等)全模型~1.5s⭐⭐⭐⭐⭐$15-40国内用户、要稳定+多模型

下面逐个说说踩过的坑。

方案一:Anthropic 官方 API —— 贵但确实好用

这是 OpenClaw 默认推荐的配置,也是效果最好的。

openclaw config set apiProvider anthropic
openclaw config set apiKey sk-ant-xxxxx
openclaw config set apiModelId claude-sonnet-4-6

优点:

  • 效果拉满,Sonnet 4 对 Agent 任务的理解能力确实是第一梯队
  • 官方支持,文档齐全
  • 延迟稳定

踩坑:

  • 第一次跑的时候没设 maxTokens,一个任务直接吃了 200k token
  • 国内直连不了,要配代理或者用兼容 API
// config.json 配置示例
{
  "llm": {
    "provider": "anthropic",
    "model": "claude-sonnet-4-6",
    "api_key": "sk-ant-xxxxx",
    "max_tokens": 8192,
    "temperature": 0.7
  }
}

成本参考: Sonnet 4 输入 3/MTok,输出3/MTok,输出 15/MTok。一个中等复杂的编码任务大概消耗 50k-100k token,算下来一个任务 0.31.5。一天跑10个任务,月费0.3-1.5。一天跑 10 个任务,月费 90-450。

说实话,个人开发者用这个方案,钱包会疼。

方案二:DeepSeek 官方 API —— 便宜大碗但得看运气

DeepSeek-V3 的性价比是真的高,API 价格只有 Claude 的 1/10 不到。

openclaw config set apiProvider openai-compatible
openclaw config set baseUrl https://api.deepseek.com/v1
openclaw config set apiKey sk-xxxxx
openclaw config set apiModelId deepseek-chat

优点:

  • 便宜,真的便宜
  • 中文理解不错
  • 代码生成能力可以

踩坑(重点):

  1. 高峰期直接 502 —— 下午 2-5 点是重灾区,体感有 20% 的请求会超时
  2. 长上下文容易丢内容 —— 给它一个大项目让它改代码,改着改着就"忘了"前面的文件结构
  3. Agent 循环 —— DeepSeek 对工具调用的理解偶尔出 bug,我遇到过它在两个工具之间无限循环的情况
# 我的解决方案:加重试 + 超时
import time

def call_with_retry(func, max_retries=3):
    for i in range(max_retries):
        try:
            return func()
        except Exception as e:
            if "502" in str(e) or "timeout" in str(e):
                time.sleep(2 ** i)
                continue
            raise
    raise Exception("重试次数用尽")

成本参考: DeepSeek-V3 输入 ¥1/MTok,输出 ¥2/MTok,同样的任务成本不到 Claude 的 1/10。

方案三:Ollama 本地模型 —— 零成本但有门槛

本地跑模型的好处是完全免费(电费除外),而且数据不出本机。

# 先装 Ollama
brew install ollama    # macOS
# 拉模型
ollama pull qwen3:32b
# OpenClaw 配置
openclaw config set apiProvider ollama
openclaw config set baseUrl http://localhost:11434/v1
openclaw config set apiModelId qwen3:32b

优点:

  • 零 API 费用
  • 数据隐私有保障
  • 不依赖网络

踩坑:

  1. 显存是硬门槛 —— Qwen3 32B 需要至少 20GB 显存才能流畅跑。我的 M2 Max 64GB 跑起来还行,但 16GB 的 MacBook Air 直接卡死
  2. 小模型效果断崖式下降 —— 试过 7B 的模型,基本上只能做最简单的任务,稍微复杂一点就开始胡说八道
  3. 首次推理冷启动慢 —— 模型加载到内存要 30-60 秒
# 查看 Ollama 资源占用
ollama ps
# 输出示例:
# NAME         ID          SIZE     PROCESSOR    UNTIL
# qwen3:32b    a1b2c3d4    19 GB    100% GPU     4 minutes from now

我的建议: 如果你有 M2 Pro/Max 或以上的 Mac,或者有一张 3090/4090,可以本地跑 32B 的模型。否则建议别折腾。

方案四:OpenRouter —— 一个 Key 切换多模型

OpenRouter 是海外比较流行的模型聚合方案。

openclaw config set apiProvider openrouter
openclaw config set apiKey sk-or-xxxxx
openclaw config set apiModelId anthropic/claude-sonnet-4-6

优点:

  • 一个 API Key 访问几十个模型
  • 可以按需切换(简单任务用便宜模型,复杂任务用 Claude)
  • 有免费额度可以试用

踩坑:

  • 国内访问需要代理
  • 部分模型的定价比官方还贵(加了中间商费用)
  • 偶尔有路由延迟

方案五:国内聚合 API —— 对国内用户最友好

这是我目前在用的方案。国内有几家做 API 聚合的,原理是用 OpenAI 兼容协议统一封装了各家的 API。

openclaw config set apiProvider openai-compatible
openclaw config set baseUrl https://api.ofox.ai/v1
openclaw config set apiKey sk-xxxxx
openclaw config set apiModelId claude-sonnet-4-6

为什么最后选了这种方案:

  1. 国内直连 —— 不用配代理,延迟反而比直连 Anthropic 还低(因为用了国内云加速节点)
  2. 一个 Key 用所有模型 —— Claude、GPT、Gemini、DeepSeek、Qwen 都能用,改个 model ID 就行
  3. OpenAI 兼容协议 —— OpenClaw 原生支持,配置最简单
# 对比测试:同一个任务的响应时间
# Anthropic 官方(走代理): 3.2s
# DeepSeek 官方: 2.8s(非高峰)/ 超时(高峰)
# 聚合 API(国内节点): 1.4s

实际使用体验:

我现在的策略是:

  • 日常编码任务 → Claude Sonnet 4(效果好)
  • 简单的文本处理 → DeepSeek-V3(省钱)
  • 需要多模态 → Gemini 2.5 Pro(图片理解强)

三个模型共用一个 API Key,只需要改 apiModelId,不用重新配置。

高级技巧:混合模型策略

OpenClaw 支持在 config.json 中配置不同任务用不同模型:

{
  "llm": {
    "provider": "openai-compatible",
    "base_url": "https://api.ofox.ai/v1",
    "api_key": "sk-xxxxx",
    "model": "claude-sonnet-4-6"
  },
  "tool_call_model": {
    "provider": "openai-compatible",
    "base_url": "https://api.ofox.ai/v1",
    "api_key": "sk-xxxxx",
    "model": "deepseek-chat"
  }
}

这样主对话用 Claude(效果好),工具调用用 DeepSeek(省钱),实测能节省 40-60% 的 token 成本。

踩坑汇总

错误原因解决
401 UnauthorizedAPI Key 错误或过期检查 Key 是否正确,注意前缀
429 Too Many Requests触发速率限制降低并发或换 Provider
502 Bad Gateway上游服务不稳定重试或切换模型
context_length_exceeded输入太长减少上下文或用支持长上下文的模型
模型返回空内容部分模型不支持 tool_use检查模型是否支持 function calling
响应突然变成英文模型 system prompt 没设中文在配置中加 "language": "zh-CN"

小结

折腾了两周,我的结论是:没有完美方案,只有最适合自己的

  • 不差钱 → Anthropic 官方
  • 想省钱 → DeepSeek(忍受偶尔抽风)
  • 有好显卡 → 本地 Ollama
  • 国内用户想要稳定+多模型 → 聚合 API

对我来说,最终选了聚合方案,主要是因为国内直连 + 多模型切换这两点太方便了。但说到底,OpenClaw 用什么模型不是最重要的,重要的是你拿它来做什么。

一个好的 Prompt 设计 + 合理的任务拆分,效果提升远大于换模型带来的提升。这个话题以后有空再聊。


如果这篇文章帮到你了,点个赞不过分吧?有其他配置问题欢迎评论区交流,我看到都会回。