今天打开掘金热榜,清一色 OpenClaw。行吧,我也来聊聊。
不过我不想写第 N 篇"什么是 OpenClaw"或者"OpenClaw 安装教程"了,这类文章已经多到能绕地球两圈。我想聊的是一个几乎所有人都会卡住的问题:API 配置。
装 OpenClaw 可能就 5 分钟的事,但配 API?我折腾了整整一个晚上 😂
先说结论
如果你也在纠结 OpenClaw 用什么 API,直接看最后的配置方案。如果你和我一样喜欢踩坑,那就从头看起。
第一次:直连 Anthropic 官方 API
OpenClaw 默认就是用 Claude,所以第一反应当然是去 Anthropic 官网申请 API Key。
注册、绑卡、拿到 Key,运行 openclaw onboard,选 Anthropic,填入 Key,启动——
Error: Connection timed out
嗯。意料之中又意料之外。
国内直连 Anthropic API,延迟高到离谱,动不动就超时。用了代理勉强能连上,但体验极差:一个简单的代码补全要等 8-10 秒,复杂任务直接断掉。
而且说实话,Claude Sonnet 4.5 的官方价格不便宜,$3/M input,要是拿来当日常编程助手用,账单看了心疼。
结论:放弃。
第二次:换 OpenAI
既然 Anthropic 不行,那试试 OpenAI?GPT-5 系列的编程能力也很强。
OpenClaw 支持 OpenAI 协议,配置也简单。但问题是——
国内直连 OpenAI 的情况,你们懂的。和 Anthropic 一个德性。
而且我发现一个很尴尬的事:不同任务其实适合不同模型。写前端用 Claude 效果好,写算法逻辑 GPT 更强,简单的改改文件名之类的小活用 Claude Haiku 就够了。只绑一个模型供应商,总觉得差点意思。
结论:也放弃。
第三次:本地 Ollama
既然云端 API 都有网络问题,那本地部署总行了吧?
装了 Ollama,拉了个 Qwen 3.5 的 32B 量化版。连接倒是秒连,延迟几乎为零。
但效果嘛……怎么说呢,让它改个 React 组件,改完了代码跑不起来。让它读一个 500 行的文件,直接开始胡说八道。
本地模型受限于显存和参数量,在 OpenClaw 这种需要长上下文理解 + 精确代码生成的场景下,和云端大模型还是有明显差距。
结论:当备用方案可以,主力不行。
最终方案:用 API 聚合平台
折腾了一圈后我换了个思路:有没有一种方案,能同时用多个模型,而且在国内网络稳定?
搜了一圈,发现了 API 聚合平台这个品类。简单说就是:一个 API Key,背后接了几十个模型,不用分别去各家注册,也不用操心网络问题。
我最后选了 ofox.ai,原因很简单:
- 国内直连低延迟——走阿里云/火山云加速节点,响应速度和调国内 API 差不多
- 支持 50+ 模型——Claude、GPT、Gemini、Qwen、DeepSeek 全都有,一个 Key 随便切
- 三协议兼容——Anthropic 协议、OpenAI 协议、Gemini 协议都支持,OpenClaw 用哪个都行
- 按量计费——不用包月,用多少付多少,偶尔周末不写代码就不花钱
配置也很简单,openclaw onboard 选 Custom Provider,填入 ofox 的 endpoint 和 Key 就行。
具体配置
~/.openclaw/openclaw.json 核心部分长这样:
{
"providers": {
"ofox": {
"type": "anthropic",
"baseUrl": "https://api.ofox.ai/anthropic",
"apiKey": "${OFOXAI_API_KEY}"
}
},
"models": {
"ofox/claude-sonnet-4.5": {
"provider": "ofox",
"contextWindow": 200000
},
"ofox/claude-haiku-4.5": {
"provider": "ofox",
"contextWindow": 200000
}
},
"agents": {
"default": {
"model": "ofox/claude-sonnet-4.5",
"lightModel": "ofox/claude-haiku-4.5"
}
}
}
环境变量加一行:
export OFOXAI_API_KEY="你的key"
然后 openclaw start,搞定。
进阶:多模型混合策略
用了一段时间后,我摸索出一套比较舒服的配置:
| 任务类型 | 模型 | 理由 |
|---|---|---|
| 日常编码(主力) | Claude Sonnet 4.5 | 代码质量最稳,上下文理解强 |
| 复杂推理/架构 | Claude Opus 4.6 | 遇到难题上大的 |
| 简单修改/格式化 | Claude Haiku 4.5 | 快且便宜,小活用不着大模型 |
| 省钱模式 | Qwen 3.5 Plus | 国产模型性价比之王 |
OpenClaw 的 agents 配置支持给不同 agent 指定不同模型,所以可以这样玩:写代码用 Sonnet,review 代码用 Opus,重命名变量用 Haiku。
一个月下来,API 费用比之前只用 Claude 官方省了差不多 40%,因为大量简单任务被 Haiku 和 Qwen 消化了。
几个小坑提醒
- 首次连接可能要等几秒——聚合平台会做一次鉴权和路由,之后就正常了
- 模型 ID 格式注意——ofox 的模型 ID 是
anthropic/claude-sonnet-4.5这种格式,配置时候别写错 - 环境变量别写进代码——用
${OFOXAI_API_KEY}引用就好,别把 Key 硬编码到配置文件然后 push 到 GitHub(别问我怎么知道的 🤦) - Ollama 可以留着当备用——网络万一抽风的时候,能切到本地模型保底
写在最后
OpenClaw 确实是今年最值得尝试的 AI 编程工具,Skills 系统和 Gateway 的设计思路很超前。但工具再好,API 配不好等于白装。
如果你还在纠结 API 选型,我的建议是:别直连海外 API,要么用聚合平台要么用国内模型,网络稳定才是生产力的基础。
有问题评论区聊,我尽量回 👋