最近掘金热榜被 OpenClaw 的文章刷屏了,安装教程、架构解析、像素龙虾办公室……各种角度都有人写了。
但我发现大家都绕开了一个最实际的问题:国内开发者装完 OpenClaw,API Key 填什么?
这个问题比安装难多了,我踩了一整天的坑,写出来给同学们省时间。
直连官方 API 的坑
最直觉的方法是直接用 Anthropic 官方 API。打开 OpenClaw 配置向导,Provider Type 选 anthropic-messages,base URL 填 https://api.anthropic.com,API key 填你的 Claude key。
然后你会发现——
[ERROR] Connection timeout: api.anthropic.com
[ERROR] Failed to initialize model provider
国内 IP 直连 Anthropic 的 API 端点,大概率超时。就算挂了代理,也面临另一个问题:代理出口 IP 如果被 Anthropic 风控识别,账号可能直接被限制。这不是小概率事件,社区里看到不少类似案例。
OpenAI 官方 API 同理。更别说还得有国际信用卡充值……光这几道门就能劝退一半人。
用 OpenRouter 行吗?
理论上可以。OpenRouter 支持 Claude 和 GPT,OpenClaw 也内置了配置模板。
实测的问题:
- 需要境外支付方式(国际信用卡或 PayPal)
- 国内访问延迟偏高,有时 502
- 峰值时段(北京时间深夜)明显变慢
不是不能用,而是体验不够稳定。OpenClaw 这类需要长时间保持连接的工具特别依赖 API 稳定性,时不时超时很影响体验。
我最终用的方案:国内 AI 聚合平台
折腾了一天之后,我换了思路——既然 OpenClaw 支持自定义 endpoint,为什么非要直连海外?
我现在用的是 ofox.ai,国内的 AI 模型聚合平台:
- 一个 API Key 接入 100+ 模型(Claude、GPT、Gemini、Qwen 等)
- 走阿里云 / 火山引擎国内节点加速,延迟低
- 支持 Anthropic 原生协议,Claude 工具调用、流式输出完整支持
实际配置很简单,先跑一下 OpenClaw 的交互式向导:
openclaw onboard
在向导里选 Custom Provider,填这几项就完成了:
| 配置项 | 值 |
|---|---|
| Provider Type | anthropic-messages |
| Base URL | https://api.ofox.ai/anthropic |
| API Key | 你的 ofox.ai key |
| Model | anthropic/claude-sonnet-4.5 |
向导会自动生成 ~/.openclaw/openclaw.json。想手动配置多个模型的话,完整配置长这样:
{
"models": {
"providers": {
"ofoxai": {
"baseUrl": "https://api.ofox.ai/anthropic",
"apiKey": "${OFOXAI_API_KEY}",
"api": "anthropic-messages",
"models": [
{
"id": "anthropic/claude-sonnet-4.5",
"name": "Claude Sonnet 4.5",
"input": ["text", "image", "file"],
"contextWindow": 200000,
"maxTokens": 64000
},
{
"id": "anthropic/claude-opus-4.6",
"name": "Claude Opus 4.6",
"reasoning": true,
"contextWindow": 200000,
"maxTokens": 128000
},
{
"id": "anthropic/claude-haiku-4.5",
"name": "Claude Haiku 4.5",
"contextWindow": 200000,
"maxTokens": 64000
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ofoxai/anthropic/claude-sonnet-4.5",
"fallbacks": ["ofoxai/anthropic/claude-haiku-4.5"]
},
"models": {
"ofoxai/anthropic/claude-opus-4.6": { "alias": "opus" },
"ofoxai/anthropic/claude-sonnet-4.5": { "alias": "sonnet" },
"ofoxai/anthropic/claude-haiku-4.5": { "alias": "haiku" }
},
"thinkingDefault": "low",
"timeoutSeconds": 600
},
"list": [
{ "id": "main", "default": true },
{
"id": "research",
"model": { "primary": "ofoxai/anthropic/claude-opus-4.6" }
},
{
"id": "quick",
"model": { "primary": "ofoxai/anthropic/claude-haiku-4.5" }
}
]
}
}
配好之后跑 openclaw start:
[15:42] Connected to ofoxai/anthropic/claude-sonnet-4.5 ✓
[15:42] OpenClaw v2.1.4 started
[15:42] Listening on WhatsApp, Telegram...
发一条消息测试,响应时间大概 1-2 秒,比之前用代理直连 Anthropic 稳多了。
配完 API 之后,OpenClaw 到底有多好用
说几个真实场景:
跨平台随时可用
手机上发条 Telegram 消息,让它帮我查某个 npm 包的最新版本,或者检查当前项目有没有 TODO 没处理——不用开电脑,直接回复结果。这点我在 Claude Code 里做不到,Claude Code 必须坐在终端前。
持久记忆真的有用
OpenClaw 记得你上周说了什么。我让它帮我跟踪一个 bug 的调查进展,隔天继续问,它直接接着之前说的往下讲——不用重新交代背景。Claude Code 每次开新 session 就失忆了,这块差距明显。
定时自动化
配了个任务,每天早上把项目 GitHub issue 摘要推到微信。这种「跨平台自动化」是 Claude Code 架构上做不到的事。
模型选择技巧
接了 ofox.ai 之后可以按任务切模型,对话里直接 /model 命令切换:
/model sonnet→ Claude Sonnet 4.5,日常任务性价比最高/model opus→ Claude Opus 4.6,复杂推理、长上下文分析/model haiku→ Claude Haiku 4.5,轻量快速响应
注意:OpenClaw 单次任务的 token 消耗不小,有时候一个复杂任务会跑到 50K+ tokens。建议日常走 Sonnet,需要深度推理再切 Opus,成本会差很多。
ofox.ai 控制台有用量监控面板,可以实时看到每天消耗多少 token,不用担心莫名账单爆炸。
一句话总结
装 OpenClaw 的真正难点不是安装,是「国内怎么稳定接 Claude API」。
用国内聚合平台(ofox.ai)走一个本地节点解决了这个问题,OpenClaw 本身的功能——特别是多平台集成、持久记忆、跨应用自动化——才有机会真正用起来。
有同样在搭 OpenClaw 的同学欢迎评论区交流 🦞
配置参考:ofox.ai OpenClaw 集成文档(2026-03-03 验证)