一键打通 GPT-4o、Claude Sonnet 4.5、Gemini 3 Pro,构建你的专属 AI Agent
目录
背景:为什么需要多模型接入方案
作为开发者,我们在日常工作中常常面临这样的困境:
- GPT-4o 代码能力强,但长文本处理有限(128K 上下文)
- Claude Sonnet 逻辑推理出色,支持 200K 上下文,适合文档分析
- Gemini 3 Pro 拥有恐怖的 2000K 上下文,多模态能力领先
每个模型都有自己的优势场景,但频繁切换平台、管理多个 API Key、处理不同的调用格式,开发体验极差。
OpenClaw Clawdbot 的出现正好解决了这个问题——它提供了一个统一的 Agent 框架,让我们可以在一个平台内灵活调用多个模型,还能通过自定义中转站降低成本。
OpenClaw Clawdbot 是什么
OpenClaw Clawdbot 是一个基于 Node.js 的 AI Agent 开发框架,核心特性包括:
表格
| 特性 | 说明 |
|---|---|
| 多模型支持 | 同时接入 OpenAI、Anthropic、Google 等多家模型 |
| 统一接口 | 屏蔽底层差异,一套代码调用不同模型 |
| 本地部署 | 数据不出本地,响应速度快 |
| 可视化控制台 | 内置 Web UI,降低使用门槛 |
| 可扩展架构 | 支持自定义插件和工作流 |
环境准备与安装
前置要求
- Node.js 16+(推荐 18 LTS)
- npm 或 yarn 包管理器
- 一个稳定的网络环境
安装步骤
# 全局安装 clawdbot
npm i -g clawdbot
# 执行初始化引导
clawdbot onboard
onboard 命令会引导你完成基础配置,包括工作目录设置、默认模型选择等。完成后会输出一个 Token,记得保存,后面登录控制台需要用到。
Windows 用户注意:如果在 CMD/PowerShell 中提示
openclaw不是内部命令,请统一使用clawdbot命令。
核心配置详解
安装完成后,我们需要修改两个核心配置文件来接入自定义中转站。
主配置文件 clawdbot.json
文件路径:
Windows: C:\Users{用户名}.clawdbot\clawdbot.json
macOS/Linux: ~/.clawdbot/clawdbot.json
将 models 和 auth 部分替换为以下内容:
{
"agents": {
"defaults": {
"workspace": "C:\Users\Administrator\clawd",
"models": {
"api-proxy-gpt/gpt-4o": {
"alias": "GPT-4o"
},
"api-proxy-claude/claude-sonnet-4-5-20250929": {
"alias": "Claude Sonnet 4.5"
},
"api-proxy-google/gemini-3-pro-preview": {
"alias": "Gemini 3 Pro"
}
},
"model": {
"primary": "api-proxy-claude/claude-sonnet-4-5-20250929"
}
}
},
"auth": {
"profiles": {
"api-proxy-gpt:default": {
"provider": "api-proxy-gpt",
"mode": "api_key"
},
"api-proxy-claude:default": {
"provider": "api-proxy-claude",
"mode": "api_key"
},
"api-proxy-google:default": {
"provider": "api-proxy-google",
"mode": "api_key"
}
}
},
"models": {
"mode": "merge",
"providers": {
"api-proxy-gpt": {
"baseUrl": "https://api.aiyungc.cn/v1",
"api": "openai-completions",
"models": [
{
"id": "gpt-4o",
"name": "GPT-4o",
"contextWindow": 128000,
"maxTokens": 8192
}
]
},
"api-proxy-claude": {
"baseUrl": "https://api.aiyungc.cn",
"api": "anthropic-messages",
"models": [
{
"id": "claude-sonnet-4-5-20250929",
"name": "Claude Sonnet 4.5",
"contextWindow": 200000,
"maxTokens": 8192
}
]
},
"api-proxy-google": {
"baseUrl": "https://api.aiyungc.cn/v1beta",
"api": "google-generative-ai",
"models": [
{
"id": "gemini-3-pro-preview",
"name": "Gemini 3 Pro",
"contextWindow": 2000000,
"maxTokens": 8192
}
]
}
}
}
}
配置字段解析
| 字段 | 说明 |
|---|---|
agents.defaults.models | 定义可用的模型别名映射 |
agents.defaults.model.primary | 设置默认使用的模型 |
auth.profiles | 声明各模型的鉴权方式 |
models.mode | merge 表示合并配置而非覆盖 |
providers.{name}.baseUrl | 中转站 API 地址(api.aiyungc.cn) |
providers.{name}.api | API 协议类型 |
contextWindow | 模型上下文窗口大小(Token 数) |
maxTokens | 单次响应最大 Token 数 |
鉴权配置 auth-profiles.json
文件路径:
Windows: C:\Users{用户名}.clawdbot\agents\main\agent\auth-profiles.json
macOS/Linux: ~/.clawdbot/agents/main/agent/auth-profiles.json
填入你的 API Key(请替换为真实密钥):
{
"version": 1,
"profiles": {
"api-proxy-gpt:default": {
"type": "api_key",
"provider": "api-proxy-gpt",
"key": "sk-your-gpt-api-key"
},
"api-proxy-claude:default": {
"type": "api_key",
"provider": "api-proxy-claude",
"key": "sk-your-claude-api-key"
},
"api-proxy-google:default": {
"type": "api_key",
"provider": "api-proxy-google",
"key": "sk-your-gemini-api-key"
}
},
"lastGood": {
"api-proxy-gpt": "api-proxy-gpt:default",
"api-proxy-claude": "api-proxy-claude:default",
"api-proxy-google": "api-proxy-google:default"
}
}
安全提醒:API Key 是敏感信息,请勿提交到 Git 仓库。建议在
.gitignore中添加auth-profiles.json。【API Key申请地址:api.aiyungc.cn】控制台-API令牌
启动与验证
1. 健康检查
clawdbot doctor
该命令会检查:
- Node.js 版本兼容性
- 配置文件格式正确性
- API 连接可用性
- 依赖完整性
2. 启动 Gateway 服务
clawdbot gateway
成功启动后会显示:
🚀 Gateway server running at http://127.0.0.1:18789
3. 访问控制台
打开浏览器访问 http://127.0.0.1:18789/,使用 clawdbot onboard 输出的 Token 登录。
配置原理深度解析
为什么需要 mode: "merge"?
Clawdbot 的配置系统支持两种模式:
overwrite:完全覆盖默认配置merge:与默认配置合并,保留未修改的部分
使用 merge 模式的好处是,我们只需要声明需要修改的部分,其他配置(如日志级别、插件列表)保持默认即可。
模型别名机制
配置中的 api-proxy-gpt/gpt-4o 是一个完整的模型标识符,格式为:
{provider}/{model-id}
这种设计允许:
- 同一个模型 ID 在不同 provider 下可以有不同的配置
- 方便切换 provider 而不修改业务代码
- 支持 A/B 测试不同中转站的效果
上下文窗口的选择策略
| 模型 | 上下文窗口 | 适用场景 |
|---|---|---|
| GPT-4o | 128K | 常规对话、代码生成、中等长度文档 |
| Claude Sonnet 4.5 | 200K | 长文档分析、复杂推理任务 |
| Gemini 3 Pro | 2000K | 超长文档、视频分析、多模态任务 |
建议:根据任务类型动态选择模型,而非固定使用某一个。
踩坑记录与解决方案
坑 1:Windows 下命令找不到
现象:执行 openclaw 提示不是内部命令。
解决:统一使用 clawdbot 命令,这是 Windows 环境下的已知问题。
坑 2:JSON 配置格式错误
现象:启动时报 SyntaxError: Unexpected token。
解决:
- 检查 JSON 中的逗号是否多余(最后一个属性后不应有逗号)
- 使用 JSONLint 在线校验
- Windows 路径中的反斜杠需要转义:
\
坑 3:API 连接超时
现象:clawdbot doctor 报连接错误。
解决:
- 检查网络连通性
- 确认 API Key 是否正确
- 查看中转站服务状态
坑 4:控制台无法登录
现象:Token 验证失败。
解决:
- 确认使用的是
clawdbot onboard输出的 Token - 检查 Token 是否过期(默认 24 小时)
- 重新执行
clawdbot onboard生成新 Token
总结与展望
通过本文的配置,我们成功搭建了一个支持多模型接入的 OpenClaw Clawdbot 环境。核心收益包括:
- 统一入口:一个平台管理多个顶级模型
- 灵活切换:根据任务类型选择最优模型
- 成本优化:通过中转站降低 API 调用成本
- 数据安全:本地部署,敏感数据不出境
后续可以探索的方向
- 自定义 Agent:编写插件扩展 Clawdbot 能力
- 工作流编排:结合 N8N 等工具构建自动化流程
- 团队协作:配置共享的模型池和权限管理
- 性能监控:接入日志系统追踪 Token 消耗
参考资源
如果你在使用过程中遇到问题,欢迎在评论区交流。也欢迎分享你的配置经验