在上一篇文章中,我们介绍了 Claude Code 的安装和首次体验。随着国产大模型的快速发展,越来越多的开发者希望将 Claude Code 与国内的大模型 API 进行整合,以获得更好的访问速度和本地化支持。本文将详细介绍多种配置方法,帮助你轻松切换到国产大模型!
一、为什么要配置国产大模型?
在正式进入配置教程之前,让我们先了解一下配置国产大模型的主要优势:
| 优势 | 说明 | ||
|---|---|---|---|
| 🚀 访问速度快 | 国内 API 延迟低,响应速度快 | ||
| 💰 成本更可控 | 价格相对稳定,无汇率波动影响 | ||
| 🔒 数据安全 | 数据出境更有保障 | ||
| 🌐 网络稳定 | 无需翻墙,连接稳定可靠 | ||
| 📋 合规性好 | 符合国内法规要求 |
适用场景
- 国内团队协作开发
- 对响应速度有较高要求的项目
- 需要控制 API 使用成本的开发者
- 企业内部使用,需要数据合规的场景
二、主流国产大模型平台介绍
在配置之前,我们先来了解一下国内主流的大模型 API 平台:
2.1 OpenRouter
OpenRouter 是一个支持多种模型聚合的平台,提供统一的 API 接口:
| 特点 | 说明 |
|---|---|
| 🌐 官网 | openrouter.ai |
| 💵 计费 | 按 token 计费,支持国内支付 |
| 🤖 模型 | 支持 Claude、GPT、国产模型等 |
| 🔑 获取方式 | 注册后创建 API Key |
2.2 SiliconFlow(硅基流动)
国内领先的 AI 模型云服务平台:
| 特点 | 说明 |
|---|---|
| 🌐 官网 | siliconflow.cn |
| 💵 计费 | 国内支付方便,价格实惠 |
| 🤖 模型 | Qwen、DeepSeek、InternLM 等 |
| 🔑 获取方式 | 注册后获取 API Key |
2.3 阿里云 DashScope
阿里云推出的大模型服务平台:
| 特点 | 说明 |
|---|---|
| 🌐 官网 | bailian.console.aliyun.com/ |
| 💵 计费 | 阿里云账户按量计费 |
| 🤖 模型 | Qwen 系列、通义千问 |
| 🔑 获取方式 | 阿里云控制台获取 |
2.4 百度智能云千帆
百度推出的大模型开发平台:
| 特点 | 说明 |
|---|---|
| 🌐 官网 | cloud.baidu.com/product/wen… |
| 💵 计费 | 百度云账户按量计费 |
| 🤖 模型 | ERNIE 系列、文心一言 |
| 🔑 获取方式 | 百度智能云控制台获取 |
2.5 月之暗面 Moonshot
月之暗面推出的 Kimi 大模型:
| 特点 | 说明 |
|---|---|
| 🌐 官网 | platform.moonshot.cn |
| 💵 计费 | 国内支付,价格透明 |
| 🤖 模型 | Kimi 系列 |
| 🔑 获取方式 | 注册后获取 API Key |
2.6 智谱 AI (Zhipu AI)
清华技术出身的国产大模型平台:
| 特点 | 说明 |
|---|---|
| 🌐 官网 | z.ai |
| 💵 计费 | 按 token 计费,有免费额度 |
| 🤖 模型 | GLM-5、GLM-4.7、GLM-4.5 系列 |
| 🔑 获取方式 | 注册后获取 API Key |
2.7 MiniMax
AI 基础设施公司,提供超长上下文模型:
| 特点 | 说明 |
|---|---|
| 🌐 官网 | platform.minimax.io |
| 💵 计费 | 按 token 计费,支持国内支付 |
| 🤖 模型 | M2.7、M2.5、M2.1 系列 |
| 🔑 获取方式 | 注册后获取 API Key |
2.8 白山智算
基于边缘云架构的 AI 模型服务平台:
| 特点 | 说明 |
|---|---|
| 🌐 官网 | ai.baishan.com/auth/login?… |
| 💵 计费 | 按 token 计费,<300ms 超低延迟 |
| 🤖 模型 | GLM-5、GLM-4.7、GLM-4.5、DeepSeek-R1、Qwen3 系列 |
| 🔑 获取方式 | 注册后获取 API Key |
选择建议
如果你是第一次配置,建议从 OpenRouter 或 SiliconFlow 开始,它们对新手友好且支持多种模型。
三、配置方法一:直接修改 JSON 配置文件
这是最常用也是最灵活的配置方法,通过修改 Claude Code 的配置文件来实现模型切换。
3.1 配置文件位置
Claude Code 的配置文件位于用户主目录下:
| 操作系统 | 配置文件路径 |
|---|---|
| 🍎 macOS | ~/.claude/settings.json |
| 🐧 Linux | ~/.claude/settings.json |
| 🪟 Windows | %USERPROFILE%.claude/settings.json |
3.2 基础配置示例
# 查看当前配置文件
cat ~/.claude/settings.json
# 如果文件不存在,创建配置文件
touch ~/.claude/settings.json
OpenRouter 配置示例
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your-openrouter-api-key",
"ANTHROPIC_BASE_URL": "https://openrouter.ai/api/v1",
"ANTHROPIC_MODEL": "anthropic/claude-sonnet-4-20250514"
},
"model": "anthropic/claude-sonnet-4-20250514",
"maxTokens": 8192,
"temperature": 1
}
SiliconFlow 配置示例
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your-siliconflow-api-key",
"ANTHROPIC_BASE_URL": "https://api.siliconflow.cn/v1",
"ANTHROPIC_MODEL": "Qwen/Qwen2.5-72B-Instruct"
},
"model": "Qwen/Qwen2.5-72B-Instruct",
"maxTokens": 8192,
"temperature": 1
}
DashScope 配置示例
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your-dashscope-api-key",
"ANTHROPIC_BASE_URL": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"ANTHROPIC_MODEL": "qwen-turbo"
},
"model": "qwen-turbo",
"maxTokens": 8192,
"temperature": 1
}
Moonshot 配置示例
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your-moonshot-api-key",
"ANTHROPIC_BASE_URL": "https://api.moonshot.cn/v1",
"ANTHROPIC_MODEL": "moonshot-v1-8k"
},
"model": "moonshot-v1-8k",
"maxTokens": 8192,
"temperature": 1
}
智谱 AI (Zhipu) 配置示例
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your-zhipu-api-key",
"ANTHROPIC_BASE_URL": "https://api.z.ai/api/paas/v4/",
"ANTHROPIC_MODEL": "glm-4.7"
},
"model": "glm-4.7",
"maxTokens": 8192,
"temperature": 1
}
智谱 AI 编程专用端点
如果主要用于代码生成,可以使用编程专用端点:https://api.z.ai/api/coding/paas/v4/
MiniMax 配置示例
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your-minimax-api-key",
"ANTHROPIC_BASE_URL": "https://api.minimax.io/v1",
"ANTHROPIC_MODEL": "MiniMax-M2.7"
},
"model": "MiniMax-M2.7",
"maxTokens": 8192,
"temperature": 1
}
MiniMax Anthropic 兼容模式
MiniMax 还支持 Anthropic 兼容模式,可以将 baseURL 设置为 https://api.minimax.io/anthropic
白山智算配置示例
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your-baishan-api-key",
"ANTHROPIC_BASE_URL": "https://api.edgefn.net/v1",
"ANTHROPIC_MODEL": "DeepSeek-R1-0528"
},
"model": "DeepSeek-R1-0528",
"maxTokens": 8192,
"temperature": 1
}
3.3 多模型配置
如果你需要频繁切换不同的模型,可以在配置文件中设置多个预设:
{
"apiKey": "your-openrouter-api-key",
"baseURL": "https://openrouter.ai/api/v1",
"model": "anthropic/claude-sonnet-4-20250514",
"presets": {
"fast": {
"model": "anthropic/claude-3-haiku-20240307",
"maxTokens": 4096
},
"balanced": {
"model": "anthropic/claude-sonnet-4-20250514",
"maxTokens": 8192
},
"powerful": {
"model": "anthropic/claude-opus-4-5-20251120",
"maxTokens": 200000
},
"domestic": {
"model": "deepseek/deepseek-chat",
"maxTokens": 8192
}
}
}
3.4 环境变量方式
除了配置文件,还可以通过环境变量来覆盖配置:
# 方式一:设置环境变量(推荐写入 ~/.zshrc 或 ~/.bashrc)
export ANTHROPIC_API_KEY="your-api-key"
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_DEFAULT_MODEL="anthropic/claude-sonnet-4-20250514"
# 方式二:临时设置(当前终端有效)
ANTHROPIC_API_KEY="your-api-key" ANTHROPIC_BASE_URL="https://api.siliconflow.cn/v1" claude
# 方式三:使用 .env 文件
# 在项目根目录创建 .env 文件
echo 'ANTHROPIC_API_KEY="your-api-key"' >> .env
echo 'ANTHROPIC_BASE_URL="https://api.siliconflow.cn/v1"' >> .env
环境变量优先级
环境变量 > 配置文件 > 默认值
四、配置方法二:使用 CC Switch 桌面工具切换模型
如果你喜欢图形化界面,CC Switch 是一个非常实用的 Claude Code 模型切换桌面工具,支持一键切换到各种国产大模型平台。
4.1 工具介绍
CC Switch 是一款功能强大的 Claude Code 模型供应商切换工具,具有以下特点:
| 功能 | 说明 |
|---|---|
| 🖥️ 图形界面 | 简洁易用的桌面应用 |
| 🔄 一键切换 | 快速切换不同模型供应商 |
| 📦 预设模板 | 内置多种国产平台预设 |
| 🔒 代理接管 | 自动配置代理和认证 |
| ☁️ 配置同步 | 支持 WebDAV 配置同步 |
| 🌐 健康检查 | 实时检测模型可用性 |
推荐理由
CC Switch 内置了几乎所有主流国产大模型的预设配置,只需填入 API Key 即可使用,非常适合不熟悉命令行配置的用户。
4.2 下载安装
访问 GitHub releases 页面下载对应版本:
macOS
# 方式一:Homebrew 安装(推荐)
brew tap farion1231/ccswitch
brew install --cask cc-switch
# 方式二:直接下载
# 下载 CC-Switch-v3.12.3-macOS.dmg 或 CC-Switch-v3.12.3-macOS.zip
Windows
# 下载并安装
# CC-Switch-v3.12.3-Windows.msi(推荐,安装版)
# CC-Switch-v3.12.3-Windows-Portable.zip(绿色版)
Linux
# Ubuntu/Debian
sudo dpkg -i CC-Switch-v3.12.3-Linux-x86_64.deb
# Fedora/RHEL
sudo rpm -i CC-Switch-v3.12.3-Linux-x86_64.rpm
# Arch Linux
# 使用 AUR 安装 cc-switch
4.3 配置使用
第一步:添加供应商
- 打开 CC Switch 应用程序
- 点击左侧「供应商」选项卡
- 点击右上角「+」添加新供应商
- 选择预设模板(如 SiliconFlow、DashScope、智谱 AI 等)
- 填入你的 API Key
- 点击保存
第二步:切换模型
- 在供应商列表中点击目标供应商
- 点击右上角「切换」按钮
- 工具会自动配置代理并写入配置文件
第三步:验证
# 查看当前配置
claude /status
# 确保显示你选择的模型
4.4 常用预设列表
CC Switch 内置了丰富的国产平台预设:
| 平台 | 预设名称 |
|---|---|
| SiliconFlow | SiliconFlow |
| 阿里云 DashScope | DashScope / 百炼 |
| 智谱 AI | Zhipu AI / 智谱 |
| MiniMax | MiniMax |
| 月之暗面 | Moonshot / Kimi |
| 白山智算 | Baishan |
| 阶跃星辰 | StepFun |
| 百度千帆 | Bailian |
| DeepSeek | DeepSeek |
4.5 命令行快速切换
如果你只想快速切换模型,也可以使用内置命令:
# 在对话中切换模型(交互式会话内)
/module claude-sonnet-4-20250514
# 命令行指定模型
claude --model claude-sonnet-4-20250514 "你的问题"
# 简写形式
claude -m claude-opus-4-5-20251120 "复杂推理任务"
4.6 快速切换脚本(可选)
你也可以创建自定义的快速切换脚本:
# 创建切换脚本目录
mkdir -p ~/claude-scripts
# 创建切换到 OpenRouter 的脚本
cat > ~/claude-scripts/use-openrouter.sh << 'EOF'
#!/bin/bash
export ANTHROPIC_API_KEY="your-openrouter-key"
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_DEFAULT_MODEL="anthropic/claude-sonnet-4-20250514"
echo "已切换到 OpenRouter 模型"
claude
EOF
# 创建切换到 SiliconFlow 的脚本
cat > ~/claude-scripts/use-siliconflow.sh << 'EOF'
#!/bin/bash
export ANTHROPIC_API_KEY="your-siliconflow-key"
export ANTHROPIC_BASE_URL="https://api.siliconflow.cn/v1"
export ANTHROPIC_DEFAULT_MODEL="Qwen/Qwen2.5-72B-Instruct"
echo "已切换到 SiliconFlow 模型"
claude
EOF
# 添加执行权限
chmod +x ~/claude-scripts/*.sh
# 使用方式
~/claude-scripts/use-openrouter.sh
五、配置方法三:会话级动态切换
在实际的开发过程中,你可能需要在不同的模型之间动态切换,下面介绍几种实用的方法。
5.1 对话内切换
在 Claude Code 的交互式会话中可以直接使用命令切换模型:
$ claude
👋 欢迎使用 Claude Code v2.1.79!
# 切换到 Opus 模型进行复杂任务
> /module opus-4-5-20251120
✅ 已切换到模型: opus-4-5-20251120
# 处理复杂问题...
# 切换回 Sonnet 模型处理简单任务
> /module sonnet-4-20250514
✅ 已切换到模型: sonnet-4-20250514
5.2 多会话并行使用
你可以在不同的终端窗口中使用不同的模型:
# 终端窗口 1:使用 Claude Opus(复杂任务)
claude --model opus-4-5-20251120 -n "complex-tasks"
# 终端窗口 2:使用国产模型(日常任务)
ANTHROPIC_BASE_URL="https://api.siliconflow.cn/v1" claude -n "daily-tasks"
# 终端窗口 3:使用 Haiku(快速查询)
claude --model claude-3-haiku-20240307 -n "quick-queries"
5.3 项目级配置
你还可以为特定项目设置专属的模型配置:
# 在项目根目录创建 .claude.json
cat > /path/to/your-project/.claude.json << 'EOF'
{
"model": "deepseek/deepseek-chat",
"maxTokens": 8192,
"temperature": 1,
"projectSettings": {
"autoSwitch": true,
"defaultModel": "domestic"
}
}
EOF
# 启动时自动使用项目配置
cd /path/to/your-project
claude
六、详细配置步骤
下面我们以具体的平台为例演示完整的配置流程。
6.1 OpenRouter 配置步骤
第一步:注册账号并获取 API Key
- 访问 openrouter.ai
- 注册账号(支持 Google、GitHub 登录)
- 进入 Settings → API Keys
- 点击 Create Key 创建新的 API Key
- 复制并保存好 API Key
第二步:配置 Claude Code
# 编辑配置文件
vim ~/.claude/settings.json
# 添加以下内容
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-or-v1-xxxxxxxxxxxxxxxxxxxxx",
"ANTHROPIC_BASE_URL": "https://openrouter.ai/api/v1",
"ANTHROPIC_MODEL": "anthropic/claude-sonnet-4-20250514"
},
"model": "anthropic/claude-sonnet-4-20250514",
"maxTokens": 8192
}
第三步:验证配置
# 测试连接
claude /status
# 或运行诊断
claude /doctor
6.2 SiliconFlow 配置步骤
第一步:注册账号
- 访问 siliconflow.cn
- 注册账号并完成实名认证
- 进入控制台 → API 密钥
- 创建新的 API Key
第二步:选择模型
SiliconFlow 支持众多国产模型,以下是常用模型列表:
| 模型名称 | 模型 ID | 适用场景 |
|---|---|---|
| Qwen2.5 72B | Qwen/Qwen2.5-72B-Instruct | 复杂推理 |
| Qwen2.5 32B | Qwen/Qwen2.5-32B-Instruct | 平衡性能 |
| Qwen2.5 7B | Qwen/Qwen2.5-7B-Instruct | 快速响应 |
| DeepSeek Chat | deepseek-ai/DeepSeek-Chat | 对话生成 |
| InternLM2 20B | internlm/internlm2-20b-chat | 指令执行 |
| Yi 1.5 34B | 01-ai/Yi-1.5-34B-Chat | 长文本处理 |
第三步:配置
# 编辑配置文件
vim ~/.claude/settings.json
# 添加 SiliconFlow 配置
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
"ANTHROPIC_BASE_URL": "https://api.siliconflow.cn/v1",
"ANTHROPIC_MODEL": "Qwen/Qwen2.5-72B-Instruct"
},
"model": "Qwen/Qwen2.5-72B-Instruct",
"maxTokens": 8192
}
6.3 DashScope 配置步骤
第一步:获取阿里云 DashScope API Key
- 访问 dashscope.aliyuncs.com
- 使用阿里云账号登录
- 进入控制台 → API-KEY 管理
- 创建 API Key
第二步:配置
vim ~/.claude/settings.json
# 添加 DashScope 配置
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
"ANTHROPIC_BASE_URL": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"ANTHROPIC_MODEL": "qwen-turbo"
},
"model": "qwen-turbo",
"maxTokens": 8192
}
注意
DashScope 使用的是兼容模式的 API 端点,确保 URL 中包含 /compatible-mode/v1。
6.4 智谱 AI 配置步骤
第一步:获取智谱 AI API Key
- 访问 z.ai 或 open.bigmodel.cn
- 注册账号并完成认证
- 进入控制台 → API Keys
- 创建新的 API Key
第二步:配置
vim ~/.claude/settings.json
# 通用 API 配置
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
"ANTHROPIC_BASE_URL": "https://api.z.ai/api/paas/v4/",
"ANTHROPIC_MODEL": "glm-4.7"
},
"model": "glm-4.7",
"maxTokens": 8192
}
# 编程专用配置(推荐代码生成使用)
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
"ANTHROPIC_BASE_URL": "https://api.z.ai/api/coding/paas/v4/",
"ANTHROPIC_MODEL": "glm-4.7"
},
"model": "glm-4.7",
"maxTokens": 8192
}
智谱 AI 常用模型
glm-5: 最新旗舰模型,200K 上下文glm-4.7: 性价比高,编程能力强glm-4.5-flash: 免费额度,性价比之选
6.5 MiniMax 配置步骤
第一步:获取 MiniMax API Key
- 访问 platform.minimax.io
- 注册账号
- 进入 API Keys 管理
- 创建 API Key
第二步:配置
vim ~/.claude/settings.json
# OpenAI 兼容模式
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
"ANTHROPIC_BASE_URL": "https://api.minimax.io/v1",
"ANTHROPIC_MODEL": "MiniMax-M2.7"
},
"model": "MiniMax-M2.7",
"maxTokens": 8192
}
# Anthropic 兼容模式(推荐)
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
"ANTHROPIC_BASE_URL": "https://api.minimax.io/anthropic",
"ANTHROPIC_MODEL": "MiniMax-M2.7"
},
"model": "MiniMax-M2.7",
"maxTokens": 8192
}
MiniMax 常用模型
MiniMax-M2.7: 最新旗舰,204K 上下文,推理能力强MiniMax-M2.7-highspeed: 高速版本,100 tps 输出MiniMax-M2.5: 高性价比MiniMax-M2.1: 多语言编程能力强
6.6 白山智算配置步骤
第一步:获取白山智算 API Key
- 访问 ai.baishan.com
- 注册账号并完成实名认证
- 进入控制台 → API 密钥
- 创建新的 API Key
第二步:配置
vim ~/.claude/settings.json
# 添加白山智算配置
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
"ANTHROPIC_BASE_URL": "https://api.edgefn.net/v1",
"ANTHROPIC_MODEL": "DeepSeek-R1-0528"
},
"model": "DeepSeek-R1-0528",
"maxTokens": 8192
}
白山智算常用模型
DeepSeek-R1-0528: 旗舰推理模型Qwen3-32B: 高性能开源模型Qwen3-8B: 轻量快速
七、高级配置技巧
7.1 模型自动选择
你可以通过设置规则来实现任务的自动模型选择:
{
"apiKey": "your-api-key",
"baseURL": "https://openrouter.ai/api/v1",
"model": "anthropic/claude-sonnet-4-20250514",
"autoModel": {
"enabled": true,
"rules": [
{
"keywords": ["简单", "快速", "查询"],
"model": "claude-3-haiku-20240307"
},
{
"keywords": ["复杂", "推理", "分析"],
"model": "claude-opus-4-5-20251120"
},
{
"keywords": ["国产", "中文", "本地"],
"model": "deepseek/deepseek-chat"
}
]
}
}
7.2 成本控制配置
设置预算限制,避免超额使用:
{
"apiKey": "your-api-key",
"baseURL": "https://openrouter.ai/api/v1",
"model": "anthropic/claude-sonnet-4-20250514",
"costControl": {
"monthlyBudget": 50,
"alertThreshold": 0.8,
"hardLimit": true
}
}
7.3 代理配置
如果你的网络环境需要代理:
{
"apiKey": "your-api-key",
"baseURL": "https://openrouter.ai/api/v1",
"model": "anthropic/claude-sonnet-4-20250514",
"proxy": {
"http": "http://127.0.0.1:7890",
"https": "http://127.0.0.1:7890"
}
}
八、常见问题与解决方案
问题一:API Key 无效
Error: Invalid API Key
解决方案:
- 检查 API Key 是否正确
- 确认 API Key 是否还有余额
- 检查 API Key 是否有对应模型的使用权限
# 验证 API Key
curl -H "Authorization: Bearer YOUR-API-KEY" https://openrouter.ai/api/v1/auth/verify
问题二:模型不支持
Error: Model not supported
解决方案:
- 确认模型名称拼写正确
- 检查模型是否在服务时间段内
- 查看平台支持的模型列表
# 查看 OpenRouter 支持的模型
curl https://openrouter.ai/docs/models | jq
问题三:网络连接超时
Error: Connection timeout
解决方案:
- 检查网络连接
- 配置代理
- 尝试其他 API 端点
# 测试网络连接
curl -I https://api.siliconflow.cn/v1/models
# 配置代理后重试
export HTTP_PROXY="http://127.0.0.1:7890"
export HTTPS_PROXY="http://127.0.0.1:7890"
问题四:余额不足
Error: Insufficient credits
解决方案:
- 登录对应平台充值
- 查看详细账单
- 设置消费提醒
问题五:配置不生效
解决方案:
- 检查配置文件路径是否正确
- 确认 JSON 格式正确
- 重启 Claude Code
# 检查配置文件
cat ~/.claude/settings.json | python3 -m json.tool
# 重新加载配置
claude /reload
九、配置模板汇总
为了方便大家使用,这里提供几种常用的配置模板。
9.1 OpenRouter 模板
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "",
"ANTHROPIC_BASE_URL": "https://openrouter.ai/api/v1",
"ANTHROPIC_MODEL": "anthropic/claude-sonnet-4-20250514"
},
"model": "anthropic/claude-sonnet-4-20250514",
"maxTokens": 8192,
"temperature": 1
}
9.2 SiliconFlow 模板
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "",
"ANTHROPIC_BASE_URL": "https://api.siliconflow.cn/v1",
"ANTHROPIC_MODEL": "Qwen/Qwen2.5-72B-Instruct"
},
"model": "Qwen/Qwen2.5-72B-Instruct",
"maxTokens": 8192,
"temperature": 1
}
9.3 DashScope 模板
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "",
"ANTHROPIC_BASE_URL": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"ANTHROPIC_MODEL": "qwen-turbo"
},
"model": "qwen-turbo",
"maxTokens": 8192,
"temperature": 1
}
9.4 Moonshot 模板
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "",
"ANTHROPIC_BASE_URL": "https://api.moonshot.cn/v1",
"ANTHROPIC_MODEL": "moonshot-v1-8k"
},
"model": "moonshot-v1-8k",
"maxTokens": 8192,
"temperature": 1
}
9.5 智谱 AI 模板
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "",
"ANTHROPIC_BASE_URL": "https://api.z.ai/api/paas/v4/",
"ANTHROPIC_MODEL": "glm-4.7"
},
"model": "glm-4.7",
"maxTokens": 8192,
"temperature": 1
}
9.6 MiniMax 模板
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "",
"ANTHROPIC_BASE_URL": "https://api.minimax.io/v1",
"ANTHROPIC_MODEL": "MiniMax-M2.7"
},
"model": "MiniMax-M2.7",
"maxTokens": 8192,
"temperature": 1
}
9.7 白山智算模板
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "",
"ANTHROPIC_BASE_URL": "https://api.edgefn.net/v1",
"ANTHROPIC_MODEL": "DeepSeek-R1-0528"
},
"model": "DeepSeek-R1-0528",
"maxTokens": 8192,
"temperature": 1
}
十、性能对比与选择建议
10.1 各平台延迟对比
| 平台 | 模型 | 平均延迟 | 备注 |
|---|---|---|---|
| OpenRouter | Claude Sonnet | 800-1500ms | 取决于出口地区 |
| SiliconFlow | Qwen2.5 72B | 300-600ms | 国内节点速度快 |
| DashScope | qwen-turbo | 200-400ms | 阿里云内网 |
| Moonshot | moonshot-v1 | 300-500ms | 响应速度快 |
| 智谱 AI | GLM-4.7 | 300-600ms | 国内节点 |
| MiniMax | M2.7 | 200-400ms | 204K 超长上下文 |
| 白山智算 | DeepSeek-R1 | <300ms | 边缘节点超低延迟 |
10.2 价格对比
| 平台 | 模型 | 价格(估算) | 单位 |
|---|---|---|---|
| OpenRouter | Claude Sonnet | $3/1M tokens | 输入 |
| SiliconFlow | Qwen2.5 72B | ¥6/1M tokens | 输入 |
| DashScope | qwen-turbo | ¥2.5/1M tokens | 输入 |
| Moonshot | moonshot-v1 | ¥12/1M tokens | 输入 |
| 智谱 AI | GLM-4.7 | ¥4/1M tokens | 输入 |
| MiniMax | M2.7 | ¥3/1M tokens | 输入 |
| 白山智算 | DeepSeek-R1 | ¥4/1M tokens | 输入 |
10.3 选择建议
| 场景 | 推荐平台 | 推荐模型 |
|---|---|---|
| 初次体验 | SiliconFlow | Qwen2.5 7B |
| 日常开发 | DashScope | qwen-turbo |
| 复杂推理 | OpenRouter | Claude Opus |
| 长文本处理 | MiniMax | M2.7 (200K 上下文) |
| 超低延迟 | 白山智算 | DeepSeek-R1 |
| 性价比优先 | DashScope | qwen-turbo |
| 代码生成 | 智谱 AI | GLM-4.7 (编程端点) |
十一、总结
| 配置方法 | 适用场景 | 难度 |
|---|---|---|
| JSON 配置文件 | 长期固定使用 | ⭐ |
| 环境变量 | 临时切换 | ⭐ |
| cc switch 命令 | 快速切换 | ⭐⭐ |
| 脚本切换 | 多模型管理 | ⭐⭐⭐ |
| 项目级配置 | 团队协作 | ⭐⭐ |
[!success]>
配置完成!现在你可以根据不同的需求灵活切换到国产大模型了。