🚀 Claude Code 番外篇:国产大模型配置指南

0 阅读8分钟

在上一篇文章中,我们介绍了 Claude Code 的安装和首次体验。随着国产大模型的快速发展,越来越多的开发者希望将 Claude Code 与国内的大模型 API 进行整合,以获得更好的访问速度和本地化支持。本文将详细介绍多种配置方法,帮助你轻松切换到国产大模型!


一、为什么要配置国产大模型?

在正式进入配置教程之前,让我们先了解一下配置国产大模型的主要优势:

优势说明
🚀 访问速度快国内 API 延迟低,响应速度快
💰 成本更可控价格相对稳定,无汇率波动影响
🔒 数据安全数据出境更有保障
🌐 网络稳定无需翻墙,连接稳定可靠
📋 合规性好符合国内法规要求

适用场景

  • 国内团队协作开发
  • 对响应速度有较高要求的项目
  • 需要控制 API 使用成本的开发者
  • 企业内部使用,需要数据合规的场景

二、主流国产大模型平台介绍

在配置之前,我们先来了解一下国内主流的大模型 API 平台:

2.1 OpenRouter

OpenRouter 是一个支持多种模型聚合的平台,提供统一的 API 接口:

特点说明
🌐 官网openrouter.ai
💵 计费按 token 计费,支持国内支付
🤖 模型支持 Claude、GPT、国产模型等
🔑 获取方式注册后创建 API Key

2.2 SiliconFlow(硅基流动)

国内领先的 AI 模型云服务平台:

特点说明
🌐 官网siliconflow.cn
💵 计费国内支付方便,价格实惠
🤖 模型Qwen、DeepSeek、InternLM 等
🔑 获取方式注册后获取 API Key

2.3 阿里云 DashScope

阿里云推出的大模型服务平台:

特点说明
🌐 官网bailian.console.aliyun.com/
💵 计费阿里云账户按量计费
🤖 模型Qwen 系列、通义千问
🔑 获取方式阿里云控制台获取

2.4 百度智能云千帆

百度推出的大模型开发平台:

特点说明
🌐 官网cloud.baidu.com/product/wen…
💵 计费百度云账户按量计费
🤖 模型ERNIE 系列、文心一言
🔑 获取方式百度智能云控制台获取

2.5 月之暗面 Moonshot

月之暗面推出的 Kimi 大模型:

特点说明
🌐 官网platform.moonshot.cn
💵 计费国内支付,价格透明
🤖 模型Kimi 系列
🔑 获取方式注册后获取 API Key

2.6 智谱 AI (Zhipu AI)

清华技术出身的国产大模型平台:

特点说明
🌐 官网z.ai
💵 计费按 token 计费,有免费额度
🤖 模型GLM-5、GLM-4.7、GLM-4.5 系列
🔑 获取方式注册后获取 API Key

2.7 MiniMax

AI 基础设施公司,提供超长上下文模型:

特点说明
🌐 官网platform.minimax.io
💵 计费按 token 计费,支持国内支付
🤖 模型M2.7、M2.5、M2.1 系列
🔑 获取方式注册后获取 API Key

2.8 白山智算

基于边缘云架构的 AI 模型服务平台:

特点说明
🌐 官网ai.baishan.com/auth/login?…
💵 计费按 token 计费,<300ms 超低延迟
🤖 模型GLM-5、GLM-4.7、GLM-4.5、DeepSeek-R1、Qwen3 系列
🔑 获取方式注册后获取 API Key

选择建议

如果你是第一次配置,建议从 OpenRouter 或 SiliconFlow 开始,它们对新手友好且支持多种模型。


三、配置方法一:直接修改 JSON 配置文件

这是最常用也是最灵活的配置方法,通过修改 Claude Code 的配置文件来实现模型切换。

3.1 配置文件位置

Claude Code 的配置文件位于用户主目录下:

操作系统配置文件路径
🍎 macOS~/.claude/settings.json
🐧 Linux~/.claude/settings.json
🪟 Windows%USERPROFILE%.claude/settings.json

3.2 基础配置示例

# 查看当前配置文件
cat ~/.claude/settings.json

# 如果文件不存在,创建配置文件
touch ~/.claude/settings.json

OpenRouter 配置示例

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "your-openrouter-api-key",
    "ANTHROPIC_BASE_URL": "https://openrouter.ai/api/v1",
    "ANTHROPIC_MODEL": "anthropic/claude-sonnet-4-20250514"
  },
  "model": "anthropic/claude-sonnet-4-20250514",
  "maxTokens": 8192,
  "temperature": 1
}

SiliconFlow 配置示例

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "your-siliconflow-api-key",
    "ANTHROPIC_BASE_URL": "https://api.siliconflow.cn/v1",
    "ANTHROPIC_MODEL": "Qwen/Qwen2.5-72B-Instruct"
  },
  "model": "Qwen/Qwen2.5-72B-Instruct",
  "maxTokens": 8192,
  "temperature": 1
}

DashScope 配置示例

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "your-dashscope-api-key",
    "ANTHROPIC_BASE_URL": "https://dashscope.aliyuncs.com/compatible-mode/v1",
    "ANTHROPIC_MODEL": "qwen-turbo"
  },
  "model": "qwen-turbo",
  "maxTokens": 8192,
  "temperature": 1
}

Moonshot 配置示例

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "your-moonshot-api-key",
    "ANTHROPIC_BASE_URL": "https://api.moonshot.cn/v1",
    "ANTHROPIC_MODEL": "moonshot-v1-8k"
  },
  "model": "moonshot-v1-8k",
  "maxTokens": 8192,
  "temperature": 1
}

智谱 AI (Zhipu) 配置示例

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "your-zhipu-api-key",
    "ANTHROPIC_BASE_URL": "https://api.z.ai/api/paas/v4/",
    "ANTHROPIC_MODEL": "glm-4.7"
  },
  "model": "glm-4.7",
  "maxTokens": 8192,
  "temperature": 1
}

智谱 AI 编程专用端点

如果主要用于代码生成,可以使用编程专用端点:https://api.z.ai/api/coding/paas/v4/

MiniMax 配置示例

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "your-minimax-api-key",
    "ANTHROPIC_BASE_URL": "https://api.minimax.io/v1",
    "ANTHROPIC_MODEL": "MiniMax-M2.7"
  },
  "model": "MiniMax-M2.7",
  "maxTokens": 8192,
  "temperature": 1
}

MiniMax Anthropic 兼容模式

MiniMax 还支持 Anthropic 兼容模式,可以将 baseURL 设置为 https://api.minimax.io/anthropic

白山智算配置示例

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "your-baishan-api-key",
    "ANTHROPIC_BASE_URL": "https://api.edgefn.net/v1",
    "ANTHROPIC_MODEL": "DeepSeek-R1-0528"
  },
  "model": "DeepSeek-R1-0528",
  "maxTokens": 8192,
  "temperature": 1
}

3.3 多模型配置

如果你需要频繁切换不同的模型,可以在配置文件中设置多个预设:

{
  "apiKey": "your-openrouter-api-key",
  "baseURL": "https://openrouter.ai/api/v1",
  "model": "anthropic/claude-sonnet-4-20250514",
  "presets": {
    "fast": {
      "model": "anthropic/claude-3-haiku-20240307",
      "maxTokens": 4096
    },
    "balanced": {
      "model": "anthropic/claude-sonnet-4-20250514",
      "maxTokens": 8192
    },
    "powerful": {
      "model": "anthropic/claude-opus-4-5-20251120",
      "maxTokens": 200000
    },
    "domestic": {
      "model": "deepseek/deepseek-chat",
      "maxTokens": 8192
    }
  }
}

3.4 环境变量方式

除了配置文件,还可以通过环境变量来覆盖配置:

# 方式一:设置环境变量(推荐写入 ~/.zshrc 或 ~/.bashrc)
export ANTHROPIC_API_KEY="your-api-key"
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_DEFAULT_MODEL="anthropic/claude-sonnet-4-20250514"

# 方式二:临时设置(当前终端有效)
ANTHROPIC_API_KEY="your-api-key" ANTHROPIC_BASE_URL="https://api.siliconflow.cn/v1" claude

# 方式三:使用 .env 文件
# 在项目根目录创建 .env 文件
echo 'ANTHROPIC_API_KEY="your-api-key"' >> .env
echo 'ANTHROPIC_BASE_URL="https://api.siliconflow.cn/v1"' >> .env

环境变量优先级

环境变量 > 配置文件 > 默认值


四、配置方法二:使用 CC Switch 桌面工具切换模型

如果你喜欢图形化界面,CC Switch 是一个非常实用的 Claude Code 模型切换桌面工具,支持一键切换到各种国产大模型平台。

4.1 工具介绍

CC Switch 是一款功能强大的 Claude Code 模型供应商切换工具,具有以下特点:

功能说明
🖥️ 图形界面简洁易用的桌面应用
🔄 一键切换快速切换不同模型供应商
📦 预设模板内置多种国产平台预设
🔒 代理接管自动配置代理和认证
☁️ 配置同步支持 WebDAV 配置同步
🌐 健康检查实时检测模型可用性

推荐理由

CC Switch 内置了几乎所有主流国产大模型的预设配置,只需填入 API Key 即可使用,非常适合不熟悉命令行配置的用户。

4.2 下载安装

访问 GitHub releases 页面下载对应版本: Pasted image 20260324162608.png

macOS

# 方式一:Homebrew 安装(推荐)
brew tap farion1231/ccswitch
brew install --cask cc-switch

# 方式二:直接下载
# 下载 CC-Switch-v3.12.3-macOS.dmg 或 CC-Switch-v3.12.3-macOS.zip

Windows

# 下载并安装
# CC-Switch-v3.12.3-Windows.msi(推荐,安装版)
# CC-Switch-v3.12.3-Windows-Portable.zip(绿色版)

Linux

# Ubuntu/Debian
sudo dpkg -i CC-Switch-v3.12.3-Linux-x86_64.deb

# Fedora/RHEL
sudo rpm -i CC-Switch-v3.12.3-Linux-x86_64.rpm

# Arch Linux
# 使用 AUR 安装 cc-switch

Pasted image 20260324162650.png

4.3 配置使用

image.png

第一步:添加供应商

  1. 打开 CC Switch 应用程序
  2. 点击左侧「供应商」选项卡
  3. 点击右上角「+」添加新供应商
  4. 选择预设模板(如 SiliconFlow、DashScope、智谱 AI 等)
  5. 填入你的 API Key
  6. 点击保存

image.png 第二步:切换模型

  1. 在供应商列表中点击目标供应商
  2. 点击右上角「切换」按钮
  3. 工具会自动配置代理并写入配置文件

image.png

第三步:验证

# 查看当前配置
claude /status

# 确保显示你选择的模型

4.4 常用预设列表

CC Switch 内置了丰富的国产平台预设:

平台预设名称
SiliconFlowSiliconFlow
阿里云 DashScopeDashScope / 百炼
智谱 AIZhipu AI / 智谱
MiniMaxMiniMax
月之暗面Moonshot / Kimi
白山智算Baishan
阶跃星辰StepFun
百度千帆Bailian
DeepSeekDeepSeek

4.5 命令行快速切换

如果你只想快速切换模型,也可以使用内置命令:

# 在对话中切换模型(交互式会话内)
/module claude-sonnet-4-20250514

# 命令行指定模型
claude --model claude-sonnet-4-20250514 "你的问题"

# 简写形式
claude -m claude-opus-4-5-20251120 "复杂推理任务"

4.6 快速切换脚本(可选)

你也可以创建自定义的快速切换脚本:

# 创建切换脚本目录
mkdir -p ~/claude-scripts

# 创建切换到 OpenRouter 的脚本
cat > ~/claude-scripts/use-openrouter.sh << 'EOF'
#!/bin/bash
export ANTHROPIC_API_KEY="your-openrouter-key"
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_DEFAULT_MODEL="anthropic/claude-sonnet-4-20250514"
echo "已切换到 OpenRouter 模型"
claude
EOF

# 创建切换到 SiliconFlow 的脚本
cat > ~/claude-scripts/use-siliconflow.sh << 'EOF'
#!/bin/bash
export ANTHROPIC_API_KEY="your-siliconflow-key"
export ANTHROPIC_BASE_URL="https://api.siliconflow.cn/v1"
export ANTHROPIC_DEFAULT_MODEL="Qwen/Qwen2.5-72B-Instruct"
echo "已切换到 SiliconFlow 模型"
claude
EOF

# 添加执行权限
chmod +x ~/claude-scripts/*.sh

# 使用方式
~/claude-scripts/use-openrouter.sh

五、配置方法三:会话级动态切换

在实际的开发过程中,你可能需要在不同的模型之间动态切换,下面介绍几种实用的方法。

5.1 对话内切换

在 Claude Code 的交互式会话中可以直接使用命令切换模型:

$ claude

👋 欢迎使用 Claude Code v2.1.79!

# 切换到 Opus 模型进行复杂任务
> /module opus-4-5-20251120
✅ 已切换到模型: opus-4-5-20251120

# 处理复杂问题...

# 切换回 Sonnet 模型处理简单任务
> /module sonnet-4-20250514
✅ 已切换到模型: sonnet-4-20250514

5.2 多会话并行使用

你可以在不同的终端窗口中使用不同的模型:

# 终端窗口 1:使用 Claude Opus(复杂任务)
claude --model opus-4-5-20251120 -n "complex-tasks"

# 终端窗口 2:使用国产模型(日常任务)
ANTHROPIC_BASE_URL="https://api.siliconflow.cn/v1" claude -n "daily-tasks"

# 终端窗口 3:使用 Haiku(快速查询)
claude --model claude-3-haiku-20240307 -n "quick-queries"

5.3 项目级配置

你还可以为特定项目设置专属的模型配置:

# 在项目根目录创建 .claude.json
cat > /path/to/your-project/.claude.json << 'EOF'
{
  "model": "deepseek/deepseek-chat",
  "maxTokens": 8192,
  "temperature": 1,
  "projectSettings": {
    "autoSwitch": true,
    "defaultModel": "domestic"
  }
}
EOF

# 启动时自动使用项目配置
cd /path/to/your-project
claude

六、详细配置步骤

下面我们以具体的平台为例演示完整的配置流程。

6.1 OpenRouter 配置步骤

第一步:注册账号并获取 API Key

  1. 访问 openrouter.ai
  2. 注册账号(支持 Google、GitHub 登录)
  3. 进入 Settings → API Keys
  4. 点击 Create Key 创建新的 API Key
  5. 复制并保存好 API Key

第二步:配置 Claude Code

# 编辑配置文件
vim ~/.claude/settings.json

# 添加以下内容
{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-or-v1-xxxxxxxxxxxxxxxxxxxxx",
    "ANTHROPIC_BASE_URL": "https://openrouter.ai/api/v1",
    "ANTHROPIC_MODEL": "anthropic/claude-sonnet-4-20250514"
  },
  "model": "anthropic/claude-sonnet-4-20250514",
  "maxTokens": 8192
}

第三步:验证配置

# 测试连接
claude /status

# 或运行诊断
claude /doctor

6.2 SiliconFlow 配置步骤

第一步:注册账号

  1. 访问 siliconflow.cn
  2. 注册账号并完成实名认证
  3. 进入控制台 → API 密钥
  4. 创建新的 API Key

第二步:选择模型

SiliconFlow 支持众多国产模型,以下是常用模型列表:

模型名称模型 ID适用场景
Qwen2.5 72BQwen/Qwen2.5-72B-Instruct复杂推理
Qwen2.5 32BQwen/Qwen2.5-32B-Instruct平衡性能
Qwen2.5 7BQwen/Qwen2.5-7B-Instruct快速响应
DeepSeek Chatdeepseek-ai/DeepSeek-Chat对话生成
InternLM2 20Binternlm/internlm2-20b-chat指令执行
Yi 1.5 34B01-ai/Yi-1.5-34B-Chat长文本处理

第三步:配置

# 编辑配置文件
vim ~/.claude/settings.json

# 添加 SiliconFlow 配置
{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
    "ANTHROPIC_BASE_URL": "https://api.siliconflow.cn/v1",
    "ANTHROPIC_MODEL": "Qwen/Qwen2.5-72B-Instruct"
  },
  "model": "Qwen/Qwen2.5-72B-Instruct",
  "maxTokens": 8192
}

6.3 DashScope 配置步骤

第一步:获取阿里云 DashScope API Key

  1. 访问 dashscope.aliyuncs.com
  2. 使用阿里云账号登录
  3. 进入控制台 → API-KEY 管理
  4. 创建 API Key

第二步:配置

vim ~/.claude/settings.json

# 添加 DashScope 配置
{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
    "ANTHROPIC_BASE_URL": "https://dashscope.aliyuncs.com/compatible-mode/v1",
    "ANTHROPIC_MODEL": "qwen-turbo"
  },
  "model": "qwen-turbo",
  "maxTokens": 8192
}

注意

DashScope 使用的是兼容模式的 API 端点,确保 URL 中包含 /compatible-mode/v1

6.4 智谱 AI 配置步骤

第一步:获取智谱 AI API Key

  1. 访问 z.aiopen.bigmodel.cn
  2. 注册账号并完成认证
  3. 进入控制台 → API Keys
  4. 创建新的 API Key

第二步:配置

vim ~/.claude/settings.json

# 通用 API 配置
{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
    "ANTHROPIC_BASE_URL": "https://api.z.ai/api/paas/v4/",
    "ANTHROPIC_MODEL": "glm-4.7"
  },
  "model": "glm-4.7",
  "maxTokens": 8192
}

# 编程专用配置(推荐代码生成使用)
{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
    "ANTHROPIC_BASE_URL": "https://api.z.ai/api/coding/paas/v4/",
    "ANTHROPIC_MODEL": "glm-4.7"
  },
  "model": "glm-4.7",
  "maxTokens": 8192
}

智谱 AI 常用模型

  • glm-5: 最新旗舰模型,200K 上下文
  • glm-4.7: 性价比高,编程能力强
  • glm-4.5-flash: 免费额度,性价比之选

6.5 MiniMax 配置步骤

第一步:获取 MiniMax API Key

  1. 访问 platform.minimax.io
  2. 注册账号
  3. 进入 API Keys 管理
  4. 创建 API Key

第二步:配置

vim ~/.claude/settings.json

# OpenAI 兼容模式
{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
    "ANTHROPIC_BASE_URL": "https://api.minimax.io/v1",
    "ANTHROPIC_MODEL": "MiniMax-M2.7"
  },
  "model": "MiniMax-M2.7",
  "maxTokens": 8192
}

# Anthropic 兼容模式(推荐)
{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
    "ANTHROPIC_BASE_URL": "https://api.minimax.io/anthropic",
    "ANTHROPIC_MODEL": "MiniMax-M2.7"
  },
  "model": "MiniMax-M2.7",
  "maxTokens": 8192
}

MiniMax 常用模型

  • MiniMax-M2.7: 最新旗舰,204K 上下文,推理能力强
  • MiniMax-M2.7-highspeed: 高速版本,100 tps 输出
  • MiniMax-M2.5: 高性价比
  • MiniMax-M2.1: 多语言编程能力强

6.6 白山智算配置步骤

第一步:获取白山智算 API Key

  1. 访问 ai.baishan.com
  2. 注册账号并完成实名认证
  3. 进入控制台 → API 密钥
  4. 创建新的 API Key

第二步:配置

vim ~/.claude/settings.json

# 添加白山智算配置
{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-xxxxxxxxxxxxxxxxxxxxx",
    "ANTHROPIC_BASE_URL": "https://api.edgefn.net/v1",
    "ANTHROPIC_MODEL": "DeepSeek-R1-0528"
  },
  "model": "DeepSeek-R1-0528",
  "maxTokens": 8192
}

白山智算常用模型

  • DeepSeek-R1-0528: 旗舰推理模型
  • Qwen3-32B: 高性能开源模型
  • Qwen3-8B: 轻量快速

七、高级配置技巧

7.1 模型自动选择

你可以通过设置规则来实现任务的自动模型选择:

{
  "apiKey": "your-api-key",
  "baseURL": "https://openrouter.ai/api/v1",
  "model": "anthropic/claude-sonnet-4-20250514",
  "autoModel": {
    "enabled": true,
    "rules": [
      {
        "keywords": ["简单", "快速", "查询"],
        "model": "claude-3-haiku-20240307"
      },
      {
        "keywords": ["复杂", "推理", "分析"],
        "model": "claude-opus-4-5-20251120"
      },
      {
        "keywords": ["国产", "中文", "本地"],
        "model": "deepseek/deepseek-chat"
      }
    ]
  }
}

7.2 成本控制配置

设置预算限制,避免超额使用:

{
  "apiKey": "your-api-key",
  "baseURL": "https://openrouter.ai/api/v1",
  "model": "anthropic/claude-sonnet-4-20250514",
  "costControl": {
    "monthlyBudget": 50,
    "alertThreshold": 0.8,
    "hardLimit": true
  }
}

7.3 代理配置

如果你的网络环境需要代理:

{
  "apiKey": "your-api-key",
  "baseURL": "https://openrouter.ai/api/v1",
  "model": "anthropic/claude-sonnet-4-20250514",
  "proxy": {
    "http": "http://127.0.0.1:7890",
    "https": "http://127.0.0.1:7890"
  }
}

八、常见问题与解决方案

问题一:API Key 无效

Error: Invalid API Key

解决方案

  1. 检查 API Key 是否正确
  2. 确认 API Key 是否还有余额
  3. 检查 API Key 是否有对应模型的使用权限
# 验证 API Key
curl -H "Authorization: Bearer YOUR-API-KEY" https://openrouter.ai/api/v1/auth/verify

问题二:模型不支持

Error: Model not supported

解决方案

  1. 确认模型名称拼写正确
  2. 检查模型是否在服务时间段内
  3. 查看平台支持的模型列表
# 查看 OpenRouter 支持的模型
curl https://openrouter.ai/docs/models | jq

问题三:网络连接超时

Error: Connection timeout

解决方案

  1. 检查网络连接
  2. 配置代理
  3. 尝试其他 API 端点
# 测试网络连接
curl -I https://api.siliconflow.cn/v1/models

# 配置代理后重试
export HTTP_PROXY="http://127.0.0.1:7890"
export HTTPS_PROXY="http://127.0.0.1:7890"

问题四:余额不足

Error: Insufficient credits

解决方案

  1. 登录对应平台充值
  2. 查看详细账单
  3. 设置消费提醒

问题五:配置不生效

解决方案

  1. 检查配置文件路径是否正确
  2. 确认 JSON 格式正确
  3. 重启 Claude Code
# 检查配置文件
cat ~/.claude/settings.json | python3 -m json.tool

# 重新加载配置
claude /reload

九、配置模板汇总

为了方便大家使用,这里提供几种常用的配置模板。

9.1 OpenRouter 模板

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "",
    "ANTHROPIC_BASE_URL": "https://openrouter.ai/api/v1",
    "ANTHROPIC_MODEL": "anthropic/claude-sonnet-4-20250514"
  },
  "model": "anthropic/claude-sonnet-4-20250514",
  "maxTokens": 8192,
  "temperature": 1
}

9.2 SiliconFlow 模板

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "",
    "ANTHROPIC_BASE_URL": "https://api.siliconflow.cn/v1",
    "ANTHROPIC_MODEL": "Qwen/Qwen2.5-72B-Instruct"
  },
  "model": "Qwen/Qwen2.5-72B-Instruct",
  "maxTokens": 8192,
  "temperature": 1
}

9.3 DashScope 模板

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "",
    "ANTHROPIC_BASE_URL": "https://dashscope.aliyuncs.com/compatible-mode/v1",
    "ANTHROPIC_MODEL": "qwen-turbo"
  },
  "model": "qwen-turbo",
  "maxTokens": 8192,
  "temperature": 1
}

9.4 Moonshot 模板

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "",
    "ANTHROPIC_BASE_URL": "https://api.moonshot.cn/v1",
    "ANTHROPIC_MODEL": "moonshot-v1-8k"
  },
  "model": "moonshot-v1-8k",
  "maxTokens": 8192,
  "temperature": 1
}

9.5 智谱 AI 模板

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "",
    "ANTHROPIC_BASE_URL": "https://api.z.ai/api/paas/v4/",
    "ANTHROPIC_MODEL": "glm-4.7"
  },
  "model": "glm-4.7",
  "maxTokens": 8192,
  "temperature": 1
}

9.6 MiniMax 模板

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "",
    "ANTHROPIC_BASE_URL": "https://api.minimax.io/v1",
    "ANTHROPIC_MODEL": "MiniMax-M2.7"
  },
  "model": "MiniMax-M2.7",
  "maxTokens": 8192,
  "temperature": 1
}

9.7 白山智算模板

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "",
    "ANTHROPIC_BASE_URL": "https://api.edgefn.net/v1",
    "ANTHROPIC_MODEL": "DeepSeek-R1-0528"
  },
  "model": "DeepSeek-R1-0528",
  "maxTokens": 8192,
  "temperature": 1
}

十、性能对比与选择建议

10.1 各平台延迟对比

平台模型平均延迟备注
OpenRouterClaude Sonnet800-1500ms取决于出口地区
SiliconFlowQwen2.5 72B300-600ms国内节点速度快
DashScopeqwen-turbo200-400ms阿里云内网
Moonshotmoonshot-v1300-500ms响应速度快
智谱 AIGLM-4.7300-600ms国内节点
MiniMaxM2.7200-400ms204K 超长上下文
白山智算DeepSeek-R1<300ms边缘节点超低延迟

10.2 价格对比

平台模型价格(估算)单位
OpenRouterClaude Sonnet$3/1M tokens输入
SiliconFlowQwen2.5 72B¥6/1M tokens输入
DashScopeqwen-turbo¥2.5/1M tokens输入
Moonshotmoonshot-v1¥12/1M tokens输入
智谱 AIGLM-4.7¥4/1M tokens输入
MiniMaxM2.7¥3/1M tokens输入
白山智算DeepSeek-R1¥4/1M tokens输入

10.3 选择建议

场景推荐平台推荐模型
初次体验SiliconFlowQwen2.5 7B
日常开发DashScopeqwen-turbo
复杂推理OpenRouterClaude Opus
长文本处理MiniMaxM2.7 (200K 上下文)
超低延迟白山智算DeepSeek-R1
性价比优先DashScopeqwen-turbo
代码生成智谱 AIGLM-4.7 (编程端点)

十一、总结

配置方法适用场景难度
JSON 配置文件长期固定使用
环境变量临时切换
cc switch 命令快速切换⭐⭐
脚本切换多模型管理⭐⭐⭐
项目级配置团队协作⭐⭐

[!success]>
配置完成!现在你可以根据不同的需求灵活切换到国产大模型了。