Claude Code 接入 DeepSeek V4 全流程

0 阅读5分钟

最近 DeepSeek V4 刚出,号称百万上下文、Agent 编码能力对标甚至超越 Sonnet 4.5,API 价格还超级便宜:输入 1 元 / 百万 Tokens,输出 2 元 / 百万 Tokens(特别是现在 pro 还降价)。作为一枚工具折腾狂魔,我肯定要试试把它接入 Claude Code,看看体验如何。今天这篇就记录一下我折腾的全过程,从安装 Claude Code、装 CC Switch,到接入 DeepSeek V4、开启 1M 上下文和 Max 强推理模式,整个配置细节尽量用大白话说明白,力求你看完也能搭起来。特别是现在 pro 还降价(模型 & 价格 | DeepSeek API Docs),见图:

注意​:本日记以 Windows 为例进行演示,macOS 和 Linux 思路完全一致,只是个别命令和工具版本有差异。文中部分 API Key 和路径仅作演示,务必换成你自己的 Key。

第 1 步:装好 Claude Code

在 Windows 上跑 Claude Code 之前,先确认满足三个硬性条件:​**Node.js 18+​、​Git 2.38+**​、以及可用的终端(推荐 PowerShell 或 Windows Terminal)。

1.1 一键安装(推荐用 WinGet)

打开 PowerShell 或 Windows Terminal,执行:

winget install Anthropic.ClaudeCode

如果没有 WinGet,可以用 npm 全局安装(全平台通用):

npm install -g @anthropic-ai/claude-code

安装完成后,在终端输入 claude 回车,看到交互界面就代表装好了。

1.2 如果你用的是桌面版

最新 Claude Code Desktop 已支持 ​Developer Mode​,可以在桌面 UI 里直接配置第三方模型。

  • 安装:从 code.claude.com/docs/en/des… 下载 Windows 安装包。
  • 启用 Developer Mode:菜单栏 ​HELP → Troubleshooting → Enable Developer Mode​,应用会自动重启:
  • 接着菜单栏 ​Developer → Configure Third-Party Inference​,选择 Gateway 模式,填入第三方模型的 Base URL 和 API Key,点击 Apply 再重启即可。

桌面版确实方便(但是 CC Swtich 更方便),但如果你和我一样,更喜欢使用终端,那就接着往下走。

第 2 步:装 CC Switch,用它管模型

我们要用到 CC Switch 这个图形化工具。它的作用简单来说,就是一个可视化的模型配置切换器,省去你每次手写环境变量的麻烦。它预设了 DeepSeek、Claude 官方、智谱 GLM、Kimi K2、Mini Max 等 17 个热门厂商的配置模板,也支持自定义添加。

2.1 下载 & 安装

去下面这个页面下载最新版本(目前 v3.14.1):github.com/farion1231/…

  • Windows 用户​:直接下载 . msi 安装包,双击运行即可完成安装。
  • 其他平台参考:macOS 可用 .dmg,Linux 可用 .AppImage

2.2 启动注意事项

首次打开 Claude Code 时如果弹出登录引导,在 CC Switch 里打开 ​**「设置 → 通用」​,勾选 ​「跳过 Claude Code 初次安装确认」**​,然后手动重启 Claude Code 就可以了。

第 3 步:在 CC Switch 中引入 DeepSeek V4

3.1 拿到 DeepSeek API Key

先登录 platform.deepseek.com,在「API Keys」页面创建一个新的 Key,复制下来。

3.2 添加 Provider

打开 CC Switch 后:

  1. 点击右上角 ​**「+ Add Provider」**​。
  2. 选择 DeepSeek 厂商。
  3. 在弹出的窗口中填入刚才复制的 API Key。
  4. 点击 Add 保存。

3.3 切换与验证

  • 回到 CC Switch 主界面,选中刚添加的 DeepSeek 配置。
  • 点击 「Enable」 让配置生效。
  • 打开终端(PowerShell),进入项目目录,输入 claude 进入。
  • 在 Claude Code 中输入 /model 选择模型,选好后回车确定。

第 4 步:重点——1M 上下文、Max 强推理 & 其他组合拳

4.1 模型名称与 Base URL

模型名直接填 deepseek-v4-pro(满血版)或 deepseek-v4-flash(轻量版),API Base URL 用 https://api.deepseek.com

两个模型都支持 1M token 上下文。V4 Flash(284B 参数 / 13B 激活)更快更省;V4 Pro(1.6T 参数 / 49B 激活)推理和编码更强,复杂长上下文任务更稳。

4.2 1M 上下文:cc switch 需要加上[1m]后缀

4.3 Max 强推理模式

这是最关键的一步。社区实测发现,DeepSeek V4 初期编码表现平平,其实就是因为推理强度没拉满。因为默认 effort_level 为 xhigh:

可以每个会话都使用 /effort [level] 来改变推理强度:

因为 /effort 命令只可以临时切换强度,如果需要设置新开会话的默认推理强度为 max,则还需要进一步设置

方法一:图形界面操作

这是最直观的方法,无需手动编辑代码。在 CC Switch 的提供商设置里,可以找到一个推理强度的设置项:

  1. 在 CC Switch 界面中,点击希望配置 DeepSeek-V4 的 Provider (提供商)。
  2. 勾选 “最大强度思考” 选项。
  3. 保存配置,然后完全关闭并重启 Claude Code 即可。
  4. 经过测试,该方法无效,默认还是 xHigh 级别:

方法二:配置文件写入(最稳妥)

如果图形界面操作没找到上述设置项,直接修改配置文件是最稳妥的方式。

  1. 在 CC Switch 中,找到你为 DeepSeek-V4 创建的配置文件。它通常是一个独立的 .json 文件,用于存放特定提供商的设置。
  2. 在配置文件的 env 字段中,添加核心环境变量:"env": { "CLAUDE_CODE_EFFORT_LEVEL": "max"};保存配置,重新进入 cc 即可发现默认推理级别已经是 max

这样主模型和子代理都会带着 Max 推理能力跑满。

最后说说感受

整套流程走下来,最花时间的反而是下载和等编译。从装 Claude Code 到用 DeepSeek V4 跑通第一个任务,如果网络顺畅,大概二三十分钟就能搞定。1M 上下文加持下,一次喂整个代码仓库进去都能稳稳接住,Max 模式下的编码质量也完全不虚。

免责声明​:以上内容仅为我个人的技术记录,涉及的工具与配置请以各官方最新文档为准。因自行修改或配置错误导致的费用损失,风险自负。如果本文对你有帮助,欢迎点赞、在看、转发支持一下 ~