最近 DeepSeek V4 刚出,号称百万上下文、Agent 编码能力对标甚至超越 Sonnet 4.5,API 价格还超级便宜:输入 1 元 / 百万 Tokens,输出 2 元 / 百万 Tokens(特别是现在 pro 还降价)。作为一枚工具折腾狂魔,我肯定要试试把它接入 Claude Code,看看体验如何。今天这篇就记录一下我折腾的全过程,从安装 Claude Code、装 CC Switch,到接入 DeepSeek V4、开启 1M 上下文和 Max 强推理模式,整个配置细节尽量用大白话说明白,力求你看完也能搭起来。特别是现在 pro 还降价(模型 & 价格 | DeepSeek API Docs),见图:
注意:本日记以 Windows 为例进行演示,macOS 和 Linux 思路完全一致,只是个别命令和工具版本有差异。文中部分 API Key 和路径仅作演示,务必换成你自己的 Key。
第 1 步:装好 Claude Code
在 Windows 上跑 Claude Code 之前,先确认满足三个硬性条件:**Node.js 18+、Git 2.38+**、以及可用的终端(推荐 PowerShell 或 Windows Terminal)。
1.1 一键安装(推荐用 WinGet)
打开 PowerShell 或 Windows Terminal,执行:
winget install Anthropic.ClaudeCode
如果没有 WinGet,可以用 npm 全局安装(全平台通用):
npm install -g @anthropic-ai/claude-code
安装完成后,在终端输入 claude 回车,看到交互界面就代表装好了。
1.2 如果你用的是桌面版
最新 Claude Code Desktop 已支持 Developer Mode,可以在桌面 UI 里直接配置第三方模型。
- 安装:从 code.claude.com/docs/en/des… 下载 Windows 安装包。
- 启用 Developer Mode:菜单栏 HELP → Troubleshooting → Enable Developer Mode,应用会自动重启:
- 接着菜单栏 Developer → Configure Third-Party Inference,选择 Gateway 模式,填入第三方模型的 Base URL 和 API Key,点击 Apply 再重启即可。
桌面版确实方便(但是 CC Swtich 更方便),但如果你和我一样,更喜欢使用终端,那就接着往下走。
第 2 步:装 CC Switch,用它管模型
我们要用到 CC Switch 这个图形化工具。它的作用简单来说,就是一个可视化的模型配置切换器,省去你每次手写环境变量的麻烦。它预设了 DeepSeek、Claude 官方、智谱 GLM、Kimi K2、Mini Max 等 17 个热门厂商的配置模板,也支持自定义添加。
2.1 下载 & 安装
去下面这个页面下载最新版本(目前 v3.14.1):github.com/farion1231/…
- Windows 用户:直接下载
.msi 安装包,双击运行即可完成安装。 - 其他平台参考:macOS 可用
.dmg,Linux 可用.AppImage。
2.2 启动注意事项
首次打开 Claude Code 时如果弹出登录引导,在 CC Switch 里打开 **「设置 → 通用」,勾选 「跳过 Claude Code 初次安装确认」**,然后手动重启 Claude Code 就可以了。
第 3 步:在 CC Switch 中引入 DeepSeek V4
3.1 拿到 DeepSeek API Key
先登录 platform.deepseek.com,在「API Keys」页面创建一个新的 Key,复制下来。
3.2 添加 Provider
打开 CC Switch 后:
- 点击右上角 **「+ Add Provider」**。
- 选择 DeepSeek 厂商。
- 在弹出的窗口中填入刚才复制的 API Key。
- 点击 Add 保存。
3.3 切换与验证
- 回到 CC Switch 主界面,选中刚添加的 DeepSeek 配置。
- 点击 「Enable」 让配置生效。
- 打开终端(PowerShell),进入项目目录,输入
claude进入。 - 在 Claude Code 中输入
/model选择模型,选好后回车确定。
第 4 步:重点——1M 上下文、Max 强推理 & 其他组合拳
4.1 模型名称与 Base URL
模型名直接填 deepseek-v4-pro(满血版)或 deepseek-v4-flash(轻量版),API Base URL 用 https://api.deepseek.com。
两个模型都支持 1M token 上下文。V4 Flash(284B 参数 / 13B 激活)更快更省;V4 Pro(1.6T 参数 / 49B 激活)推理和编码更强,复杂长上下文任务更稳。
4.2 1M 上下文:cc switch 需要加上[1m]后缀
4.3 Max 强推理模式
这是最关键的一步。社区实测发现,DeepSeek V4 初期编码表现平平,其实就是因为推理强度没拉满。因为默认 effort_level 为 xhigh:
可以每个会话都使用 /effort [level] 来改变推理强度:
因为 /effort 命令只可以临时切换强度,如果需要设置新开会话的默认推理强度为 max,则还需要进一步设置
方法一:图形界面操作
这是最直观的方法,无需手动编辑代码。在 CC Switch 的提供商设置里,可以找到一个推理强度的设置项:
- 在 CC Switch 界面中,点击希望配置 DeepSeek-V4 的 Provider (提供商)。
- 勾选 “最大强度思考” 选项。
- 保存配置,然后完全关闭并重启 Claude Code 即可。
- 经过测试,该方法无效,默认还是 xHigh 级别:
方法二:配置文件写入(最稳妥)
如果图形界面操作没找到上述设置项,直接修改配置文件是最稳妥的方式。
- 在 CC Switch 中,找到你为 DeepSeek-V4 创建的配置文件。它通常是一个独立的
.json文件,用于存放特定提供商的设置。 - 在配置文件的
env字段中,添加核心环境变量:"env": { "CLAUDE_CODE_EFFORT_LEVEL": "max"};保存配置,重新进入 cc 即可发现默认推理级别已经是 max
这样主模型和子代理都会带着 Max 推理能力跑满。
最后说说感受
整套流程走下来,最花时间的反而是下载和等编译。从装 Claude Code 到用 DeepSeek V4 跑通第一个任务,如果网络顺畅,大概二三十分钟就能搞定。1M 上下文加持下,一次喂整个代码仓库进去都能稳稳接住,Max 模式下的编码质量也完全不虚。
免责声明:以上内容仅为我个人的技术记录,涉及的工具与配置请以各官方最新文档为准。因自行修改或配置错误导致的费用损失,风险自负。如果本文对你有帮助,欢迎点赞、在看、转发支持一下 ~