在 Claude Code 里跑 DeepSeek-V4-Pro,三步搞定

0 阅读1分钟

DeepSeek-V4 上周发布,1.6T 参数 / 49B 激活,原生 1M 上下文,官方同步支持 OpenAI ChatCompletions 与 Anthropic 两套接口 Qbit AI——这意味着不用任何代理转换,就能让 Claude Code 跑在国产模型上。

WeChatWorkScreenshot_abb3e0f1-9291-4a61-bed3-e3bde5fcd2b8.png

三步接入:

npm i -g @anthropic-ai/claude-code

编辑 ~/.claude/settings.json

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "BOCHA-API-KEY",
    "ANTHROPIC_BASE_URL": "https://api.bocha.cn"
  },
  "model": "deepseek-v4-pro"
}

启动 claude 即可。省钱可换 deepseek-v4-flash

几个坑:

  • 字段是 ANTHROPIC_AUTH_TOKEN 不是 API_KEY,写错一直 401
  • 复杂任务手动把 reasoning_effort 拉到 max,质量差挺多
  • 1M 上下文是真能用,喂整个 repo 做架构梳理不胡说,但延迟会上去
  • 老模型名 deepseek-chatdeepseek-reasoner 7 月 24 日停用,生产环境记得迁移
  • BOCHA-API-KEY在open.bocha.cn申请

V4-Pro 输出 24 元/百万 token,大概是 Opus 的零头。复杂推理跟 Opus 4.6 思考模式还有差距,日常 coding 够用了。 640