就在昨天,DeepSeek V4 Preview 发布,同步开源。
从技术报告里的 benchmark 数据到社区的实测反馈,到处都在讨论,刷屏了。
开源模型在对话和写作上已经做得相当成熟,各家你追我赶,迭代速度肉眼可见。但 Agent Coding 是另一回事。
让模型自主分析项目结构、理解多文件依赖、给出能直接落地的工程方案——这种活没有捷径,全靠硬实力。
所以这次 V4 发布,Guide 第一反应就是直接接入 Claude Code 上手干活。
我其实知道大家也不愿意看各种无聊的参数和架构解读,这玩意交给 AI 一个小时能给你产出十几篇。
这篇文章接近 7000 字,建议收藏,通过本文你将搞懂:
- 两个真实开发任务的实战记录:V4 Pro 干起活来到底怎么样
- 通过 API 方式对接 DeepSeek:V4 Flash 使用效果到底怎么样
- DeepSeek V4 Pro 和 Flash 的核心参数与定价:值不值得切
Claude Code 接入 DeepSeek V4
Claude Code 强在它的工具链和执行力,但 Claude 官方模型太贵,加上现在 Claude 太容易封号。
DeepSeek V4 提供了一个 Anthropic 兼容接口,这意味着 Claude Code 可以直接对接 DeepSeek,不需要任何第三方适配层。
方式一:配置文件法(推荐)
如果你本机没有安装 Claude Code 的话,先运行下面这行命令安装(Node.js 18+):
npm install -g @anthropic-ai/claude-code
编辑或新增 Claude Code 配置文件 ~/.claude/settings.json,添加 env 字段,把后端地址、模型和 API Key 都写进去:
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your_deepseek_api_key",
"ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
"ANTHROPIC_MODEL": "DeepSeek-V4-Pro",
"API_TIMEOUT_MS": "3000000",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1"
}
}
注意替换 your_deepseek_api_key 为你的 DeepSeek API Key,申请地址:platform.deepseek.com/api_keys 。
如果你使用的是 DeepSeek-V4-Flash,把 ANTHROPIC_MODEL 改为 DeepSeek-V4-Flash 即可。
配置完成后启动 Claude Code:
claude
首次启动需要选择信任当前文件夹。
方式二:CC Switch(可视化切换)
如果你想在 DeepSeek、Claude、MiniMax 等多个 Provider 之间灵活切换,推荐安装 CC Switch。
这是一个专门管理 Claude Code 模型切换的小工具,支持一键横跳,还支持管理 Skills、MCP 和提示词。
启动 CC Switch,点击右上角 "+" ,选择自定义供应商,Base URL 填写 https://api.deepseek.com/anthropic,API Key 填写你的 DeepSeek API Key。
将模型名称改为 DeepSeek-V4-Pro(或 DeepSeek-V4-Flash),完成后点击右下角的“添加”。
验证是否生效
直接在命令行输入 claude 或者进入 Claude 界面之后再次输入 /status 确认,model 为 DeepSeek-V4-Pro 即表示接入成功。
之后你就可以用 DeepSeek V4 Pro 来驱动 Claude Code 的所有能力了。
实战一:升级 LLM 多 Provider 预设模型列表
我手头有一个多智能体股票分析项目,已经快一个月没启动了。这次重新启动,第一件事就是把过时的模型配置更新掉。
项目 Settings 页面之前只有一个纯文本输入框让用户手动填写模型名,不够友好。
我需要做两件事:搜索各家 LLM 的最新模型版本,然后给前端加一个下拉选择。
提示词很简单:
/tavily-search 搜索当前 deepseek、glm 和 openai 最新的模型,然后调整全局配置中默认模型推荐和示例。并且,当前这几个 LLM 图标太 AI 味了,帮我换一个上档次点。
任务不大,但有个细节值得说——如果不配 /tavily-search Skill,单纯靠大模型的训练数据截止日期来猜最新版本,大概率会出错。
我之前用其他模型没配 Tavily 的时候,反复提示了好几遍才把各家最新模型版本搞对。
关于 Tavily 的使用可以参考我前段时间写的这篇文章:Claude Code 对接 AI Agent 搜索引擎 Tavily 实现高质量搜索。
DeepSeek V4 Pro 一次搞定。
模型配置全部更新成功,各家推荐的模型示例都切到了最新版本。改了三个文件:
application.yml——新增 DeepSeek 预设 Provider,GLM 默认模型升级到glm-5.env.example——补上 DeepSeek 环境变量,Kimi 默认改为kimi-k2.6SettingsPage.tsx——加了PROVIDER_PRESETS常量,Model 和 Embedding Model 改成 combo box
最终四个 Provider 的推荐模型列表(截至 2026.04.25):
| Provider | 推荐模型 |
|---|---|
| DashScope | qwen3.6-flash、qwen3.5-plus、qwen3-max、qwq-32b 等 8 款 |
| DeepSeek | deepseek-v4-flash、deepseek-v4-pro |
| GLM | glm-5.1、glm-5、glm-4.7-flash 等 8 款 |
| Kimi | kimi-k2.6、kimi-k2.5、kimi-k2-thinking 等 5 款 |
就是这个样式依然是很丑啊,图标是换成了挺奇怪的样式。
实战二:数据库迁移方案诊断与 Flyway 集成
第二个任务更有挑战性。
因为换了新电脑,所有环境都是重新搭建的。项目有两个 SQL 文件,一个在项目启动时自动执行了,另一个没有。这块逻辑我也忘了,需要让模型帮我诊断。
提示词:
当前项目有两个 SQL 文件,
sql/init.sql在项目启动自动执行了,sql/V2__knowledge_skill.sql没有自动执行。请你帮我分析一下是什么原因,然后用合理的方式优化现存的问题。
DeepSeek V4 Pro 的分析很到位: V2__knowledge_skill.sql 没有被挂载到 Docker 容器中,项目也没有引入任何数据库迁移工具 ,而 init.sql 是在容器启动时自动执行的——这是 Docker Compose 配置里写死的。
它给出的解决方案是集成 Flyway 作为数据库迁移工具。
Flyway 是 Java 生态中最成熟的数据库迁移方案之一,用文件命名约定(如 V1__init.sql、V2__knowledge_skill.sql)自动管理迁移顺序。
整个过程 DeepSeek V4 Pro 完成了以下工作:
- 分析了 Docker Compose 配置中
init.sql的挂载逻辑 - 发现
V2__knowledge_skill.sql缺失的原因 - 引入 Flyway 依赖,编写迁移配置
- 重构 SQL 文件命名,确保迁移顺序正确
这里踩了个坑:我中途不小心调整了 iTerm2 的窗口大小,导致终端里的对话历史突然错乱了。看来是时候跟 iTerm2 说再见了。
或者说,有小伙伴知道这种问题是怎么导致的吗?
第一次运行后,Flyway 没有成功执行。我把错误日志贴过去,经过两轮调教后修复成功。
这个问题值得单独拿出来讲——因为 DeepSeek V4 Pro 在第一次集成时也踩到了这个坑,经过两轮调试才找到根因。
Spring Boot 4.x 对自动配置模块做了大规模拆分,FlywayAutoConfiguration 已从 spring-boot-autoconfigure 中移除,迁移到了独立模块 spring-boot-flyway。
如果你只引入了 flyway-core 这个第三方库,Spring Boot 不会自动触发任何迁移。最坑的是,启动日志里也不会有任何 Flyway 相关输出——完全没有报错,只是静默地什么都不做。这个坑特别容易迷惑人,让你怀疑是配置写错了,然后在 yml 文件里反复折腾。
使用官方 Starter,它会将自动配置模块一并带入:
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-flyway</artifactId>
</dependency>
<!-- PostgreSQL 方言支持仍需单独引入 -->
<dependency>
<groupId>org.flywaydb</groupId>
<artifactId>flyway-database-postgresql</artifactId>
</dependency>
记住这个教训:Spring Boot 4.x 时代,很多你习惯直接引第三方库就能自动装配的功能,现在需要找对应的官方 Starter。 自动配置被拆出去了,但文档里不一定显眼地提醒你。
实战三:AI 面试平台对接 DeepSeek
我们的 AI 智能面试辅助平台 + RAG 知识库(已开源)目前已经新增了多模型切换和配置功能,DeepSeek 也已经支持了。
项目地址(欢迎 star 鼓励):
- GitHub:github.com/Snailclimb/…
- Gitee:gitee.com/SnailClimb/…
和实战一一样,对接最新模型整个过程是一遍过的,就不重复贴过程了。我们直接看效果。
通过配置界面,将默认模型切换到 DeepSeek,选择 deepseek-v4-flash。
然后上传一份简历,基于这份简历生成一次模拟面试,来看看效果。
面试题是通过 deepseek-v4-flash 生成的,答案也是让 DeepSeek 在快速非思考模式下给出的(有两个问题没有回答)。
Flash 模型,非思考模式,生成质量已经不错了。考虑到 Flash 的定价,这个性价比相当能打。
DeepSeek V4 一览:看完实战再看数字
看完上面三个实战任务,再来补一下 DeepSeek V4 的硬参数,会更有体感。
这次 V4 系列同时发布了两款模型:
| 规格 | DeepSeek-V4-Pro | DeepSeek-V4-Flash |
|---|---|---|
| 总参数 | 1.6T | 284B |
| 每 token 激活参数 | 49B | 13B |
| 上下文窗口 | 1M tokens | 1M tokens |
| 推理模式 | 非思考 / Think High / Think Max | 非思考 / Think High / Think Max |
| 开源协议 | MIT | MIT |
几个关键数字值得注意:
- V4-Pro 的 Codeforces 评分 3206 ,在四家主流模型(Claude Opus 4.6、GPT-5.4 xHigh、Gemini 3.1 Pro High)中排第一
- SWE-bench Verified 80.6% ,跟 Claude Opus 4.6(80.8%)几乎打平,但 API 价格便宜了两个数量级
- 1M 上下文场景下 ,V4-Pro 的单 token 推理 FLOPs 只有 V3.2 的 27% ,KV 缓存用量只有 10%
回看实战二里的 Agent Coding 表现,SWE-bench 80.6% 这个数字确实不是虚的——跨文件分析、工程方案生成,V4 Pro 确实上了个台阶。
再看定价:
| API 定价(每百万 token) | DeepSeek-V4-Flash | DeepSeek-V4-Pro | Claude Sonnet 4.7 |
|---|---|---|---|
| 输入(缓存未命中) | $0.14 | $1.74 | $3.00 |
| 输入(缓存命中) | $0.028 | $0.145 | $0.30 |
| 输出 | $0.28 | $3.48 | $15.00 |
Flash 的输出价格不到 Claude Sonnet 的 1/50,Pro 的输出价格约为 Sonnet 的 1/4,输入端两者差距更小。
实战三里用的就是 V4-Flash——非思考模式,面试题和答案的生成效果在上面已经看到了。放到这个定价体系里看,Flash 几乎没什么对手。
另外有一点需要注意:API 迁移零成本,改个 model 名就行。deepseek-chat 和 deepseek-reasoner 将在 7 月 24 日后停用,尽早切换到新模型名。
总结
DeepSeek V4 在 Agent Coding 和代码理解场景上,明显上了一个台阶。不过,DeepSeek-V4-Pro 在没有 Coding Plan 的情况下,价格还是偏高。V4-Flash 的定价很香,但在开发场景还无法成为主力,暂没有资格成为日常开发的默认选项。
另外,在复杂的编码、精准问答和前沿科学推理上,跟 Claude Opus 4.6 以及 GPT 5.5 还有不小距离。
我后续又继续实测了几个场景,发现一些比较复杂的用 DeepSeek 还是会差一些,需要调教多次,但换成 Claude 和 GPT 很快就完成了。
个人的实际体感是:,DeepSeek-V4-Pro 比 minimax 2.7 聪明一些,但是编程能力还是比 glm5.1 差一些。
不过考虑到价格优势——还要什么自行车?