今天(4 月 24 日)上午,DeepSeek 把 V4 预览版甩出来了——官网、App、API、开源四路同步上线,连招呼都没打。
这次给的东西挺狠:
- 1M 上下文直接免费标配。从今天起,1M(一百万字)上下文成为 DeepSeek 所有官方服务的默认配置,没有"长上下文套餐"、不另收钱
- 两个版本:V4-Pro 1.6T 总参数、激活 49B,对标旗舰;V4-Flash 284B 参数、激活 13B,主打快和便宜
- 全新的 DSA 稀疏注意力机制(DeepSeek Sparse Attention),在 token 维度压缩,把长上下文的算力和显存成本砍了一大截
性能怎么样?DeepSeek 官方文案原话:V4-Pro 在 Agentic Coding 评测里"优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式",世界知识测评"仅稍逊于 Gemini-Pro-3.1"。这话如果成立,那就是开源模型第一次在 coding agent 这个最值钱的赛道上,正面硬刚了闭源旗舰。
真假还得等社区的独立 benchmark 出来——但从技术报告看,这不是 V3 的小修小补,是结构级改动。
还有一个细节很关键:旧 API 的 deepseek-chat 和 deepseek-reasoner 这两个模型名,3 个月后(2026-07-24)停用。现在它们指向 V4-Flash 的非思考/思考模式,想继续用的开发者记得改 model_name 为 deepseek-v4-pro 或 deepseek-v4-flash。
说点个人感受——去年这时候大家还在吵"DeepSeek 的性能是不是数据污染堆出来的",一年不到,V4 预览版直接把 1M 上下文做成免费标配、把 Agentic Coding 做到开源第一。它不靠 PR,就靠产品上线这一招,把所有质疑者的嗓子堵上了。
模型已开源,技术报告也一并放出了。接下来就看社区的复现评测。
但这一天,多半又是大厂产品经理的不眠之夜。