DeepSeek V4 预览版今日上线:1M 上下文免费标配,Agentic Coding 超 Sonnet 4.5

0 阅读1分钟

今天(4 月 24 日)上午,DeepSeek 把 V4 预览版甩出来了——官网、App、API、开源四路同步上线,连招呼都没打。

DeepSeek-V4 正式发布

这次给的东西挺狠:

  • 1M 上下文直接免费标配。从今天起,1M(一百万字)上下文成为 DeepSeek 所有官方服务的默认配置,没有"长上下文套餐"、不另收钱
  • 两个版本V4-Pro 1.6T 总参数、激活 49B,对标旗舰;V4-Flash 284B 参数、激活 13B,主打快和便宜
  • 全新的 DSA 稀疏注意力机制(DeepSeek Sparse Attention),在 token 维度压缩,把长上下文的算力和显存成本砍了一大截

V4-Pro 性能对比

性能怎么样?DeepSeek 官方文案原话:V4-Pro 在 Agentic Coding 评测里"优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式",世界知识测评"仅稍逊于 Gemini-Pro-3.1"。这话如果成立,那就是开源模型第一次在 coding agent 这个最值钱的赛道上,正面硬刚了闭源旗舰。

真假还得等社区的独立 benchmark 出来——但从技术报告看,这不是 V3 的小修小补,是结构级改动。

还有一个细节很关键:旧 API 的 deepseek-chatdeepseek-reasoner 这两个模型名,3 个月后(2026-07-24)停用。现在它们指向 V4-Flash 的非思考/思考模式,想继续用的开发者记得改 model_namedeepseek-v4-prodeepseek-v4-flash

说点个人感受——去年这时候大家还在吵"DeepSeek 的性能是不是数据污染堆出来的",一年不到,V4 预览版直接把 1M 上下文做成免费标配、把 Agentic Coding 做到开源第一。它不靠 PR,就靠产品上线这一招,把所有质疑者的嗓子堵上了。

模型已开源,技术报告也一并放出了。接下来就看社区的复现评测。

但这一天,多半又是大厂产品经理的不眠之夜。