2026年4月11日深夜,DeepSeek 创始人梁文锋透露:新一代旗舰大模型 DeepSeek V4 将于4月下旬正式发布。
V3 推出才四个月,V4 就来了。第一反应是"这也太快了吧"——但看完这波参数,我收回了这句话。
已经确认的信息
- 发布时间:4月下旬,还有不到两周
- 参数规模:万亿级,V3 是 2360 亿,直接跳了一个量级
- 上下文窗口:100万 Token 灰度测试已经在跑了,有人已经测过了
- 多模态能力:V3 的短板,V4 要补
- 长时记忆:解决大模型"聊完就忘"的问题,V4 重点方向
万亿参数是什么概念
说数字没感觉,做个对比:
GPT-4 大约 1.8 万亿参数,DeepSeek V3 是 2360 亿,V4 直接到万亿级。
但 DeepSeek 有个本事一直被人低估:它参数大,但推理成本没有看起来那么夸张。V3 就是例子——总参 2360 亿,实际推理只激活约 210 亿。V4 如果延续这个思路,用起来的价格可能比想象的低很多。
三个最值得关注的点
1M 上下文灰度测试是最让我在意的。
100万 Token 上下文不是新概念,Claude 很早就做了。但 DeepSeek 之前长上下文的表现不算顶尖,这次如果真能做稳,对程序员来说是目前最实用的方向——
整个项目的代码、issue、测试用例全丢进去,AI 能全部读完而且不出幻觉。这才叫改变写代码方式。
多模态补全是另一个。V3 的图像理解确实一般,这次要补上。图表解析、视频理解如果能做上来,应用场景会宽很多。
还有一个是长时记忆。现在大模型的通病——聊完就忘,下次开新对话要从头说背景。V4 如果能跨对话记住关键信息,AI 编程助手才算真正能用。
和 GPT-6 正面撞上了
4月14日 GPT-6 发布,4月下旬 V4 发布。发布时间只差一周,这不可能是巧合。
GPT-6 的底牌是 OpenAI 的技术积累和 200万上下文;DeepSeek 的底牌一直没变——开源、中文理解好、价格便宜。
V4 大概率继续走这个路线。它的目标从来不是吊打 GPT-6,而是让更多人用得上、用得起。
我的判断
V4 真正值得看的不是参数涨了多少,是两件事:
第一,1M 上下文能不能做稳。能用的话,程序员是直接受益者。
第二,V4 开不开源。V3 是开源的,社区反响很大。如果 V4 继续开源,DeepSeek 的影响力会上一个台阶;走闭源的话,格局就变了。
两周后见分晓。
首发于公众号 赛博山海经,每周实测 AI 工具,不玩虚的。
如果觉得有用,点个赞,或者在评论区聊聊你的判断。
#AI工具 #DeepSeek #DeepSeekV4 #开源模型 #大模型 #程序员 #GPT-6 #AI编程
参考来源:
- 51CTO 报道:blog.51cto.com/u_17465856/…
- 腾讯新闻:news.qq.com/rain/a/2026…
- AI 确实报道:www.ai-indeed.com/encyclopedi…