深夜炸弹:DeepSeek V4 要来了,国产开源要逆袭?

0 阅读3分钟

48b1764d31ac5.png

2026年4月11日深夜,DeepSeek 创始人梁文锋透露:新一代旗舰大模型 DeepSeek V4 将于4月下旬正式发布。

V3 推出才四个月,V4 就来了。第一反应是"这也太快了吧"——但看完这波参数,我收回了这句话。


已经确认的信息

  • 发布时间:4月下旬,还有不到两周
  • 参数规模:万亿级,V3 是 2360 亿,直接跳了一个量级
  • 上下文窗口:100万 Token 灰度测试已经在跑了,有人已经测过了
  • 多模态能力:V3 的短板,V4 要补
  • 长时记忆:解决大模型"聊完就忘"的问题,V4 重点方向

万亿参数是什么概念

说数字没感觉,做个对比:

GPT-4 大约 1.8 万亿参数,DeepSeek V3 是 2360 亿,V4 直接到万亿级。

但 DeepSeek 有个本事一直被人低估:它参数大,但推理成本没有看起来那么夸张。V3 就是例子——总参 2360 亿,实际推理只激活约 210 亿。V4 如果延续这个思路,用起来的价格可能比想象的低很多。

赛博朋克风格神龙数字艺术生成.png

三个最值得关注的点

1M 上下文灰度测试是最让我在意的。

100万 Token 上下文不是新概念,Claude 很早就做了。但 DeepSeek 之前长上下文的表现不算顶尖,这次如果真能做稳,对程序员来说是目前最实用的方向——

整个项目的代码、issue、测试用例全丢进去,AI 能全部读完而且不出幻觉。这才叫改变写代码方式。

多模态补全是另一个。V3 的图像理解确实一般,这次要补上。图表解析、视频理解如果能做上来,应用场景会宽很多。

还有一个是长时记忆。现在大模型的通病——聊完就忘,下次开新对话要从头说背景。V4 如果能跨对话记住关键信息,AI 编程助手才算真正能用。


和 GPT-6 正面撞上了

4月14日 GPT-6 发布,4月下旬 V4 发布。发布时间只差一周,这不可能是巧合。

GPT-6 的底牌是 OpenAI 的技术积累和 200万上下文;DeepSeek 的底牌一直没变——开源、中文理解好、价格便宜。

V4 大概率继续走这个路线。它的目标从来不是吊打 GPT-6,而是让更多人用得上、用得起。

12cd50a1db7a5.png

我的判断

V4 真正值得看的不是参数涨了多少,是两件事:

第一,1M 上下文能不能做稳。能用的话,程序员是直接受益者。

第二,V4 开不开源。V3 是开源的,社区反响很大。如果 V4 继续开源,DeepSeek 的影响力会上一个台阶;走闭源的话,格局就变了。

两周后见分晓。


首发于公众号 赛博山海经,每周实测 AI 工具,不玩虚的。

如果觉得有用,点个赞,或者在评论区聊聊你的判断。


#AI工具 #DeepSeek #DeepSeekV4 #开源模型 #大模型 #程序员 #GPT-6 #AI编程


参考来源: