DeepSeek V4发布:让英伟达最焦虑的,不是模型

0 阅读7分钟

1.6万亿参数,1M上下文,零帧开源——但真正要命的,是发布稿里一句被99%的人当废话划过的那句话。

2026年4月24日。

没发布会。没预热。连个"即将揭晓"的倒计时都没见着。

DeepSeek 直接把 V4 扔出来了——开源、上线官网、上线 App、更新 API,同一秒钟全搞定。

零帧起手。

然后全球 AI 圈就炸了。先刷跑分,再吵参数。但真正改变格局的那句话,没人注意到。

你如果做 AI 应用,或者在看 AI 投资,花八分钟看完。后面说的东西挺重要的。


01 V4 到底强在哪

两个版本,刀法挺狠。

版本总参数激活参数定位
V4-Pro1.6 万亿49 亿旗舰,对标顶级闭源
V4-Flash2840 亿130 亿性价比,更快更便宜

1.6万亿,乍一看"哦又一个堆参数的"。

不是这么回事。

V4 用的是 MoE(混合专家)架构。模型里头有一大堆"专家"子网络,每次来请求,路由机制只挑一小部分干活。

你当它雇了1600个人,个个牛。但每个活儿只上49个人。知识是1600个人的量,烧钱只烧49个人的。

总参数装知识,激活参数管烧钱。

MoE 最核心的商业逻辑就这一句话。

V4 还干了一件国内AI公司很少干的事:

它自己说它不如谁。

发布稿原话:V4-Pro 的 Agent 能力优于 Sonnet 4.5,接近 Opus 4.6 非思考模式,但跟 Opus 4.6 思考模式还有一段距离。

不吹。不躲。不玩文字游戏。

反而更信了。

数学、STEM、竞赛代码这些推理活,V4-Pro 开源第一,闭源那边也能碰一碰。

世界知识方面,就差 Gemini Pro 3.1 一截。

但说真的,这些跑分不是最打动我的。


02 1M 上下文,一年前叫王牌,现在成标配了

这个你得认真看。

去年百万token上下文窗口还是 Gemini 的独家大招。别的模型呢,闭源的128K、200K,开源的基本没戏。

1M 上下文是啥概念?

一部小说加一个大型项目代码再加几十份报告,同时塞进去。模型全记得住。

这不是多一点点。这是换个玩法。

现在 DeepSeek 把这个东西开源了。

为什么之前没人做成?

因为传统 Transformer 有个要命的毛病——注意力机制的计算量,跟上下文长度是平方关系。

长度翻倍,计算量x4。128K到1M,理论计算量涨60倍。结果就是:贵死,或者慢死,或者又贵又慢。

V4 用的招叫 DSA(DeepSeek Sparse Attention,稀疏注意力)。

说白了——你读一本1000页的书,有人问你"第500页那个观点跟前面哪些地方有关"。

笨办法:第500页跟其余999页,一页一页对。

DSA 呢?两步:

  • 先粗筛——快速翻一遍,哪几十页可能有用,锁定。其他的别看了。
  • 再压缩——那几十页也不用逐字读,先提个摘要再比。

两步一叠加,书从1000页变2000页,工作量没翻四倍,翻了两倍不到。

曲线压平了。

这个技术一旦开源,所有人都能接着搞。长上下文就不再是"有钱有算力才玩得起"的东西了。

对 Agent 影响最大——任务链越长,上下文窗口越卡脖子。1M 意味着 Agent 能在长链操作里不掉状态,啃大代码库也不虚。

不过这些还不是我最想说的。


03 那条被忽略的消息,才是整场发布最狠的

回到开头。

发布稿里有这么一句,轻飘飘的,几乎没人当回事:

下半年批量上国产算力。

轻吧?

重要。太他妈重要了。

你得放在过去两年的背景里看这事。

2023年开始,美国对华芯片管制一波紧过一波。H100、H800、A100,全禁了。中国 AI 公司能合法买到的高端 GPU,越来越少。

DeepSeek 之前靠的是英伟达——V3 训练用的就是 H800 集群。 但这条路,越走越窄,这个大家都知道。

昇腾是目前国内最成熟的替代。

这次昇腾那边给了硬数据:昇腾950超节点上,V4-Pro 推理延迟 TPOT 20ms,V4-Flash 10ms。

当然这是离线推理的数据,真部署上去要打折扣。但方向没跑。

昇腾已经能撑 V4 量产了。不是实验室里的备胎了。

"下半年批量上国产算力"——至少两层意思:

第一,供给不慌了。

如果 DeepSeek 在昇腾上跑出跟英伟达差不多的推理性能,那算力就不是单点风险。出口管制的压力,直接对冲掉一大块。

第二,生态信号。

这个才是让英伟达睡不着觉的。

DeepSeek 是中国最有影响力的开源模型之一。它在昇腾上规模部署,意味着什么?

意味着整个开源社区、下游应用,都会去适配昇腾。

这比卖1000块芯片值钱多了。

硬件这东西,你超就超了,不难。但生态不一样。开发者社区一旦建起来,用户习惯了,这就是个飞轮,自己转起来停不住。

DeepSeek 跟国产算力绑死,是这次发布里最有战略意义的一笔。别的都比不了。


04 跟你我有啥关系

下面这块才是跟你最相关的。

如果你是写代码的:

  • V4 是真的能替代部分商业 API 了——便宜,可控。
  • 100万 token 上下文,企业部署门槛直接砍半。长文档、大代码库、多文件分析,一次搞定。不用来回切模型拼拼接接的。
  • 原生多模态,少折腾。

如果你看投资的:

  • 国产芯片厂商直接受益——华为、寒武纪、海光这些。
  • AIDC 和云计算公司订单会增加。
  • 以前 DeepSeek 发新模型就带英伟达股价大跌,这次估计也差不多。

但比起这些,有一个趋势更值得盯——

AI 的竞争,已经从"谁的模型更强"变成"谁能在更低成本下把模型用得更广"。

MoE 降推理成本,DSA 降长上下文成本,国产算力降供给风险。三条线,一个目标:

让顶级 AI 不再是"有钱才玩得起"的东西。


05 最后说一句

看完 V4 整个发布,我最深的感受不是一个跑分数字。

是它安安静静、几乎不着痕迹地干了三个事:

把1M上下文做成开源标配。

把国产算力的量产路线图摆上台面。

把顶级 AI 的门槛又往下压了一截。

没发布会。没PPT。没一句"遥遥领先"。

发布稿里引了荀子一句话:

"不诱于誉,不恐于诽,率道而行,端然正己。"

不闹腾,但有分量。

这个时代最狠的不是高调喊口号的。是那种闷声改规则的。

AI 这条赛道,已经从"技术竞赛"变成"生态战争"了。

生态战争的胜负,不看谁跑分高——看谁能让最多的开发者,花最少的钱,做出最牛的东西。


你咋看 DeepSeek V4?

又一场 hype,还是真的在改游戏规则?评论区聊聊。

觉得有用的话,点个在看或者转发一下,谢了。