1.6万亿参数,1M上下文,零帧开源——但真正要命的,是发布稿里一句被99%的人当废话划过的那句话。
2026年4月24日。
没发布会。没预热。连个"即将揭晓"的倒计时都没见着。
DeepSeek 直接把 V4 扔出来了——开源、上线官网、上线 App、更新 API,同一秒钟全搞定。
零帧起手。
然后全球 AI 圈就炸了。先刷跑分,再吵参数。但真正改变格局的那句话,没人注意到。
你如果做 AI 应用,或者在看 AI 投资,花八分钟看完。后面说的东西挺重要的。
01 V4 到底强在哪
两个版本,刀法挺狠。
| 版本 | 总参数 | 激活参数 | 定位 |
|---|---|---|---|
| V4-Pro | 1.6 万亿 | 49 亿 | 旗舰,对标顶级闭源 |
| V4-Flash | 2840 亿 | 130 亿 | 性价比,更快更便宜 |
1.6万亿,乍一看"哦又一个堆参数的"。
不是这么回事。
V4 用的是 MoE(混合专家)架构。模型里头有一大堆"专家"子网络,每次来请求,路由机制只挑一小部分干活。
你当它雇了1600个人,个个牛。但每个活儿只上49个人。知识是1600个人的量,烧钱只烧49个人的。
总参数装知识,激活参数管烧钱。
MoE 最核心的商业逻辑就这一句话。
V4 还干了一件国内AI公司很少干的事:
它自己说它不如谁。
发布稿原话:V4-Pro 的 Agent 能力优于 Sonnet 4.5,接近 Opus 4.6 非思考模式,但跟 Opus 4.6 思考模式还有一段距离。
不吹。不躲。不玩文字游戏。
反而更信了。
数学、STEM、竞赛代码这些推理活,V4-Pro 开源第一,闭源那边也能碰一碰。
世界知识方面,就差 Gemini Pro 3.1 一截。
但说真的,这些跑分不是最打动我的。
02 1M 上下文,一年前叫王牌,现在成标配了
这个你得认真看。
去年百万token上下文窗口还是 Gemini 的独家大招。别的模型呢,闭源的128K、200K,开源的基本没戏。
1M 上下文是啥概念?
一部小说加一个大型项目代码再加几十份报告,同时塞进去。模型全记得住。
这不是多一点点。这是换个玩法。
现在 DeepSeek 把这个东西开源了。
为什么之前没人做成?
因为传统 Transformer 有个要命的毛病——注意力机制的计算量,跟上下文长度是平方关系。
长度翻倍,计算量x4。128K到1M,理论计算量涨60倍。结果就是:贵死,或者慢死,或者又贵又慢。
V4 用的招叫 DSA(DeepSeek Sparse Attention,稀疏注意力)。
说白了——你读一本1000页的书,有人问你"第500页那个观点跟前面哪些地方有关"。
笨办法:第500页跟其余999页,一页一页对。
DSA 呢?两步:
- 先粗筛——快速翻一遍,哪几十页可能有用,锁定。其他的别看了。
- 再压缩——那几十页也不用逐字读,先提个摘要再比。
两步一叠加,书从1000页变2000页,工作量没翻四倍,翻了两倍不到。
曲线压平了。
这个技术一旦开源,所有人都能接着搞。长上下文就不再是"有钱有算力才玩得起"的东西了。
对 Agent 影响最大——任务链越长,上下文窗口越卡脖子。1M 意味着 Agent 能在长链操作里不掉状态,啃大代码库也不虚。
不过这些还不是我最想说的。
03 那条被忽略的消息,才是整场发布最狠的
回到开头。
发布稿里有这么一句,轻飘飘的,几乎没人当回事:
下半年批量上国产算力。
轻吧?
重要。太他妈重要了。
你得放在过去两年的背景里看这事。
2023年开始,美国对华芯片管制一波紧过一波。H100、H800、A100,全禁了。中国 AI 公司能合法买到的高端 GPU,越来越少。
DeepSeek 之前靠的是英伟达——V3 训练用的就是 H800 集群。 但这条路,越走越窄,这个大家都知道。
昇腾是目前国内最成熟的替代。
这次昇腾那边给了硬数据:昇腾950超节点上,V4-Pro 推理延迟 TPOT 20ms,V4-Flash 10ms。
当然这是离线推理的数据,真部署上去要打折扣。但方向没跑。
昇腾已经能撑 V4 量产了。不是实验室里的备胎了。
"下半年批量上国产算力"——至少两层意思:
第一,供给不慌了。
如果 DeepSeek 在昇腾上跑出跟英伟达差不多的推理性能,那算力就不是单点风险。出口管制的压力,直接对冲掉一大块。
第二,生态信号。
这个才是让英伟达睡不着觉的。
DeepSeek 是中国最有影响力的开源模型之一。它在昇腾上规模部署,意味着什么?
意味着整个开源社区、下游应用,都会去适配昇腾。
这比卖1000块芯片值钱多了。
硬件这东西,你超就超了,不难。但生态不一样。开发者社区一旦建起来,用户习惯了,这就是个飞轮,自己转起来停不住。
DeepSeek 跟国产算力绑死,是这次发布里最有战略意义的一笔。别的都比不了。
04 跟你我有啥关系
下面这块才是跟你最相关的。
如果你是写代码的:
- V4 是真的能替代部分商业 API 了——便宜,可控。
- 100万 token 上下文,企业部署门槛直接砍半。长文档、大代码库、多文件分析,一次搞定。不用来回切模型拼拼接接的。
- 原生多模态,少折腾。
如果你看投资的:
- 国产芯片厂商直接受益——华为、寒武纪、海光这些。
- AIDC 和云计算公司订单会增加。
- 以前 DeepSeek 发新模型就带英伟达股价大跌,这次估计也差不多。
但比起这些,有一个趋势更值得盯——
AI 的竞争,已经从"谁的模型更强"变成"谁能在更低成本下把模型用得更广"。
MoE 降推理成本,DSA 降长上下文成本,国产算力降供给风险。三条线,一个目标:
让顶级 AI 不再是"有钱才玩得起"的东西。
05 最后说一句
看完 V4 整个发布,我最深的感受不是一个跑分数字。
是它安安静静、几乎不着痕迹地干了三个事:
把1M上下文做成开源标配。
把国产算力的量产路线图摆上台面。
把顶级 AI 的门槛又往下压了一截。
没发布会。没PPT。没一句"遥遥领先"。
发布稿里引了荀子一句话:
"不诱于誉,不恐于诽,率道而行,端然正己。"
不闹腾,但有分量。
这个时代最狠的不是高调喊口号的。是那种闷声改规则的。
AI 这条赛道,已经从"技术竞赛"变成"生态战争"了。
生态战争的胜负,不看谁跑分高——看谁能让最多的开发者,花最少的钱,做出最牛的东西。
你咋看 DeepSeek V4?
又一场 hype,还是真的在改游戏规则?评论区聊聊。
觉得有用的话,点个在看或者转发一下,谢了。