去年干崩英伟达6000亿 DeepSeek又瞄上春节了

60 阅读7分钟

图片

去年大年三十前,DeepSeek 发了个 R1,英伟达一天蒸发 6000 亿美元。

今年春节,V4 又来了。

1 万亿参数。主攻编程。号称干翻 Claude 和 GPT。

还搞了个叫 Engram 的黑科技——用内存条代替显卡跑模型。


图片

V4 到底是什么

先说参数量。

1 万亿。

对,你没看错,1 万亿参数。

但别被这个数字吓到。V4 用的是 MoE(混合专家)稀疏架构,实际推理时只激活大约 320 亿参数。

什么意思?

想象一个公司有 1 万个员工,但每次开会只叫 320 个相关的人来。

其他人该干嘛干嘛,不浪费资源。

参数多,但不笨重。

V4 的主攻方向是编程

内部测试号称 HumanEval 达到 90%,超过 Claude 的 88% 和 GPT-4 的 82%。

如果这数字是真的,编程能力直接拉到天花板。

但注意,这是 DeepSeek 自己说的,外部还没有验证。


图片

Engram:用内存条代替显卡

V4 最炸裂的不是参数量,是一个叫 Engram 的新架构。

今年 1 月 12 号,DeepSeek 在 arXiv 上悄悄发了一篇论文(编号 2601.07372)。

标题翻译过来就是:Engram——用于条件语言生成的大规模记忆模块

这玩意干了什么?

简单说:把知识存储从显卡(VRAM)搬到了内存条(RAM)上。

传统大模型,所有参数都要加载到显卡显存里。显卡越贵,能跑的模型越大。

这就是为什么 Nvidia 赚翻了——你想跑大模型,就得买贵显卡。

但 Engram 说:不用。

它搞了一个超快的查找机制——把文本切成小片段,做个哈希,然后直接在内存里一步到位找到答案。不用像传统模型那样一层一层算。

DRAM 多便宜啊。128GB 内存条几百块钱。

128GB 的 VRAM?那是 H100 的价格,几十万起步。

Engram 能把显存占用降低大约 93%。

图片

论文里还算出了一个最优比例:大约 20-25% 的参数用来"记东西",75-80% 用来"算东西"。

这意味着什么?

V4 理论上可以在消费级硬件上跑起来。

不是说你的游戏电脑能跑 1 万亿参数的完整模型,但推理成本会暴降

有人估算,V4 的推理成本可能比西方同级别模型便宜 20 到 50 倍

20 到 50 倍。

还有一个副产品:V4 的目标是支持100 万+ token 的上下文窗口

什么概念?

你可以把一整个代码仓库丢进去,它一次性全看完。

不用分段,不用总结,不用 RAG,直接全部吃下。

对编程来说,这是质变。


去年的剧本

说到这里,你可能觉得:听起来很猛啊,但跟春节有什么关系?

关系大了。

去年,DeepSeek R1 就是在春节前发布的。

2025 年 1 月 20 号,大年三十前一周,DeepSeek 突然放出 R1。

当时没人把它当回事——一个中国的开源模型,能翻出什么浪花?

结果呢?

Nvidia 单日蒸发近 6000 亿美元。

美国科技股集体暴跌。

整个华尔街都在问:中国花这么少的钱就能做出差不多的模型,那美国砸几千亿搞 AI 基建,值吗?

后来被证明是过度恐慌,股价很快涨回去了。

但那个记忆太深了。

所有人都记得去年春节发生了什么。


图片

今年的问题:来不来?

按照之前的消息,V4 预计在 2 月中旬发布——正好是春节前后(今年除夕是 2 月 17 号)。

完美复刻去年 R1 的节奏。

但南华早报 2 月初报道说:V4 可能不会按时发布。

报道提到,DeepSeek 内部对发布时间"保持沉默"。

没有官方确认,没有预告,没有预热。

什么都没有。

这就很耐人寻味了。

一方面,DeepSeek 去年 R1 也是"突然发布",没有任何预热。所以沉默不代表不发。

另一方面,南华早报的消息源通常比较靠谱。说可能跳票,大概率有内部信息。

现在局势就是:没人知道 V4 到底来不来。

而 DeepSeek 自己也不说。

你问他们,就回一句:"我们不对发布时间表发表评论。"

翻译成人话:你猜。


图片

华尔街已经开始慌了

不管 V4 来不来,市场已经开始定价了。

上周,Claude 发了 11 个 Cowork 插件,全球软件股一周蒸发近 1 万亿美元。

Thomson Reuters 单日暴跌 16%,创历史纪录。

LegalZoom 跌了 20%。

市场现在极度脆弱。

在这个节骨眼上,如果 DeepSeek V4 真的在春节前发布——

1 万亿参数,编程碾压级性能,推理成本便宜 20-50 倍——

你觉得华尔街会怎么反应?

OpenAI 显然也感受到了压力。1 月中旬他们就公开说,预计中国会带来新一轮"地震级冲击"。然后火速发了 GPT-5.3 Codex,抢在 V4 前面占位。

去年 R1 冲击的是 AI 的供给侧——大家担心美国的 AI 投入太多了。

但今年 V4 如果真来了,冲击的可能是整个 AI 的竞争格局

因为 Engram 架构如果真的能把推理成本降 20-50 倍,那意味着:

中国不光能做出好模型,还能做出便宜到离谱的好模型。

美国 AI 公司的定价权,直接就没了。

你 Claude 收 200/月,DeepSeek可能收200/月,DeepSeek 可能收 20。

你 GPT Plus 收 $20/月,DeepSeek 可能免费。

这才是真正让华尔街睡不着觉的事。


图片

最诡异的地方

整件事最诡异的地方在于:

DeepSeek 什么都没发布,市场就已经开始紧张了。

Claude Cowork 发了插件,SaaS 崩了。

DeepSeek V4 还没影,AI 公司的投资者已经在算:如果推理成本真便宜 50 倍,我手里这些公司还值多少?

恐慌不需要事实,只需要可能性。

而 DeepSeek 的沉默,恰恰把这个"可能性"无限放大了。

你不说来,大家就猜你要来。

你不说不来,大家就更慌。

这可能是 2026 年最高明的营销——什么都不做。


我的判断

V4 来不来?

我觉得大概率会来,但可能晚一点

DeepSeek 的风格一直是:做完了再说。R1 是这样,V3 是这样,V4 大概率也是。

南华早报说"可能跳票",我猜更可能是从"春节前"延到"春节后",不是彻底取消。

毕竟 Engram 论文 1 月就发了,V4 的技术方向已经定了。

问题不是做不做得出来,而是什么时候放出来。

对市场来说,其实来早来晚都一样——

去年 R1 的阴影太深了。

只要 V4 一天不发,悬念就一天不消失。

只要它一发布,不管是春节前还是春节后——

该震的,还是会震。


最后

去年春节,R1,6000 亿蒸发。

今年春节,V4,1 万亿参数待发。

上周 Claude Cowork 刚蒸发了 1 万亿。

AI 行业现在是每逢佳节必崩盘的节奏。

历史会不会重演?

也许不会完全重演。

但华尔街显然不敢赌。

最后说一句

我是 Evan,每天追全球 AI 动态,用说人话的方式写出来。

如果上面的内容对你有帮助,真诚地希望你能点个关注

这对我真的很重要。


对了,我有个AI交流群

进群能干嘛?

• 我每天整理一份AI日报,你不用自己到处翻

• 新东西出了我会第一时间丢群里,大家一起聊

• 没广告,就图个信息互通

想进?点公众号主页 ==> 菜单栏「加群