1.6T参数,1M上下文,Codeforces 3206分——这不是升级,是宣战。
01
4月24日,让全球AI圈苦等15个月的DeepSeek V4,终于来了。
没有预热直播,没有高管站台,没有冗长的路线图宣讲。
DeepSeek用最硬核的方式,扔出了改写行业规则的王炸:
全系原生标配100万token上下文窗口,1.6T万亿参数旗舰模型免费商用,推理成本较海外顶级闭源模型最高下探99%。
更戏剧性的是,DeepSeek特意选在OpenAI发布GPT-5.5的同一天亮剑。
开源vs闭源,诸神之战。
02
双版本策略:Pro和Flash
这次DeepSeek一口气放出两个版本:
版本 | 总参数 | 激活参数 | 定位 |
V4-Pro | 1.6T | 49B | 旗舰版,性能比肩闭源顶流 |
V4-Flash | 284B | 13B | 经济版,极致性价比 |
两个版本都支持100万token上下文,都开源,都免费可商用。
V4-Pro的目标是"比肩顶级闭源模型",V4-Flash的目标是"让更多人用得上"。
03
最震撼的一项:编程能力
V4-Pro在Codeforces竞赛中拿到3206分。
这个数字意味着什么?
GPT-5.4的Codeforces评分是3168。
开源模型第一次在编程赛道追平闭源旗舰。
DeepSeek内部已经把V4-Pro作为公司主力编程工具,工程师实测反馈:优于Anthropic Sonnet 4.5,交付质量接近Claude Opus 4.6非思考模式。
LiveCodeBench Pass@1拿到93.5,同样是对比组最高。
04
技术突破:如何做到省算力?
1M上下文听起来很夸张,但DeepSeek用了一个巧妙的办法控制成本。
DSA稀疏注意力机制
简单说,就是在token维度做压缩,再用稀疏注意力处理。
效果是:处理100万token长文,V4-Pro的推理FLOPs仅为V3的27%,KV缓存仅为V3的10%。
V4-Flash更极致:推理FLOPs是V3的10%,KV缓存是V3的7%。
这就是"用更少的算力,做更多的事"。
05
价格对比:贵和便宜的差距
模型 | 输入价格 | 输出价格 | 相对V4-Pro倍数 |
DeepSeek V4-Flash | $0.14 | $0.28 | 0.08× |
DeepSeek V4-Pro | $1.74 | $3.48 | 1× |
Kimi K2.6 | $1.40 | $5.60 | 1.6× |
GPT-5.5 | $5.00 | $30.00 | 8.6× |
Claude Opus 4.7 | $15.00 | $75.00 | 21.6× |
一组数据看懂差距:用Claude Opus写100万字,够你用V4-Pro写2100万字。
06
国产算力的突破
V4首次明确披露已适配华为昇腾芯片。
这不是简单的适配,而是"去CUDA化"的关键一步。
华为昇腾超节点全系列产品已支持DeepSeek V4系列模型,实现V4-Pro 20ms和V4-Flash 10ms低时延推理。寒武纪、海光信息等8大国产芯片也实现了Day 0级原生适配。
在当前的地缘政治背景下,这意味着DeepSeek不依赖英伟达GPU也能跑起来。
对中国AI行业来说,这是从"卡脖子"到"自主可控"的实质性突破。
07
开源vs闭源:2026年的分水岭
维度 | DeepSeek V4 | GPT-5.5 | Claude Opus 4.7 |
模型权重 | 完全开放 | 不可用 | 不可用 |
本地部署 | 支持 | 不支持 | 不支持 |
私有化微调 | 完全支持 | 仅API | 仅API |
数据隐私 | 完全可控 | 依赖平台 | 依赖平台 |
多模态 | 暂不支持 | 全面支持 | 有限支持 |
一句话:如果你的场景是文本推理+编程+中文能力+极致性价比,V4已经是2026年的最优解。
08
内部调研:91%认为可替代闭源
DeepSeek对85名天天使用V4的工程师和研究员做了调研:
-
52%认为能替代闭源模型
-
39%认为差不多能替代
-
合计91%认为V4已达到闭源模型水平
这不是自卖自夸,是真实用户的反馈。
09
15个月磨一剑
在V4发布之前,DeepSeek一度被圈内外质疑"掉队了"。
过去15个月,整个大模型行业陷入了"月月发版、季度迭代"的内卷怪圈,而DeepSeek三次推迟V4发布,甚至传出核心研究员流失的传闻。
但DeepSeek的回应,只有发布稿结尾那句引自《荀子》的话:
"不诱于誉,不恐于诽,率道而行,端然正己。"
翻开58页的技术报告就会明白:这15个月,DeepSeek没参与行业的无效内卷,而是干成了一件事——
把国内大模型从"堆参数、追热点"的粗放模式,拉向"论文预研-技术验证-工程落地"的体系化创新路径。
最后
DeepSeek V4不只是一个"更好的模型",它是三个信号叠加的产物:
第一,开源正在追平闭源。
Codeforces 3206分、LiveCodeBench 93.5分——这些硬数据说明,开源模型已经不是"够用"的替代品,而是"可选"的竞争者。
第二,算力效率正在取代算力规模。
V4用27%的算力做到了V3做不到的事。当别人还在卖更大的GPU时,DeepSeek在用更聪明的算法做更多的事。
第三,中国AI有了自己的"根"。
昇腾适配意味着V4不依赖任何美国芯片就能跑起来。在地缘政治的背景下,这个意义远超技术本身。
这不是结束,这是开始。
关于作者
作者:近 20 年技术生涯,待过大厂也创过业。 懂大厂的规范与困境,也懂创业公司的敏捷与无奈。 懂技术也懂商业,实践用技术重构传统业务。公众号「AI 提效随笔」主理人。
欢迎转发,转载请注明出处。
📌 觉得有用?欢迎:
点赞 - 让更多人看到
转发 - 分享给需要的同事/朋友
关注 - 不错过后续更多精彩内容分享