程序员视角解读为什么deepseek v4 出生就落后别人一代?性能一般价格自信
deepseek v4 姗姗来迟,虽发布了,有两个问题,一个是性能已经掉队了,另一个是价格贵的离谱
先说第一个,为什么?因为它把时间浪费在适配菊花上,这个失败菊花自己的盘古团队已经试过了,不是这些负责大模型训练的程序员不聪明不努力,而是菊花这种 NPU 妄图训练大模型的路线的难度过高,为什么?打一个形象的比方,如果说英伟达的GPU是 python,那菊花的 NPU 就是汇编语言,复杂度提升至少10倍,具体大家想了解菊花的计算卡有多难用,我到时候出一期专题讲一下
DeepSeek 自从发布 deepseek V3 之后,v4 发布前的 16 个月时间内,只更新了 v3.1 和 v3.2 这两个小版本,这个效率可以说是倒数第一。而在这段时间内,Qwen 完成 7 次迭代、GLM 完成了 6 次迭代。更新速度远远落后于 Qwen 和 GLM 这两个国产开源模型老大哥
说句公道话,虽然 DeepSeek 的迭代速度慢,但是效果还是不错的,这次 DeepSeek v4 pro 的性能,是强于 Qwen 最强的 3.6-Max 模型的,和 GLM5.1 平分秋色,但依旧不如国外的3个大模型
发布当天,还有很多自媒体软文说媲美 GPT5.5,我只能说这种是外行,不是程序员,对于编程这个场景,deepseek v4 pro 还没有到 GPT5.4 pro 的水平,具体的案例,我后面会出独立的视频/文章对比评测
还有一点 deepseek v4 pro 不支持多模态,claude、gemini、gpt 都支持多模态,但是 deepseek v4 pro、glm5.1、小米的 mimov2.5pro 居然都不支持多模态

新手程序员注意,编程就要用最好的,别听说人什么 deepseek v4 pro 用了别人1/10 的价格就是实现了 80% 的效果,这 20% 的差距是你需要手动 debug 为代价的,记住,人工的成本远高于模型的成本,只要有能力,就用 claude、gpt、gemini 写代码
回到第二个问题,deepseek v4 pro 价格太离谱了,堪称国产最贵,我把 deepseek v4 pro、小米 mimo v2.5pro、glm5.1、kimi2.6、claude opus4.6、gpt5.5、gemini3.1pro 的价格整理成了一个表格放到下面
deepseek v4 pro 在性能和小米、GLM 拉不开差距的情况下,价格居然是他俩的两倍!!!!
| 模型名称 | 缓存命中输入价格(¥/M token) | 缓存未命中输入价格(¥/M token) | 输出价格(¥/M token) |
|---|---|---|---|
| DeepSeek V4 Pro | 1元(官方) | 12元(官方) | 24元(官方) |
| 小米 MiMo V2.5 Pro | 未明确区分 | 7元(0-256k) 14元(256k-1M) | 21元(0-256k) 42元(256k-1M) |
| GLM-5.1 | 1.3元(≤32k) 2元(>32k) | 6元(≤32k) 8元(>32k) | 24元(≤32k) 28元(>32k) |
| Kimi K2.6 | 1.1元 | 6.5元 | 27元 |
| Claude Opus 4.6 | 3.6元($0.50) | 36元($5) | 180元($25) |
| GPT-5.5 | 3.6元($0.50) | 36元($5) | 216元($30) |
| Gemini 3.1 Pro | 1.44元(≤200k,0.40) | 14.4元(≤200k,4) | 86.4元(≤200k,18) |

不过今天 4.26 日,deepseek 推出2.5折优惠,截止到 5.5,然后还加了解释,说下半年会正式降价
我觉得 DeepSeek 最大失误就是没有趁着这两年时间疯狂堆积英伟达的计算卡,不然的话,也不会受限于计算卡不足导致性能上不去、价格下不来