程序员视角解读为什么deepseek v4 出生就落后别人一代?性能一般价格自信

4 阅读3分钟

程序员视角解读为什么deepseek v4 出生就落后别人一代?性能一般价格自信

deepseek v4 姗姗来迟,虽发布了,有两个问题,一个是性能已经掉队了,另一个是价格贵的离谱

先说第一个,为什么?因为它把时间浪费在适配菊花上,这个失败菊花自己的盘古团队已经试过了,不是这些负责大模型训练的程序员不聪明不努力,而是菊花这种 NPU 妄图训练大模型的路线的难度过高,为什么?打一个形象的比方,如果说英伟达的GPU是 python,那菊花的 NPU 就是汇编语言,复杂度提升至少10倍,具体大家想了解菊花的计算卡有多难用,我到时候出一期专题讲一下

DeepSeek 自从发布 deepseek V3 之后,v4 发布前的 16 个月时间内,只更新了 v3.1 和 v3.2 这两个小版本,这个效率可以说是倒数第一。而在这段时间内,Qwen 完成 7 次迭代、GLM 完成了 6 次迭代。更新速度远远落后于 Qwen 和 GLM 这两个国产开源模型老大哥

说句公道话,虽然 DeepSeek 的迭代速度慢,但是效果还是不错的,这次 DeepSeek v4 pro 的性能,是强于 Qwen 最强的 3.6-Max 模型的,和 GLM5.1 平分秋色,但依旧不如国外的3个大模型

发布当天,还有很多自媒体软文说媲美 GPT5.5,我只能说这种是外行,不是程序员,对于编程这个场景,deepseek v4 pro 还没有到 GPT5.4 pro 的水平,具体的案例,我后面会出独立的视频/文章对比评测

还有一点 deepseek v4 pro 不支持多模态,claude、gemini、gpt 都支持多模态,但是 deepseek v4 pro、glm5.1、小米的 mimov2.5pro 居然都不支持多模态

21312312312

新手程序员注意,编程就要用最好的,别听说人什么 deepseek v4 pro 用了别人1/10 的价格就是实现了 80% 的效果,这 20% 的差距是你需要手动 debug 为代价的,记住,人工的成本远高于模型的成本,只要有能力,就用 claude、gpt、gemini 写代码

回到第二个问题,deepseek v4 pro 价格太离谱了,堪称国产最贵,我把 deepseek v4 pro、小米 mimo v2.5pro、glm5.1、kimi2.6、claude opus4.6、gpt5.5、gemini3.1pro 的价格整理成了一个表格放到下面

deepseek v4 pro 在性能和小米、GLM 拉不开差距的情况下,价格居然是他俩的两倍!!!!

模型名称缓存命中输入价格(¥/M token)缓存未命中输入价格(¥/M token)输出价格(¥/M token)
DeepSeek V4 Pro1元(官方)12元(官方)24元(官方)
小米 MiMo V2.5 Pro未明确区分7元(0-256k) 14元(256k-1M)21元(0-256k) 42元(256k-1M)
GLM-5.11.3元(≤32k) 2元(>32k)6元(≤32k) 8元(>32k)24元(≤32k) 28元(>32k)
Kimi K2.61.1元6.5元27元
Claude Opus 4.63.6元($0.50)36元($5)180元($25)
GPT-5.53.6元($0.50)36元($5)216元($30)
Gemini 3.1 Pro1.44元(≤200k,0.202.88元(>200k0.20) 2.88元(>200k,0.40)14.4元(≤200k,228.8元(>200k2) 28.8元(>200k,4)86.4元(≤200k,12129.6元(>200k12) 129.6元(>200k,18)

3f4243cbcc0970ee503066b7b97543e0

不过今天 4.26 日,deepseek 推出2.5折优惠,截止到 5.5,然后还加了解释,说下半年会正式降价

我觉得 DeepSeek 最大失误就是没有趁着这两年时间疯狂堆积英伟达的计算卡,不然的话,也不会受限于计算卡不足导致性能上不去、价格下不来