编程媲美闭源顶级模型!DeepSeek V4来了,价格便宜75倍!

0 阅读6分钟

就在刚刚,DeepSeek-V4 的预览版本正式上线并同步开源。
上下文长度直接从从128K直接跳到100万。

没有任何官方公告,没有任何预热。
就那么静悄悄地上线了。

Image

结论是:
便宜,贼便宜,便宜到离谱。
编程能力媲美闭源第一梯队。
没有多模态。

先说最炸裂的数据

泄露的基准测试数据里,最让老金我吃惊的是这个数字。
SWE-bench Verified,80.6%
这个测试专门考AI修复真实GitHub Bug的能力。

80.6%是什么概念?
Claude Opus 4.65是80.8%,GPT-5.4是80.6%。

Image

先说架构,再说这意味着什么。

万亿参数背后的黑科技

V4的总参数量达到了1万亿。
但跟其他万亿参数模型不一样的是,V4继续用MoE(混合专家架构)。

每次处理一个token,只激活370亿参数。
相当于一家1万人的公司,每次干活只叫370个人出来。
剩下的9600多人歇着,不耗电。

Engram条件记忆架构
这个是V4最大的技术突破。

以前的模型处理长文本,记忆是线性增长的——文本越长,计算量越大。
100万Token的上下文,按老办法做,很多机器直接跑不动。

Engram的核心思路是把记忆分层。
静态知识(比如API文档、语法规则)存在固定区域,O(1)复杂度直接调用。

动态上下文(对话历史、当前任务)单独处理。
这样100万Token不会让计算量爆炸。

据说在100万Token长度下,V4的信息召回率达到97%。
V3在128K的召回率大约是85%。
从128K的85%到100万Token的97%。。。

这个提升幅度确实有点离谱。

mHC多层通信技术,这个提了30%的训练效率。
具体原理比较复杂,简单说就是改变了信息在模型层间流动的方式。

以前是每一层都要传一大堆信息给下一层。
现在每层只传关键信息,减少冗余。

拒绝英伟达,跑华为芯片

这个可能是V4影响最深远的一个决定。

据路透社4月18日报道,V4将运行在华为最新的昇腾950PR芯片上。
DeepSeek的工程师重写了核心代码,从英伟达的CUDA框架全面转向华为的CANN框架。

内部测试数据显示:
昇腾950PR上推理速度较初期版本提升35倍。
单卡推理性能达到英伟达特供版H20的2.87倍。

能耗降低40%。

老金我得说清楚,这些数据来自爆料,不是官方发布。

但方向是确定的。
V4旗舰模型优先昇腾,历史版本继续用英伟达,未来双轨并行。
这不是DeepSeek第一次这么干。

V4春节发布时就已经拒绝给英伟达优先适配权,改让华为先跑通。
对一个万亿参数模型来说,完全脱离英伟达生态。
这件事放到一年前,没人敢想。

如果对你有帮助,记得关注一波~

价格:便宜到离谱

目前,DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。
访问新模型时,base_url 不变, model 参数需要改为 deepseek-v4-pro 或 deepseek-v4-flash。

API定价如下:

Image

V4-Pro 与 V4-Flash 最大上下文长度为 1M,均同时支持非思考模式与思考模式,其中思考模式支持 reasoning_effort 参数设置思考强度(high/max)。

对于复杂的 Agent 场景建议使用思考模式,并设置强度为 max。

对比一下竞品(均为官方定价):
Claude Opus 4.5:输入15/百万TokenGPT5.4:输入15/百万Token。 GPT-5.4:输入2.50/百万Token。

DeepSeek V4:输入约$0.20/百万Token。

差了多少倍?
Claude的75分之一。
GPT-5.4的12分之一。

而且V4计划采用Apache 2.0开源协议。
这意味着什么?

任何公司都可以拿V4的代码,部署在自己的服务器上,改一改,变成自己的产品。
不需要给DeepSeek付一分钱。

这就是开源的威力。
API定价已经这么便宜了,还开源。。。
老金我真的想不通DeepSeek靠什么赚钱。

这意味着什么

对开发者
API价格打到地板价,开源协议随便用。
中小企业和独立开发者终于不用为Token费用发愁了。

以前用Claude一天烧掉几十美元的活儿,换成V4可能不到1美元。

对行业
DeepSeek证明了国产芯片可以跑万亿参数模型。
这比模型本身的性能提升更有战略意义。

因为硬件受制于人,软件再强也没用。

昇腾能跑V4,后面阿里、百度、字节的模型也会跟进。
编程能力SOTA + 价格打骨折 + 开源。
这三个条件凑在一起,Claude和GPT的压力不小。

尤其在中美科技博弈的背景下,DeepSeek的每一步都有政治意味。

老金我的判断

说实话,老金我对V4的态度比较复杂。

技术层面,确实厉害。
编程登顶、百万上下文、国产芯片适配,每一条都是硬核突破。

但有几个问题得说清楚。

昇腾生态的长期稳定性
芯片能跑是一回事,生态成熟度是另一回事。
CUDA有十几年的积累,CANN才刚开始。

短期可能有各种兼容性问题。

这些不是泼冷水。
是真实存在的风险。

如果你是Claude重度用户
先别急着换。V4的编程能力很强,但Claude在代码理解、项目上下文、长期对话这些维度上,积累的工程经验不是一天能追上的。

如果你是独立开发者,强烈建议试试V4 API。
价格便宜太多了,开源协议意味着你可以深度定制。

如果你关心国产AI,V4是一个里程碑。
万亿参数+国产芯片+开源,这三件事放在一起,之前没人做到过。

DeepSeek用了不到两年时间,从V2走到V4。
从追赶到反超,速度确实快得让人有点慌。。。
但越是这样,越需要冷静看数据,不要被情绪带着跑。

你们觉得V4能不能真正撼动Claude和GPT在国内的地位?
评论区聊聊,老金我很好奇大家的判断。


飞书**开源知识库(实时更新 交流群):
https://tffyvtlai4.feishu.cn/wiki/OhQ8wqntFihcI1kWVDlcNdpznFf

Claude Code & Openclaw 双顶流全中文从零开始的教程:不懂代码照样造网站,老金15万字Claude Code+OpenClaw教程免费开源

我的小破站(含我开源的项目):https://www.aiking.dev/


每次我都想提醒一下,这不是凡尔赛,是希望有想法的人勇敢冲。
我不会代码,我英语也不好,但是我做出来了很多东西。
我真心希望能影响更多的人来尝试新的技巧,迎接新的时代。

谢谢你读我的文章。
如果觉得不错,随手点个赞、在看、转发三连吧🙂
如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章。