就在刚刚,DeepSeek-V4 的预览版本正式上线并同步开源。
上下文长度直接从从128K直接跳到100万。
没有任何官方公告,没有任何预热。
就那么静悄悄地上线了。
结论是:
便宜,贼便宜,便宜到离谱。
编程能力媲美闭源第一梯队。
没有多模态。
先说最炸裂的数据
泄露的基准测试数据里,最让老金我吃惊的是这个数字。
SWE-bench Verified,80.6%
这个测试专门考AI修复真实GitHub Bug的能力。
80.6%是什么概念?
Claude Opus 4.65是80.8%,GPT-5.4是80.6%。
先说架构,再说这意味着什么。
万亿参数背后的黑科技
V4的总参数量达到了1万亿。
但跟其他万亿参数模型不一样的是,V4继续用MoE(混合专家架构)。
每次处理一个token,只激活370亿参数。
相当于一家1万人的公司,每次干活只叫370个人出来。
剩下的9600多人歇着,不耗电。
Engram条件记忆架构
这个是V4最大的技术突破。
以前的模型处理长文本,记忆是线性增长的——文本越长,计算量越大。
100万Token的上下文,按老办法做,很多机器直接跑不动。
Engram的核心思路是把记忆分层。
静态知识(比如API文档、语法规则)存在固定区域,O(1)复杂度直接调用。
动态上下文(对话历史、当前任务)单独处理。
这样100万Token不会让计算量爆炸。
据说在100万Token长度下,V4的信息召回率达到97%。
V3在128K的召回率大约是85%。
从128K的85%到100万Token的97%。。。
这个提升幅度确实有点离谱。
mHC多层通信技术,这个提了30%的训练效率。
具体原理比较复杂,简单说就是改变了信息在模型层间流动的方式。
以前是每一层都要传一大堆信息给下一层。
现在每层只传关键信息,减少冗余。
拒绝英伟达,跑华为芯片
这个可能是V4影响最深远的一个决定。
据路透社4月18日报道,V4将运行在华为最新的昇腾950PR芯片上。
DeepSeek的工程师重写了核心代码,从英伟达的CUDA框架全面转向华为的CANN框架。
内部测试数据显示:
昇腾950PR上推理速度较初期版本提升35倍。
单卡推理性能达到英伟达特供版H20的2.87倍。
能耗降低40%。
老金我得说清楚,这些数据来自爆料,不是官方发布。
但方向是确定的。
V4旗舰模型优先昇腾,历史版本继续用英伟达,未来双轨并行。
这不是DeepSeek第一次这么干。
V4春节发布时就已经拒绝给英伟达优先适配权,改让华为先跑通。
对一个万亿参数模型来说,完全脱离英伟达生态。
这件事放到一年前,没人敢想。
如果对你有帮助,记得关注一波~
价格:便宜到离谱
目前,DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。
访问新模型时,base_url 不变, model 参数需要改为 deepseek-v4-pro 或 deepseek-v4-flash。
API定价如下:
V4-Pro 与 V4-Flash 最大上下文长度为 1M,均同时支持非思考模式与思考模式,其中思考模式支持 reasoning_effort 参数设置思考强度(high/max)。
对于复杂的 Agent 场景建议使用思考模式,并设置强度为 max。
对比一下竞品(均为官方定价):
Claude Opus 4.5:输入2.50/百万Token。
DeepSeek V4:输入约$0.20/百万Token。
差了多少倍?
Claude的75分之一。
GPT-5.4的12分之一。
而且V4计划采用Apache 2.0开源协议。
这意味着什么?
任何公司都可以拿V4的代码,部署在自己的服务器上,改一改,变成自己的产品。
不需要给DeepSeek付一分钱。
这就是开源的威力。
API定价已经这么便宜了,还开源。。。
老金我真的想不通DeepSeek靠什么赚钱。
这意味着什么
对开发者
API价格打到地板价,开源协议随便用。
中小企业和独立开发者终于不用为Token费用发愁了。
以前用Claude一天烧掉几十美元的活儿,换成V4可能不到1美元。
对行业
DeepSeek证明了国产芯片可以跑万亿参数模型。
这比模型本身的性能提升更有战略意义。
因为硬件受制于人,软件再强也没用。
昇腾能跑V4,后面阿里、百度、字节的模型也会跟进。
编程能力SOTA + 价格打骨折 + 开源。
这三个条件凑在一起,Claude和GPT的压力不小。
尤其在中美科技博弈的背景下,DeepSeek的每一步都有政治意味。
老金我的判断
说实话,老金我对V4的态度比较复杂。
技术层面,确实厉害。
编程登顶、百万上下文、国产芯片适配,每一条都是硬核突破。
但有几个问题得说清楚。
昇腾生态的长期稳定性
芯片能跑是一回事,生态成熟度是另一回事。
CUDA有十几年的积累,CANN才刚开始。
短期可能有各种兼容性问题。
这些不是泼冷水。
是真实存在的风险。
如果你是Claude重度用户
先别急着换。V4的编程能力很强,但Claude在代码理解、项目上下文、长期对话这些维度上,积累的工程经验不是一天能追上的。
如果你是独立开发者,强烈建议试试V4 API。
价格便宜太多了,开源协议意味着你可以深度定制。
如果你关心国产AI,V4是一个里程碑。
万亿参数+国产芯片+开源,这三件事放在一起,之前没人做到过。
DeepSeek用了不到两年时间,从V2走到V4。
从追赶到反超,速度确实快得让人有点慌。。。
但越是这样,越需要冷静看数据,不要被情绪带着跑。
你们觉得V4能不能真正撼动Claude和GPT在国内的地位?
评论区聊聊,老金我很好奇大家的判断。
飞书**开源知识库(实时更新 交流群):
https://tffyvtlai4.feishu.cn/wiki/OhQ8wqntFihcI1kWVDlcNdpznFf
Claude Code & Openclaw 双顶流全中文从零开始的教程:不懂代码照样造网站,老金15万字Claude Code+OpenClaw教程免费开源
我的小破站(含我开源的项目):https://www.aiking.dev/
每次我都想提醒一下,这不是凡尔赛,是希望有想法的人勇敢冲。
我不会代码,我英语也不好,但是我做出来了很多东西。
我真心希望能影响更多的人来尝试新的技巧,迎接新的时代。
谢谢你读我的文章。
如果觉得不错,随手点个赞、在看、转发三连吧🙂
如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章。