今天是个有点荒诞的日子。
上午,DeepSeek V4正式发布,1.6万亿参数,MIT开源,首发平台是华为昇腾。
下午,OpenAI推出GPT-5.5,代号"土豆",直接把Claude Opus 4.7的王座抢回去了。
两家公司,分布在中美两侧,在同一个周四,把各自最强的东西扔到桌上。这种事情放在三年前根本想象不到。
DeepSeek V4:开源界的价格屠夫回来了
先说V4做了什么。
1.6T参数,MoE架构,激活49B。听起来很玄,实际上是说:它训练时用了1.6万亿参数,但每次推理只激活49B,所以速度快、成本低。上下文窗口1M tokens,最大输出38.4万tokens——这两个数字都是当前开源模型里最高的。
但比参数更值得聊的,是华为昇腾。
在V4的技术报告里,昇腾和英伟达的名字,第一次肩并肩出现在同一张性能对比表中。
这不是公关稿,是写进论文的工程事实。DeepSeek的研究员在昇腾NPU上完成了训练和推理,然后白纸黑字把数据发出来了。
黄仁勋看到这条消息后,公开表态:
"DeepSeek running on Huawei chips is a bad result for the United States."
这句话的信息量很大。英伟达CEO亲口说,这个结果对美国不好——言下之意,出口管制没能把AI算力路径牢牢锁死在自己手里。
然后是定价。V4-Flash(284B轻量版)输出价格¥2/百万token,V4-Pro(1.6T旗舰版)输出¥24/百万token。换算成美元:
- DeepSeek V4-Pro:$3.48/百万token
- GPT-5.4:$15
- Claude Opus 4.6:$25
大概是GPT的四分之一,Claude的七分之一。
有人说DeepSeek又在"价格倾销"。但倾销需要赔本,V4用MoE架构把每次推理的算力成本打到极低,这不是补贴策略,是架构优势。
你用过DeepSeek的API吗?现在是不是比半年前快了很多?评论区告诉我。
GPT-5.5:OpenAI一口气把王座抢回来了
上个月Claude Opus 4.7发布,Agent能力很强,一度被认为超过了GPT-5.4。
这次GPT-5.5是正面反攻。
代号"土豆(Spud)",这个名字挺像素,但测试结果不素:Terminal-Bench 2.0(测试AI自主完成终端任务的能力)拿了82.7%,Claude Opus 4.7只有69.4%,差了13个百分点。
什么叫Terminal-Bench 2.0?给AI一个终端环境、一个模糊的目标,它自己规划路径、写脚本、调工具、处理报错、反复迭代。这是测AI能不能"自己干活",不是测它能不能"正确回答问题"。
OpenAI说GPT-5.5的定位是**"Agent时代的原生大脑"**。不是帮你写报告,而是帮你把整个工作流接管掉。
他们内部有个数据:超过85%的员工每周跨部门使用Codex。财务团队让它审查了71,637页税表,提前两周完成。市场团队每周业务报告自动生成,每周节省5-10小时。
但有一个地方值得留意:GPT-5.5的价格翻倍了。
输入从5,输出从
30。如果你的团队每个月API消费10万美元,切换到5.5之后账单大概会变成14万。
智能提升了,账单也提升了。这笔帐算不算值,取决于你的场景。
这一天意味着什么
两个模型同日发布,不是什么巧合,而是AI竞赛节奏加速的缩影。
GPT-5.4发布到GPT-5.5,中间只差了一个月。DeepSeek V3.2到V4,核心技术路线换了一次(CUDA迁到CANN)。这个速度放到两年前,是不可能的。
更有意思的是两种路线的对比:
DeepSeek选择把模型开源,然后靠API收费。它用价格优势撬动开发者,让整个生态绑在国产算力上。GPT-5.5选择闭源高价,把智能溢价做到最高点,服务企业高端场景。
这两条路未必是竞争,更像是市场分层——一边是"够用且便宜"的开源生态,一边是"更强但贵"的顶端市场。
你现在选哪个?是DeepSeek的V4-Flash,还是GPT-5.5 Pro?
#DeepSeek #GPT5 #大模型 #AI #国产AI
👋 关注公众号**「赛博山海经」,回复「工具」获取导航页**,觉得有用点个**「在看」**✨
参考来源
- DeepSeek V4 技术报告(ai-insight.org,2026-04-24)
- 36氪:GPT-5.5来了,全榜第一碾压Opus 4.7(2026-04-24)
- 腾讯新闻:DeepSeek V4正式发布,华为昇腾芯片宣布全系护航(2026-04-24)
- 新浪财经:"价格屠夫"来了!DeepSeek V4把百万上下文打到2毛(2026-04-24)