DeepSeek 不用英伟达了

0 阅读2分钟

这事我一直觉得迟早会来,没想到真的来了。

DeepSeek V4,下一代旗舰模型,全面跑在华为昇腾芯片上。不是临时兼容,是专门为昇腾重新优化了底层架构——MoE 路由、通信模式、专家调度,全部对着昇腾的硬件特性重写了一遍。

以前国产大模型用国产芯片,大多是"能跑就行",性能打折扣,效率也差。这次不是。

数字摆在这里

推理成本比 V3 降了 40%,128K 上下文的推理速度快了 8.3 倍,显存占用降了 67%。

V4 用了动态稀疏注意力,把处理长文本的复杂度从 O(n²) 压到了 O(n log n)——文本越长,省的越多。

还有一个细节:V4 参数是 1 万亿,但推理时实际激活的只有 85B 左右。简单问题激活 5% 的参数,复杂任务最多 35%。跑起来不像 1 万亿参数那么费,成本算下来跟小模型差不多。

这件事真正重要的地方

不是参数大,也不是速度快。

是从硬件层到软件栈,全部是国产的了。

之前大家说"国产替代",说的是能不能用,凑合不凑合。V4 这次证明的是——用国产芯片,可以比之前更快、更便宜、还更省显存。

而且 DeepSeek 的 API 一直是行业价格地板,V4 成本降了,定价大概率还会往下走。

对开发者有什么影响

API 成本继续降,量化后的 V4 据说可以在 RTX 4090 上流畅跑 100K 上下文的代码分析,个人开发者也能用上。

百万上下文意味着把整个 GitHub 仓库一次性扔进去,不用再分批、手动切文件。

V4 正式发布是 4 月下旬,到时候会第一时间测。

#DeepSeek #国产大模型 #华为昇腾 #AI工具 #程序员 #大模型 #国产替代

首发于公众号**「赛博山海经」**,每周实测AI工具,不玩虚的。 免费AI工具导航👉 92yangyi.top/ai-tools

参考来源: