DeepSeek V4 的意义,不只是模型能力提升,而是它释放出两个重要信号:
第一,英伟达在 AI 硬件上的独大地位可能难以长期维持。 第二,传统向量检索式 RAG 会逐渐被新范式取代。
一、英伟达的护城河正在变浅
英伟达的核心优势主要来自两个方面:CUDA 生态和先进制程。
CUDA 的确强大,但它真正深厚的护城河,来自长期积累的软件生态。游戏、设计、渲染、科学计算等场景与 CUDA 深度绑定,形成了大量历史代码、兼容性需求和工程惯性。
但如果只看大模型训练和推理,情况就不同了。
LLM 的核心计算主要集中在矩阵运算、算子优化、显存管理、通信效率和推理加速等方面。相比完整 CUDA 生态,这部分问题更聚焦,也更容易被专门优化。
DeepSeek 从 R1 到 V4 展现出的能力说明,它很可能已经系统掌握了大模型相关的底层科学计算能力。尤其是 V4 能运行在昇腾体系上,意味着中国 AI 产业正在具备脱离单一 CUDA 路线的可能。
更重要的是,编程 Agent 的发展正在大幅降低重建软件体系的难度。过去很难复刻的工程系统,现在只要理解足够深入,就可以借助 AI 编程工具快速重构。
因此,未来 AI 硬件很可能形成两极格局: 一极是以英伟达为核心的美国体系,另一极是以国产芯片和国产模型为核心的中国体系。
制程仍然重要,但它不是唯一决定因素。模型优化、软件栈、集群调度和推理效率,同样可以弥补硬件差距。
二、传统 RAG 会被淘汰
传统 RAG 的主流形式是: 文档切块 → 向量检索 → LLM 生成。
这种方式简单易用,但缺陷也很明显:向量检索只能判断语义相似,不能真正理解结构和逻辑。
在复杂业务场景中,问题往往涉及实体关系、时间顺序、权限规则、多跳推理和结构化字段。单纯依赖向量相似度,很容易出现召回错误、上下文污染和答案幻觉。
所以,传统向量检索式 RAG 很可能只是过渡形态。
未来的 RAG 会转向:
- 结构化数据库;
- 知识图谱;
- 事件链;
- 元数据体系;
- 表格与业务规则;
- LLM 驱动的检索规划。
也就是说,未来不是“先检索,再让模型总结”,而是由 LLM 先理解问题,再决定查什么、怎么查、如何组合证据。
检索引擎会越来越像一个由 LLM 驱动的推理系统。
三、真正的变化:AI 正在重构底层生态
DeepSeek V4 代表的不是单点突破,而是系统性变化。
在硬件层面,CUDA 不再是唯一答案。 在应用层面,向量 RAG 也不再是最终形态。
未来 AI 的竞争,将不只是模型参数和算力规模的竞争,而是完整体系的竞争: 模型、芯片、软件栈、数据结构和工具链,谁能形成闭环,谁就能定义新格局。
DeepSeek V4 的出现,说明旧秩序正在松动。 AI 的下一阶段,很可能从“单一巨头主导”,走向“多体系并存”。