最近听了一些国内的高峰论坛,也看了今年1月份在清华大学举办的 AGI‑Next 前沿峰会,同时联想到前谷歌CEO 埃里克・施密特说过,**如果你真想赚钱,其实很简单:成立一家‘代理 AI’(Agentic AI)公司。并解释说,大模型时代已近尾声,AI Agent(智能体)时代才是未来 1-2 年的最大机会。现在不是去做大模型基础设施(那是巨头的烧钱游戏),而是去构建能自主完成具体任务的 AI 智能体。给我感觉,国内的AI巨头们,都开始纷纷转向AI智能体以及AI应用了......,但我还是认为,虽然AI智能体是AI落地的核心应用载体,但它必须依托强大的底层大模型作为支撑,大模型才是AI时代必争的工业母机。
就在今天(4月24日),时隔15个月,DeepSeek终于带来重磅更新,正式发布了全新系列模型——DeepSeek-V4,这一次,它直接把“百万上下文”变成了标配。
用户现在登录官网 chat.deepseek.com 或官方App,即可免费体验这款新模型。
同时发布两大版本,并各有所长
本次发布的V4系列包含两个版本,均标配1M(百万token)超长上下文——这意味着模型可以一次性处理像《三体》三部曲那样的海量文本。
Pro版主打极致性能,Flash版则聚焦经济高效。两者均支持“思考模式”与“非思考模式”切换,开发者可通过API灵活调用。
能力有多强?多项评测开源第一
DeepSeek官方公布的评测数据显示,V4-Pro在多个维度已达到开源模型最佳水平:
💰 Agent能力:在Agentic Coding评测中,V4-Pro成为DeepSeek内部员工的主力编程工具。据反馈,使用体验优于Claude Sonnet 4.5,交付质量接近Opus 4.6非思考模式,跟思考模式还有点差距。
💰 推理性能:在数学、STEM、竞赛级代码等推理任务中,超越所有已公开评测的开源模型,成绩比肩世界顶级闭源模型。
💰 世界知识:大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。
相比之下,Flash版在世界知识储备上稍弱,但推理能力接近Pro版,且响应更快、成本更低。
核心技术突破:百万上下文“无损”处理
长上下文是大模型的核心能力之一。DeepSeek-V4将上下文长度从此前的128K扩展至1M(约75万字) ,实现了近10倍的容量跃升。
这背后依靠两项技术创新:
- DSA稀疏注意力机制:在token维度进行压缩,大幅降低计算和显存需求
- KV Cache滑窗与压缩算法:减少注意力计算和访存开销,保障全上下文窗口性能无损
这意味着开发者可以直接导入完整代码库、超长行业文档甚至整本书籍进行端到端处理,无需额外搭建复杂的RAG系统。
价格:延续“普惠”路线,Flash版低至0.2元
此次V4系列延续了DeepSeek一贯的高性价比策略,Flash 版低至 0.2 元,官网聊天和App端则继续保持免费,所有用户都能体验百万上下文的强大能力。
具体的API定价如下(每百万token):
| 版本 | 输入(缓存命中) | 输入(缓存未命中) | 输出 |
|---|---|---|---|
| Flash版 | 0.2元 | 1元 | 2元 |
| Pro版 | 1元 | 12元 | 24元 |
官方特别提到,目前Pro版服务吞吐有限,预计下半年华为昇腾950超节点批量上市后,Pro价格将大幅下调。
首次全面拥抱国产芯片
值得关注的是,DeepSeek-V4运行在华为昇腾芯片及昇腾超节点系列产品****上,技术架构从英伟达CUDA全面转向华为CANN框架。
有分析指出,这一决策使国产AI芯片正加速从“可用”迈向“好用”,国产AI服务器建设将加速放量。
写在最后:长期主义,踏实前行
DeepSeek在官方推文的结尾写道:
“不诱于誉,不恐于诽,率道而行,端然正己……将始终秉持长期主义的原则理念,在尝试与思考中踏实前行,努力向实现AGI的目标不断靠近。”
这句出自《荀子・非十二子》的名言,再次印证了 DeepSeek 在喧嚣的 AI 赛道中,不随波逐流、不急于求成的定力。它以百万上下文的硬核突破回应市场期待,以全栈适配国产芯片的决心彰显技术自主。在大模型基础设施竞争白热化、AI 应用与智能体成为下一个风口的当下,DeepSeek-V4 的发布,既是对基础模型能力的极致打磨,也是为 AI Agent 时代筑牢底层算力与模型底座 —— 这恰恰说明,真正的 AI 时代带头大哥,从来不是只追风口,而是造风者,不愧是梁文峰!