DeepSeek V4正式发布:开源模型首次比肩顶级闭源

0 阅读3分钟

刚刚,DeepSeek-V4来了。预览版正式上线并同步开源,发了两个版本:V4-Pro和V4-Flash。

官方给出了三条核心评价:Agent能力大幅提高、世界知识储备丰富、世界顶级推理性能。值得注意的是,他们把内部员工已经在用的体验写进了发布稿——Agent Coding模式下优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距。

2ffb541d740f491c8f84b3ea5bcea95b.jpeg~tplv-a9rns2rl98-image_raw_b.png

V4-Pro:性能比肩顶级闭源

Agent Coding能力:在相关评测中已达到当前开源模型最佳水平,内部测评体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。

世界知识储备:大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。

推理性能:在数学、STEM、竞赛型代码测评中超越当前所有已公开评测的开源模型,取得比肩世界顶级闭源模型的优异成绩。

837e69baa99344e7b0673d6078a11bff.jpeg~tplv-a9rns2rl98-image_raw_b.png

V4-Flash:更小更快的经济版

V4-Flash参数和激活更小,API更便宜。推理能力接近Pro版本,世界知识储备稍逊一筹。在简单Agent任务上与V4-Pro旗鼓相当,高难度任务上仍有差距。

百万上下文成为标配

从今天开始,1M上下文是DeepSeek所有官方服务的标配。

一年前,1M上下文还是Gemini独家王牌;其他闭源模型要么128K要么200K;开源这边几乎没人玩得起这个量级。DeepSeek直接把百万上下文从「高端功能」变成了「水电煤」,而且是开源的。

实现方式:V4开创了全新注意力机制,在token维度进行压缩,结合DSA稀疏注意力。对比传统方法,计算和显存需求大幅降低。

1288e9f030a54161a8b0e54de4f0f8da.jpeg~tplv-a9rns2rl98-image_raw_b.png

Agent能力专项优化

V4针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品做了适配和优化,代码任务、文档生成任务均有提升。

API同步上线,支持OpenAI ChatCompletions接口和Anthropic接口两套。调用方式:base_url不变,model参数改成deepseek-v4-pro或deepseek-v4-flash。两个版本最大上下文都是1M,都支持非思考和思考模式,思考模式可通过reasoning_effort参数调强度。

华为算力:下半年批量上

重点:下半年批量上华为算力。

旧模型名下架提醒:deepseek-chat和deepseek-reasoner将在三个月后停用,当前分别指向V4-Flash的非思考和思考模式。对个人开发者影响不大,改一个model参数即可;对生产环境对接的公司,三个月内需完成迁移。

顺嘴说一句——如果你在找稳定的DeepSeek API渠道,我现在用云卷API,多模型切换管理,DeepSeek V4上线后第一时间接入,调用比较稳定。

率道而行

发布稿结尾,DeepSeek引用了荀子《非十二子》的一句话:「不诱于誉,不恐于诽,率道而行,端然正己。」

过去半年传言不断,他们从未回应。最终在某个周五上午同步开源、上线官网和App、更新API,顺便把内部弃用Claude的事实写进发布稿。没有路线图,没有直播,没有访谈。

把V3.2-Exp版本、DSA稀疏注意力、1M上下文从王牌变标配这条路径放在一起看——DeepSeek已经做到了。