今日北京时间2026 年 4 月 24 日,DeepSeek 正式发布 DeepSeek V4 系列 大模型并更新 API 定价体系
国内人工智能公司 DeepSeek 于近日发布新一代大模型 DeepSeek V4,并同步上线新版 API 服务与 MIT 许可开源模型。
根据官方公布信息,DeepSeek V4 不再延续此前“对话模型 + 推理模型”的分离设计,而是统一为两大版本:
- DeepSeek V4 Flash(面向规模化与低成本场景)
- DeepSeek V4 Pro(面向复杂推理与高精度任务)
两款模型均支持最高 100 万 tokens 上下文窗口,以及最大 384K tokens 输出长度。同时,模型引入“思考模式(Thinking Mode)”,允许开发者在同一模型中按需启用推理能力,而无需切换模型版本。
官方API接口更新
DeepSeek V4 API 同时兼容两类主流协议:
- OpenAI 风格接口
- Anthropic 风格接口
这意味着开发者可在现有工具链基础上较低成本迁移或接入。与此同时,V4 全面支持 JSON 输出、工具调用(Tool Calls)以及对话前缀续写等功能,进一步强化其在 Agent 与自动化系统中的适配能力。
接口模型名称变动:
为保障平滑过渡:
- 原 deepseek-chat → 对应 V4 Flash(非思考模式)
- 原 deepseek-reasoner → 对应 V4 Flash(思考模式)
上述旧模型名称未来将逐步弃用。
定价
在商业化方面,DeepSeek 此次同步公布了新的 API 价格体系。费用以“每百万 tokens”为单位,采用按量计费方式。
DeepSeek V4 Flash
- 输入(缓存命中):约 0.2 元 / 百万 tokens
- 输入(缓存未命中):约 1 元 / 百万 tokens
- 输出:约 2 元 / 百万 tokens
DeepSeek V4 Pro
- 输入(缓存命中):约 1 元 / 百万 tokens
- 输入(缓存未命中):约 12 元 / 百万 tokens
- 输出:约 24 元 / 百万 tokens
DeepSeek V4 Flash 的定价在当前市场中依然处于极低水平,可能将会成为企业环境在降本增效环境下的首先选用模型。
开源策略:
除 API 服务外,DeepSeek 此次 V4 版本依然如过往一致推出基于 MIT 许可的模型版本,允许企业和开发者进行本地部署、商业使用及二次开发。