DeepSeek 发布 V4 大模型并更新 API 定价体系

28 阅读2分钟

今日北京时间2026 年 4 月 24 日,DeepSeek 正式发布 DeepSeek V4 系列 大模型并更新 API 定价体系

国内人工智能公司 DeepSeek 于近日发布新一代大模型 DeepSeek V4,并同步上线新版 API 服务与 MIT 许可开源模型。

根据官方公布信息,DeepSeek V4 不再延续此前“对话模型 + 推理模型”的分离设计,而是统一为两大版本:

  • DeepSeek V4 Flash(面向规模化与低成本场景)
  • DeepSeek V4 Pro(面向复杂推理与高精度任务)

两款模型均支持最高 100 万 tokens 上下文窗口,以及最大 384K tokens 输出长度。同时,模型引入“思考模式(Thinking Mode)”,允许开发者在同一模型中按需启用推理能力,而无需切换模型版本。

官方API接口更新

DeepSeek V4 API 同时兼容两类主流协议:

  • OpenAI 风格接口
  • Anthropic 风格接口

这意味着开发者可在现有工具链基础上较低成本迁移或接入。与此同时,V4 全面支持 JSON 输出、工具调用(Tool Calls)以及对话前缀续写等功能,进一步强化其在 Agent 与自动化系统中的适配能力。

接口模型名称变动:

为保障平滑过渡:

  • deepseek-chat → 对应 V4 Flash(非思考模式)
  • deepseek-reasoner → 对应 V4 Flash(思考模式)

上述旧模型名称未来将逐步弃用。

定价

在商业化方面,DeepSeek 此次同步公布了新的 API 价格体系。费用以“每百万 tokens”为单位,采用按量计费方式。

DeepSeek V4 Flash

  • 输入(缓存命中):约 0.2 元 / 百万 tokens
  • 输入(缓存未命中):约 1 元 / 百万 tokens
  • 输出:约 2 元 / 百万 tokens

DeepSeek V4 Pro

  • 输入(缓存命中):约 1 元 / 百万 tokens
  • 输入(缓存未命中):约 12 元 / 百万 tokens
  • 输出:约 24 元 / 百万 tokens

DeepSeek V4 Flash 的定价在当前市场中依然处于极低水平,可能将会成为企业环境在降本增效环境下的首先选用模型。

开源策略:

除 API 服务外,DeepSeek 此次 V4 版本依然如过往一致推出基于 MIT 许可的模型版本,允许企业和开发者进行本地部署、商业使用及二次开发。