DeepSeek-V4:降价 75%,1M 上下文,白嫖党福音

0 阅读2分钟

大家好,欢迎来到小民AI实战笔记。

DeepSeek-V4预览版发布了,本来没当回事。

结果一细看,跟咱们关系还不小。

最直接的影响就3个字:省钱了😄

先说钱

flash版本输出直接降到2元/1M tokens,比原来便宜了不止一点,看官方这张价格表更直观👇

日常用的话,闭眼选flash,速度更快、价格只有pro的一个零头

再说量

上下文从128K飙到1M token

大概能装下《三体》三部曲的体量

以前传个长文档动不动就超限,现在基本不用愁了

我们要做的事

把模型名换一下,别到时候真崩了

model: "deepseek-chat"
改成
model: "deepseek-v4-flash"

我刚改完,别的啥也不用动👇

反正就是更强、更便宜,接着用就完了

两个版本怎么选?

  • deepseek-v4-pro:性能旗舰,能跟顶级闭源模型掰手腕
  • deepseek-v4-flash:经济实惠,速度更快,适合日常用

核心亮点捋一下

  • 1M超长上下文,以后所有服务都标配
  • Agent能力大涨,DeepSeek自己内部写代码都在用
  • API最高降价75%,输出从8块直接变2块

最后再说一嘴

deepseek-chatdeepseek-reasoner这俩老名字,2026年7月24日正式停用

现在不改也没事,目前它们会自动指向v4-flash的非思考/思考模式,但别拖到最后一天才想起来,改完收工,咱们好接着薅😄

我是小民,分享我跑通过的AI实操

📢 关于我

以上是本次分享的全部内容。

如果你对我的实操笔记感兴趣,或想交流AI工具的使用经验:

👉 「个人主页」有我的联系方式,欢迎来聊

感谢阅读,下期见~