大家好,欢迎来到小民AI实战笔记。
DeepSeek-V4预览版发布了,本来没当回事。
结果一细看,跟咱们关系还不小。
最直接的影响就3个字:省钱了😄
先说钱
flash版本输出直接降到2元/1M tokens,比原来便宜了不止一点,看官方这张价格表更直观👇
日常用的话,闭眼选flash,速度更快、价格只有pro的一个零头
再说量
上下文从128K飙到1M token
大概能装下《三体》三部曲的体量
以前传个长文档动不动就超限,现在基本不用愁了
我们要做的事
把模型名换一下,别到时候真崩了
model: "deepseek-chat"
改成
model: "deepseek-v4-flash"
我刚改完,别的啥也不用动👇
反正就是更强、更便宜,接着用就完了
两个版本怎么选?
- deepseek-v4-pro:性能旗舰,能跟顶级闭源模型掰手腕
- deepseek-v4-flash:经济实惠,速度更快,适合日常用
核心亮点捋一下
- 1M超长上下文,以后所有服务都标配
- Agent能力大涨,DeepSeek自己内部写代码都在用
- API最高降价75%,输出从8块直接变2块
最后再说一嘴
deepseek-chat 和 deepseek-reasoner这俩老名字,2026年7月24日正式停用。
现在不改也没事,目前它们会自动指向v4-flash的非思考/思考模式,但别拖到最后一天才想起来,改完收工,咱们好接着薅😄
我是小民,分享我跑通过的AI实操
📢 关于我
以上是本次分享的全部内容。
如果你对我的实操笔记感兴趣,或想交流AI工具的使用经验:
👉 「个人主页」有我的联系方式,欢迎来聊
感谢阅读,下期见~