P.S. 无意间发现了一个巨牛的人工智能教程,忍不住分享一下给大家。很通俗易懂,重点是还非常风趣幽默,像看小说一样。网址是captainbed.cn/jj。希望更多人能加入到我们AI领域。
前言
我凌晨三点被技术群的消息炸醒。本来都准备睡了,结果手机疯狂震动,打开一看全是"卧槽""离谱""真香"三连。OpenClaw那边刚发了个更新,直接把DeepSeek V4 Flash设成了默认模型。不是可选,是默认!这意味着什么?意味着全球超14万star的开发者社区,打开OpenClaw的第一时间,弹出来的就是那个来自中国的、只收你0.14美元每百万token的怪物。我当时直接从床上坐起来,这还睡个屁啊,开电脑!
这事有多离谱? 先说清楚OpenClaw是个啥。这玩意现在GitHub上超14万star,是全球最火的开源AI Agent框架。它能干嘛?简单说就是给你的大模型装上手脚——自动读邮件、写代码、管日历、甚至帮你回消息。以前它默认接的是Claude Opus,那玩意儿能力是强,但价格...输入5美元每百万token,输出25美元。我上个月跑了个自动化脚本,三天烧掉420块美元,心疼得我连夜把信用卡限额调低了,真的不夸张。
结果DeepSeek V4在4月24号凌晨一发布,OpenClaw团队几乎秒跟进。4月26号更新的版本,直接把V4 Flash塞进了默认配置。我算了一下账:同杨处理一百万token的输入,Claude Opus 4.7收5美元,GPT-5.5也收5美元,DeepSeek V4 Flash只要0.14美元。0.14!连人家的零头都够不上。输出更夸张,V4 Flash收0.28,GPT-5.5收30美元。这差距...不是打五折,是直接打到骨折价以下,膝盖以下那种。
价格屠夫再出手
但便宜没好货?不存在的。DeepSeek这次搞了两个版本:V4 Flash和V4 Pro。Flash是日常主力,284B总参数,13B激活参数,跑大多数任务完全够用。Pro是真·怪兽,1.6T总参数,49B激活,专门啃硬骨头——复杂架构设计、深度数学推理、多文件重构。关键是两个版本都给了100万token的上下文窗口。100万啊!什么概念?你能直接把一整个代码仓库、20本长篇小说、或者三年的聊天记录一次性塞进去。以前用Claude处理长文档,超过20万token就开始掉链子,现在DeepSeek直接给你五倍容量,还稳得一批。
更狠的是API兼容性。DeepSeek V4同时支持OpenAI风格和Anthropic风格接口,也就是说你以前接GPT或者Claude的代码,改个模型ID就能跑。旧的那套deepseek-chat和deepseek-reasoner今年7月24号正式退休,官方明确说了赶紧迁移到V4系列,别再恋旧了。
百万Token成本对比(输入/输出)
- Claude Opus 4.7:25.00
- GPT-5.5:30.00
- DeepSeek V4 Pro:3.48
- DeepSeek V4 Flash:0.28
看清楚没?Flash比Claude便宜了99%。这不是降价,这是直接把桌子掀了。
我亲手试了一把
昨天我花了20分钟把本地OpenClaw切到了V4 Flash。过程简单到离谱:装Node.js 24,跑npx openclaw onboard,选Custom Provider,填上API地质和Key,模型ID写deepseek-v4-flash。完事。但有个坑必须提醒:默认上下文窗口只有4096,得手动去Web UI的Raw JSON里改成131072,不然长文本直接报错。我第一遍就栽在这了,报错信息"Context length exceeded"看得我一愣,还以为API挂了。
OpenClaw配置DeepSeek V4 Flash(关键步骤)
npx openclaw onboard
选择 Custom Provider
API Base URL: api.deepseek.com
Model ID: deepseek-v4-flash
然后进Web UI把 contextWindow 从4096改成131072!
跑起来之后啥感觉?快。真的快。我让Agent读了一个8万字的PDF做摘要,以前用Claude大概要45秒,还要担心token超支。现在V4 Flash 12秒出结果,成本算下来不到0.02美元。我又试了让它自动整理我邮箱里堆积了三个月的未读邮件,设置过滤规则、打标签、回了几封标准询盘。全程自动化,跑完一看账单:0.85美元。以前同样的工作量,Claude后端一个月能烧掉45到180美元不等,这对比太残忍了。
而且V4 Flash默认带思维链(Thinking Mode),不是那种傻快。它会展示推理过程,你可以随时关掉省成本。复杂任务切到V4 Pro,输入1.74美元每百万,输出3.48,虽然比Flash贵,但对比Claude Opus的5/25,还是香到爆。SWE-bench Pro跑分V4 Pro能到55.4%,虽然比Claude Opus 4.7的64.3%低一点,但考虑价格差...这还要啥自行车?
国产开源的阳谋
这事背后有个大趋势。2026年开年以来,GPT-5.5、Claude Opus 4.7、Kimi K2.6轮番轰炸,闭源模型一个个卷上天。但DeepSeek走了一条更狠得路:参数规模直接拉到开源世界第一(Pro版1.6T),性能只比顶尖闭源落后3到6个月,价格却砍到百分之一。MIT许可证开源,权重直接放Hugging Face,Pro版865GB,Flash版160GB,你能直接下载到本地跑。还原生支持华为昇腾950PR,不用非绑着英伟达H100,这操作属实解气。
OpenClaw选择DeepSeek V4作为默认,表面是技术选型,实际是投票。全球14万star的社区,用钱包和代码给国产开源模型投了信任票。以前我们总说"国产大模型追不上",现在呢?OpenClaw的默刃模型列表里,中国模型的名字排在最前面。这不是情怀,是实打实的性价比碾压。当老外开发者也开始问"怎么申请DeepSeek API Key"的时候,你就知道格局变了。
OpenClaw模型选型指南
- 日常代码审查/文档分析 → V4 Flash(默认),$0.14/M,够用,无需切换
- 大规模Agent批量处理 → V4 Flash + thinking关闭,进一步节省成本
- 复杂架构设计/深度推理 → V4 Pro,1.6T参数,开源最强
- 等保/数据不出境 → V4 Pro本地部署,MIT开源,支持华为昇腾
你现在就能上手
想试试的,现在就能动手。最快路径:去openclawlaunch.com,选DeepSeek V4 Flash,10秒部署,连API Key都不用你自己管。有技术基础的,本地装OpenClaw,按我上面说的配置走。API Key去DeepSeek官网申请,新用户有赠送额度,白嫖一阵没问题。注意7月24号旧模型ID彻底下线,现在新项目直接上V4别犹豫,别等迁移的时候哭。
~/.openclaw/config.yaml 高级配置示例
models: default: deepseek-v4-flash # 全局默认 agents: code-agent: deepseek-v4-pro # 特定Agent用Pro
providers: deepseek: apiKey: YOUR_DEEPSEEK_API_KEY baseUrl: api.deepseek.com
一个小技巧:日常聊天、邮件处理、简单代码审查用Flash,遇到架构设计、复杂bug调试再切Pro。OpenClaw支持随时用model命令切换,不用重启。担心稳定性的,可以配个备用路由,DeepSeek高峰期偶尔503,自动fallback到Gemini Flash,稳德很。我现在的配置就是主路由DeepSeek V4 Flash,备用Gemini 1.5 Flash,一个月下来成本从以前的200多美元压到不到10美元,这谁顶得住啊。
我昨晚把OpenClaw的默认模型切到V4之后,第一次有种"AI自由"的感觉。不是那种"我有了个聊天机器人",而是"我雇了个24小时在线、月薪不到10美元的全能助理"。这种感觉,以前用Claude的时候真没有——不是能力问题,是每次看账单都在滴血,烧得肉疼。现在?随便跑,可劲造,反正百万token才0.14美元,四舍五入等于不要钱。
你用过OpenClaw配DeepSeek吗?还是还在用Claude或者GPT烧预算?评论区聊聊你的账单,让我看看谁是真正的韭菜之王...不对,是省钱之王!没试过的赶紧动手,这波红利窗口期不会太长,等大家都切过来了,API排队又要变长了。
P.S. 想要系统学习AI的朋友可以去看看那个人工智能教程captainbed.cn/jj