全球25万开发者,从今天起,默认大脑换成了中国模型。
4月24日,OpenClaw(GitHub超25万星标)发布v2026.4.24版本,正式接入DeepSeek V4系列大模型,V4 Flash成为系统默认推理模型,V4 Pro同步上线模型库。
这不是国产模型的“自嗨”,是25万人用脚投票,把一个中国大模型推到了全球AI智能体的C位。
还记得每天定闹钟狂按F5抢套餐的日子吗?4月中,阿里云Coding Plan停售、腾讯全面转向Token Plan、智谱连续三次提价——40块钱包月的“AI自助餐”,没了。
当时我说Coding Plan停售不是结束,AI从烧钱圈地走向算细账的常态。现在看,下半场比我想象中来得更快——账可以算了,但算账的人,变成了我们自己。
一、里程碑:中国模型站上全球开源Agent的C位
说人话:你今天更新OpenClaw,打开第一件事——它已经帮你把DeepSeek V4 Flash设成了默认大脑。你啥都不用干,直接用。
Pro vs Flash:两把刀,你到底该选哪个?
| 维度 | DeepSeek-V4-Pro | DeepSeek-V4-Flash(默认) |
|---|---|---|
| 总参数 | 1.6万亿(MoE) | 2840亿(MoE) |
| 激活参数 | 约490亿 | 约130亿 |
| 核心定位 | 对标顶级闭源模型,旗舰性能 | 更小、更快、更便宜 |
| Agent能力 | 开源模型最佳水平,优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式 | 简单任务与Pro旗鼓相当,高难度有差距 |
| 推理能力 | 数学/STEM/竞赛代码超越所有开源模型,比肩世界顶级闭源模型 | Max模式下几乎追平Pro版本 |
| 世界知识 | 大幅领先其他开源模型,稍逊于Gemini-Pro-3.1 | 稍逊于Pro,但“够用” |
| 最大上下文 | 100万token(标配) | 100万token(标配) |
| 适用场景 | 复杂Agent任务、高难度编程、深度推理 | 日常对话、轻量Agent、成本敏感场景 |
你可能更关心这个组合的实际使用体验。一位AI从业者的评价很直白:把V4-Pro切到Claude Code接进去,花三五分钟改个model参数就能跑起来,复杂任务链路的稳定性肉眼可见地提升。背后是OpenClaw对Agent链路的一次关键修复:此前长链路任务容易因为推理环节数据缺失触发重放失败,新版本补齐了占位逻辑,让V4在长链路任务里更稳定。
二、价格屠刀:从“分厘之战”打到“白给时代”
如果说参数是明牌,那价格就是DeepSeek掀桌的王炸。
4月26日晚,DeepSeek宣布全系API输入缓存命中价格降至原价的十分之一。Pro版在5月31日前叠加2.5折限时优惠——旗舰版百万tokens输入最低只要2分5厘。
| 价格维度 | DeepSeek-V4-Flash | DeepSeek-V4-Pro(2.5折后) | DeepSeek-V4-Pro(原价) |
|---|---|---|---|
| 输入(缓存命中) | 0.02元/百万token | 0.025元/百万token | 1元/百万token |
| 输入(缓存未命中) | 1元/百万token | 3元/百万token | 12元/百万token |
| 输出 | 2元/百万token | 6元/百万token | 24元/百万token |
翻译成人话:如果你每天用OpenClaw处理100万token的输出,用Flash版只要2块钱,用Pro版只要6块钱。同样的任务,用Claude要花300块。
这不是“便宜一点”,是便宜50倍。
阿里云百炼也紧随其后,上线DeepSeek-V4系列,全模型通享低至4.5折,API价格与DeepSeek官网一致。在官方降价+平台折扣的双重叠加下,调用顶级大模型的成本已被砸穿。
更有信号意义的是,4月27日(DeepSeek降价后第一个交易日),智谱、MiniMax等厂商股价出现不同程度下滑。资本市场的反应已经说明了一切——当一家厂商把旗舰模型百万token输入打到2分钱时,其他厂商不得不重新审视自己的定价逻辑。
一位业内人士的解释很到位:“看上去是DeepSeek在全栈适配国产算力方面领先,所以敢于定低价。”
三、手把手实操:从零到一,把你的OpenClaw换成V4的大脑
参数和价格都是虚的,跑起来才是真的。有两种方式——一键部署和手动配置,二选一。
🚀 方法一:一键部署(零代码,推荐新手)
- 下载并运行OpenClaw部署助手(官方版)
- 点击“开始部署”,自动静默安装依赖
- 部署完成后进入配置,AI模型供应商选择DeepSeek
- Model ID选
deepseek-v4-flash或deepseek-v4-pro - 粘贴API Key → 保存模型配置 → 看到“验证成功”即配置完成
新版OpenClaw已内置DeepSeek V4 Flash为默认模型,大部分普通用户连“手动配置”这一步都可以省掉。
🔧 方法二:手动配置(适合开发者)
在OpenClaw配置文件(Windows路径C:\Users\你的用户名.openclaw\openclaw.json;macOS/Ubuntu路径~/.openclaw/openclaw.json)中修改如下:
{
"model": "deepseek-v4-pro",
"apiKey": "你的API Key",
"baseURL": "https://api.deepseek.com/v1"
}
注:
model字段填deepseek-v4-pro或deepseek-v4-flash,二选一。baseURL就是https://api.deepseek.com/v1,兼容OpenAI格式。
常见问题(避坑指南)
Q1:我没有DeepSeek API Key怎么办?
A:去platform.deepseek.com注册,新用户送500万token体验额度。
Q2:配置完报错“model not found”?
A:检查model字段是否写对,必须是deepseek-v4-flash或deepseek-v4-pro,不能简写。
Q3:Flash和Pro该选哪个?
A:日常用Flash够用,复杂任务(比如重构代码库)用Pro。价格差3倍,性能差20%,自己权衡。
Q4:升级后之前的配置会丢吗?
A:不会。配置独立保存在openclaw.json,升级后仍然生效。
四、Agent的下一个战场:谁成为AI Agent的“标准化大脑”
以前我们总在争“哪个模型跑分最高”——SWE-bench、MMLU、HumanEval一通乱卷。现在风向变了:谁能成为AI Agent的“标准化大脑”,谁才是生态的核心。
OpenClaw这一步走得很聪明。它不只是一个AI聊天工具,而是让AI调用浏览器、开会、执行语音任务的“操作系统”。这次更新还打通了Google Meet实时语音会议,支持会议记录、录音转写、导出Markdown,实时语音可调用完整OpenClaw Agent,Agent再调用工具、查上下文、组织答案,用语音返回。
V4接入的意义在于:当模型能同时撑起复杂任务链路时,Agent跑得越稳、成本越低,开发者的生态粘性就越强。DeepSeek V4站在了开源Agent生态的C位,拿到了全球开发者社区的直接入口。
迈向国产算力自主
这不仅是AI能力的“登顶”,更是国产算力自主的里程碑。昇腾超节点全系列产品已全面支持DeepSeek V4系列模型,寒武纪也在第一时间完成了对V4两个版本的Day 0适配。
虽然目前Pro的服务吞吐仍然受限,官方曾用小字标注:“预计下半年昇腾950超节点批量上市后,V4-Pro的价格会大幅下调。”——V4的价格还有很大的下降空间。
当Token价格打不过海外巨头时,大家拼的是“谁更便宜”。当国产模型把旗舰版百万token价格拉到2分钱时,下一个赛点已经变了——谁能在同等成本下提供更强的Agent能力,谁能帮开发者实现真正的降本增效。
五、老王的资料包
这篇文章的信息量很大,我整理了一份 《DeepSeek V4 + OpenClaw 完整配置包》 ,包括:
- V4 Pro/Flash完整参数对比表(高清图)
- OpenClaw一键部署脚本(Windows/Mac双版本)
- DeepSeek API申请流程图解
- 价格计算器(算你每月能省多少)
后台回复「算力线」直接领取。 5月31日前配置完,还能赶上DeepSeek的2.5折优惠。
最后说两句
Coding Plan停售时,我说“AI的下半场是算细账”。现在DeepSeek V4成了OpenClaw的默认大脑——账不仅算了,算账的人还是我们自己的模型。
240亿次调用量的背后,是国产模型真正站到了全球开发者生态的核心位置。当开源Agent架构与国产大模型深度融合,我们不仅在成本上把门槛砸穿了,更在生态话语权上拿到了关键一票。
如果你还没跑过这套组合,现在就是最好的时机——从今天起,打开OpenClaw,默认大脑就是V4。
后台回复「算力线」领资料包。