25万开发者默认大脑换成了中国模型:DeepSeek V4 成 OpenClaw 默认模型

46 阅读7分钟

全球25万开发者,从今天起,默认大脑换成了中国模型。

4月24日,OpenClaw(GitHub超25万星标)发布v2026.4.24版本,正式接入DeepSeek V4系列大模型,V4 Flash成为系统默认推理模型,V4 Pro同步上线模型库。

这不是国产模型的“自嗨”,是25万人用脚投票,把一个中国大模型推到了全球AI智能体的C位。

还记得每天定闹钟狂按F5抢套餐的日子吗?4月中,阿里云Coding Plan停售、腾讯全面转向Token Plan、智谱连续三次提价——40块钱包月的“AI自助餐”,没了。

当时我说Coding Plan停售不是结束,AI从烧钱圈地走向算细账的常态。现在看,下半场比我想象中来得更快——账可以算了,但算账的人,变成了我们自己。

一、里程碑:中国模型站上全球开源Agent的C位

说人话:你今天更新OpenClaw,打开第一件事——它已经帮你把DeepSeek V4 Flash设成了默认大脑。你啥都不用干,直接用。

Pro vs Flash:两把刀,你到底该选哪个?

维度DeepSeek-V4-ProDeepSeek-V4-Flash(默认)
总参数1.6万亿(MoE)2840亿(MoE)
激活参数约490亿约130亿
核心定位对标顶级闭源模型,旗舰性能更小、更快、更便宜
Agent能力开源模型最佳水平,优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式简单任务与Pro旗鼓相当,高难度有差距
推理能力数学/STEM/竞赛代码超越所有开源模型,比肩世界顶级闭源模型Max模式下几乎追平Pro版本
世界知识大幅领先其他开源模型,稍逊于Gemini-Pro-3.1稍逊于Pro,但“够用”
最大上下文100万token(标配)100万token(标配)
适用场景复杂Agent任务、高难度编程、深度推理日常对话、轻量Agent、成本敏感场景

你可能更关心这个组合的实际使用体验。一位AI从业者的评价很直白:把V4-Pro切到Claude Code接进去,花三五分钟改个model参数就能跑起来,复杂任务链路的稳定性肉眼可见地提升。背后是OpenClaw对Agent链路的一次关键修复:此前长链路任务容易因为推理环节数据缺失触发重放失败,新版本补齐了占位逻辑,让V4在长链路任务里更稳定。

二、价格屠刀:从“分厘之战”打到“白给时代”

如果说参数是明牌,那价格就是DeepSeek掀桌的王炸。

4月26日晚,DeepSeek宣布全系API输入缓存命中价格降至原价的十分之一。Pro版在5月31日前叠加2.5折限时优惠——旗舰版百万tokens输入最低只要2分5厘

价格维度DeepSeek-V4-FlashDeepSeek-V4-Pro(2.5折后)DeepSeek-V4-Pro(原价)
输入(缓存命中)0.02元/百万token0.025元/百万token1元/百万token
输入(缓存未命中)1元/百万token3元/百万token12元/百万token
输出2元/百万token6元/百万token24元/百万token

翻译成人话:如果你每天用OpenClaw处理100万token的输出,用Flash版只要2块钱,用Pro版只要6块钱。同样的任务,用Claude要花300块。

这不是“便宜一点”,是便宜50倍

阿里云百炼也紧随其后,上线DeepSeek-V4系列,全模型通享低至4.5折,API价格与DeepSeek官网一致。在官方降价+平台折扣的双重叠加下,调用顶级大模型的成本已被砸穿。

更有信号意义的是,4月27日(DeepSeek降价后第一个交易日),智谱、MiniMax等厂商股价出现不同程度下滑。资本市场的反应已经说明了一切——当一家厂商把旗舰模型百万token输入打到2分钱时,其他厂商不得不重新审视自己的定价逻辑。

一位业内人士的解释很到位:“看上去是DeepSeek在全栈适配国产算力方面领先,所以敢于定低价。”

三、手把手实操:从零到一,把你的OpenClaw换成V4的大脑

参数和价格都是虚的,跑起来才是真的。有两种方式——一键部署手动配置,二选一。

🚀 方法一:一键部署(零代码,推荐新手)

  1. 下载并运行OpenClaw部署助手(官方版)
  2. 点击“开始部署”,自动静默安装依赖
  3. 部署完成后进入配置,AI模型供应商选择DeepSeek
  4. Model ID选deepseek-v4-flashdeepseek-v4-pro
  5. 粘贴API Key → 保存模型配置 → 看到“验证成功”即配置完成

新版OpenClaw已内置DeepSeek V4 Flash为默认模型,大部分普通用户连“手动配置”这一步都可以省掉。

🔧 方法二:手动配置(适合开发者)

在OpenClaw配置文件(Windows路径C:\Users\你的用户名.openclaw\openclaw.json;macOS/Ubuntu路径~/.openclaw/openclaw.json)中修改如下:

{
  "model": "deepseek-v4-pro",
  "apiKey": "你的API Key",
  "baseURL": "https://api.deepseek.com/v1"
}

注:model字段填deepseek-v4-prodeepseek-v4-flash,二选一。baseURL就是https://api.deepseek.com/v1,兼容OpenAI格式。

常见问题(避坑指南)

Q1:我没有DeepSeek API Key怎么办?
A:去platform.deepseek.com注册,新用户送500万token体验额度。

Q2:配置完报错“model not found”?
A:检查model字段是否写对,必须是deepseek-v4-flashdeepseek-v4-pro,不能简写。

Q3:Flash和Pro该选哪个?
A:日常用Flash够用,复杂任务(比如重构代码库)用Pro。价格差3倍,性能差20%,自己权衡。

Q4:升级后之前的配置会丢吗?
A:不会。配置独立保存在openclaw.json,升级后仍然生效。

四、Agent的下一个战场:谁成为AI Agent的“标准化大脑”

以前我们总在争“哪个模型跑分最高”——SWE-bench、MMLU、HumanEval一通乱卷。现在风向变了:谁能成为AI Agent的“标准化大脑”,谁才是生态的核心

OpenClaw这一步走得很聪明。它不只是一个AI聊天工具,而是让AI调用浏览器、开会、执行语音任务的“操作系统”。这次更新还打通了Google Meet实时语音会议,支持会议记录、录音转写、导出Markdown,实时语音可调用完整OpenClaw Agent,Agent再调用工具、查上下文、组织答案,用语音返回。

V4接入的意义在于:当模型能同时撑起复杂任务链路时,Agent跑得越稳、成本越低,开发者的生态粘性就越强。DeepSeek V4站在了开源Agent生态的C位,拿到了全球开发者社区的直接入口。

迈向国产算力自主

这不仅是AI能力的“登顶”,更是国产算力自主的里程碑。昇腾超节点全系列产品已全面支持DeepSeek V4系列模型,寒武纪也在第一时间完成了对V4两个版本的Day 0适配。

虽然目前Pro的服务吞吐仍然受限,官方曾用小字标注:“预计下半年昇腾950超节点批量上市后,V4-Pro的价格会大幅下调。”——V4的价格还有很大的下降空间

当Token价格打不过海外巨头时,大家拼的是“谁更便宜”。当国产模型把旗舰版百万token价格拉到2分钱时,下一个赛点已经变了——谁能在同等成本下提供更强的Agent能力,谁能帮开发者实现真正的降本增效

五、老王的资料包

这篇文章的信息量很大,我整理了一份 《DeepSeek V4 + OpenClaw 完整配置包》 ,包括:

  • V4 Pro/Flash完整参数对比表(高清图)
  • OpenClaw一键部署脚本(Windows/Mac双版本)
  • DeepSeek API申请流程图解
  • 价格计算器(算你每月能省多少)

后台回复「算力线」直接领取。 5月31日前配置完,还能赶上DeepSeek的2.5折优惠。

最后说两句

Coding Plan停售时,我说“AI的下半场是算细账”。现在DeepSeek V4成了OpenClaw的默认大脑——账不仅算了,算账的人还是我们自己的模型。

240亿次调用量的背后,是国产模型真正站到了全球开发者生态的核心位置。当开源Agent架构与国产大模型深度融合,我们不仅在成本上把门槛砸穿了,更在生态话语权上拿到了关键一票。

如果你还没跑过这套组合,现在就是最好的时机——从今天起,打开OpenClaw,默认大脑就是V4

后台回复「算力线」领资料包。