吴恩达本周的 The Batch 可能是今年最值得看的一期。他把 OpenClaw 爆火、Kimi K2.5 子 Agent、Mistral 蒸馏小模型这几件事串在一起讲了个故事——AI Agent 时代真的来了,但剧本和你想的不一样。
先说最炸的:OpenClaw 为什么能一周涨百万用户
如果你最近在 GitHub Trending 刷到过 OpenClaw,你不孤单。这东西在 HackerNews 被人挖出来之后,直接炸了:
- 2 天内涌入 200 万访客
- GitHub star 增速史上最快,一度超过 Claude Code
- Mac Mini 被买断货(因为大家要拿它跑本地 Agent)
- 有人的 Agent 自己注册了个手机号,然后打电话给主人
吴恩达对 OpenClaw 的评价很精准:它证明了 Agent 确实有用,但同时也暴露了安全问题有多严重。
上线头几天,大量用户 API key 被泄露,ClawHub 上出现了 341 个恶意 Skill,一个叫 Moltbook 的 Agent 社交网络泄露了几百万条数据。
用过 OpenClaw 的都知道,它的架构其实很简单——一个中心网关 + 客户端,记忆系统就是几个 Markdown 文件(USER.md、IDENTITY.md、SOUL.md)。真正的杀手锏是社区生态:几百个社区贡献的 Skill,接入 Telegram、WhatsApp、Slack、飞书,开箱即用。
但这里有个大问题:模型切换。
OpenClaw 默认用 Claude Opus 和 Llama 3.3 70B,但也支持 OpenAI、Google、Moonshot 的 API。实际使用中你会发现,不同任务用不同模型效果差别很大——写代码用 Claude 好,聊天用 GPT 顺,推理用 DeepSeek 便宜。
我现在的做法是通过一个 API 聚合服务统一管理,一个 endpoint 切换所有模型,比单独维护 N 个 API key 省心太多。
Kimi K2.5:AI 学会了"当领导"
如果说 OpenClaw 是让个人用户体验到了 Agent 的威力,那 Kimi K2.5 做的事情更底层——它让 AI 学会了自己拆任务、自己派活。
具体怎么回事:你给 Kimi K2.5 一个任务"找出 100 个领域的 Top YouTube 频道",它不会傻乎乎地一个一个搜。它会——
- 把任务拆成 100 个子任务
- 同时生成 100 个子 Agent
- 每个子 Agent 独立去搜索一个领域
- 最后汇总结果
效果:速度快了 3-4.5 倍,准确率也上去了。
在 BrowseComp 基准测试上,K2.5 比不用子 Agent 的版本高了 18.4 个百分点。在需要大范围搜索的 WideSearch 测试上也高了 6.3 个百分点。
更猛的是,K2.5 在视觉和 Agent 测试上干翻了 GPT 5.2、Claude 4.5 Opus 和 Gemini 3 Pro。
一个中国团队做的开源模型(1T 参数,32B 活跃),打赢了所有闭源巨头。
这让我想到一件事:当 AI 本身就能并行管理多个 Agent,那开发者对 API 的调用模式会发生根本变化。
以前是单次调用、等结果、再调用。以后是一次性并发几十个请求到不同模型,谁先回来用谁的结果。这种场景下,你需要的不是"最好的那个模型",而是一个能同时调度多个模型的基础设施。
吴恩达说了句大实话
这期 The Batch 的开篇信,吴恩达聊了 AI 对就业的影响。他的观点跟主流媒体完全不一样:
"AI 不会大规模取代岗位。真正发生的事情是:会用 AI 的人,正在取代不会用 AI 的人。"
他举了几个例子:
- 最近科技公司裁员都说"因为 AI",但实际上大多数是疫情过度招聘的清算
- 真正被 AI 替代的职业很少——电话客服、翻译、配音
- 但用 AI 的开发者正在替代不用 AI 的开发者,用 AI 的营销人员正在替代不用 AI 的营销人员
然后他说了个很有意思的观点:
"产品经理瓶颈"正在出现——写代码变简单了,但决定做什么产品变成了最稀缺的能力。
换句话说,AI 让执行层的门槛降低了,但决策层的价值反而更高了。
Mistral 的蒸馏魔法:一个模型生一窝
最后说说 Mistral 发布的 Ministral 3 系列。这个不太起眼,但技术路线很重要。
他们做了什么:从一个 24B 的模型出发,通过级联蒸馏(Cascade Distillation)生出了 14B、8B、3B 三个版本。
- 训练只用了 1-3T token(对比 Qwen 3 和 Llama 3 的 15-36T)
- 14B 的推理版在 AIME 2025 上拿了 85% 准确率(Qwen 3 14B 只有 73.7%)
- 3B 的版本在手机上就能跑,数学能力打赢了同级别所有对手
这意味着什么? 以后你可能不需要为每个场景都调 Opus 级别的大模型了。简单任务用 3B 小模型在本地跑,复杂任务再调大模型。
关键是怎么管理这些模型的调度——什么任务用什么模型、本地模型和云端模型怎么协同、成本怎么控制。这又回到了模型聚合的话题:一个统一的入口,按需路由到最合适的模型。
我的总结
把这一期 The Batch 的几篇文章串起来看,有一个清晰的趋势:
- Agent 从玩具变成工具——OpenClaw 证明了普通人也能用 Agent 做实事
- AI 学会了并行和协作——Kimi K2.5 的子 Agent 是范式级的变化
- 小模型在崛起——Mistral 的蒸馏路线让端侧 AI 真正可用
- 模型生态碎片化加剧——没有任何一个模型能通吃所有场景
对开发者来说,最实际的建议:不要赌某一个模型,而是构建模型无关的应用架构。 谁行用谁,随时能切。
这也是为什么我现在所有项目的 AI 调用都走聚合层——一个 API 打底,上面跑几十个模型。管它明天谁发新模型、谁涨价,底层一切就行。
你怎么看 Agent 的安全问题?Kimi K2.5 的子 Agent 模式你试过吗?评论区聊聊。