这是最近我看过的最“去魅”但也最硬核的一期播客。
a16z的Martin Casado对话OpenAI开发者平台负责人Sherwin Wu。
说实话,大家平时盯着Sam Altman的宏大叙事看多了,容易飘在云端。但Sherwin Wu不一样,他是那个真正掌管OpenAI“下水道”和“电网”的人——也就是API。所有基于OpenAI构建的万千应用,最后都要经过他的手。
听完这期,我最大的感受是:OpenAI内部对自己定位的认知,正在经历一场巨大的、鲜为人知的修正。
咱们就像老朋友聊天一样,顺着他们的对话逻辑,把这里面的门道拆解一下。
01. 从“天下一统”到“诸侯割据”
以前我们(甚至包括OpenAI自己)都有个执念:AGI就是那个终极的“上帝模型”,一个模型解决所有问题。
但Sherwin很坦诚地聊到了OpenAI内部风向的转变。他说,在2022年那时候,他们真的以为未来就是一个单一的通用模型统治世界。但现在的结论是:根本不是那么回事。
这一点非常反直觉。现在的趋势是专业化(Specialization) 。
这就像你在公司里,不可能指望CEO去写底层代码,也不可能让CFO去画设计图。OpenAI现在的策略变了,他们开始搞o1(推理特化)、搞Sora(视频特化)、搞Codex(代码特化)。
这对我们这种搞AI应用的人来说是个巨大的信号:不要再迷信“通用”了,垂直才是护城河。
Sherwin提到了一个特别有意思的点——微调(Fine-tuning)的进化。以前我们觉得微调就是让模型说话好听点,改改语气(Tone)。现在的微调,尤其是结合了强化学习(RL)的微调,是在让模型在特定领域达到SOTA(最高水平)。
这意味着什么?意味着企业手里的那些“沉睡的数据”——以前不知道怎么用的工单记录、代码库、医疗档案——现在成了真正的金矿。只要你用RLHF去“喂”特定模型,你在那个垂直领域就能吊打通用的GPT-4。
02. 既做裁判又做运动员?
这是一个所有人都想问,但很少有人敢当面问OpenAI高管的问题:你们既做ChatGPT(直接面向用户),又做API(卖给开发者),这不是左右互搏吗?
这就像如果你去开一家面包店,结果卖面粉给你的供应商也在街对面开了一家面包店,你慌不慌?
Sherwin的回答很有意思,甚至带着一种属于头部大厂的“凡尔赛”。他说:“增长解决一切问题。”(Growth solves all problems.)
因为ChatGPT的增长太恐怖了(每周8亿活跃,虽然这个数字可能是口误,或者包含了API触达,但这量级依然惊人),他们根本顾不上去想什么“抢生意”的事。
更重要的是,他抛出了一个让我思考很久的观点:API的最终触达用户,其实远大于ChatGPT。
你想想,ChatGPT是一个产品,但API是渗入到每一行代码、每一个SaaS软件里的。OpenAI的真正野心,是想做AI时代的“电力公司”。电力公司会担心自己卖的电炉子抢了电器厂的生意吗?不会,因为电器厂卖得越好,电费收得越多。
03. AI的“反中介化”特性
这部分是Martin Casado提出来的,我觉得非常有洞察力。
在传统软件时代,我们习惯了“封装”。你用一个SaaS软件,你根本不在乎它背后是用AWS还是Azure,那个底层是被“藏”起来的。
但AI不一样。AI模型有一种很奇怪的“反中介化”(Anti-Disintermediation)能力。
比如你在Cursor里写代码,或者玩一个AI NPC游戏,你很难把底层的那个模型完全藏住。因为模型的“性格”、它的推理逻辑,直接暴露给了最终用户。你很难在中间插一层薄薄的软件就说这是你的东西。
这就导致了一个结果:开发者必须把自己和模型深度绑定。 你没法像换云服务商那样随意切换模型,因为GPT-4和Claude的“脾气”完全不同,换了模型,你的应用体验可能就崩了。
这对OpenAI来说是好事,因为客户粘性极高。
04. 为什么我们还需要“写流程图”的Agent?
最近大家都在炒Agent(智能体),觉得丢给AI一个目标,它就能像魔法一样自己搞定。
但Sherwin打了一盆冷水——或者说,说了一句大实话。
即便是在OpenAI内部,他们发现现在的模型虽然聪明,但还不足以处理所有开放式任务。所以在实际落地(比如企业级应用、客服)的时候,还是需要SOP(标准作业程序) 。
这就解释了为什么OpenAI还要搞“Agent Builder”这种看起来有点“倒退”的、基于节点的流程式工具。
因为在真实商业世界里,你不敢让AI随意发挥。客服不能答应给客户退款100万,医疗AI不能随便开处方。我们现在处于一个“半自动化”的阶段,需要人类用逻辑去框定AI的边界,让AI在这个框里发挥它的推理能力。
这不仅仅是技术问题,更是为了确定性(Determinism) 。企业为了合规和稳定,宁愿牺牲一点“魔法”,也要换取“可控”。
05. 开源并没有杀死OpenAI
最后聊聊开源。Llama出来的时候,好多人都说OpenAI要完蛋了。
但现实是,并没有。
Sherwin的态度非常Open(双关了)。他说OpenAI并不担心开源,甚至他们也在推开源项目。为什么?
因为推理(Inference)太难了。
拿到了Llama的模型权重,和能稳定、便宜、高并发地把这个服务跑起来,中间隔着十万八千里。对于绝大多数开发者和公司来说,自己去维护一套GPU集群跑开源大模型,成本和精力都远高于直接调API。
而且,OpenAI现在的定价策略非常狡猾(褒义)。他们坚持按用量付费(Usage-based pricing) 。这是一种最公平、也最难被颠覆的模式。因为这直接对应了你获得的价值。
最后的思考
看完这段对话,我有一个强烈的感知:
OpenAI正在从一家“造神”的实验室,变成一家极其务实的商业基建公司。
Sherwin的背景很有意思,他以前在OpenDoor做定价模型,在Quora做信息流。这些都是极其考验数据处理和商业变现的地方。
他不再跟你谈什么“硅基生命”的哲学,他在谈成本、谈延迟、谈SOP、谈开发者体验。
这说明什么?说明AI的草莽时代结束了,现在进入了精耕细作的“生意人”时代。
如果你还在焦虑AI会不会取代人类,不如学学Sherwin的视角:别管它是不是人,先看能不能把它变成水电煤,卖出去,融进每一个APP里。
这才是当下的真实世界。
关注我们 加入AI超级个体交流群