为什么TPU无法突破英伟达的AI工厂护城河
我们认为,TPU的核心问题不在于它们是否是“好”芯片——它们确实是。在我们看来,问题在于其对AI下一阶段的广泛架构适应性。前沿规模的工作负载日益需要高通信带宽和可扩展至大型集群而不会因协调开销而崩溃的系统。我们的评估是,TPU设计于带宽昂贵且难以提供的时代,这种设计中心思想在模型规模和负载多样化时会显现出来。
TPU的适用领域与局限性 TPU非常适合低带宽AI,并已在搜索等生产环境中证明有效。它们能很好地完成某些训练任务,并与重要的早期里程碑相关联。但随着模型变得更大、工作更加分布式,我们的研究表明,TPU设计在架构内的扩展性和可用带宽方面遇到了实际限制。我们认为,这是TPU方法未能成为业界广泛复制蓝图的一个关键原因。
前沿训练与TPU友好型工作负载的差异 我们认为,领先的前沿工作日益要求一种为高带宽和规模优化的架构——即能够支持“GPU工厂”的系统设计,其中可以连接大量加速器并保持高效利用。
谈到AI工厂的要求,我们强调以下三个关键因素:
- 近线性的二分带宽增长:二分带宽本质上是网络“中间”的吞吐量——系统两半之间可以移动多少数据。随着工作负载变得更复杂、更分布式,系统需要在添加更多设备时,跨交换结构的带宽能够平稳增长。
- 最小的集体通信性能退化:随着横向扩展,集体通信模式可能成为瓶颈。系统必须避免在更多节点参与时性能急剧下降。
- 持续的实际情况利用率(约50%):目标不是理论峰值,而是让系统在类似生产条件下持续、大规模地进行有用工作。
在我们看来,围绕更高带宽、可扩展互连设计的架构更符合这些要求。
‘单一供应商pod’的约束 我们的前提是,TPU仍然是一种单一供应商架构,其拓扑结构有效地形成了pod——一个作为单一系统呈现的紧密耦合单元。这种方法在其时代是优雅的,并呼应了其他旨在解决“如何连接一切”问题的历史设计(例如某中心的Blue Gene, Cray)。但我们认为,其局限性体现在两个方面:
- 它无法以前沿工作负载日益要求的方式扩展;
- 它无法为通信最密集、前沿级的模型开发提供所需的净带宽。
这并不意味着TPU无关紧要。在我们看来,TPU仍然非常有用和有吸引力——特别是对于更有边界的工作负载——但有用性并不等同于成为下一代AI工厂的主导基础。在我们的框架中,它肯定不是会侵蚀英伟达护城河的平台。
市场叙事过于简化 我们认为流行的说法——“模型X是在TPU上训练的,因此TPU是未来”——忽略了现实。我们的观点是,一些主要的模型训练确实利用了TPU,但数据指向一种混合方法,其中GPU类架构对于前沿规模、通信密集的工作变得越来越必要。
我们的研究表明还有一个务实的因素。具体来说,当加速器供应受限时,将现有资产发挥到极限是合理的。在这种情况下,积极使用可用的TPU,并非声明TPU是终极状态——而是在供应限制下的优化。
关键要点 我们并不看跌TPU。它们很成熟,背后的工程令人印象深刻。但我们认为,英伟达的护城河因其为带宽、规模和持续利用率设计的端到端架构而得到加强——这些属性在AI工厂从令人印象深刻的单系统演示转向大规模生产基础设施时至关重要。
为什么TPU引起如此多关注?供应限制、CoWoS与市场现实
我们认为,近期的TPU热潮更多是由于供应受限、需求超过供给,以及每个超大规模云服务商都在稀缺环境下运营,而非结构性地转向替代英伟达。在这种环境下,买家和建设者会使用任何他们能获得的可靠计算资源——这种动态放大了TPU以及其他替代方案的可用性和能力。
CoWoS是瓶颈因素 我们的研究指出,目前最大的限制是封装产能。CoWoS(基板上晶圆上芯片)是某机构的一种封装技术,它将小芯片从晶圆上取下并集成到基板上,以便它们能以非常高速的通信连接起来。在我们看来,这对于依赖芯片之间和复杂多芯片架构之间快速通信的现代AI系统至关重要。
关键点是,当CoWoS产能紧张时,无论需求多么强劲,它都会限制先进AI加速器的产出。
CoWoS消耗图表揭示的信息 上图显示了某机构、某中心、某机构等公司的预计消耗量——重要的是,它反映了所有芯片,而不仅仅是AI芯片。这很重要,因为非某机构消耗的部分服务于其他产品类别和工艺需求。但归根结底,AI芯片仍然受制于相同的封装瓶颈。
在引用的数据中,总CoWoS产能随着时间的推移大幅扩张,某机构锁定了超过60%的份额:
- 2025年: 652
- 2026年: 1,150
- 2027年: 1,550
与此同时,随着某机构经历架构演进——从GB200到GB300,再到Rubin——以及交换和整体系统设计的改进,领先平台的计算和系统效率得到提升。我们认为,市场应该同时看待这些趋势——即产能增加,但每系统的性能也在提高,这加强了那些既能确保产量又能最快沿着经验曲线前进的供应商的经济效益。在这一场景中,遥遥领先的供应商是某机构。
某机构的预购转化为份额和成本优势 我们认为当前叙事中最未被充分认识的一点是,某机构实际上已经预购并确保了大量的CoWoS产能。因此,即使整个市场规模扩大,某机构在所讨论的规划期内仍能保持显著的份额——预计到2027年,它仍将占据所述市场约61% 的份额。具体就AI芯片而言,我们估计某机构将维持接近约80%的市场份额。
我们的观点是,份额将由单位经济效益决定。我们的前提是,某机构拥有产量领导地位,并锁定了关键的瓶颈输入,这将给公司带来结构性成本优势和飞轮效应。
为什么超大规模云服务商混合使用架构 在供应受限的环境中,超大规模云服务商会采用混合策略。就某机构而言,它将在适合的地方使用TPU,在需要的地方使用GPU,以最大化获取任何有能力的计算资源。我们认为,这正是当前许多TPU热议背后的驱动力——并非相信TPU将在前沿规模、通信密集的工作负载上广泛取代GPU。
我们还认为,大型超大规模云服务商(在此案例中是某机构)不太可能向直接竞争对手广泛销售其专有加速器,从而创造一个真正的外部市场。可能会有各种说法和传闻,但我们认为,“野外TPU”叙事背后更可能的驱动因素是来自合作伙伴(例如某中心)和某机构(目前正在寻找任何优势)的生态压力。简而言之,我们不认为这是某机构要成为真正商业芯片供应商的战略决定。
产量至关重要,并复合为成本领导地位 我们认为,本部分最重要的结论是以下三个因素之间的联系:
- 产量领导地位(这在半导体和其他规模市场中一直很重要);
- 经验曲线效益(学习、良率、供应链杠杆、系统调优);
- 对受限投入的控制(CoWoS产能是主要例子)。
在我们看来,这种组合使某机构凭借如GB300,尤其是Rubin等近期平台,相对于替代方案成为低成本的Token生产者——不仅仅是因为峰值性能声明,更是因为规模和获得保障的产能将转化为更优的经济效益。
短缺不会永远持续——但明天也不会结束 我们认为,市场正处于一个阶段,每个可靠的AI供应商都能卖出他们能制造的所有产品,因为供应稀缺。但我们的研究表明,随着未来几年产能跟上,这种情况将会改变。历史上,半导体往往从供应不足转向供应过剩——把握时机很难,但我们的研究表明仍有可观的增长空间,并且近期(包括2026年)仍然是供应受限而非过剩驱动。
总之:TPU受到关注是因为市场供应短缺。CoWoS是一个核心瓶颈。某机构锁定产能和利用经验曲线的能力,在周期成熟时强化了其份额和成本地位。
低成本生产、学习曲线与优势为何正转回某机构
我们认为“低成本生产者”的框架至关重要,但它经常被误解且未得到严格运用。在我们看来,在规模市场中,成为低成本生产者一直很重要——细微差别在于人们指的是单位成本、交付价格还是经济利润率结构。从这个角度看,随着技术栈的转变以及TPU/ASIC供应链经济性变得更加清晰,某机构作为AI芯片当前低成本生产者的地位日益脆弱。
某机构当前的成本优势是真实的——但不可持续 我们的研究与某分析师的叙述一致,表明某机构在其AI技术栈的某些部分享有显著的成本优势,并通过积极进军市场来强化这一地位。某机构可以用低成本产能“轰炸”AI领域,因为当你能够降低单位成本时,你就可以向市场投放更多供应,并在价格和可用性上给竞争对手施压。
但我们认为,这种优势高度依赖于底层的性能曲线和硬件供应链的经济性——而这两者都在变化。
Blackwell作为行业学习平台 我们认为,某机构一个未被充分认识的结构性优势是,当大规模部署在极限规模上运行基础设施时所产生的学习循环。在我们看来,大规模Blackwell部署——尤其是X.ai推动的那种“推向极限”的推广——起到了一种强制作用,暴露漏洞、收紧系统性能并加速弹性。某机构从中学习,然后将这些学习成果传播到其客户群中,这转化为一种时间优势,替代方案难以匹敌,除非某机构在运营上出错。
我们认为,随着规模能更快地发现问题、修复被广泛分发,以及更多客户在类似生产的条件下运行该平台,这种动态将会加强。
扩展定律依然有效——这提高了对吞吐量和效率的溢价 正如某分析师指出的,Gemini 3已经证明扩展定律仍在起作用。我们的研究表明,如果扩展继续带来回报,那么市场的重心将转向谁能以每美元、每瓦特和单位时间提供最多的训练和推理工作——而且是在规模上。
这正是某机构路线图旨在通过GB300重获主导地位的地方,因为GB300与GB200是即插即用兼容的。从Hopper到Blackwell的跨越非同小可。我们之前报道过,由于新的冷却要求、机架密度和整体过渡的复杂性,基于GB200的机架可靠性较低。但早期报告表明,在neo云服务商处,基于GB300的配置表现异常出色,从基于GB200的基础设施升级摩擦很低。这种兼容性加快了部署速度,并提高了客户继续遵循某机构升级路径而非转向其他架构分支的可能性。
并且,经济性有利于某机构。
TPU经济学:利润率中固有的某中心依赖 我们认为TPU/ASIC技术栈的经济性经常被忽视。一个关键的限制是,如果很大一部分价值归于供应商(例如作为某机构ASIC合作伙伴的某中心),那么“低成本生产者”的说法就变得更加复杂。某分析师估计,在规模上,某机构300亿美元TPU收入中大约有150亿美元流向了某中心,这占据了利润池的主要部分。某分析师用了一个简单的类比,某机构就像建筑师,某中心是建造者——它管理着与某机构的关系。他正确地指出,某机构已经控制了前端设计和所有后端工作,包括管理某机构,因为在其规模下,这种程度的垂直整合是有意义的。
这种动态长期来看给某机构的行为带来压力。即使TPU单位经济性在孤立情况下看起来有吸引力,供应商利润率结构也可能削弱其持续以低于市场价格竞争的能力——尤其是随着某机构单系统性能的改进。某分析师表示,某中心整个半导体部门的运营支出为50亿美元,因此在规模上,某机构向某中心支付150亿美元可能变得不那么有吸引力。
Rubin扩大差距 我们认为路线图的含义是,GB300将重置成本曲线,而Rubin会再次延伸它,某机构与TPU/ASIC替代方案之间的差距将急剧扩大。在我们看来,这并非使TPU变得无关紧要;而是使它们变得情境化。随着某机构的平台成为规模化下更低成本的Token生产者,替代方案被迫进入更窄的赛道或采用“有什么用什么”的策略。
大型语言模型之战
硅芯片和模型之间存在紧密联系。在下一部分,我们将进一步上升到技术栈,审视近期关于某机构、Gemini和OpenAI的叙事。
展望:模型趋同,服务差异化 我们的研究表明,竞争正进一步上移到技术栈。尽管人们对模型能力的快速提升感到兴奋——并且我们相信,随着AI工厂的扩大,更大、更完善的模型将继续出现——但我们的一个关键战略前提是,单独的模型质量将不会是持久的差异化因素。在我们看来,重心转向:
- 软件生态系统;
- 围绕模型构建的服务;
- 可靠且经济地运营这些模型的能力。
如上所述,即使某机构今天可以声称拥有暂时的成本优势,我们认为某机构的平台学习经验、即插即用的升级路径和性能路线图——结合TPU供应链中嵌入的利润率现实——将在未来两个周期甚至更长时间内,将“低成本生产者”的优势转移回某机构。
Gemini用户增长叙事忽略了真正的困局:某机构的创新者困境 我们可以公平地说,Gemini 3对AI讨论产生了有意义的影响,特别是在强化扩展定律仍然有效方面。但我们认为,一些广泛流传的图表——特别是那些暗示ChatGPT“趋于平稳”而Gemini“爆炸式增长”的图表——如果被用作持久竞争优势或最重要经济因素的代理,则可能具有误导性。
为什么MAU图表可能扭曲实际情况 我们认为用户增长图表容易被过度解读,因为它们将非常不同的分发机制压缩成一条线。一个产品可能因为捆绑、默认设置、集成点或位置而显得MAU“爆炸式增长”——而另一个产品即使使用质量、货币化和生态系统亲和力保持强劲,也可能显得“平缓”。数据表明,实际情况比标题叙事所暗示的更加微妙。
真正的背景:某机构本质上是一个广告利润引擎 我们认为更重要的因素是,某机构的的经济重心仍然是广告——尤其是搜索及相关广告业务。如下图所示,某机构从广告中产生巨额运营利润,拥有非常高的运营利润率。
云计算虽然在绝对美元数额上有意义且盈利能力在提高,但与搜索驱动的运营利润规模相比仍然很小。即使在运营利润率上升的情况下,云业务与广告机器产生的数千亿运营利润和现金流相比规模很小。而“其他赌注”类别在整个利润引擎背景下经济上微不足道。
这造成了经典的创新者困境 某机构拥有可以说是世界上最好的技术市场,即搜索——极高的查询量、无与伦比的广告货币化模型以及高度高效的计算基础,从而加强了盈利能力。这个系统有效,并且是在巨大规模上有效。
在我们看来,困境在于某机构如何从这一主导模式迁移到“更完整”的东西,同时又不破坏使其首先取得主导地位的利润引擎。数据表明,挑战不在于某机构能否构建强大的AI模型——它显然可以。挑战在于它能否在向新的交互范式迈进的同时,发展搜索的产品和商业模式,以保护经济性。
需要关注的问题 我们对某机构的战略问题是:
- 某机构能否从当前的搜索-广告模式转型到更完整的AI原生体验,而不蚕食为其优势提供资金的利润率和货币化动态?
- 它能否在保持运营纪律和低成本计算基础的同时做到这一点,正是这些使得现有机器如此强大?
Gemini的势头令人印象深刻,但我们认为更大的故事是经济和结构性的。某机构在搜索方面的优势恰恰造成了它为了引领下一阶段而必须解决的困境。
参与度,而不仅仅是MAU:为什么“用户分钟数”改变了AI + 广告的经济性 我们认为,早期的月活跃用户图表讲述了一个不完整的故事,如果用来推断领导地位或货币化能力可能会产生误导。更具指导意义的观点是如上所示的参与度。具体来说,SimilarWeb数据显示了用户在网页上的分钟数——因为花费的时间更能代表使用强度、依赖性和最终可货币化的机会。
ChatGPT在用户分钟数上的领先优势更加明显 即使Gemini增长迅速,ChatGPT在用户分钟数上仍保持显著领先。该图表还显示了其他参与者(例如DeepSeek和Grok)的快速增长,但在我们看来,竞争现实仍然集中,并且在用户注意力方面,主要是ChatGPT和Gemini之间的两强竞争。
关键指标不仅是“谁在增长”,还有谁在占据时间。
在广告背景下,分钟数比“用户数”更重要 我们认为,当叠加某机构的经济模型时,影响变得更加尖锐。某机构的利润引擎建立在与搜索行为相关的广告货币化之上——高流量、低边际成本且优化良好的转化漏斗。该机器依赖于高效地提供大量的广告机会。
但如果交互模式转向ChatGPT式的体验——更丰富的答案、更长的会话和计算更密集的响应——成本结构将发生巨大变化。
更丰富答案的计算成本是问题所在 我们的研究表明,在助手式模型中,每个参与单元的计算密集程度都明显高于经典搜索模型。上文提出的观点是,对于可比较的“用户分钟”,助手模型可能会消耗大约10倍的计算资源来为最终用户生成实质上更丰富的输出。
我们认为,这就是为什么将AI助手交互模式与广告资助的商业模式融合起来并非易事的症结所在:
- 在经典搜索中,广告被嵌入低成本的查询/响应序列;
- 在助手主导的体验中,相同的用户注意力需要高得多的计算量,这提高了每个可货币化交互的成本。
因此,尽管AI原生界面可能创造出更具吸引力的产品,但它也有可能将广告投放的经济性从高利润机器转变为成本更高的模式——除非货币化机制相应演变。
即使是‘用户分钟数’仍未能完全反映实际情况 我们认为用户分钟数是比MAU更好的指标,但它仍然没有完全捕捉到真正的转变。花费的时间并不能直接衡量市场上产生和交付的知识的数量和丰富度——而这种丰富度正是驱动计算强度的关键。
归根结底,参与度是正确的指标,但更深层次的观点是经济性的。如果市场从低成本的搜索交互转向计算密集的助手交互,服务成本——进而货币化成本——将急剧上升。在我们看来,这是某机构广告主导商业模式的压力点。
为什么“某机构会自我颠覆”不是一个随意的决定:搜索的单位经济性正在改变 我们认为一个常见的说法——“某机构会自我颠覆”——忽略了一个最重要的约束条件,即搜索的经济性对某机构来说是独一无二的有利,而从经典搜索转向助手式交互模式会改变单位经济性,从而可能破坏其利润引擎。
搜索是一种极端规模、超优化的计算业务 我们的研究表明,一次搜索的成本只有几分之一美分。这一结果是以下因素的产物:
- 数十年的排名系统优化;
- 极端规模;
- 高度优化的基础设施堆栈。
在我们看来,这可以说是世界上最便宜的大规模计算服务,也是全球范围内运营最佳的之一。
利润率结构是护城河——而且难以舍弃 关键是,每次搜索的收入大约是搜索本身毛利的五到十倍。这就是某机构建立的非凡商业模式的核心——超低的单位成本与每个交互提取高价值的货币化引擎相结合。
在我们看来,你不会轻易颠覆具有这种经济性的模型——不是因为你缺乏远见,而是因为替代方案必须跨越一个非常高的经济门槛。
工作负载特性简单——而这正是优势所在 我们的研究表明,搜索查询的性质支撑了这些经济性:
- 每天大约80亿到90亿次搜索;
- 数十亿活跃用户;
- 查询通常非常短(通常是两到三个词);
- 每三次搜索中有两次会导致点击;
- 大约每次访问有1到1.5个查询。
这是一个高流量、低复杂性的工作负载。它针对速度、效率和货币化进行了优化——而不是为了生成推理丰富的输出。
将搜索转变为助手会瓦解该模式,除非货币化方式改变 我们的核心主张是,如果某机构将这种超廉价的交互转变为OpenAI式的体验——更丰富的响应、更长的会话、更高的每次交互计算量——成本结构将急剧上升。如果每次“搜索”的成本增加一个数量级,而货币化机制仍停留在旧的广告模式,经济性就会受到挤压,商业模式可能崩溃。
归根结底,某机构绝对可以创新,但数据表明自我颠覆是经济上的外科手术。现有的搜索机器围绕简单性和利润率进行了优化。转向计算密集的助手行为而没有新的货币化模型,可能会瓦解资助这一转型的引擎本身。
每次会话成本是某机构自我颠覆的经济绊索 关于某机构能否自我颠覆的争论,当你建立每次会话成本模型而非只看用户总数时,就会清晰得多。如前所述,经典某机构搜索的经济性是围绕每次交互的极低成本和每次查询的高利润广告而设计的。助手式会话则颠倒了这个等式。
某机构搜索:每次会话成本几分钱,每次查询高利润广告 我们的研究表明,某机构搜索的每次交互成本大约在0.2到0.5美分范围内(如上图所示),并且由于每次会话的查询数很低,因此每次会话的总成本仍然是“几分钱”。货币化模型也与这种结构紧密耦合,某机构通过每次查询的广告进行货币化,低成本和强大的广告收益相结合产生了很高的利润率。
在我们看来,这就是为什么某机构搜索一直是如此持久的商业模式。它是一种高度优化、低成本的服务,在巨大规模上被高效地货币化。
ChatGPT式会话具有根本不同的成本结构 ChatGPT的每次交互成本要高得多,而且会话模式也不同,每次会话有五到十个查询,而不是简短、轻量级的搜索交互。当你乘以这些因素时,每次会话的成本变得非常高——我们认为比某机构搜索高出约100倍。
重要的是,关键点并非ChatGPT效率低下。我们的主张是,ChatGPT已经是效率方面的领导者之一——然而其底层的交互范式仍然使每次会话的计算密集度更高。
我们认为,这是某机构不能简单地将搜索转变为类似ChatGPT的模型而不破坏利润率的核心原因。
‘10%-20%/60%-70%’问题:收入集中度使其成为生存问题 我们的研究表明,搜索中最具经济价值的部分是产品和商业搜索——仅占查询量的约10%到20%,但贡献了约60%到70% 的搜索收入。在我们看来,这种集中度正是转型如此困难的原因。具体来说:
- 这个部分是某机构最需要保护的馅饼;
- 它也是随着AI助手向上游进入更高意图的工作流程时最有可能受到争夺的部分。
货币化运作方式的深刻转变:从“付费被看到”到“付费被准确呈现” 我们认为这是整个研究报告中最重要的观点之一。模式从向用户抛出的低成本广告和蓝色链接,转向一个更高价值、更高成本的信息经济,其中信任和准确呈现成为产品。
在我们看来,这有两个直接影响:
- 品牌变得对信息质量远比链接位置更敏感。
- 货币化从“为可见性付费”转向“为经过验证、可信、高保真的呈现付费”——一种不同的商业结构,具有不同的经济模型。
某机构的‘混合’模式会怎样? 某机构当前的方法——提供用户可以更深入进入AI模式的混合路径——既巧妙又有用。在理想情况下,某机构更愿意缓慢引入助手式体验,将其作为独立业务圈定,并以溢价定价。
但关键是现实制约了战略,因为某机构必须保护商业搜索的数字。尽管某机构希望在其上叠加更高价值的服务并向广告商收取高得多的费用,但挑战者可能更容易以更高成本、更高信任的服务进入,而无需捍卫传统的利润率结构。我们认为,这正是OpenAI的优势所在。
这种张力使得混合模式看起来不像一个稳定的最终状态,而更像一种过渡策略——一种最终必须转向一种或另一种经济模型的骑墙策略。
界定竞争战场 在我们看来,市场正在分割成两场截然不同的竞争:
- 某机构 vs. TPU/ASIC替代方案:对我们来说相对清晰,除非执行失误;
- 某机构 vs. OpenAI(及其他):远不明朗,因为这是一场关于界面、经济性和信任的战斗——而不仅仅是模型质量。
归根结底,每次会话成本是这个新游戏中的经济驱动力。它解释了为什么自我颠覆是困难的,为什么高价值的商业部分容易受到攻击,以及为什么市场可能从廉价的广告库存转向更高成本、基于信任的呈现。这是未来十年的战线。
搜索的未来是收入模型不匹配——且最高价值部分面临风险
我们认为“搜索的未来”的核心问题不是模型质量。问题是收入模型不匹配。传统搜索是一台广告资助的机器,旨在优化提供低成本的发现——实际上是向用户抛出的“10个蓝色链接”——其中货币化与位置和点击相关,而不是与所传递信息的固有质量和可信度相关。
随着搜索变得以答案为中心、以信任为中心,我们的研究表明某机构的大部分利润池将面临暴露风险。
一小部分查询驱动了大部分收入——且容易因信任问题而失去 在这项研究中,我们试图阐明一个我们认为的关键收入集中点:
- 约10%到15% 的查询是商业/产品意图查询;
- 该部分贡献了约65%到75% 的搜索收入。
在我们看来,这部分业务最容易受到信任侵蚀的影响。如果用户开始相信答案是为广告商而非买家优化的,价值主张就会迅速退化——而这一小部分正是买家对质量、排名完整性和可信度最敏感的地方。
风险在于,某机构可能保留了总搜索量的大部分,但仍可能失去经济上决定性的部分:“90%的搜索量”,但不是支付账单的那部分。
生成式AI答案的成本高出数个数量级——且规模使其变得无情 我们的研究表明,使用生成式AI生成一个答案,其成本至少比一次经典的、高度优化的搜索查询高一个数量级——根据体验设计的不同,可能高出两到三个数量级。在某机构的规模下,即使向AI密集会话的轻微混合转变也会对利润率产生巨大影响。
我们认为这既是一个时机问题,也是一个战略问题。换句话说,随着使用模式的迁移,转型开始侵蚀利润率,公司必须在两股相反的力量之间管理微妙的平衡:
- 保护当前的利润率;
- 防止高信任度、高价值查询流向其他平台。
从消费者的角度来看,好处在于用户日益可以在低成本的传统搜索和更高质量、更高信任度的答案引擎之间进行选择。但这种可选性增加了竞争压力。
信任和权威成为新的转换成本 由于某机构的搜索份额已经非常高,它只能从这里开始下降,因为竞争的轴心正在转移。在经典搜索中,如果结果不好,用户只需重新调整查询并继续。在助手驱动的搜索中,随着用户对能持续返回更高质量结果、具有记忆的引擎建立亲和力,信任就成为护城河。赢得这种信任的平台可以吸引不成比例的高价值会话份额。
关键点是,即使某机构的模型质量很强,其商业模式激励也不同。
为什么这是一种不同的商业模式,而不仅仅是更好的用户界面 在我们看来,未来的状态不是“更智能的广告”。它是一种不同的价值链,品牌需要被准确呈现、适当比较,并根据匹配度而非谁购买了首位而展现。
本研究的前提捕捉了这种差异——一个复杂的、高意图的请求可以在一分钟内通过排名选项和行动计划得到满足,而不是一个更长、更迭代的搜索过程。我们的研究表明,这种“高质量商业搜索”体验正是份额可能迁移的地方——而且它是移动的最具经济意义的部分。
OpenAI的结构性优势:通过订阅和API实现激励一致 我们认为OpenAI具有植根于其收入模型的结构性激励优势:
- 用户付费(通常通过订阅),因为他们重视体验质量;
- 开发者和企业通过直接对使用量进行货币化的API付费。
这种激励体系与广告资助的搜索有着根本不同,后者的买单者不是用户,品牌为位置付费。在我们看来,这为助手平台创造了更直接的“质量到收入”联系。
在品牌方面,我们的研究表明,新兴的玩法是由可信信息支持的面向买家的API,旨在在答案引擎中获得高分。这是一种不同于经典搜索引擎优化和付费链接的营销和分发模型。
SEO并未消亡——但正走在下降的轨道上 我们认为正确的说法是SEO并未消亡,但随着时间的推移,它的重要性将降低。随着答案引擎通过信任和结构化的供应商信息来调节发现和排名,经典SEO机制的重要性下降。
可能的结果:积极的二分 我们的观点是,市场会以一种对某机构而言在绝对意义上仍然看起来“不错”、但具有战略颠覆性的方式二分:
- 某机构保留一般搜索流量的大部分份额。
- OpenAI(及其他)在高价值、高信任度的商业意图查询中获得份额。
某机构将为争夺这一高价值部分而进行激烈竞争,但我们的研究表明,这需要在模型层之上进行大量工作:API、软件能力、界面设计以及使供应商和用户能够从平台提取真正效用的周围服务堆栈。
归根结底,搜索的未来是激励和经济的重构。将信任、呈现质量和货币化结合起来的平台,在市场的最高价值部分具有优势。
重新审视先发优势之争:为何OpenAI的领先地位看似持久——以及为何企业市场才是真正的奖品
我们认为,在本部分的结尾,结合早前的一篇Breaking Analysis中的背景来讨论是有益的。在那篇文章中,我们提出了一个看似合理的场景,即某机构本可以颠覆OpenAI的先发优势。该场景并非不合理——它植根于某机构深厚的技术储备、其分发能力以及其能将模型实力转化为产品和平台领导力的假设。
但上图中的信息——“OpenAI可能保持其领导地位”——反映了我们目前的研究结果:维持OpenAI领先地位的条件正在加强,而非减弱。
顶级模型将趋于一致——因此不要过度关注‘最佳模型’ 我们的观点是,市场过度关注模型之间的比较。现实情况是,领先的实验室都将产生非常高质量的大型语言模型。某机构的模型很强大。Anthropic的Claude在编码方面进行了定位。Gemini在许多任务上展示了能力,Grok进展迅速。关键并非其中任何一个“不好”。
我们认为持久的差异化正从原始模型质量转向:
- 周围的软件堆栈;
- 应用程序编程接口和开发者接触面;
- 应用程序和工作流程;
- 成为企业使用默认平台的能力。
OpenAI的结构性优势:平台、API和(可能的)计算资源分配优先级 我们的研究表明,OpenAI在几个领域保持领先:
- 最好的API;
- 最好的应用程序;
- 以及在用户数量和新兴企业势头方面的整体领先地位。
我们还认为,OpenAI与某机构的紧密关系很重要。我们的论点是,如果某机构仍然是前沿计算的关键供应商,并且如果OpenAI与该生态系统紧密耦合,那么与那些其叙事依赖于某机构被替代的竞争对手相比,OpenAI有望获得优先的资源分配。在我们看来,这种分配动态强化了其能力实现时间和上市时间。
企业用户组合正在转变 我们认为,本部分最重要的数据点是所描述的用户组合从消费者使用向企业采用的转变。我们注意到从去年大约70/30(用户/企业) 到今年年底大约60/40 的移动。
我们认为这是一个有意义的信号,因为企业增长往往比消费者的新奇感更具粘性和平台定义性。我们的研究表明,随着组织学会如何操作,企业采用率将会增加:
- 整理并提高其数据质量;
- 使该数据可被AI系统发现和使用;
- 将可信信息可靠呈现的工作流程操作化。
在我们看来,这种企业的“数据就绪”之旅是将AI模型转变为企业系统的关键——而这正是平台优势得以加强的地方。
某机构有优势——但软件和企业定位仍然是问题 我们认为某机构具有优势,并将继续是一个强大的竞争对手。但我们的前提是,OpenAI比某机构更有可能成为企业AI领域的高质量软件和平台参与者——尽管某机构在技术上很强,但并未被广泛视为企业AI软件的领导者。
我们认为这一点很重要,因为下一阶段的竞争不是“谁有最好的模型演示”,而是“谁拥有工作流程和集成结构”。
领导地位并非必然——但目前是真实的 我们的研究表明,目前OpenAI在平台势头方面“遥遥领先”。这并不意味着其领先地位不可撼动。OpenAI可能搞砸,或者竞争对手可能找到更好的方法。但就目前而言,我们认为最可能的结果是其继续领先,因为最重要的因素——平台、开发者采用、企业组合转变以及获取稀缺计算资源——目前都对OpenAI有利。
结语
本次Breaking Analysis的两大结论是:
- 某机构的护城河似乎因其产量、经验曲线效应以及多年的端到端系统工作而得到加强;
- OpenAI的领先地位似乎因其平台执行力和企业吸引力而得到加强——在一个模型质量只是入场券、真正的战斗是围绕模型的软件和服务的竞争格局中。
归根结底,早期“某机构颠覆OpenAI”的设想是看似合理的。但数据和平台动态表明,OpenAI的先发优势正在演变为更持久的东西——尤其是随着企业市场成为重心。OpenAI与某机构的关系具有重要意义。尽管某机构,就像以前的某中心一样,会试图保持公平的竞争环境,但目前它会支持竞争力较弱的新兴平台,如neo云服务商和OpenAI等模型构建者。