数GPU,看未来:一张表看懂中美AI公司的真实实力差距

6 阅读1分钟

去年有人问我:怎么判断一家公司对AI是真投入还是喊口号?

我的回答很简单——数GPU

GPU数量是AI时代最诚实的指标。不管PPT写得多漂亮,战略发布会开得多热闹,有多少卡在跑,就代表有多少真金白银砸进去了。这个数字骗不了人。

今天这篇文章,我把中美头部AI公司的GPU数量、资本开支、算力规划做了一次全面盘点。看完你会对"谁在真干、谁在吹牛、差距到底多大"有一个非常清晰的判断。

美国:一场万亿美元的算力豪赌

先看美国。一个词总结:疯了

2026年,美国五大科技巨头(微软、谷歌、亚马逊、Meta、Oracle)的AI资本开支合计将达到6600-6900亿美元,接近翻倍增长。这个数字什么概念?超过了大多数国家的GDP。

各家底牌一览

Meta:从社交公司变成算力怪兽

扎克伯格可能是硅谷最激进的AI赌徒。2024年底,Meta已拥有约60万块H100等效GPU。2026年2月,Meta宣布向英伟达采购"数百万块"Blackwell和Rubin GPU,交易价值数百亿美元。

2026年资本开支预算:1150-1350亿美元,资本开支强度达到营收的55-67%。这意味着Meta每赚2块钱就要拿1块多去买GPU。这种All-in的魄力,要么封神,要么成为商业史上最贵的错误。

微软:被算力卡住脖子的巨头

微软的问题不是没钱,而是有钱花不出去。截至2025年底,微软估计拥有250-310万块H100等效GPU,但手上积压了800亿美元未完成的Azure订单,原因只有一个——电力不够。数十亿美元的英伟达GPU堆在仓库里,插不上电。

2026财年资本开支跟踪将超过1200亿美元。OpenAI承诺未来6年在Azure上消费2500亿美元。微软的瓶颈不是芯片,是电网。

谷歌:走自己的路

谷歌是唯一一家在GPU之外有"第二条腿"的公司。TPU v7(Ironwood)已经发布,单集群可达9216芯片;Virgo网络可以在单个数据中心连接13.4万块TPU,跨站点可达100万块以上。

同时谷歌也没放弃英伟达。Virgo同样支持英伟达GPU:单数据中心最多8万块,跨站点可达96万块。

2026年资本开支指引:1750-1850亿美元,同比翻倍还多。谷歌给Anthropic的算力承诺就高达100万块TPU(5GW功率)。

xAI:速度最疯狂的玩家

马斯克的xAI在孟菲斯建造的Colossus集群,截至2026年2月已部署约55.5万块GPU(H100、H200、GB200混合),是全球最大的单一连贯AI训练集群,总功率2GW。

最疯狂的数字:初始10万块GPU从动工到上线只用了122天,又用92天翻倍到20万块。目标是达到100万块GPU。整个孟菲斯综合体投资约180亿美元。

OpenAI:Stargate——人类史上最大的基础设施项目

OpenAI的Stargate项目总投资承诺超过5000亿美元,规划算力容量达10GW。仅德克萨斯州阿比林一处,就计划部署40万块GB200 GPU。加上英国(3.1万块)、挪威(10万块)以及新增的五个美国站点,OpenAI正在构建一个前所未有的算力帝国。

更关键的是多云战略:微软Azure(6年2500亿美元)、AWS(380亿美元多年协议)、Oracle(4.5GW容量,5年3000亿美元以上)。OpenAI还在与博通合作开发自研芯片"Titan",计划2026年下半年量产。

美国公司资本开支一览

公司2025年CapEx2026年CapEx(指引)关键GPU/算力指标
亚马逊~1250亿美元~2000亿美元Trainium3出货,自研芯片年营收200亿美元+
谷歌~914亿美元1750-1850亿美元100万+TPU互联,TPU v7 Ironwood
微软~800亿美元1200-1500亿美元400+数据中心,电力受限
Meta722亿美元1150-1350亿美元采购"数百万块"Blackwell+Rubin
Oracle~250亿美元~500亿美元9.6万块GB200已交付,45万块规划中
xAI~180亿美元(累计)持续扩张55.5万GPU,目标100万
OpenAI通过合作伙伴5000亿美元+(Stargate总额)仅阿比林就40万块GB200

中国:禁令之下的算力突围

再看中国。两个关键词:抢购替代

美国芯片禁令让中国AI公司面临一道选择题:要么在禁令全面生效前疯狂囤货,要么加速转向国产替代。答案是——两个都选。

仅2024年,字节跳动、阿里巴巴、腾讯就紧急采购了估计130-160万块H20 GPU,总花费约160亿美元。

各家情况

字节跳动:中国最大的GPU买家

字节的GPU总量据称已达约100万块,跻身全球第一梯队。2024年采购了约23万块英伟达GPU(主要是H20),还买了约10万块华为昇腾。

2026年计划AI总支出达到1600亿人民币(约230亿美元),其中850亿人民币用于AI芯片采购。字节还计划花1000亿人民币购买英伟达H200。

一个数字可以说明字节对算力的饥渴:仅抖音一个产品,Token消耗量预计从每天12-13万亿增长到2026年6月的120-130万亿,需要34-40万块推理卡来支撑。

字节也在用台积电代工自研两款AI芯片,目标2026年量产。

阿里巴巴:算力最大,花钱最狠

阿里没有公开具体GPU数量,但占据中国AI云市场**35.8%**的份额(第一名),所有GPU据称已经满负荷运转。

三年AI基础设施投资计划:3800亿人民币(约530亿美元),超过过去十年资本开支的总和。

阿里在效率上也有突破:自研的Aegaeon调度系统通过Token级别调度,让213块H20 GPU完成了原本需要1192块才能完成的工作,GPU消耗降低了82%。

腾讯:万亿规模的基建计划

腾讯2024年也采购了约23万块英伟达GPU,与字节并列。2025年Q1资本开支同比暴增91%至275亿人民币。多年基础设施总投入计划达到5000亿人民币(约700亿美元)

腾讯的星脉RDMA网络支持单集群12.8万卡规模,成本仅为国际方案的30%。更重要的信号是,腾讯已公开表示其AI基础设施"已全面适配"国产芯片。

华为:中国AI算力的"地基"

华为不只是用户,更是整个中国AI生态的核心供应商

昇腾芯片出货量:2024年约40万块910B,2025年预计70-100万块(910B+910C),2026年目标可能达到160万块(910C+950PR)。

芯片路线图清晰:910B → 910C → 950PR(2026 Q1,1.56 PFLOPS,首次使用华为自研HBM)→ 960(2027)→ 970(2028,目标4 ZettaFLOPS FP4)。

制约因素是中芯国际的制程良率——从2024年的约20%提升到2025年的40-50%,仍然是瓶颈。

DeepSeek:效率换算力的极致代表

DeepSeek是这场竞赛中最特别的存在。V3模型仅用2048块H800训练,成本只有560万美元——而美国同级别模型的训练成本通常是几亿美元。

分析师估计DeepSeek母公司幻方量化总共拥有约5万块Hopper GPU。更值得注意的是,2026年4月发布的DeepSeek V4(1.6万亿参数)已经在华为昇腾950PR上训练,标志着国产芯片首次用于训练世界级大模型。

百度:自研芯片的先行者

百度走了一条不同的路——完全自研。昆仑P800芯片FP16性能达345 TFLOPS(英伟达H20为148 TFLOPS),3万卡集群已投入运行。大部分推理任务已迁移到昆仑P800。

昆仑芯已申请港股IPO,摩根大通预计2026年芯片营收将达83亿人民币,同比增长6倍。

科大讯飞 & 智谱AI:国产算力的标杆

科大讯飞与华为联合打造了中国首个全国产万卡算力平台"飞星一号"和"飞星二号",通过软件优化将昇腾910B的效率从20%提升到接近英伟达的80%。

智谱AI更彻底——GLM-5(7440亿参数)完全在华为昇腾芯片上训练,零西方硬件依赖,并已适配7种国产芯片平台。

中国公司算力一览

公司估计GPU规模年度AI支出主要芯片国产替代情况
字节跳动~100万块~230亿美元(2026)H20、H800昇腾10万块+自研芯片
阿里巴巴未公开(最大AI云)三年530亿美元H20、自研自研加速器
腾讯23万+英伟达(2024)多年700亿美元H800、H20"已全面适配"国产
华为N/A(供应商)N/A昇腾910B/C/950PR就是国产替代本身
DeepSeek~5万块Hopper未公开H800、A100、昇腾950PRV4已用昇腾训练
百度3万昆仑P800集群未公开昆仑P800完全自供
智谱AI万卡级昇腾未公开昇腾适配7种国产平台
科大讯飞万卡级国产集群未公开昇腾910B全国产训练

中美差距:数字背后的真相

把两张表放在一起看,几个结论很清晰:

1. 绝对差距仍然巨大

美国五大科技巨头2026年AI资本开支合计约6600-6900亿美元。中国所有AI公司加起来,可能不到这个数字的十分之一。

以GPU数量计,Meta一家就有"数百万块"Blackwell级GPU的采购计划,xAI单个集群就有55万块,微软估计拥有250-310万块。而中国最大的字节跳动,总量约100万块且以性能较弱的H20为主。

2. 芯片禁令的影响比想象中复杂

禁令确实卡住了中国公司的脖子——拿不到最先进的H100/H200/B200。但实际效果并没有完全切断供应:

  • H20虽然性能不如H100,但中国公司在禁令前大量囤货(130-160万块)
  • 华为昇腾产能在快速爬坡,2026年目标160万块
  • 国产芯片在AI云市场的份额已从2024年的29%升至2025年的42%
  • DeepSeek用算法效率部分抵消了硬件劣势

禁令真正的影响不是"能不能训练大模型",而是训练效率和成本。同样训练一个万亿参数模型,中国公司可能需要更多时间、更多芯片、更多电力。

3. 效率创新是中国的差异化武器

DeepSeek V3用560万美元训练出世界级模型,阿里用213块GPU做到1192块的效果。当硬件受限时,软件和算法的优化空间反而被逼出来了。

这让我想到一个类比:就像日本车企在石油危机后被逼出了精益生产,中国AI公司在芯片禁令下被逼出了"精益训练"。

4. 电力正在成为新瓶颈

美国的情况也不是一帆风顺。微软有数十亿美元GPU插不上电,OpenAI的Stargate规划需要10GW功率——相当于一个中型国家的用电量。全球都在面临一个新的约束:不是造不出芯片,而是没有足够的电来驱动它们

从GPU看投资:哪些公司值得关注?

如果你是投资者,GPU数量能告诉你什么?

美国方面:

  • 英伟达仍然是确定性最高的标的。所有人都在买它的芯片,2026年仅五大客户的CapEx就接近7000亿美元。
  • Meta的All-in策略风险最高、回报也可能最高。如果AI确实改变了社交和广告,Meta的投入会有巨大回报;如果不是,1350亿美元的年度CapEx会严重拖累利润。
  • 微软的问题是执行力——有订单有客户有GPU,但电力瓶颈可能让增长不及预期。
  • Oracle是被低估的赢家——作为Stargate的基础设施合作伙伴,拿到了5年3000亿美元以上的大单。

中国方面:

  • 字节跳动(未上市)是中国AI投入最激进的公司,如果有机会参与其Pre-IPO,值得认真看。
  • 阿里巴巴的3800亿AI投资计划如果执行到位,AI云业务将从2025年的99亿增长到2027年的530亿,这是一条清晰的增长曲线。
  • 华为的昇腾芯片是中国AI算力的"命脉",但华为未上市。可以关注其供应链上的上市公司。
  • 百度的昆仑芯片如果成功IPO并规模化,将是中国AI芯片赛道的重要标的。

最后说一句

这场GPU军备竞赛的本质,是对"AI会不会改变一切"这个问题的回答。

美国科技巨头用每年近万亿美元的投入在说:。中国公司在禁令围堵下依然拼命扩张算力在说:

作为普通人,你不需要去买GPU,但你需要理解一件事:当全球最聪明的一群人、最有钱的一批公司,愿意把半数以上的利润投入到同一个方向时,那个方向大概率就是未来

问题只在于——你是站在这个浪潮里面,还是外面。


数据来源:公司财报、Omdia、SemiAnalysis、TrendForce、数据中心动态等公开信息,截至2026年4月。部分GPU数量为分析师估计值,可能与实际有偏差。