大厂砸了6300亿搞AI,结果钱根本花不出去

0 阅读1分钟

最近路透社发了篇很有意思的报道,标题叫《Big Tech's $630bn AI Splurge Will Fall Short》。

翻译成中文就是:大厂这6300亿美元(约4.5万亿人民币)的AI投资,怕是花不出去。

说真的,我看到这个数字的时候倒吸了一口凉气。6300亿刀什么概念?美国的年度军费预算也就8000多亿。谷歌、亚马逊、微软、Meta这四家加起来,花在AI上的钱快赶上美国国防部了。

但问题来了——钱是批了,但花不出去。

不是不想花,是根本建不起来

路透社这篇文章扒得很细。他们说现在最大的问题不是"AI有没有泡沫"(虽然很多人都在聊这个),而是基础设施建设根本跟不上

一个100兆瓦的现代AI数据中心,造价超过40亿美元。其中70%是服务器和GPU(基本都是英伟达的卡)。听起来好像也就是砸钱的事对吧?

但你看看这些数字:

  • 全球变压器交货周期:最长100周(差不多两年)
  • 美国发电机交货周期:约50周
  • 数据中心项目超过60%都延期3个月以上
  • 88%的项目在打地基的时候就遇到问题
  • 78%在装冷却和消防系统时延误

换句话说,钱已经到位了,GPU已经下单了,但地皮还没搞定、变压器买不到、工人不够用。

这就像你买了一台顶配PC,结果发现电源线要等两年才能到货。

更魔幻的是:连发电站都不够用了

这可能是整篇文章里最颠覆我认知的一点。

AI数据中心的用电量有多夸张?一个大型数据中心的耗电量,相当于一座小型城市的居民用电总和。

结果就是:

  • 在城市周边建数据中心?电网接入要等10年
  • 去偏远地方建?招不到技术工人
  • 自己发电?新的燃气轮机已经卖到了2029年

我读到这里的时候真的笑了。2026年,AI发展的最大瓶颈居然不是算法、不是模型、不是人才——是电和变压器。

这感觉就像你买了法拉利,结果发现加油站要排队两年。

但大厂停不下来

更有意思的是,明知道建不起来,大厂还是得继续砸钱。

为什么?因为你不投,竞争对手就投了。这是个典型的囚徒困境——谁先停下来,谁就输。

微软、谷歌、Meta、亚马逊这四家目前在全球大约有600个数据中心,还有544个在建或规划中。四家的2026年资本支出预计达到6300亿美元,比2023年翻了四倍以上。

这个数字已经占到美国GDP的2.2%了。

几个有意思的观察

写到这里,我突然有几个想法:

第一,英伟达可能会遇到意外的天花板。 不是因为GPU不好卖,而是因为数据中心建不起来,GPU买了也没地方装。去年很多分析说英伟达的订单积压严重,现在看来问题可能不在需求端,而在基建端。

第二,这个瓶颈可能会催生一些新机会。 比如小型化AI推理设备、更高效的模型架构、边缘计算。当大厂的超级数据中心建不起来的时候,谁能用更少的算力做更多的事,谁就能捡到便宜。

第三,中国的AI基建可能会反超。 不是贬低国外。但我关注到国内在基建审批、电网接入这块的效率确实比欧美快。如果这个瓶颈持续两三年,国内的AI部署速度反而可能领先。

写在最后

路透社这篇文章给我最大的感触是:AI这波浪潮最大的变量,可能不是技术本身,而是那些看起来"很传统"的东西——电、变压器、土地审批、工人。

我们都习惯了科技行业"钱能解决一切"的叙事。但现实是,有些东西真的不是有钱就能搞定的。你钱再多,也无法让变压器厂商第二天就交货,无法让电网公司一年内就给你拉好线。

这就像你给一个程序员批了100万的预算,让他一周内写一个操作系统——钱是到位了,但时间不够,基础设施跟不上。

当然我不是在唱空AI。恰恰相反,我觉得这个瓶颈反而说明AI的发展是实打实的,不是泡沫——如果是泡沫,根本就不会有人真的去建数据中心。正是因为它真的在发生、真的需要算力、真的在烧钱,才会遇到这些真实世界的物理瓶颈。

有时候,最科幻的东西,卡在最不科幻的地方。这大概就是2026年AI最真实的写照。


(本文参考Reuters Breakingviews《How Big Tech's $630 bln AI splurge will fall short》及多家机构分析)