最近路透社发了篇很有意思的报道,标题叫《Big Tech's $630bn AI Splurge Will Fall Short》。
翻译成中文就是:大厂这6300亿美元(约4.5万亿人民币)的AI投资,怕是花不出去。
说真的,我看到这个数字的时候倒吸了一口凉气。6300亿刀什么概念?美国的年度军费预算也就8000多亿。谷歌、亚马逊、微软、Meta这四家加起来,花在AI上的钱快赶上美国国防部了。
但问题来了——钱是批了,但花不出去。
不是不想花,是根本建不起来
路透社这篇文章扒得很细。他们说现在最大的问题不是"AI有没有泡沫"(虽然很多人都在聊这个),而是基础设施建设根本跟不上。
一个100兆瓦的现代AI数据中心,造价超过40亿美元。其中70%是服务器和GPU(基本都是英伟达的卡)。听起来好像也就是砸钱的事对吧?
但你看看这些数字:
- 全球变压器交货周期:最长100周(差不多两年)
- 美国发电机交货周期:约50周
- 数据中心项目超过60%都延期3个月以上
- 88%的项目在打地基的时候就遇到问题
- 78%在装冷却和消防系统时延误
换句话说,钱已经到位了,GPU已经下单了,但地皮还没搞定、变压器买不到、工人不够用。
这就像你买了一台顶配PC,结果发现电源线要等两年才能到货。
更魔幻的是:连发电站都不够用了
这可能是整篇文章里最颠覆我认知的一点。
AI数据中心的用电量有多夸张?一个大型数据中心的耗电量,相当于一座小型城市的居民用电总和。
结果就是:
- 在城市周边建数据中心?电网接入要等10年
- 去偏远地方建?招不到技术工人
- 自己发电?新的燃气轮机已经卖到了2029年
我读到这里的时候真的笑了。2026年,AI发展的最大瓶颈居然不是算法、不是模型、不是人才——是电和变压器。
这感觉就像你买了法拉利,结果发现加油站要排队两年。
但大厂停不下来
更有意思的是,明知道建不起来,大厂还是得继续砸钱。
为什么?因为你不投,竞争对手就投了。这是个典型的囚徒困境——谁先停下来,谁就输。
微软、谷歌、Meta、亚马逊这四家目前在全球大约有600个数据中心,还有544个在建或规划中。四家的2026年资本支出预计达到6300亿美元,比2023年翻了四倍以上。
这个数字已经占到美国GDP的2.2%了。
几个有意思的观察
写到这里,我突然有几个想法:
第一,英伟达可能会遇到意外的天花板。 不是因为GPU不好卖,而是因为数据中心建不起来,GPU买了也没地方装。去年很多分析说英伟达的订单积压严重,现在看来问题可能不在需求端,而在基建端。
第二,这个瓶颈可能会催生一些新机会。 比如小型化AI推理设备、更高效的模型架构、边缘计算。当大厂的超级数据中心建不起来的时候,谁能用更少的算力做更多的事,谁就能捡到便宜。
第三,中国的AI基建可能会反超。 不是贬低国外。但我关注到国内在基建审批、电网接入这块的效率确实比欧美快。如果这个瓶颈持续两三年,国内的AI部署速度反而可能领先。
写在最后
路透社这篇文章给我最大的感触是:AI这波浪潮最大的变量,可能不是技术本身,而是那些看起来"很传统"的东西——电、变压器、土地审批、工人。
我们都习惯了科技行业"钱能解决一切"的叙事。但现实是,有些东西真的不是有钱就能搞定的。你钱再多,也无法让变压器厂商第二天就交货,无法让电网公司一年内就给你拉好线。
这就像你给一个程序员批了100万的预算,让他一周内写一个操作系统——钱是到位了,但时间不够,基础设施跟不上。
当然我不是在唱空AI。恰恰相反,我觉得这个瓶颈反而说明AI的发展是实打实的,不是泡沫——如果是泡沫,根本就不会有人真的去建数据中心。正是因为它真的在发生、真的需要算力、真的在烧钱,才会遇到这些真实世界的物理瓶颈。
有时候,最科幻的东西,卡在最不科幻的地方。这大概就是2026年AI最真实的写照。
(本文参考Reuters Breakingviews《How Big Tech's $630 bln AI splurge will fall short》及多家机构分析)