\n\n亚马逊与 Anthropic 达成深化合作:Anthropic 承诺十年内向 AWS 投入超千亿美元采购算力,亚马逊则追加最高 250 亿美元投资。双方旨在通过深度整合硬件与云服务,缓解 Claude 的基础设施压力。
译自:Amazon and Anthropic deepen AI ties with a $100B AWS commitment
作者:Meredith Shubel
周一,Amazon 和 Anthropic 宣布达成一项新协议。根据协议,Anthropic 承诺在未来 10 年内向 AWS 技术投资超过 1000 亿美元,确保获得高达 5 吉瓦 (GW) 的当前及未来几代 Trainium 和 Graviton 核心。
这家 AI 公司还将 Claude 平台引入 AWS,并接受来自 Amazon 高达 250 亿美元的投资。
Amazon 和 Anthropic 在算力、Claude 接入及投资方面达成三项承诺
首先,通过承诺在未来十年内向 AWS 技术投入超过 1000 亿美元,Anthropic 锁定了高达 5GW 的当前和未来几代 Trainium(Amazon 的定制芯片)算力,用于支撑、部署和训练其先进的 AI 模型;同时还锁定了数千万个 Graviton 核心(Amazon 的 CPU 芯片),以“提供卓越的价格性能比”。
根据两家公司的公告,预计大量的 Trainium2 产能将于 2026 年上半年上线,随后在今年晚些时候将提供近 1GW 的 Trainium2 和 Trainium3 产能。该协议还赋予了 Anthropic “在未来几代 Amazon 定制芯片上市时进行购买的选择权”。
其次,Anthropic 将其 Claude 平台接入 AWS。
Amazon 表示,目前已有超过 10 万名客户通过 Amazon Bedrock(Amazon 用于构建和扩展生成式 AI 应用的全托管服务)在 AWS 上运行 Anthropic 的 Claude 模型(例如 Opus、Sonnet 和 Haiku)。
通过直接在 AWS 内部提供 Claude 平台,Anthropic 允许 AWS 客户使用现有的 AWS 账户、访问控制和监控功能来访问原生的 Anthropic Claude 控制台,无需额外的账单、合同或凭据。
目前处于私测阶段的 AWS 版 Claude 平台将使 AWS 用户更轻松地直接访问 Claude,同时满足其现有的治理和合规要求。
第三,Amazon 承诺向 Anthropic 投资高达 250 亿美元:今日先投入 50 亿美元,后续可能还会有高达 200 亿美元的投资。Amazon 在公告中表示,这笔资金将“与某些商业里程碑挂钩”。
这笔投资是在 Amazon 已经向 Anthropic 投资 80 亿美元(包括其在 2024 年获得的 40 亿美元少数股权)的基础之上追加的。
两大科技巨头之间持续的互惠互利
新的 Amazon-Anthropic 协议建立在两家公司近三年的合作基础之上。合作可追溯到 2023 年,当时 Anthropic 选择 Amazon 作为其主要的云服务提供商,并开始使用 AWS Trainium 和 Inferentia 芯片来训练和部署其基础模型。
相关阅读:
“同样关键的是新算力产能的时间节点,以及 Anthropic 正在国际市场上增强实力。目前对 Anthropic 模型的需求似乎是无限的,也就是说,需求已经超过了目前所能提供的服务能力。”
去年,Amazon 和 Anthropic 在 Project Rainier 项目上的合作进一步深化,该项目当时是全球最大的 AI 计算集群,拥有近 50 万颗 Trainium2 芯片。自 2025 年 10 月全面投入运营以来,这一大规模基础设施项目一直被 Anthropic 积极用于构建、训练和部署 Claude 模型。
这还不是 Amazon 和 Anthropic 合作的全部内容。
根据 Amazon 的公告博客文章,Anthropic 在开发 AWS Trainium 芯片方面发挥了不可或缺的作用。据报道,Anthropic 在使用这些芯片构建、训练和部署其 AI 模型的同时,还与 Amazon 收购的微电子专家公司 Annapurna Labs 密切合作,反馈 Claude 训练工作负载的数据,以帮助优化未来的芯片设计。
Anthropic 显然在寻求更多算力
随着 Anthropic 在 AWS 技术上豪掷 1000 亿美元,它继续其基础设施支出的狂潮——而且它必须这样做。
今年 3 月,Claude Code 的用户抱怨他们达到使用限制的速度比平时快。与此同时,Anthropic 运气不佳,仅在 3 月份就经历了 5 次停机。
随着 Anthropic 在 AWS 技术上豪掷 1000 亿美元,它继续其基础设施支出的狂潮——而且它必须这样做。
随后,在《彭博社》看到的一封 4 月份致投资者的信中,据报道 OpenAI 提请人们注意 Anthropic 的基础设施困境,声称其已经“快速且持续地”增加了自己的算力产能,并自称在这方面领先于 Anthropic。
就 Anthropic 而言,它在公告博客中承认了最近的基础设施故障,将可靠性和性能问题归因于企业和开发者对 Claude 快速增长的需求:“这种速度的增长不可避免地给我们的基础设施带来了压力。”
除了与 Amazon 的新合作外,这家 AI 公司还在努力扩大其基础设施规模。
本月早些时候,它宣布与 Google 和 Broadcom 达成协议,将通过“数吉瓦的下一代 TPU 产能”扩展其计算基础设施,预计将于 2027 年上线。此外,它在 2025 年 10 月宣布扩大对 Google Cloud 技术的使用,包括高达 100 万个 TPU。
“这种速度的增长不可避免地给我们的基础设施带来了压力。”
Anthropic 在 Amazon 合作公告的最后特别提到,它“在各种 AI 硬件(AWS Trainium、Google TPU 和 NVIDIA GPU)上训练和运行 Claude,这意味着我们可以将工作负载与最适合它们的芯片进行匹配”。
通过这一表态,这家 AI 公司明确表示正在实现硬件策略的多样化,以提高性能和韧性。时间将证明这是否意味着未来的停机时间会减少。全 工智能