中国开源AI领跑,但底层仍由美国公司掌控

3 阅读7分钟

中国在开源AI模型产出和采用上已超越美国,但底层硬件基础设施仍由英伟达主导。这种模型与硬件层面的分化,揭示了开源AI发展中的复杂格局。

译自:China is winning the open source AI race — but a US company still controls everything underneath

作者:Paul Sawers

大多数AI的焦点都集中在各大实验室推出的最大模型上——Anthropic 的 Claude、OpenAI 的 GPT 以及 Google 的 Gemini。这些系统以越来越大的模型和更长的上下文窗口设定了高端市场的节奏。

然而,一个与这些巨头并行的市场正在形成。开源模型——旨在被下载、适配并在不同环境中运行——在寻求对成本、部署和定制拥有更多控制权的开发者中持续获得采用。

这种活跃度或许在 Hugging Face 上最为明显,它是开发者分享模型、数据集和相关工具的首选平台。它 功能上非常类似于 GitHub,但专用于AI,使其成为观察开源模型实际使用情况的有用窗口。

直到最近,美国团体,包括 Meta 的 Llama 系列,主导着这个生态系统的大部分。但 Hugging Face 在过去几个月 持续提供的 数据流 表明 平衡已经发生转变,中国正成为开源模型的主要生产者和使用者。

在其最新报告《Hugging Face 开源现状:2026 年春季》中,该公司强调了AI模型领域的几项转变——从开发者最常构建的系统,到大型科技公司在生态系统中的作用。但地理上的变化——重心转向中国——最为突出。

然而,这远非一个彻底的过渡:尽管中国在模型本身方面正在取得进展,但这些模型运行所需的基础设施仍牢牢掌握在英伟达手中。

“DeepSeek 时刻”:中国开源AI的崛起

麻省理工学院和 Hugging Face 联合进行的一项 研究 于去年11月发布,发现截至2025年8月,中国开发的开源模型下载量约占总量的17%,略高于美国的15.8%——这是中国首次在该指标上领先。但该结果仅限于一年的时间窗口。最新的 Hugging Face 数据表明,这种转变更为显著:中国现在在最近的月度下载量中处于领先地位,并且在过去大约四年累计的总下载量方面也已超越美国。

这种变化首先体现在使用量上。在2025年2月至2026年2月期间,中国模型占据了41%的下载量,而美国为36.5%。

开源的地理分布

开源的地理分布(图片来源:Hugging Face)

这一转变部分是由 DeepSeek R1 等模型的病毒式传播推动的。该模型于2025年1月发布后 风靡AI界,以更低的成本提供了可与领先系统媲美的性能,并开放了权重供开发者运行和适配。

最终,这 被证明是中国其他公司的催化剂。例如,百度在2024年没有在 Hugging Face 上发布任何内容,但在 2025年 发布了100多个。根据 Hugging Face 的数据,TikTok 的母公司字节跳动和腾讯各自的输出量增长了多达9倍。而此前专注于封闭系统的公司,如 MiniMax,也 开始公开发布模型

周三,中国智能手机制造商小米发布了 MiMo-V2-Pro,一个万亿参数模型,声称其性能接近领先的美国系统,但成本仅为一小部分,并 计划在模型稳定后发布开放权重

中国发布量的激增也反映在部署数据中。一份来自 RunPod 的报告 追踪了其基础设施的使用情况,发现阿里巴巴的 Qwen 模型已超越 Meta 的 Llama,成为部署最广泛的自托管大型语言模型。

同样的情况也出现在 Hugging Face 本身,体现在开发者选择在其基础上进行构建的模型。包括 Qwen 在内的阿里巴巴模型已经衍生出超过10万个派生模型,反映了这些系统被广泛适配和重用的程度。

Hugging Face 上按组织划分的派生模型

Hugging Face 上按组织划分的派生模型(图片来源:Hugging Face)

另一个信号来自开发者对平台上模型的反应。在 Hugging Face 上,“点赞”是一个简单的受欢迎程度信号——显示哪些模型正在吸引注意力。

一年前,最受欢迎的模型主要集中在 Meta 的 Llama 模型,它们占据了前五名中的三个位置。12个月后,中国的 DeepSeek-R1 现在位居第一,同时还有来自美国以外的更广泛的模型组合出现在顶级排名中。

Hugging Face 上最受欢迎的模型

Hugging Face 上最受欢迎的模型(图片来源:Hugging Face)

可以说,用户情绪已从 Meta 转向了来自中国、德国和英国的更广泛参与者。

英伟达与硬件因素

可以说,AI热潮中出现的最大故事之一就是英伟达——这家芯片设计公司曾以其游戏显卡而闻名,如今已能 充分利用对用于训练和运行AI模型的GPU需求的激增。如今,英伟达是迄今为止全球市值最高的上市公司,其市值在 去年曾达到超过5万亿美元的峰值

然而,硬件只是故事的一部分。英伟达一直在 向上层堆栈推进,开发自己的软件、模型和工具,旨在塑造AI系统的构建和部署方式——此举是为了将开发者更紧密地绑定到其生态系统中。

在 Hugging Face 上,这种推动也体现在该公司不断增长的代码库数量上。到2025年底,英伟达已 在该平台建立了超过350个代码库——超过了任何其他被追踪的组织——反映了其贡献随时间稳步增加。

英伟达在 Hugging Face 存储库数量中居首

英伟达在 Hugging Face 存储库数量中居首(图片来源:Hugging Face)

这种增长很大程度上反映了英伟达近期如何将其影响力从硬件扩展到软件和模型层。这包括其 Nemotron 模型家族以及 NemoClaw 等项目,后者是一个用于AI代理的开源平台。

现实情况是,大多数AI模型仍然设计为在英伟达GPU上运行。尽管对替代硬件的支持正在改善——包括AMD系统,以及 中国公司开发 的芯片越来越多——但生态系统的大部分仍然依赖英伟达的架构。

这种依赖性有助于解释英伟达为何在该领域投入巨资。该公司已制定了数百亿美元与AI基础设施相关的支出计划,包括 据报道未来五年260亿美元的投资 用于开发开源AI模型,这凸显了其业务与模型使用增长的紧密关系。逻辑很简单:如果这些模型是为英伟达硬件优化的,它们就会增强该公司对AI堆栈的更广泛控制。

与此同时,一些推动开源模型采用的中国公司也在努力减少对美国硬件的依赖。例如,阿里巴巴 一直在投资 专注于推理的芯片,旨在在国内数据中心运行开源模型。然而,这些努力仍处于早期阶段,尚未取代现有堆栈。

目前,这留下了一个明显的分界线。在模型层面,Hugging Face 数据显示中国开发者在产出和采用方面都在取得进展。但在基础设施层面,英伟达仍然是这些模型如何运行的核心。

这是一个来自云计算的熟悉故事:少数美国公司控制着大部分底层基础设施,尽管其他公司试图构建替代方案。 欧洲正在努力 减少对这些提供商的依赖,但 迄今为止成功有限

同样的担忧现在也出现在AI领域,它位于相同的云层之上。开源模型可能正在野火般蔓延,但归根结底,它们仍然运行在他人的机器上——无论哪个国家在引领潮流。