国产GPU正在告别“纯研发投入”阶段,初步具备了规模化落地和自我造血的能力。
作者丨谢 俞
媒体丨算力网
4月26日,成立五年多的摩尔线程交出了新一份财报。数字出乎许多人意料:2025年营收15.05亿元,同比增长243.37%;2026年一季度营收7.38亿元,同比增幅155.35%。伴随营收增长而来的,是65.57%的高毛利率,以及经营亏损大幅收窄56.65%。
单看数据,似乎增速过于夸张,但如果将这些数字放到国产算力和AI大模型爆发的当下,你会发现事情没那么简单。它撕开了国产AI算力行业的一道口子——当外界还在争论国产GPU是否能从“能用”走向“好用”时,摩尔线程已经用实实在在的商业化落地给出了回答。
那么这份成绩单究竟成色几何?又是如何在激烈的算力竞争中杀出一条路?
对于一家硬科技芯片企业而言,营收增速从来不是孤立的数字。特别是在国产GPU赛道,许多企业至今仍深陷“高研发投入、零商业化”的泥沼。而摩尔线程2025年财报释放出的核心信号是:国产GPU正在告别“纯研发投入”阶段,初步具备了规模化落地和自我造血的能力。
首先,营收结构正从“依赖单一客户”向“多场景均衡分布”转变。
拆解15.05亿元的年收入构成,其增长并非单点突破,而是产品矩阵全面开花的结果。从云端的夸娥万卡集群,到边缘端的MTT AIBOOK算力本,再到覆盖互联网、工业制造、智慧教育等多行业的解决方案,多点开花支撑起了243%的暴涨。不仅如此,2026年一季度签订的6.6亿元智算集群大单,更直接印证了市场对其大规模交付能力的认可——万卡级集群订单不再只是停留在PPT上的概念,而是真金白银的入账。
其次,“高研发投入+快速减亏”的矛盾统一,彰显了规模效应。
2025年,摩尔线程的研发费用高达13.05亿元,占营收比重仍维持在86.68%的高位。这说明公司依然在以极高的强度筑牢技术护城河。但与此同时,其经营亏损却同比收窄了超过一半。这种看似矛盾的现象,本质上是产品规模化带来的边际成本递减。当单卡成本随着出货量摊薄,高毛利率(65.57%)开始反哺高昂的研发支出,企业的财务模型开始进入正向循环。
行业里有一个共识:国产芯片企业的商业化路径,通常要经历技术验证、小批量试产、大规模交付三个阶段,而每一步都伴随着极高的淘汰率。
摩尔线程能在成立五年后实现营收连续翻倍,本质上是在每一个关键节点都踩准了节奏:从推出首款GPU芯片,到实现“五年五代架构五颗芯片”的快速迭代,再到万卡级集群落地,每一步都在缩短与国际巨头的差距,也为商业化争取了宝贵的时间窗口。
在AI算力行业,有一个现实问题:单卡性能再强,如果无法在大规模集群中高效协同,就无法支撑万亿参数大模型的训练,最终只能停留在“实验室产品”阶段。这也是为什么英伟达的核心竞争力,从来不是单张H100,而是它构建的CUDA生态加上NVLink高速互联及大规模集群调度系统。
摩尔线程显然深谙此道。财报发布前后,其基于MTT S5000打造的夸娥万卡智算集群成为了行业焦点。抛开晦涩的名词,我们只需要看几个关键的工程指标:该集群实现了10Exa-Flops的浮点运算能力,在稠密大模型上训练算力利用率达到60%,线性扩展效率高达95%,有效训练时间占比超过90%。
这组数据翻译通俗点说就是,当集群规模从千卡扩展到万卡时,算力不会因为通信延迟、负载不均衡而大幅损耗。这对于需要长时间“喂数据”的大模型训练来说,是具有决定性的核心指标。
更关键的是,夸娥集群的落地,打破了行业对国产GPU“只能做推理、无法做训练”的刻板印象。此前,国内多数万卡级智算集群仍依赖海外芯片,而夸娥集群的交付,证明国产GPU已经具备支撑万亿参数大模型训练的全栈工程能力。行业数据显示,截至2025年底,中国已建成42个万卡级智算集群,而摩尔线程正在推进的十万卡级超大规模集群建设,目标正是瞄准未来更大规模的模型训练需求。
这场集群之战,表面拼的是算力规模,背后考验的却是全栈工程能力。从芯片架构、高速互联到系统级容错,任何一个环节的短板都会被万卡规模无限放大。
正如一位行业工程师所说:“单卡性能可以靠参数优化,但万卡集群的效率,靠的是对底层系统每一个细节的打磨——从驱动适配到网络拓扑,任何一个环节的短板都会被无限放大。”而这套全栈自主可控的系统,以及自研的MTLink高速互联技术,正是摩尔线程拉开与同行差距的关键壁垒。
对于国产GPU而言,硬件性能的提升或许能通过砸钱和堆人来解决,但软件生态的建设,却是一场比拼耐力的马拉松。英伟达的护城河,从来不是硬件本身,而是围绕CUDA构建的数百万开发者生态。谁能把这些顶尖的大脑拢在自己身边,谁才能笑到最后。
摩尔线程显然意识到了这一点。财报中一个容易被忽略却至关重要的数据是:其MUSA架构背后已经聚集了超过45万的开发者,这背后是实打实下载了SDK、跑过代码的活跃群体。
为了实现这一点,摩尔线程采取了一套务实的“兼容+适配”策略。
其MUSA架构实现了对CUDA生态的完整兼容,这意味着开发者无需大幅修改代码,就能将基于CUDA开发的模型迁移到MUSA平台,极大降低了迁移门槛。但真正的难点在于“Day-0适配”——即当主流大模型发布时,同步完成对国产GPU的适配。财报显示,摩尔线程已实现对DeepSeek、GLM、MiniMax、Kimi、Qwen等头部大模型的常态化Day-0适配。这背后是技术团队与模型厂商的深度协同,也是生态成熟度的重要标志。
除了技术层面的适配,摩尔线程还通过“摩尔学院”构建了产教融合的开发者成长体系,将前沿技术引入全国200余所高校。这种从高校到企业的人才培养路径,正是国产GPU生态长期繁荣的底座。毕竟,生态的本质是人的生态。只有足够多的年轻开发者在求学和入行阶段就熟悉了国产GPU的底层逻辑,未来才会有更多基于国产算力开发的应用跑起来。
行业里有一个共识:国产GPU的生态追赶,需要至少5-10年的持续投入。摩尔线程成立至今,始终保持着超过80%的研发投入占比,这种长期主义的坚持,正在慢慢开花结果。从开源软件库到TileLang-MUSA编程语言支持,再到多智能体框架适配,摩尔线程正在从底层到上层构建完整的软件栈,而45万开发者,正是这个生态中最宝贵的种子用户。
更值得注意的是,生态建设也正在反哺商业化。当更多开发者基于MUSA架构开发应用,摩尔线程的产品就能渗透到更多细分场景,从互联网大厂的模型训练,到工业制造的AI质检,再到智慧教育的个性化学习。应用场景的拓展又反过来推动硬件架构的迭代,从而形成良性的商业闭环。
结语
把摩尔线程的财报放到整个半导体产业的显微镜下,我们能看到更多。过去几年,国产GPU厂商经历了从“概念验证”到“产品落地”的艰难爬坡,而摩尔线程的营收暴涨,标志着行业终于叩开了“规模化商业化”的大门。
但清醒地看,国产GPU与国际巨头代差依然存在。
虽然在技术层面英伟达的Hopper架构和Blackwell架构依然在性能上保持领先,其生态壁垒更是难以短期突破。但国产GPU的优势,正在于对国内市场需求的深刻理解和快速响应。比如,夸娥集群针对国内大模型训练的特点进行优化,MTT AIBOOK算力本面向智能体时代的开发需求,这些都是海外厂商难以快速跟进的。
更重要的是,宏观环境的天平正在向国产算力倾斜。2026年政府工作报告明确提出实施超大规模智算集群等新基建工程,而国内已建成的42个万卡级集群中,国产芯片的渗透率正在快速攀升。政策支持、市场需求和技术突破的三重合力,为国产GPU创造了难得的时间窗口。
总之,这家成立仅五年的公司用一份硬核的财报证明了:国产GPU不是仅仅作为替代的“备胎”,而是真真切切能支撑起大规模AI训练的算力底座。在算力之争这场没有硝烟的持久战中,摩尔线程趟出了一条路,而这条路,或许正是中国半导体产业打破垄断的必经之途。