知乎中场时刻 × GMI Cloud高赞回答2 | 回顾2025的科技行业,你认为哪一件「事」或哪一个「成果」是重要节点?

34 阅读9分钟

摘要

知乎最近的项目 “AI 中场时刻” ,汇聚了众多科技行业一线从业者、研究者,对 AI 行业开展年度联合复盘。本文为 GMI Cloud 首席产品专家 Archie Xu 在  “回顾 2025 的科技行业,你认为哪一件「事」或哪一个「成果」是重要节点?” 问题下的作答,从 AI 基础设施的业务视角切入,分享了极具参考价值的独到见解。

图片

01

DeepSeek-R1 出圈

如果说非要为 2025 的 AI 圈找一个标志性事件,那么我相信毋庸置疑,非 2025 年春节前发布的 DeepSeek-R1 莫属。

DeepSeek-R1 的发布,可谓行业地震,今天看来,其最重要的价值如下:

  • 开源推理模型---超越一众闭源商业模型产品,拿到 SOTA,让开源模型不如闭源模型的言论就此戛然而止。

  • 中国开源模型---让美国 AI 领先中国几代的言论不攻自破。

  • 技术突破---FP8 权重、基于强化学习(RL)的训练、混合专家(MoE)架构、思维链(CoT)生成过程。

  • 成本突破---使用成本不足同级别 openAPI o1 的十分之一,而训练成本更是低到二十分之一。

  • 人才突破---DeepSeek 核心团队成员 95%均为国内高校本土培养的人才,且年轻有朝气。

应该说,DeepSeek-R1 在 2025 年的春节期间持续发酵,让大家第一次认识了 DeepSeek 背后的灵魂人物梁文锋,以及背后的母公司幻方量化。

我相信很多人会有一个疑问,为什么 DeepSeek 来自于这家公司,而不是传统的国内大厂呢(事实证明,2025 下半年国内厂商也非常给力),作为 AI 行业从业者,这里我说说我当时的一个感受:

  • 不缺资源:幻方量化是国内最早基于 GPU 算力进行量化交易的公司,并且在算力遇到瓶颈后,投入巨资建立自己的算力平台,称为“萤火一号”。

  • 不缺钱:幻方量化自持资金比例非常高,在好的量化交易算法驱动下,公司本身利润丰厚,不要像很多大模型公司一样,需要依赖融资来输血,而是自己具备造血能力。

  • 不缺理念:量化交易公司是典型的技术驱动型的公司,因此在不缺钱并且拥有自建算力平台能力的基础上,进入未来科技的制高点-AI 深度学习领域是顺势而为。

  • 不缺人才:金融公司本身就是人才精英聚集地,又是量化交易平台,技术人才的积累足够。

  • 不缺耐心:对于科技产品研发而言,如果资源足够,耐住性子,一步一个脚印向前努力,那么必然能够量变到质变,结出丰硕成果。

与之相对,对于 AI 大模型创业公司,这些条件都不具备,而对于传统大厂而言,面向业绩考核的产品研发也相形见绌。

DeepSeek-R1 的出圈,在春节后的直接影响是:朋友圈刷屏的 DeepSeek 一体机产品如雨后春笋般层出不穷。其原因很简单,由于 DeepSeek-R1 开源,因此让很多不具备模型研发能力的厂商都能够分享 SOTA 级别的大语言模型,从而进入模型应用市场来分一杯羹。

不知道大家还记不记得,各大厂商针对 DeepSeek 宣传中出现频率最高的一个词是什么?没错,就是“满血版”,即没有经过信息蒸馏(Distilled)和权重量化(Quantization)的 DeepSeek 版本,这个版本最大的优势是保留了顶尖的模型能力,但是劣势是需要足够多的显存才能被装载运行。

“满血版”DeepSeek-R1 运行时需要的显存容量超过 800GB,只有配备单卡 141GB 的 GPU 服务器才能单节点装载运行,而这个特性也导致 H20 141G 版本的 GPU 服务器在春节之后洛阳纸贵,一机难求。

除了“满血版”,DeepSeek 官方还一并发布了蒸馏后的 70B/32B/14B/8B/7B/1.5B 小模型,其中 32B 版本具备“满血版”90%的能力,也正因此,国内掀起了如何使用消费级显卡,如 4090 来运行 32B deepseek-r1 的风潮。

我有幸,也参与到这股潮流中,作为一个以售卖基础设施资源为主的产品团队 leader,那一段时间,团队干的最多的就是如何将各种大小的 DeepSeek-R1 模型运行起来。

一开始,团队成员对于蒸馏&量化也是一脸懵逼,4090 单卡+Ollma+Chatbot UI+32B Q4 是我们最早的方案,随着不断地学习和理解,70B,SGLang,Open WebUI、AnythingLLM、Cherry Studio 各种模型、引擎、WebUI 的组合被迭代发布;最后,当团队拿到 H20 141GPU 服务器的时候,“满血版”也成了我们的囊中之物。

在这期间,我印象深刻的是两件事:

1、定期参加市场部的视频号直播,由于我团队每次都有新迭代上线,我一度成为市场部炙手可热的常驻嘉宾,而直播也让我有了全新的人生体验。

2、SGLang 推理引擎的高速发展,这个用于运行“满血版”DeepSeek-R1 的开源推理引擎的更新速度可谓日新月异,几乎是三天一个小更新,七天一个大更新,所带来的单发和并发的推理能力的增长速度令人咂舌。每次发布新版本,意味着相同的硬件和模型,其所能输出的 TPS 能力飞速提升,而单 Token 的成本直线下降。

02

文生图/图生图进入 ComfyUI 时代

除了 DeepSeek 的横空出世,对于我而言,2025 年上半年印象深刻的莫过于 ComfyUI。

我真正接触文生图软件的时间较晚(2024 年),现在看来,主要原因是我不是一个二次元爱好者。

那时,最成熟的文生图/图生图软件莫过于 SD-webUI,最成熟的社区是 Civitai。促使我学习并了解文生图软件的原因也很简单,因为我团队当时要打造一个基于消费级显卡的应用市场,而文生图应用就是这个市场最大的应用场景,而背后的商业模式本质是卖 GPU 算力资源。

为了推广产品,我团队还和一位知名设计师签订了独家协议,帮助该设计师开发培训课程软件,而回报则是设计师的课程和学员则独家使用我开发的算力应用平台进行后续的教学。

起初,设计师团队是规划基于 SD-webUI 来进行教学培训的,然后就在培训课程正式上线前,设计师团队改变初衷,基于 ComfyUI 进行教学培训。

于此同时,我为了增强产品知名度,邀请外部知名文生图网红来制作培训课程,免费在公司的自媒体平台发布,而网红制作培训课程使用的也正是 ComfyUI。

随着我对 SD-webUI 和 ComfyUI 了解的越来越深入,我也终于了解为什么大家会转向使用 ComfyUI 而不是 SD-webUI。

简单来说,两者最大的不同就是 ComfyUI 是基于“工作流”来进行文生图创作,如果只需要简单的通过提示词进行文生图创作,那么 SD-webUI 足以,但是如果想对生图过程进行强干预,那么基于“工作流”的 ComfyUI 就成为你的首选,因为你可以通过控制工作流中的节点来精确干预并控制文生图的过程,从而实现更复杂,更具创意的图片。

另外,我当时感触最深的就是,ComfyUI 的工作流可以直接导出为 Json 文件,并支持 API 调用,非常适用于生成环境部署使用,比如通过创建工作流支持对特定场景(如电商)图片的修改,在调试正确后,通过导出并部署工作流就可以将这个功能以 API 的形式交付客户使用,这是 SD-webUI 完全不具备的能力。

事实上,由于 ComfyUI 这种基于工作流的模块设计,它早已不局限于文生图/图生图领域,通过加载三方节点插件,已经可以支持文生视频和视频编辑的能力。

关于 GMI Cloud

由 Google X 的 AI 专家与硅谷精英共同参与创立的 GMI Cloud 是一家领先的 AI Native Cloud 服务商,是全球六大 Reference Platform NVIDIA Cloud Partner 之一,拥有遍布全球的数据中心,为企业 AI 应用提供最新、最优的 GPU 云服务,为全球新创公司、研究机构和大型企业提供稳定安全、高效经济的 AI 云服务解决方案。

GMI Cloud 凭借高稳定性的技术架构、强大的GPU供应链以及令人瞩目的 GPU 产品阵容(如能够精准平衡 AI 成本与效率的 H200、具有卓越性能的 B200、GB300 以及未来所有全新上线的高性能芯片),确保企业客户在高度数据安全与计算效能的基础上,高效低本地完成 AI 落地。此外,通过自研“Cluster Engine”、“Inference Engine”两大平台,完成从算力原子化供给到业务级智算服务的全栈跃迁,全力构建下一代智能算力基座。

作为推动通用人工智能(AGI)未来发展的重要力量,GMI Cloud 持续在 AI 基础设施领域引领创新。选择 GMI Cloud,您不仅是选择了先进的 GPU 云服务,更是选择了一个全方位的 AI 基础设施合作伙伴。

如果您想要了解有关 GMI Cloud 的信息

请关注我们并建立联系