一文读懂为何各大厂争相部署 DeepSeek

165 阅读7分钟

DeepSeek 是 2023 年 11 月在中国一家小公司诞生的,那时候公司还不到 100 号人。其实可以想象,GPT 在 2022 年火遍全球之后,到 2023 年,各种类似 DeepSeek 的 AI 产品已经多得数不过来了。但就是在这种情况下,DeepSeek 一出来就已经能和 GPT 相提并论了,挺让人惊讶的。

所以到了 2024 年,我就把一直在用的 GPT 和 New Bing 全都换成了 DeepSeek。对我来说,用 AI 的目的很明确:编程、文字处理、再加上问答。当时 DeepSeek 是分成两个产品的,一个是聊天(DeepSeek Chat),另一个是写代码用的(DeepSeek Coder)。那会儿聊天那部分还不支持图片,只能处理文字。

不过用了没多久,我就能明显感觉到,DeepSeek 在国内的表现已经跟 GPT 差不多了。而且比起国内其它几家 AI,DeepSeek 的回答靠谱多了,不胡说八道,信息很聚焦,也不废话,基本不用我二次修改。

到2024年底DeepSeek v3版本发布并且开源。在国内特别是在国内AI行业,大多数以闭源为主,不单单是AI行业其它行业闭源的也占主要地位。国内环境大多数企业和个人都还是在为生活而奔波,对于代码来说都是严格保密的。不少公司上网、电子设备都是严格管控的。

而DeepSeek作为一家小公司

第一,DeepSeek v3中的核心算法能大大降低AI训练对芯片的消耗。当时就不少博主有说要地这个算法被大范围的认证和应用那么DeepSeek肯定要火起来,当时在2024年底DeepSeek还并没有被大家所认知或熟悉,很多人都还不知道中国有个DeepSeek

第二,在国内芯片被国外限制的时候,国内芯片资源是非常的紧缺的。DeepSeek开源自己芯片资源的算法及DeepSeek源代码。无疑DeepSeek这一举动在推动整个国内AI水平及人们对DeepSeek使用的透明度与放心度大大的提升。对于大多数人来说都是在使用互联网版的AI,那么大家自然会担心自己信息的资材的泄露,它开源后不少有资源的人对于隐私信息就可以自己私有化部署使用了。

到2025年初就有人提出DeepSeek是国运级成果。就是冯骥在自己的微博上发文,建议大家都可以去使用DeepSeek,他也说了DeepSeek的很多优点。

然后就是DeepSeek登顶全球苹果免费下载排行榜榜首。在国内很多人使用或者说是知道DeepSeek是在DeepSeek r1发布后并登顶后被大多数人知道了。不少公司开会或闲聊都会说说大家有没有使用ds,当然也有不少人会问ds是什么。甚至使用DeepSeek已经成为当时一种炫耀,但不少炫耀的人都以为DeepSeek是2025年也诞生的。

从这时开始DeepSeek就时不时的服务器繁忙了。很多人特别是一些搞技术的人常常会聊说以前用用好好的DeepSeek自从火爆后就用不了了。

其它上面的大家不知道DeepSeek的诞生、DeepSeek服务器繁忙等等也从另一个面说明DeepSeek没有花太多钱在广告和推广上,而是把大多的资金投入到研发创新上。从服务器繁忙上更能看出它被大家的认同。作为一个国内不出名的小企业来说要提供一个供全球用户使用的稳定的服务所需要的资源会是一个巨大的天文数字。

下面就来分类看看DeepSeek到底是怎么样的产品:

DeepSeek企业(国内一家小企业)

DeepSeek是一家2023年成立的企业,2023年7月的注册资金是100万人民币,2023年8月是1000万人民币,而头部企业无不是几十亿的注册资本。

如GPT的openai公司注册资本60多个亿美元,最新的消息它融资后可达到上千亿美元,这是DeepSeek的10来万倍。当然有消息说DeepSeek了在融资。另外GPT更是背靠着星际之门计划,远在2016年黄仁勋就将全球首台装备了8块英伟达P100芯片的超级计算机DGX-1送到了OpenAI。它在2018年就已经发布了GPT-1的版本。

而DeepSeek就是这么一家小企业在国内企业纷纷放弃AI创新转向AI应用的赛道。

可以看到DeepSeek的版本发布都是对标GPT,在大环境如此的情况下,DeepSeek不忘初心,坚持创新这份毅力。

DeepSeek团队(无国外名校背景)

DeepSeek团队大概100多人,其中80%为研发人员其余的为市场和运营人员,平均年龄28岁,成员85%以上拥有硕士学位,40%以上有博士学位,大多毕业于清、北等国内院校都没有国外名校背景。

而开发出ChatGPT的OpenAI公司近2000人的大公司,还有像马斯克、奥特曼这些重量级大佬人物。团队成绝大多数拥有名校学历,且具有全球知名企业工作经历,如谷歌、微软、Facebook等等,并且成员大多数毕业于全球著名高校如斯坦福大学、加州大学、麻省理工、剑桥、哈佛等。

DeepSeek技术(技术创新)

据说DeepSeek梁文峰在公司尽量让员工保留自己的个性,如果员工有什么想法会调动公司资源支撑他。或许这也是他们保持创造力的初心所在。

在技术上DeepSeek使用了混合专家模型(MoE) ,这使得AI使用的训练成本大大的降低了。原本需要调动所有的专家网络,而DeepSeek只需要调动部分专家子网络。

另一个比较大的技术创新点就是绕过了英伟达的CUDA生态限制,在AI爆发的时代最大的赢家肯定就是英伟达的黄仁勋,而DeepSeek的兴起让英伟达的股票大跌。DeepSeek让国产芯片在AI领域也占有一席之地。

DeepSeek开源(开源AI)

说到开源AI模型,其实DeepSeek并不是第一个,

哪么为什么其它开源没DeepSeek火呢?

DeepSeek开源后,国内各大厂纷纷自建DeepSeek,提供满血版DeepSeek。最早是360、后面知乎、百度、腾讯都给大家提供了免费的满血版DeepSeek

而在国内最早阿里的通义千问、清华的智谱清言等都是开源AI模型,它们为什么没有像DeepSeek这样让很多大厂直使用开源的DeepSeek。主要还是在于DeepSeek的开放度更高,虽然都是开源但开源的程度还是会有所不同的。另外一个原因就是DeepSeek的确是在训练算法上有技术上的创新,节省芯片资源、提高训练效率。