大家好,我是吾鳴。
今天吾鳴要给大家分享的是一份DeepSeek报告,来自浙江大学的公开课,解读的是DeepSeek模型的优势,分别从算力、成本角度对DeepSeek进行解读,大家是否也很好奇,为何DeepSeek突然就火了,它的优势是什么,这份报告将会解答你的疑惑。报告一共23页PPT,文末附上完整版下载地址。
内容摘要
- 引言与背景
介绍讲座主题(从算力与成本角度分析DeepSeek模型优势)、作者信息及时间背景(浙江大学,2025年2月)。 - 算力基础与发展
-
- 概念:算力定义为信息计算、存储与传输能力的综合。
- 历史演进:从大脑、草绳算力工具到现代计算机,对比原生算力与外部工具的特点。
- 计算机算力阶段:大型机、PC、云计算、AI时代的算力需求变化,AI时代算力不足成为核心挑战。
- AI大模型算力与成本分析
-
- 算力需求:基于OpenAI的扩展法则,提出万亿参数模型的计算量估算(如计算次数达(10^{25})量级)。
- 硬件成本对比:对比华为910B与英伟达H800的算力、显存、成本等指标,分析训练万亿模型的资源需求(如1000张H800需174天,成本2.5亿)。
- 大模型扩展法则(Scaling Law)
总结算力、数据集、参数量与模型效果的正相关关系,强调资本偏好确定性扩展规律(如“算力越大,效果越好”)。 - 国内外AI生态对比
-
- OpenAI模式:依赖融资、采购GPU、训练大模型、提供服务的循环,但盈利困难。
- 中国挑战:美国对AI芯片、光刻机、HBM存储等领域的出口限制,导致国内算力差距。
- 国内策略:通过算法优化(如MoE、MLA)和系统创新(自研框架、FP8训练)弥补算力短板。
- DeepSeek模型核心技术
-
- DeepSeekMoE:混合专家架构(1共享+256路由专家),降低激活参数至5.5%,显著减少计算量。
- MLA(低秩压缩) :减少KV缓存93.3%,提升推理效率。
- 系统优化:自研轻量级框架DualPipe、PTX指令级优化、通信与计算重叠技术,突破CUDA生态限制。
- 国内模型现状与未来展望
-
- 现状:DeepSeek V3以低成本(557万美元)接近国际模型性能,但算力受限下追赶难度增加。
- 展望:呼吁突破工艺卡脖子(如中芯国际、华为),结合“战术穿插”(算法优化)与“火力覆盖”(算力提升),实现AI领域自主竞争力。
- 结语
强调讲座的科普性质,对不严谨之处致歉,并表达对中国AI工业化能力的信心。
精彩内容
报告无套路下载地址:kdocs.cn/l/ci1DfElGC…