首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
coting
掘友等级
算法工程
公众号👉coting
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
6
文章 6
沸点 0
赞
6
返回
|
搜索文章
最新
热门
面试官:Transformer如何优化到线性级?
面试官:我们来聊聊Transformer吧,Transformer的复杂度为什么这么高?有什么办法能优化到线性级吗? 面对这种原理与优化问题,其实都是有模板的,下面我们来看一看该怎么回答。
LongCat-Flash:美团出手,国产卡上跑出的「闪电级」大模型
最近,美团开源的 LongCat-Flash 彻底炸了 AI 圈。 它用 国产算力 完成了一个 5600 亿参数的大模型训练
大模型分布式训练框架对比与实践
训练大规模深度学习模型不仅依赖优化器和硬件,还需要高效的训练框架。不同框架在功能、性能和易用性上各有特点,针对 GPU/TPU、多节点分布式训练和混合精度计算有不同的支持策略。
Horovod 与 NCCL 的分布式通信优化详解
在大模型训练中,通信效率直接影响训练吞吐量和扩展性。本文将浅浅介绍一下 Horovod 与 NCCL 的通信原理、性能瓶颈以及集群部署优化技巧。
Zero Redundancy Optimizer (ZeRO) 系列解析
在大模型训练中,显存瓶颈是制约模型规模的重要因素。DeepSpeed 推出的 Zero 系列,通过将模型状态(参数、梯度、优化器状态)分布到不同GPU 上,实现显著的显存优化。
模型并行训练策略:张量并行、流水线并行与混合并行
随着模型参数量快速增长,超过单张 GPU 显存承载能力的情况越来越常见。对于超大规模模型(如百亿参数以上),仅靠数据并行已无法训练。这时,模型并行(Model Parallelism) 应运而生。
数据并行训练实践:PyTorch&TensorFlow
在训练中等规模到大型深度学习模型时,单块GPU可能无法充分利用计算资源或处理足够的数据批次。数据并行是一种简单且高效的并行训练策略,通过在多张GPU上复制模型副本并分批处理数据,实现训练加速和性能优化
分布式训练原理与基础架构解析
随着大模型规模不断增长,单卡训练已经无法满足计算和存储需求。分布式训练成为模型训练的必备手段,从底层硬件基础架构到梯度同步与优化器机制,每一环节都直接影响训练效率和收敛效果。
数据并行VS模型并行VS混合并行
随着深度学习模型规模不断增大,从几亿参数到上百亿甚至千亿参数,单块GPU已经难以承载模型训练的显存和计算需求。为了突破显存限制、提升训练速度,研究者提出了多种并行训练策略。
AI模型部署:从容器化到云原生架构
训练好的AI模型如果不能快速、稳定、弹性地部署到生产环境,那么再高的准确率也只是“实验室成果”。在实际工程中,我们需要应对多环境兼容、弹性伸缩、版本迭代、资源调度与监控等挑战。
下一页
个人成就
文章被点赞
21
文章被阅读
12,774
掘力值
1,479
关注了
4
关注者
9
收藏集
0
关注标签
23
加入于
2025-05-27