稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
分布式训练推理
订阅
avatar
小蹩脚
更多收藏集

微信扫码分享

微信
新浪微博
QQ

1篇文章 · 0订阅
  • 图解大模型训练之:数据并行下篇( DeepSpeed ZeRO,零冗余优化)
    在上篇介绍中,通讯负载不均的优化我们解释过了,但还遗留了一个显存开销问题:数据并行中,每个GPU上都复制了一份完整模型,当模型变大时,很容易打爆GPU的显存,那要怎么办呢?
    • 猛猿
    • 1年前
    • 1.0k
    • 点赞
    • 评论
    LLM 分布式
    图解大模型训练之:数据并行下篇( DeepSpeed ZeRO,零冗余优化)