首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
微调
订阅
houchenll
更多收藏集
微信扫码分享
微信
新浪微博
QQ
3篇文章 · 0订阅
大模型训练中优化策略(数据并行、模型并行、ZeRO等)
大模型训练中的优化策略简述,包括数据并行、模型并行、ZeRO。首先分析显存占用,然后分析这些操作的原理。
大模型分布式训练并行技术(四)-张量并行
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,传统的单机单卡
使用微调定制属于自己的大模型
模型效果差?输出不够稳定?本文将介绍大模型微调原理与实践以及所适用的场景。试试用微调定制属于自己的大模型吧。