- 为什么要增量预训练?
- 进行 增量预训练 需要做哪些准备工作?
- 增量预训练 所用 训练框架?
- 增量预训练 训练流程 是怎么样?
- 增量预训练 一般需要多大数据量?
- 增量预训练 过程中,loss 上升正常么?
- 增量预训练 过程中,lr 如何设置?
- 增量预训练 过程中,warmup_ratio 如何设置?
- warmup 的步数对大模型继续预训练 是否有影响?
- 学习率大小对大模型继续预训练 后 上下游任务影响?
- 在初始预训练中使用 Rewarmup 对大模型继续预训练性能影响?
大模型(LLMs)增量预训练篇
- 为什么要增量预训练?
有一种观点,预训练学知识,指令微调学格式,强化学习对齐人类偏好,LIMA 等论文算是这一观点的证据。所以要想大模型有领域知识,得增量预训练。(靠指令微调记知识不靠谱,不是几十w 条数据能做到的。) - 进行增量预训练 需要做哪些准备工作?
模型底座选型
主流是 LLaMA,因为 scaling 法则,可能LLaMA 做了充分预训练。(当然有版权问题)这里备选BLOOM,感觉基座比 LLaMA 差,但是也有 7B 版本。
Falcon、CPM-bee、Aquila、Baichuan 待实验,license 友好,但生态和效果都是问题。其实,因为结构上都类似LLaMA,未来估计会出现整合这些模型的项目。
(Falcon 公布的训练语料中没有中文)这里没列 ChatGLM 和 ChatGLM2,因为有种说法在 SFT 模型上增量预训练效果比较差。(未证实)
数据收集
这里最经典的开源预训练数据还是wudao 的 200G 和 thepile 这两个数据集(怀念一下 Open-
Llama)加起来有 1T 的文本量,足够前期玩耍了。
其实,刚开始实践的时候,不需要太多样本,先收集 GB 量级的领域文本跑通流程即可。
数据清洗
当然这里数据治理可能是 chatgpt 魔法的最关键的部分,最基础的是把网页爬取数据中的广告清理掉。Falcon 论文里介绍了数据清洗的手段,对于我们很有参考意义。 - 增量预训练 所用训练框架?
超大规模训练
如果是真大规模炼丹,那没什么好说的,直接 3D 并行。
Megatron-Deepspeed 拥有多个成功案例,炼 LLaMA 可以参考LydiaXiaohongLi 大佬的实现。
(实在太强)
github.com/microsoft/M…
炼 BLOOM 可以直接找到Bigscience 的 git 仓库。然而,转 checkpoint 还是挺费劲的。
少量节点训练
小门小户一共就几台机器几张卡的话,3D 并行有点屠龙术了。
张量并行只有在nvlink 环境下才会起正向作用,但提升也不会太明显。可以分 2 种情况:
单节点或者多节点(节点间通信快):直接 deepspeed ZeRO 吧。(笔者用了 linly 的增量预训练代码,但有能力的最好用其他代码)比如,Open-Llama 的 fork 版本。
github.com/RapidAI/Ope…
多节点(但节点间通信慢):考虑用流水线并行,参考另一个大佬的实现。
github.com/HuangLK/tra…
少量卡训练
如果资源特别少,显存怎么也不够,可以上LoRA。 github.com/shibing624/… - 增量预训练 训练流程 是怎么样?
数据预处理
参考LLaMA 的预训练长度,也把数据处理成 2048 长度(如果不够,做补全)这里要吐槽,tencentpretrain 数据处理脚本的默认长度竟然是 128。
分词器
有很多工作加LLaMA 中文词表,但是考虑到没有定论说加中文词表会更好,先用原版的吧,
500k 的 tokenizer.model。
github.com/ymcui/Chine…
原始模型
可以使用一个中文增量预训练后的版本,当然这里坑挺大的,各家框架的模型层名不太一样。为了快速跑通,用脚本快速转一下,能成功加载就行。
训练参数
如果显存不够,可以 zero3+offload。其他参数暂时默认吧。(事实上没有想象中慢)多机的话可以配一下 deepspeed 的 hostfile。
观测训练进展
这一点可能是最重要的,跑通只是第一步,根据训练情况反复调整比较重要。 可以使用wandb,记录 loss,flops,吞吐速度,已消耗的 token 数,和测试ppl。
模型转换
不同框架的checkpoint 格式不同,还会根据并行度分成很多个文件。以 ZeRO 为例,我的转换流程(很挫)是:
zero to f32 f32 to fp16
fp16 to huggingface 格式
模型测试
转为标准huggingface 格式后可以用各种支持llama 的前端加载,比如 text-generation-webui。可以简单测试下续写能力,验证下模型是否正常。
至此,我们获得了 1 个增量预训练过的大模型基座。 - 增量预训练一般需要多大数据量?
首先要确保你有足够大量的数据集,至少有几B 的 token;否则几十条数据的情况我更推荐模型微调。 - 增量预训练过程中,loss 上升正常么?
通常增量预训练开始的阶段会出现一段时间的 loss 上升,随后慢慢收敛。 - 增量预训练过程中,lr 如何设置?
学习率是一个很重要的参数,因为 lr 的大小会出现以下问题:
如果 lr 过大,那 loss 值收敛会更困难,旧能力损失的会更大;如果 lr 过小,那可能难以学到新知识。
当你数据集比较小(例如 100B 以下?),那建议使用较小的学习率。例如可以使用 pre-train阶段最大学习率的 10%。通常 7B 模型 pre-train 阶段的学习率大概是 3e-4,所以我们可以选择 3e-5。
并且需要根据你的 batch size 做相应缩放。通常 lr 缩放倍数为 batch size 倍数的开方。例如
batch size 增大 4 倍,学习率对应扩大 2 倍即可。 - 增量预训练过程中,warmup_ratio 如何设置?
warmup_ratio 也很重要。通常 LLM 训练的 warmup_ratio 是 epoch * 1%左右。例如 pre-train
阶段一般只训一个 epoch,则 ratio 是 0.01;SFT 通常 3 个 epoch,ratio 对应为 0.03。
但是如果做CPT,建议 warmup_ratio 调大一点。如果你的数据集很大,有几百 b,那 warmup其实不影响最重的模型效果。但通常我们的数据集不会有那么大,所以更小的 ratio 可以让模型“过渡”得更平滑。
学习率和warmup_ratio 是两个相辅相成的概念,二者通常是成正比的关系。或者说如果你正在用一个较大的学习率,那你或许可以同时尝试增加 warmup 来防止模型“烂掉”。 - warmup 的步数对大模型继续预训练是否有影响?
warmup 介绍:warmup 是一种 finetune 中常用的策略,指学习率从一个很小的值慢慢上升到最大值;
对比实验设计:使用 不同 4 种不同预热步数(eg:0%, 0.5%, 1%, 2%)来进行实验。不同预热百分比步数的性能图,上图为下游任务 loss,下图为上游任务 loss
实验结果:当模型经过「充分」训练后,不管多长的预热步数最后的性能都差不多。
注:但,这种前提是「充分训练」,如果只看训练前期的话,使用更长的预热步数(黄色的线),无论是「上游任务」还是「下游任务」,模型的 Loss 都要比其他预热步数要低(下游学的快,上游忘的慢)。
- 学习率大小对大模型继续预训练后上下游任务影响?
对比实验:使用了 4 种不同的最大学习率进行对比实验实验结论:
经过充分训练后,学习率越大(紫色),下游性能最好,上游性能最差(忘得最多)。
未经过预训练的模型(蓝色)无论是上游任务还是下游任务,都不如预训练过的模型效果。注:前期训练,尽管紫色线条在最后的 loss 是最低的,但在前期 loss 会增加的非常大,随后下降。
解释一下这里为什么这么关注训练前期,是因为在真实训练中,我们可能不一定会增强图中所示的 250B 这么多的 tokens,尤其是在模型参数很大的情况中。所以,当资源不允许充分训练的情况下,较小的学习率和较长的 warmup 步数可能是一个不错的选择。
- 在初始预训练中使用 Rewarmup 对大模型继续预训练性能影响?
对比实验:不切换数据集,而是继续在之前的「预训练数据集(The Pile)」上继续训练:
实验结果:无论使用多大学习率的 warmup 策略,效果都不如使用常量学习率。
这进一步证明,在原数据集上使用 warmup 接着训练会造成性能损伤,学习率越大则损伤越大,且这种损伤是无法在后续的训练中被找回的。
注:PS:这里提示我们,当预训练中遇到了训练中断需要继续训练时,我们应该在重新开始训练时将学习率恢复到中断之前的状态(无论是数值还是衰减率)。