如何快速掌握一个行业?100个关键词就够了,跟我来一起学习吧:一天一个关键词-AIGC-100天
微调使用 「一问一答」的格式,即有标注的训练数据,在基于原有模型参数上进行有监督学习,来让模型更清楚地知道什么样的输入下他应该给予什么样的输出,按照训练数据里的模式进行学习。
大模型先通过预训练学习基础知识,再通过微调让模型学会基于它通过预训练已经学会的知识,学习如何去根据用户指令输出正确适当的内容。
我能用微调定制什么?
- 设置风格、语气、格式等定性方面:
- 场景举例:创建一个语音对话机器人,不通过提示词的方式,让模型模型输出的内容尽可能精简(如50字以内)。
- 大模型智能Code Review,通过打标过的优质数据使得大模型 Review 输出更加有效和高质量的结果。
- 提高生成预期输出的可靠性:
- 将天气查询的需求转换为 JSON 请求参数,通过大量示例作为微调训练数据提升输出 JSON 的信息抽取的效果,并降低输出非法 JSON 内容的概率。
- 要求大模型只输出代码块,即使通过提示词告诉模型只能一次性输出代码块且不添加任何解释,但大模型偶尔也会输出解释和多个代码块。此时用一些少量微调数据可以改善这些问题。
- 提升效果
- 使用大模型生成 Pandas 数据分析和可视化代码。大模型本身理解 Pandas 代码的编写,但是编写准确率在一些场景下可能不是特别高,通过一系列经过打标正确的训练数据提升大模型理解用户需求编写 Pandas 代码的效果和正确率。
- 比较复杂的,有大量任务说明的提示词。
- 比如将用户的一段描述转换为一个甚至多个接口请求参数,需要在提示词里添加大量说明文档和样例。
- 减少 Token 占用
- 就像上面的例子,在提示词里添加大量文档说明,使用按 Token 计费的模型如 GPT4 会显得很贵。同时较少的 Token 能获得更快的推理速度。
可以使用微调来让大模型新增知识吗?
不推荐,在需要有可信依据的场景上,比如构建智能客服机器人,通常会使用 RAG 的方式配合向量搜索等方式从文档库搜寻与用户询问问题最为相关的内容,并将匹配到的文档段落作为知识内容添加到提示词中,大模型使用提示词中的知识来回答用户的问题。
微调改善的是大模型在某种模式下的表现(如风格,准确度,幻觉问题等)。虽然微调也能一定程度上记忆新增的知识,但由于微调是改变模型的参数结构,使得模型在生成新 token 时输出与训练数据模式更相似的内容。从输出准确度上来说是不如在提示词中添加的知识内容。
微调方式
在大模型预训练参数上进行参数微调训练,有三种方式:
-
全参数微调,即完全监督微调,在所有参数层上根据标注数据去调整原始预训练模型中的 QKV 参数层。
-
LoRA,即 LLM 的低秩适配(Low-Rank Adaptation),通过两个较小的矩阵来拟合调整后的参数层,这个过程可以理解为 X + Z = Y ,其中 X 为原始参数,Y 为训练之后的参数,训练过程中就是寻找可以将 X 拟合为 Y 的 Z 矩阵。Z 矩阵由 两个较小的 Wa 矩阵 和 Wb 矩阵组成。
-
QLoRA, 与 LoRA 方式类似,也是训练两个拟合参数层来达到对原始模型的调整。区别在于为了节省训练硬件资源, QLoRA 会先将原始模型参数量化至 4-bit 并冻结,然后添加一小组可学习的低秩适配器权重( Low-rank Adapter weights),这些权重通过量化权重的反向传播梯度进行调优,在量化之后的参数上进行 LoRA 训练,这将大幅下降显存的占用(33b 的模型 以 FP16 全量加载需消耗 80GB 显存,量化至 4 bit之后模型加载仅需要 20 GB 左右显存的占用)
总结
- 只经过预训练的大模型只是一个单纯的「文本续写」模型,通过微调训练可以让大模型更好地执行与训练数据模式类似的任务。
- 使用「示例」的方式在提示词中添加有标注数据也能改善模型效果,但是会存在 token 占用多,响应速度变慢的问题。
- 使用 LoRA 高效微调的方式可以有效降低模型训练使用硬件资源。
- 通过「种子任务」的方式让 GPT4 或其他模型编写和提示词类似的数据可以更加高效地生成训练数据