01 RLHF是什么?
RLHF 是一种结合强化学习(Reinforcement Learning)和人类反馈(Human Feedback)的技术,用于优化大语言模型(如ChatGPT)的输出,使其更符合人类的偏好和价值观。
简单来说,就是让模型通过人类的“打分”或“评价”来学习如何生成更优质、更安全、更符合预期的回答。
02 为什么需要RLHF?
大模型(如GPT-3)在预训练阶段通过海量文本数据学会了语言规律,但它生成的回答可能是:
不安全的(如包含偏见、有害内容);
不准确的(如编造事实);
不符合人类偏好(如冗长、逻辑混乱)。
问题根源: 预训练模型通过预测下一个词(语言建模)学习统计规律但缺乏对人类价值观、安全边界、具体任务需求的理解。
RLHF的核心目标: 就是通过人类反馈,将模型的输出“对齐”(Align)到人类期望的方向。
03 RLHF的关键流程
RLHF通常分为三个阶段:监督微调(SFT))→奖励模型训练(RM)→强化学习微调(PPO)。下面详细解释:
阶段1: 监督微调(Supervised Fine-Tuning,SFT)
目标: 让模型初步学会如何生成符合要求的回答。
方法:
a.收集人类标注的“高质量问答对”(例如,一个问题对应一个人类撰写的理想答案)。
b.用这些数据对预训练模型进行监督微调(类似传统的分类任务)。
效果: 模型初步具备生成合理回答的能力,但可能还不够稳定或符合人类偏好。
阶段2: 训练奖励模型(Reward Model,RM)
目标: 训练一个能自动给回答打分的模型,代替人类实时反馈。
方法:
a.收集人类对多个回答的偏好排序(例如,对同一个问题,标注哪个回答更好)。
b.训练一个奖励模型(RM),输入问题和回答,输出一个分数(奖励值),分数越高代表回答越好。
关键点:
RM通常基于预训练模型(如GPT-3)微调得到。
训练时使用对比学习:让RM学会区分高质量和低质量回答。
阶段3: 强化学习微调(Proximal Policy Optimization,PPO)
目标: 用强化学习优化模型策略,生成高分回答。
方法:
a.固定奖励模型(RM),将其作为“评分器”。
b.初始模型(SFT后的模型)生成回答,RM给出奖励分数。c.通过强化学习(如PPO算法)更新模型参数,最大化奖励分数的期望值。
关键点:
为了防止模型“走偏”(如过度优化奖励模型偏好而忽略语言0流畅性),通常会加入KL散度约束(限制新模型与原模型的差异);需要多次迭代优化。
04 RLHF解决了什么问题?
对齐问题(Alignment Problem) : 让模型的目标(生成高分回答)与人类价值观对齐。
数据效率: 相比直接收集大量标注数据,RLHF通过奖励模型自动生成反馈,降低人工成本。
动态优化: 通过强化学习持续调整模型策略,适应复杂的人类偏好。
05 RLHF的挑战
人类反馈的成本: 标注高质量偏好数据需要大量人力。
奖励模型的设计: 如果奖励模型不完善(例如过度优化“政治正确”而忽略事实性),可能导致模型生成“看似合理但错误”的内容
探索与利用的平衡: 强化学习中模型可能陷入局部最优(例如重复生成高奖励但单调的回答)。