RLHF是什么?为什么需要RLHF?RLHF的关键流程是什么?

126 阅读3分钟

01 RLHF是什么?

RLHF 是一种结合强化学习(Reinforcement Learning)和人类反馈(Human Feedback)的技术,用于优化大语言模型(如ChatGPT)的输出,使其更符合人类的偏好和价值观。

图片

AI大模型学习资源【点击蓝字获取】

简单来说,就是让模型通过人类的“打分”或“评价”来学习如何生成更优质、更安全、更符合预期的回答。

02 为什么需要RLHF?

大模型(如GPT-3)在预训练阶段通过海量文本数据学会了语言规律,但它生成的回答可能是:

不安全的(如包含偏见、有害内容);

不准确的(如编造事实);

不符合人类偏好(如冗长、逻辑混乱)。

图片

问题根源: 预训练模型通过预测下一个词(语言建模)学习统计规律但缺乏对人类价值观、安全边界、具体任务需求的理解。

RLHF的核心目标: 就是通过人类反馈,将模型的输出“对齐”(Align)到人类期望的方向。

图片

03 RLHF的关键流程

RLHF通常分为三个阶段:监督微调(SFT))→奖励模型训练(RM)→强化学习微调(PPO)。下面详细解释:

阶段1: 监督微调(Supervised Fine-Tuning,SFT)

目标: 让模型初步学会如何生成符合要求的回答。

方法:

a.收集人类标注的“高质量问答对”(例如,一个问题对应一个人类撰写的理想答案)。

b.用这些数据对预训练模型进行监督微调(类似传统的分类任务)。

效果: 模型初步具备生成合理回答的能力,但可能还不够稳定或符合人类偏好。

图片

阶段2: 训练奖励模型(Reward Model,RM)

目标: 训练一个能自动给回答打分的模型,代替人类实时反馈。

方法:

a.收集人类对多个回答的偏好排序(例如,对同一个问题,标注哪个回答更好)。

b.训练一个奖励模型(RM),输入问题和回答,输出一个分数(奖励值),分数越高代表回答越好。

图片

关键点:

RM通常基于预训练模型(如GPT-3)微调得到。

训练时使用对比学习:让RM学会区分高质量和低质量回答。

阶段3: 强化学习微调(Proximal Policy Optimization,PPO)

目标: 用强化学习优化模型策略,生成高分回答。

方法:

a.固定奖励模型(RM),将其作为“评分器”。

b.初始模型(SFT后的模型)生成回答,RM给出奖励分数。c.通过强化学习(如PPO算法)更新模型参数,最大化奖励分数的期望值。

图片

关键点:

为了防止模型“走偏”(如过度优化奖励模型偏好而忽略语言0流畅性),通常会加入KL散度约束(限制新模型与原模型的差异);需要多次迭代优化。

图片

04 RLHF解决了什么问题?

对齐问题(Alignment Problem) : 让模型的目标(生成高分回答)与人类价值观对齐。

数据效率: 相比直接收集大量标注数据,RLHF通过奖励模型自动生成反馈,降低人工成本。

动态优化: 通过强化学习持续调整模型策略,适应复杂的人类偏好。

图片

05 RLHF的挑战

人类反馈的成本: 标注高质量偏好数据需要大量人力。

奖励模型的设计: 如果奖励模型不完善(例如过度优化“政治正确”而忽略事实性),可能导致模型生成“看似合理但错误”的内容

探索与利用的平衡: 强化学习中模型可能陷入局部最优(例如重复生成高奖励但单调的回答)。