直播预告| 7月27日 基于人类反馈的强化学习

74 阅读3分钟

强化学习人类反馈(RLHF)作为自然语言生成领域的新兴训练范式,被誉为大语言模型背后的“功臣”,其帮助在一般文本数据语料库上训练的大语言模型和复杂的人类价值观对齐。本质上,RLHF把人类反馈当作对应的奖励,然后使用强化学习算法,比如PPO,帮助大语言模型最优化其奖励,从而使得模型的输出更加贴近人类的偏好,与用户意图保持高度一致。然而,RLHF背后的基本原理是什么呢?在何种背景下被研究人员广泛关注和讨论?又是如何应用于大语言模型当中?未来的发展与挑战趋势如何?

本期报告将详细介绍大语言模型中RLHF设计方法及其技术路线,思考RLHF在大语言模型发展过程中的应用挑战,并分享对RLHF相关内容的深入研究。首先,我们将介绍大语言模型引入RLHF范式的背景,从强化学习基础框架出发来解答为何RLFH方法能够显著提高大语言模型生成内容的质量。其次,我们将详细讲解目前最新RLHF方法背后的原理,并介绍其技术发展路线。最后,我们将从亲身研究经历出发分享RLHF在大语言模型中的应用细节,并思考其未来发展与挑战。整个报告将完整地剖析RLHF技术方法,在前几期报告的基础上帮助大家进一步深入了解大语言模型相关前沿技术。

本期报告将于7 27 线上举办,届时由来自东北大学自然语言处理实验室的王成龙为我们带来 基于人类反馈的强化学习 报告,具体流程如下:

图片

本次直播将分为两部分进行,第一部分为报告分享环节,第二部分为Q&A环节。在直播过程中,小伙伴可以把问题发送到直播间中,并在Q&A环节与本期嘉宾深入探讨;未被回复的问题也可私信留言,在直播结束后我们会进行解答。

本系列直播作为公益知识分享活动,由东北大学自然语言处理实验室、小牛翻译联合推出,感谢AI科技评论、PaperWeekly、机器之心、并行科技对本次直播的大力支持,本次直播向所有听众免费开放,无需注册和报名缴费。参会观众可以在【视频号(ID:  小牛翻译云平台)、微博(ID:小牛翻译)、哔哩哔哩(ID:小牛翻译)、知乎(ID:小牛翻译云平台)、机器翻译学堂(school.niutrans.com/live)】观看直播,…

诚邀所有关注自然语言处理与大模型技术发展的朋友走进直播间,2023年7月27日(周四)18:30,我们期待与您的相遇!