首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
RLHF
订阅
用户56162120250
更多收藏集
微信扫码分享
微信
新浪微博
QQ
5篇文章 · 0订阅
LLM中的强化学习:PPO、DPO、KTO等
LLM中的强化学习:PPO、DPO、KTO等。 为什么要用强化学习训练、强化学习算法发展脉络、常见的强化学习算法:PPO、DPO、KTO等等
DeepSeek 成功的数学原理与实践
今天我们来回顾一下**群体相对策略优化 (GRPO)**背后的数学原理,这是 DeepSeek 强大推理能力的核心强化学习算法。我将一一分析 GRPO 的工作原理、关键组成部分,以及它为何能颠覆大型语
DeepSeek 背后的数学原理:深入探究群体相对策略优化 (GRPO)
GRPO动机 什么是 GRPO? 群体相对策略优化 (GRPO,Group Relative Policy Optimization) 是一种强化学习 (RL) 算法,专门用于增强大型语言模型 (LL
DeepSeek 关键技术详解
一、DeepSeek 系列模型的技术创新 表1. DeepSeek 关键技术一览 1. DeepSeek MoE 架构 图1. DeepSeek MoE 框架示意图 图1选自DeepSeek-Moe报
深入剖析 deepspeed-chat 中 RLHF 的 PPO 算法代码细节
本文深入剖析 deepspeed-chat 开源项目中关于 RLHF 中的 PPO 算法代码细节,欢迎讨论学习