强化学习到大模型训练理论概要(二)

172 阅读8分钟

Lecture 5 Policy Gradient I

1. Policy Optimization

Value-based RL 学习的是 near-deterministic policy,但是 Policy-based RL 可以学习 the optimal stochastic policy。

  • 基于策略的强化学习是一个优化问题。
  • 寻找能够最大化 V(s0,θ)V(s_0, \theta) 的策略参数 θ\theta
无梯度策略优化 Gradient Free Policy Optimization
  • 举例 gradient free optimization
    • Hill climbing
    • Simplex / amoeba / Nelder Mead
    • Genetic algorithms
    • Cross-Entropy method (CEM)
    • Covariance Matrix Adaptation (CMA)
  • 通常是一个非常简单的基线方法,可以尝试使用
  • 优势
    • 可以用于任何策略参数化,包括不可微分的参数化。
    • 通常非常容易并行化。
  • 局限性
    • 通常样本效率较低,因为它忽略了temporal structure
Policy Gradient
  • Greater efficiency often possible using gradient
    • Gradient descent
    • Conjugate gradient
    • Quasi-newton
  • We focus on gradient descent, many extensions possible
  • And on methods that exploit sequential structure

Policy Gradient定义

  • Define Vπθ=V(s0,θ)V^{\pi_\theta} = V(s_0, \theta) to make explicit the dependence of the value on the policy parameters
  • Assume episodic MDPs
  • Policy gradient algorithms search for a local maximum in V(s0,θ)V(s_0, \theta) by ascending the gradient of the policy, w.r.t parameters θ\theta
    Δθ=αθV(s0,θ)\Delta \theta = \alpha \nabla_\theta V(s_0, \theta)
  • Where θV(s0,θ)\nabla_\theta V(s_0, \theta) is the policy gradient
θV(s0,θ)=(V(s0,θ)θ1V(s0,θ)θ2V(s0,θ)θn)\nabla_\theta V(s_0, \theta) = \begin{pmatrix} \frac{\partial V(s_0, \theta)}{\partial \theta_1} \\ \frac{\partial V(s_0, \theta)}{\partial \theta_2} \\ \vdots \\ \frac{\partial V(s_0, \theta)}{\partial \theta_n} \end{pmatrix}

这个公式表示的是策略梯度,它是一个向量,其中每个元素是价值函数 V(s0,θ)V(s_0, \theta) 关于参数 θi\theta_i 的偏导数。

  • α\alpha is a step-size parameter

Policy-Based RL优点和缺点

优点:

  1. 收敛性更好:基于策略的方法通常具有更好的收敛性质。
  2. 适用于高维或连续动作空间:在高维或连续动作空间中表现有效。
  3. 可以学习随机策略:能够学习随机策略,增加了策略的灵活性。

缺点:

  1. 容易陷入局部最优:通常会收敛到局部最优解而不是全局最优解。
  2. 策略评估(policy evaluation)效率低:评估一个策略通常是低效的,并且方差较高。

总结: 基于策略的强化学习方法在高维或连续动作空间中表现出色,并且能够学习随机策略。然而,它们容易陷入局部最优解,并且策略评估过程通常效率较低且方差较大。那么,接下来我们提出一些想法来解决这些局限性。

2. Differentiable Policy

Many choices of differentiable policy classes including:

  • Softmax
  • Gaussian
  • Neural networks
Value of a Parameterized Policy
  • Assume policy πθ\pi_\theta is differentiable whenever it is non-zero and we know the gradient θπθ(s,a)\nabla_\theta \pi_\theta(s, a).

  • Recall policy value is V(s0,θ)=Eπθ[t=0TR(st,at);πθ,s0]V(s_0, \theta) = \mathbb{E}_{\pi_\theta} \left[ \sum_{t=0}^{T} R(s_t, a_t); \pi_\theta, s_0 \right] where the expectation is taken over the states & actions visited by πθ\pi_\theta.

  • We can re-express this in multiple ways:

    • V(s0,θ)=aπθ(as0)Q(s0,a,θ)V(s_0, \theta) = \sum_a \pi_\theta(a | s_0) Q(s_0, a, \theta)
    • V(s0,θ)=τP(τ;θ)R(τ)V(s_0, \theta) = \sum_\tau P(\tau; \theta) R(\tau)
  • Where:

    • τ=(s0,a0,r0,,sT1,aT1,rT1,sT)\tau = (s_0, a_0, r_0, \ldots, s_{T-1}, a_{T-1}, r_{T-1}, s_T) is a state-action trajectory,
    • P(τ;θ)P(\tau; \theta) is used to denote the probability over trajectories when executing policy π(θ)\pi(\theta) starting in state s0s_0,
    • R(τ)=t=0TR(st,at)R(\tau) = \sum_{t=0}^{T} R(s_t, a_t) is the sum of rewards for a trajectory τ\tau.
  • To start will focus on this latter definition. See Chapter 13.1-13.3 of SB for a nice discussion starting with the other definition.

Likelihood Ratio Policies
  • Denote a state-action trajectory as τ=(s0,a0,r0,,sT1,aT1,rT1,sT)\tau = (s_0, a_0, r_0, \ldots, s_{T-1}, a_{T-1}, r_{T-1}, s_T)

  • Use R(τ)=t=0TR(st,at)R(\tau) = \sum_{t=0}^{T} R(s_t, a_t) to be the sum of rewards for a trajectory τ\tau

  • Policy value is V(θ)=Eπθ[t=0TR(st,at);πθ]=τP(τ;θ)R(τ)V(\theta) = \mathbb{E}_{\pi_\theta} \left[ \sum_{t=0}^{T} R(s_t, a_t); \pi_\theta \right] = \sum_{\tau} P(\tau; \theta) R(\tau)

  • where P(τ;θ)P(\tau; \theta) is used to denote the probability over trajectories when executing policy π(θ)\pi(\theta)

  • In this new notation, our goal is to find the policy parameters θ\theta: argmaxθV(θ)=argmaxθτP(τ;θ)R(τ)\arg \max_{\theta} V(\theta) = \arg \max_{\theta} \sum_{\tau} P(\tau; \theta) R(\tau)

Likelihood Ratio Policy Gradient

以下过程主要推导 score function 是怎么来的。

  • Goal is to find the policy parameters θ\theta:

    argmaxθV(θ)=argmaxθτP(τ;θ)R(τ)\arg \max_{\theta} V(\theta) = \arg \max_{\theta} \sum_{\tau} P(\tau; \theta) R(\tau)
  • Take the gradient with respect to θ\theta:

    θV(θ)=θτP(τ;θ)R(τ)\nabla_\theta V(\theta) = \nabla_\theta \sum_{\tau} P(\tau; \theta) R(\tau)
    =τθP(τ;θ)R(τ)= \sum_{\tau} \nabla_\theta P(\tau; \theta) R(\tau)
    =τP(τ;θ)P(τ;θ)θP(τ;θ)R(τ)= \sum_{\tau} \frac{P(\tau; \theta)}{P(\tau; \theta)} \nabla_\theta P(\tau; \theta) R(\tau)
    =τP(τ;θ)R(τ)θP(τ;θ)P(τ;θ)= \sum_{\tau} P(\tau; \theta) R(\tau) \frac{\nabla_\theta P(\tau; \theta)}{P(\tau; \theta)}
    =τP(τ;θ)R(τ)θlogP(τ;θ)= \sum_{\tau} P(\tau; \theta) R(\tau) \nabla_\theta \log P(\tau; \theta)
  • The term θP(τ;θ)P(τ;θ)\frac{\nabla_\theta P(\tau; \theta)}{P(\tau; \theta)} represents the likelihood ratio.

Decomposing the Trajectories Into States and Actions:

  • Approximate with empirical estimate for m m sample paths under policy πθ\pi_\theta:
    θV(θ)g^=(1/m)i=1mR(τ(i))θlogP(τ(i))\nabla_\theta V(\theta) \approx \hat{g} = (1/m) \sum_{i=1}^{m} R(\tau^{(i)}) \nabla_\theta \log P(\tau^{(i)})
θlogP(τ(i);θ)=θlog[μ(s0)t=0T1πθ(atst)P(st+1st,at)] \nabla_\theta \log P(\tau^{(i)}; \theta) = \nabla_\theta \log \left[ \mu(s_0) \prod_{t=0}^{T-1} \pi_\theta(a_t \mid s_t) P(s_{t+1} \mid s_t, a_t) \right]

where μ(s0)\mu(s_0) is the initial state distribution, πθ(atst)\pi_\theta(a_t \mid s_t) is the policy, P(st+1st,at)P(s_{t+1} \mid s_t, a_t) is the dynamics model.

=θ[logμ(s0)+t=0T1logπθ(atst)+logP(st+1st,at)] = \nabla_\theta \left[ \log \mu(s_0) + \sum_{t=0}^{T-1} \log \pi_\theta(a_t \mid s_t) + \log P(s_{t+1} \mid s_t, a_t) \right]
=t=0T1θlogπθ(atst) = \sum_{t=0}^{T-1} \nabla_\theta \log \pi_\theta(a_t \mid s_t)

where the θlogπθ(atst) \nabla_\theta \log \pi_\theta(a_t \mid s_t) represents the score function.

score function

在强化学习中,score function 是一个重要的概念,尤其是在策略梯度算法中。它用于帮助计算参数化策略的梯度,最终目的是最大化某种目标函数(例如累积奖励)。具体来说,score function 是关于模型参数 θ\theta 的对数概率的梯度。 公式上,score function 通常表示为:

θlogπθ(as)\nabla_\theta \log \pi_\theta(a \mid s)

其中:

  • πθ(as)\pi_\theta(a \mid s) 是在状态 ss 下选择动作 aa 的策略概率,通常由参数 θ\theta 控制。
  • θ\nabla_\theta 表示对参数 θ\theta 的梯度。
  1. 用途:在策略梯度方法中,通过计算策略的梯度来找到一组策略参数,以便最大化收益。通过对数概率的梯度,我们可以得到关于参数的更新方向。

  2. 对数简化:对数的导数转换了一些乘积规则为加法规则,计算上更为简便和稳定,特别是在处理小概率时。

  3. 无偏估计:score function 提供了一个无偏估计,用于评估策略改进的效果,通过结合样本轨迹的回报来进行参数更新。

在实际应用中,score function 是策略梯度定理的重要组成部分,是实现策略优化的重要工具。它允许我们利用采样的方法来估计策略参数的导数,从而进行策略改进。

Softmax Policy

核心思想是通过特征的线性组合对动作进行加权,并将动作的概率设置为该权重的指数化值的比例。这种策略特别适用于离散动作空间,以下是详细解释:

  1. 加权动作:动作是通过特征的线性组合来加权的,这里的特征表示为 ϕ(s,a)\phi(s, a)(代表状态 ss 和动作 aa 的特征),θ\theta 是一组可学习的参数:

    ϕ(s,a)Tθ\phi(s, a)^T \theta

    这种方式类似于线性分类器,通过参数 θ\theta 对特征进行线性加权,计算每个动作的权重。

  2. 动作概率:给定状态 ss 中选择动作 aa 的概率与其加权指数值成比例:

    πθ(s,a)=eϕ(s,a)Tθaeϕ(s,a)Tθ\pi_\theta(s, a) = \frac{e^{\phi(s, a)^T \theta}}{\sum_a e^{\phi(s, a)^T \theta}}

    这里,动作的选择概率是动作权重的 softmax 结果,将所有动作的指数化权重规范化。

  3. 评分函数(Score Function):针对该策略,评分函数描述了对数概率的梯度:

    θlogπθ(s,a)=ϕ(s,a)Eπθ[ϕ(s,)]\nabla_\theta \log \pi_\theta(s, a) = \phi(s, a) - \mathbb{E}_{\pi_\theta}[\phi(s, \cdot)]
    • ϕ(s,a)\phi(s, a) 是特征向量。
    • Eπθ[ϕ(s,)]\mathbb{E}_{\pi_\theta}[\phi(s, \cdot)] 是在给定状态 ss 下根据策略 πθ\pi_\theta 对所有动作的特征进行加权后的期望值。

这个评分函数的梯度用于更新策略参数,使得在每个状态下,被选择动作的特征相比于策略中其他潜在动作的特征得到更高的权重,从而改善动作选择的质量。利用这个梯度,策略可以被优化以最大化累积的未来期望奖励。

Gaussian Policy

一般在连续动作空间中使用高斯策略(Gaussian Policy):

  1. 高斯策略的使用场景

    • 在连续动作空间中,高斯策略是一种自然的选择。这是因为连续空间中动作的选择可以被建模为从一个高斯分布中采样。
  2. 平均值

    • 高斯策略的平均值 μ(s)\mu(s) 是状态特征 ϕ(s)\phi(s) 的线性组合,具体表示为:
      μ(s)=ϕ(s)Tθ\mu(s) = \phi(s)^T \theta
    • 这里,θ\theta 是参数向量,ϕ(s)\phi(s) 是所选状态 ss 的特征向量。
  3. 方差

    • 方差可能是固定的 σ2\sigma^2,也可以是参数化的,这意味着可以动态调整方差值来适应策略需要。
  4. 策略的形式

    • 动作 aa 按高斯分布采样:
      aN(μ(s),σ2)a \sim \mathcal{N}(\mu(s), \sigma^2)
    • 这意味着在给定状态 ss 下,动作 aa 是从均值为 μ(s)\mu(s),方差为 σ2\sigma^2 的高斯分布中生成的。
  5. 评分函数(Score function)

    • 高斯策略的评分函数用于优化策略参数,通过最大化某种目标(如期望回报),其表达式为:
      θlogπθ(s,a)=(aμ(s))ϕ(s)σ2\nabla_\theta \log \pi_\theta(s, a) = \frac{(a - \mu(s))\phi(s)}{\sigma^2}
    • 其中 (aμ(s))(a - \mu(s)) 表示当前动作与均值的偏差,ϕ(s)\phi(s) 是特征向量,方差 σ2\sigma^2 正常化梯度,这样可以指导参数 θ\theta 的更新。

这个公式表示了在参数化策略中,如何根据偏差调整参数来优化策略,即在期望情况下,鼓励选择比当前均值有更高回报的动作,从而改善策略的整体表现。

Likelihood Ratio / Score Function Policy Gradient

似然比+评分函数来优化策略参数:

  1. 总体目标

    • 目标是找到策略参数 θ\theta,这样可以最大化策略 πθ\pi_\theta 的价值函数 V(θ)V(\theta)。这一目标用公式表示为:
      argmaxθV(θ)=argmaxθτP(τ;θ)R(τ)\arg \max_{\theta} V(\theta) = \arg \max_{\theta} \sum_{\tau} P(\tau; \theta) R(\tau)
    • 这里,τP(τ;θ)R(τ)\sum_{\tau} P(\tau; \theta) R(\tau) 表示所有可能轨迹的加权回报的综合。
  2. 经验估计+score function

    • 为了估计策略梯度 θV(θ)\nabla_\theta V(\theta),使用了基于评分函数的经验估计方法:

      θV(θ)g^=(1/m)i=1mR(τ(i))θlogP(τ(i);θ)\nabla_\theta V(\theta) \approx \hat{g} = (1/m) \sum_{i=1}^{m} R(\tau^{(i)}) \nabla_\theta \log P(\tau^{(i)}; \theta)
      =(1/m)i=1mR(τ(i))t=0T1θlogπθ(at(i)st(i))= (1/m) \sum_{i=1}^{m} R(\tau^{(i)}) \sum_{t=0}^{T-1} \nabla_\theta \log \pi_\theta(a_t^{(i)} \mid s_t^{(i)})
    • 这一公式利用了似然比的性质,强调评分函数在策略优化中的重要性。

  3. 无需环境动态模型

    • 一个显著的优势是,这种方法不需要了解环境的动态模型。这意味着我们可以通过采样和经验轨迹来优化策略,而不需要明确建模环境的转移概率。

这种策略梯度方法通过对轨迹的回报进行加权平均,利用评分函数提供了对策略参数的无偏梯度估计,从而帮助优化策略以提升长期决策质量。它特别在高维或复杂环境下具有优势,因为不需要依赖对环境的明确建模。

策略梯度定理 Policy Gradient Theorem
  1. 策略梯度定理 Policy Gradient Theorem

    • 该定理是对似然比方法的广义化。它为从策略优化问题中求解策略梯度提供了一个正式框架,使得我们能够有效地更新策略以最大化累积奖励。
  2. 定理内容

    • 对于任何可微的策略 πθ(s,a)\pi_\theta(s, a),不论是针对episodic reward J1J_1、每个时间步平均奖励 JavRJ_{avR}、还是在折扣因子 γ\gamma 下的平均值 11γJavV \frac{1}{1-\gamma} J_{avV},策略梯度可以定义为:
      θJ(θ)=Eπθ[θlogπθ(s,a)Qπθ(s,a)]\nabla_\theta J(\theta) = \mathbb{E}_{\pi_\theta} [\nabla_\theta \log \pi_\theta(s, a) Q^{\pi_\theta}(s, a)]

公式解析:

  • θJ(θ)\nabla_\theta J(\theta):表示目标函数 J(θ)J(\theta) 相对于策略参数 θ\theta 的梯度。
  • Eπθ\mathbb{E}_{\pi_\theta}:意味着在策略 πθ\pi_\theta 下的期望值。
  • θlogπθ(s,a)\nabla_\theta \log \pi_\theta(s, a):这是评分函数,也叫对数概率的梯度,用于量化对动作选择的参数影响。
  • Qπθ(s,a)Q^{\pi_\theta}(s, a):代表特定状态-动作对的状态-动作价值函数(action-value function),即在给定策略下从状态 ss 采取动作 aa 开始所能获得的期望累积奖励。

应用意义:

  • 策略优化:策略梯度定理提供了直接优化目标函数的方法,通过按比例更新参数,可以逐步提高策略性能。
  • 灵活性:该定理适用于各种目标函数,无论是针对短期过程、平均奖励还是折扣累积值。

借助这一公式,策略迭代可以更加有效地进行,不仅利用样本路径的回报信息,而且通过价值函数的指导,形成更有导向性的优化。这在复杂环境或神经网络参数化策略中尤为关键,因为它允许通过估计与模拟来实现非线性决策策略的系统性优化。

3. Policy Gradient Algorithms and Reducing Variance

θV(θ)1mi=1mR(τ(i))t=0T1θlogπθ(at(i)st(i))\nabla_\theta V(\theta) \approx \frac{1}{m} \sum_{i=1}^{m} R(\tau^{(i)}) \sum_{t=0}^{T-1} \nabla_\theta \log \pi_\theta(a_t^{(i)} \mid s_t^{(i)})
  1. 公式

    • 公式表示了策略梯度的一个经验估计方法,其中通过 1m\frac{1}{m}次采样路径 τ(i)\tau^{(i)} 来近似 θV(θ)\nabla_\theta V(\theta)
    • θlogπθ(atst)\nabla_\theta \log \pi_\theta(a_t \mid s_t) 是策略对数的梯度,衡量采取某个动作 ata_t 的偏导效果。
    • R(τ(i))R(\tau^{(i)}) 是第 ii 个样本路径的总回报,作为每个路径在梯度更新中贡献的权重。
  2. 无偏但具有高噪声

    • 无偏性指的是这种估计方法在理论上可以准确反映阶梯度的期望值。然而,由于单路径回报和策略梯度计算的随机性,结果往往比较noisy。
  3. 实用改进方法

    • Temporal structure(时间结构):利用序列数据中的时间相关性可以减少噪声,比如通过平滑时间序列或者识别关键的时间依赖性。
    • Baseline(基线):引入基线可以减少回报的方差,通常通过从回报上减去一个适当的基线来加强稳定性和减少噪声,最常见的基线是状态值函数的估计。
    • Alternatives to MC Returns

通过这些改进,策略梯度的实际实现变得更为可操作和稳定,从而能够更有效地优化策略在复杂环境中的表现。

Temporal Structure
  1. 回顾之前

    • 初始的策略梯度估计针对的是整个回报的期望 θEτ[R]\nabla_\theta \mathbb{E}_\tau[R],可以通过以下公式来表示:
      θEτ[R]=Eτ[(t=0T1rt)(t=0T1θlogπθ(atst))]\nabla_\theta \mathbb{E}_\tau[R] = \mathbb{E}_\tau \left[ \left( \sum_{t=0}^{T-1} r_t \right) \left( \sum_{t=0}^{T-1} \nabla_\theta \log \pi_\theta(a_t \mid s_t) \right) \right]
    • 这表明我们在考虑整个轨迹的所有奖励和相应的策略对数梯度。
  2. 时间结构的使用

    • 可以将相同的方法应用于单个奖励项 rtr_{t'},以获得一个单独的奖励梯度估计:
      θE[rt]=E[rtt=0tθlogπθ(atst)]\nabla_\theta \mathbb{E}[r_{t'}] = \mathbb{E} \left[ r_{t'} \sum_{t=0}^{t'} \nabla_\theta \log \pi_\theta(a_t \mid s_t) \right]
    • 通过这种方式,我们能够在计算中显式地表达时间结构。
  3. 累加以得到完整的策略价值梯度

    • 通过对上述公式在所有时间步 tt 上进行累加,我们得到完整的策略梯度:
      V(θ)=θE[R]=E[t=0T1rtt=0tθlogπθ(atst)]V(\theta) = \nabla_\theta \mathbb{E}[R] = \mathbb{E} \left[ \sum_{t'=0}^{T-1} r_{t'} \sum_{t=0}^{t'} \nabla_\theta \log \pi_\theta(a_t \mid s_t) \right]
    • 进一步简化为:
      =E[t=0T1θlogπθ(at,st)t=tT1rt]= \mathbb{E} \left[ \sum_{t=0}^{T-1} \nabla_\theta \log \pi_\theta(a_t , s_t) \sum_{t'=t}^{T-1} r_{t'} \right]
    • 这一形式表达了累积奖励作为未来时间步回报的和。
  4. 具体轨迹的回报

  • 对于特定轨迹 τ(i)\tau^{(i)},其累积回报为 Gt(i)G_t^{(i)}
    θE[R](1/m)i=1mt=0T1θlogπθ(at,st)Gt(i)\nabla_\theta \mathbb{E}[R] \approx (1/m) \sum_{i=1}^{m} \sum_{t=0}^{T-1} \nabla_\theta \log \pi_\theta(a_t, s_t) G_t^{(i)}
  • 这体现了通过蒙特卡罗模拟(MC)对期望回报的估计,把时间结构用于策略局部梯度计算以改进策略模型。

应用优势:

  • 时间依赖结构:通过显式表达时间依赖结构,可以更直观地理解每个动作和状态对未来奖励的微影响,从而进行更细致的参数调整。
  • 增量更新:利用这种方式,策略优化可以通过增量更新来实现,更好地捕捉时间相关性和动态变化因素,提升策略在复杂环境中的适应能力。

这种方法能够使策略的学习更为精细化,针对每一个时间步评估并运用其长期影响,更有效地优化策略,以实现更高效的任务执行。

Monte-Carlo Policy Gradient (REINFORCE)

利用似然比(likelihood ratio)/评分函数(score function)+ 时间结构(Temporal Structure)来更新策略参数:

  1. 似然比 / 评分函数

    • θlogπθ(st,at)\nabla_\theta \log \pi_\theta(s_t, a_t) 被称为对数似然梯度或者评分函数,这部分是策略梯度方法的核心。
    • 它衡量了策略参数 θ\theta 如何影响在状态 sts_t 下选择动作 ata_t 的概率,提供了参数调整的方向。
  2. 时间结构

    • 算法利用了时间序列数据的结构,即每个动作在时间线上如何对后续回报产生影响。
    • 这个结构在累积回报的设定中起关键作用。回报 GtG_t 表示从当前时间 tt 到episode结束的总累积回报。
  3. 更新公式Δθt=αθlogπθ(st,at)Gt\Delta \theta_t = \alpha \nabla_\theta \log \pi_\theta(s_t, a_t) G_t 是策略参数更新的公式。

    • 其中,α\alpha 是学习率,控制参数更新的步长。
    • 通过这个更新公式,算法以 GtG_t 为权重来调整 θ\theta,选择时将更高的累计回报放在优先考虑的更新方向上。

实质:

  • 该公式结合了从当前策略 πθ\pi_\theta 生成的样本路径信息进行策略更新,其中每个动作的选择不仅考虑了即时影响,还内含了其对后续整个情节的影响。
  • 通过使用似然比和时间结构,这种方法能够无偏地估计策略梯度,并通过样本生成的回报信息进行直接的、渐进的策略改进。

最终,这种方法提供了一种有效的路径优化机制,使策略参数在梯度方向上更快收敛,提升了策略在环境中的表现。

Baseline

引入基线的主要目的是减少梯度估计中的方差,同时保持无偏性。这为策略的更新提供了更稳定和高效的方式。

  1. 方差减少

    • 图中显示了使用基线 b(s)b(s) 以减少梯度估计的方差。基线函数仅依赖于状态 sts_t,这可以是任意的,但常常选择为一个好的基线值以最小化方差。
  2. 无偏性

    • 对于任何基线选择,梯度估计保持无偏。这意味着引入基线不会改变梯度估计的期望值,仅仅是减少了结果的方差。
  3. 基线选择

    • 近最佳的基线选择是预期的后续回报:
      b(st)E[rt+rt+1++rT1]b(s_t) \approx \mathbb{E}[r_t + r_{t+1} + \ldots + r_{T-1}]
    • 将基线选为期望回报是因为它提供了实际回报和期望回报之间的对比,从而改善优化的稳定性。
  4. 阐释

    • 动作 ata_t 的对数概率的增加与实际回报 t=tT1rt\sum_{t'=t}^{T-1} r_{t'} 超出预期回报的程度成比例。即,当实际回报高于预期回报时,增加增加动作发生的概率。

不引入偏差的证明:

Eτ[θlogπθ(atst;θ)b(st)]\mathbb{E}_\tau \left[ \nabla_\theta \log \pi_\theta(a_t \mid s_t; \theta) b(s_t) \right]
  • 期望值 Eτ[θlogπθ(atst)b(st)]\mathbb{E}_\tau [ \nabla_\theta \log \pi_\theta(a_t \mid s_t) b(s_t) ] 在整个轨迹上的预期值为零,这证明了基线不引入偏差。
  • 这是因为:任何关于状态的函数对更新方向并无影响,因为在梯度更新中,它被乘以一个与梯度无关的项。

计算流程:

状态值函数可作为基线

  1. Q 函数Qπ(s,a)Q^\pi(s, a)

    • 它表示在策略 π\pi 下,从状态 ss 开始并采取动作 aa 后能期望获得的累积回报。
    • 数学表达式为:
      Qπ(s,a)=Eπ[r0+γr1+γ2r2+s0=s,a0=a]Q^\pi(s, a) = \mathbb{E}_\pi \left[ r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots \mid s_0 = s, a_0 = a \right]
    • 其中,γ\gamma 是折扣因子,用于衡量未来回报的重要性。
  2. 状态值函数 Vπ(s)V^\pi(s)

    • 表示在状态 ss 下,根据策略 π\pi 继续采取行动时所期望的累积回报。
    • 数学表达式为:
      Vπ(s)=Eπ[r0+γr1+γ2r2+s0=s]V^\pi(s) = \mathbb{E}_\pi \left[ r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots \mid s_0 = s \right]
    • 也可以通过对所有可能动作的 Q 值求期望得到:
      Vπ(s)=Eaπ[Qπ(s,a)]V^\pi(s) = \mathbb{E}_{a \sim \pi}[Q^\pi(s, a)]
  3. 状态值函数作为基线:

    • 在策略梯度方法中,状态值函数 Vπ(s)V^\pi(s) 可用作基线以减少方差,这样能够使策略更新更稳定。
    • 使用 Vπ(s)V^\pi(s) 作为基线能够帮助分离普遍的奖励期望和特定动作的优越性。

总结:

  • 引入基线可以显著减少策略梯度方法中的方差从而加速学习过程。
  • 尽管基线的选择可以是任意的,选择一个合适的基线如状态价值的估计,可以更好地稳定学习过程。
  • 在实际应用中,选取合适的基线是策略优化中一个重要且有效的技巧。
Alternatives to MC Returns (Actor-critic Methods)

根据上面Temporal Structure 和 Baseline,我们可以得到如下公式: 策略梯度公式

θE[R]1mi=1mt=0T1θlogπθ(at,st)(Gt(i)b(st))\nabla_\theta \mathbb{E}[R] \approx \frac{1}{m} \sum_{i=1}^{m} \sum_{t=0}^{T-1} \nabla_\theta \log \pi_\theta(a_t, s_t) \left(G_t^{(i)} - b(s_t)\right)

Gt(i)G_t^{(i)}无偏但是方差高。那么问题来了,能不能寻找一个替代,来替代 Monte Carlo 回报 Gt(i)G_t^{(i)} 作为由 θ\theta 参数化的策略的期望折现回报和的估计值? 答案:Actor-critic Methods

Lecture 6 Policy Gradient II

1. Actor-critic Methods

  • V/QV/Q 的估计是由评论家(critic)完成的。
  • 演员-评论家(actor-critic)方法保持策略 policy 和价值函数 value function 的明确表示,并同时更新这两者。
  • A3C(Mnih 等在 ICML 2016年提出)是一个非常流行的演员-评论家方法。

使用价值函数的策略梯度公式

  • 回顾:

    θEτ[R]=Eτ[t=0T1θlogπ(atst;θ)(t=tT1rtb(st))]\nabla_\theta \mathbb{E}_\tau[R] = \mathbb{E}_\tau \left[ \sum_{t=0}^{T-1} \nabla_\theta \log \pi(a_t \mid s_t; \theta) \left( \sum_{t' = t}^{T-1} r_{t'} - b(s_t) \right) \right]
    θEτ[R]Eτ[t=0T1θlogπ(atst;θ)(Q(st,at;w)b(st))]\nabla_\theta \mathbb{E}_\tau[R] \approx \mathbb{E}_\tau \left[ \sum_{t=0}^{T-1} \nabla_\theta \log \pi(a_t \mid s_t; \theta) \left( Q(s_t, a_t; \mathbf{w}) - b(s_t) \right) \right]
  • 让基线成为价值 VV 的估计,我们可以使用 state-action advantage function 状态-动作优势函数来表示梯度

θEτ[R]Eτ[t=0T1θlogπ(atst;θ)A^π(st,at)] \nabla_\theta \mathbb{E}_\tau[R] \approx \mathbb{E}_\tau \left[ \sum_{t=0}^{T-1} \nabla_\theta \log \pi(a_t \mid s_t; \theta) \hat{A}^\pi(s_t, a_t) \right]
  • 其中,state-action advantage function Aπ(s,a)=Qπ(s,a)Vπ(s)A^\pi(s, a) = Q^\pi(s, a) - V^\pi(s)

Choosing the Target: N-step estimators

θV(θ)1mi=1mt=0T1R^t(i)θlogπθ(at(i)st(i))\nabla_\theta V(\theta) \approx \frac{1}{m} \sum_{i=1}^{m} \sum_{t=0}^{T-1} \hat{R}_t^{(i)} \nabla_\theta \log \pi_\theta(a_t^{(i)} \mid s_t^{(i)})
  • 请注意,评论家可以选择任何时间差分(TD)和蒙特卡罗(MC)估计器的混合,以替代真实的状态-动作值函数。
R^t(1)=rt+γV(st+1)\hat{R}_t^{(1)} = r_t + \gamma V(s_{t+1})
R^t(2)=rt+γrt+1+γ2V(st+2)\hat{R}_t^{(2)} = r_t + \gamma r_{t+1} + \gamma^2 V(s_{t+2}) \quad \ldots
R^t(inf)=rt+γrt+1+γ2rt+2+\hat{R}_t^{(\text{inf})} = r_t + \gamma r_{t+1} + \gamma^2 r_{t+2} + \cdots
  • 如果从上述表达式中减去基线,则得到优势估计器:
A^t(1)=rt+γV(st+1)V(st)\hat{A}_t^{(1)} = r_t + \gamma V(s_{t+1}) - V(s_t)
A^t(inf)=rt+γrt+1+γ2rt+2+V(st)\hat{A}_t^{(\text{inf})} = r_t + \gamma r_{t+1} + \gamma^2 r_{t+2} + \cdots - V(s_t)

解决方案:A^t(1)\hat{A}_t^{(1)} 具有低方差和高偏差,A^t()\hat{A}_t^{(\infty)} 具有高方差但低偏差。

2. Policy Gradients 的问题

策略梯度回顾 策略梯度算法尝试通过对策略参数 θ\theta 进行随机梯度上升来解决优化问题:

maxθJ(πθ)=˙Eτπθ[t=0γtrt]\max_\theta J(\pi_\theta) \dot{=} \mathbb{E}_{\tau \sim \pi_\theta} \left[ \sum_{t=0}^{\infty} \gamma^t r_t \right]

使用策略梯度:

g=θJ(πθ)=Eτπθ[t=0γtθlogπθ(atst)Aπθ(st,at)].g = \nabla_\theta J(\pi_\theta) = \mathbb{E}_{\tau \sim \pi_\theta} \left[ \sum_{t=0}^{\infty} \gamma^t \nabla_\theta \log \pi_\theta(a_t | s_t) A^{\pi_\theta}(s_t, a_t) \right].

策略梯度的局限性:

  1. 样本效率低:策略梯度方法往往需要大量样本才能取得有效的学习。
  2. 参数空间的距离 ≠ 策略空间的距离
    • 什么是策略空间?对于表格情况,策略空间是矩阵的集合:
    Π={π:πRS×A,aπsa=1,πsa0}\Pi = \left\{ \pi : \pi \in \mathbb{R}^{|S| \times |A|}, \sum_{a} \pi_{sa} = 1, \pi_{sa} \geq 0 \right\}
    • 策略梯度在参数空间内采取步进。
    • 因此,步长的设置很难准确把握。

策略梯度的样本效率

  • 对于原始策略梯度方法来说,样本效率很低。
  • 在进行一步梯度更新后立即丢弃每一批次的数据。
  • 为什么?因为策略梯度是一种依赖当前策略的期望值。
  • 获取无偏策略梯度估计的两种主要方法:
    • 从当前策略采集样本轨迹,然后形成样本估计。(更稳定)
    • 使用其他策略的轨迹。(较不稳定)
  • 机会:在使用新策略收集更多数据之前,利用旧数据进行多次梯度更新。
  • 挑战:即便可以使用旧数据来估计多个梯度,应该进行多少步更新?

策略梯度选择步长 策略梯度算法是随机梯度上升:

θk+1=θk+αkg^k\theta_{k+1} = \theta_k + \alpha_k \hat{g}_k

其中步长 Δk=αkg^k\Delta_k = \alpha_k \hat{g}_k

  • 如果步长太大,可能会导致性能崩溃。
  • 如果步长太小,进展会变得不可接受的慢。
  • “合适的”步长大小是基于 θ\theta 变化的。 像advantage normalization 或 Adam 风格的优化器这样的自动学习率调整可以有所帮助。但这是否解决了问题?

图中展示了 x 轴上的策略参数和 y 轴上的性能。一个错误的步进可能导致性能崩溃,而这可能很难恢复。

这张图的内容翻译如下:

问题不仅仅是步长

考虑一个具有以下参数化形式的策略族:

πθ(a)={σ(θ)a=11σ(θ)a=2\pi_\theta(a) = \begin{cases} \sigma(\theta) & a = 1 \\ 1 - \sigma(\theta) & a = 2 \end{cases}

其中 σ(θ)\sigma(\theta) 是逻辑函数,即 11+eθ\frac{1}{1 + e^{-\theta}}

图中展示了不同 θ\theta 值时 π(aθ)\pi(a|\theta) 的效果:

图中描述了在策略参数发生小变化时,策略可能会意外地发生巨大变化。

重要问题:

如何制定一个更新规则,以确保策略的变化不会超过预期?

3. Policy Performance Bounds

两个策略的相对性能 在策略优化算法中,我们希望更新步长:

  • 尽可能高效地使用从最近的策略收集的 rollout 数据。
  • 在策略空间中采取尊重策略空间距离的步长,而不是参数空间的距离。

为了找出正确的更新规则,我们需要利用两个策略之间性能的关系。

Performance difference lemma 性能差异引理:

我们要求你证明,对于任何策略 π\piπ\pi'

J(π)J(π)=Eτπ[t=0γtAπ(st,at)]=11γEsdπ,aπ[Aπ(s,a)]J(\pi') - J(\pi) = \mathbb{E}_{\tau \sim \pi'} \left[ \sum_{t=0}^{\infty} \gamma^t A^\pi (s_t, a_t) \right] = \frac{1}{1 - \gamma} \mathbb{E}_{s \sim d^{\pi'}, a \sim \pi'} \left[ A^\pi(s, a) \right]

其中,

dπ(s)=(1γ)t=0γtP(st=sπ)d^\pi(s) = (1 - \gamma) \sum_{t=0}^{\infty} \gamma^t P(s_t = s \mid \pi)

这有什么用? 我们能否将其用于策略改进,其中 π\pi' 表示新策略,而 π\pi 表示旧策略?

maxπJ(π)=maxπ(J(π)J(π))\max_{\pi'} J(\pi') = \max_{\pi'} \left( J(\pi') - J(\pi) \right)
=maxπEτπ[t=0γtAπ(st,at)]= \max_{\pi'} \mathbb{E}_{\tau \sim \pi'} \left[ \sum_{t=0}^{\infty} \gamma^t A^\pi (s_t, a_t) \right]

这具有启发性,但目前还不够实用。 这个优化问题的一个优点是:它定义了 π\pi' 的性能,以 π\pi 的 advantage 为依据! 但也存在问题:依然需要从 π\pi' 中采样轨迹…… 我们的目标:仅从 π\pi 的数据中估计 J(π)J(\pi')

重要性采样 根据 discounted future state distribution , dπd^\pi 定义为:

dπ(s)=(1γ)t=0γtP(st=sπ),d^\pi(s) = (1 - \gamma) \sum_{t=0}^{\infty} \gamma^t P(s_t = s \mid \pi),

我们可以重新表述相对策略性能等式:

J(π)J(π)=Eτπ[t=0γtAπ(st,at)]J(\pi') - J(\pi) = \mathbb{E}_{\tau \sim \pi'} \left[ \sum_{t=0}^{\infty} \gamma^t A^\pi (s_t, a_t) \right]
=11γEsdπ,aπ[Aπ(s,a)]= \frac{1}{1 - \gamma} \mathbb{E}_{s \sim d^{\pi'}, a \sim \pi'} \left[ A^\pi(s, a) \right]
=11γEsdπ,aπ[π(as)π(as)Aπ(s,a)]= \frac{1}{1 - \gamma} \mathbb{E}_{s \sim d^{\pi'}, a \sim \pi} \left[ \frac{\pi'(a|s)}{\pi(a|s)} A^\pi(s, a) \right]

最后一步是重要性采样 (importance sampling) 的一个实例(下次将详细讨论这个)。 那么!现在我们唯一的问题是 sdπs \sim d^{\pi'}

一个有用的近似 如果我们直接假设 dπdπd^{\pi'} \approx d^\pi 并不对此进行担心,会是什么结果呢?

J(π)J(π)11γEsdπ,aπ[π(as)π(as)Aπ(s,a)]J(\pi') - J(\pi) \approx \frac{1}{1 - \gamma} \mathbb{E}_{s \sim d^\pi, a \sim \pi} \left[ \frac{\pi'(a|s)}{\pi(a|s)} A^\pi(s, a) \right]
=˙Lπ(π)\dot{=} \mathcal{L}_\pi(\pi')

事实证明,当 π\pi'π\pi 非常接近时,这个近似效果非常好。但为什么呢?他们需要多接近?

相对策略性能界 Relative policy performance bounds:

J(π)(J(π)+Lπ(π))CEsdπ[DKL(ππ)[s]]|J(\pi') - (J(\pi) + \mathcal{L}_\pi(\pi'))| \leq C \sqrt{\mathbb{E}_{s \sim d^\pi} \left[ D_{KL}(\pi' \| \pi)[s] \right]}

如果策略在 KL 散度上很接近,那么这个近似就很好!

什么是 KL 散度? 对于离散随机变量上的概率分布 PPQQ

DKL(PQ)=xP(x)logP(x)Q(x)D_{KL}(P \| Q) = \sum_x P(x) \log \frac{P(x)}{Q(x)}

性质:

  • DKL(PP)=0D_{KL}(P \| P) = 0
  • DKL(PQ)0D_{KL}(P \| Q) \geq 0
  • DKL(PQ)DKL(QP)D_{KL}(P \| Q) \neq D_{KL}(Q \| P) —— 非对称!

策略之间的 KL 散度是什么?

DKL(ππ)[s]=aAπ(as)logπ(as)π(as)D_{KL}(\pi' \| \pi)[s] = \sum_{a \in \mathcal{A}} \pi'(a|s) \log \frac{\pi'(a|s)}{\pi(a|s)}

通过进行这种近似,我们获得了什么?

J(π)J(π)Lπ(π)J(\pi') - J(\pi) \approx \mathcal{L}_\pi(\pi')

Lπ(π)\mathcal{L}_\pi(\pi') 定义为:

Lπ(π)=11γEsdπ,aπ[π(as)π(as)Aπ(s,a)]\mathcal{L}_\pi(\pi') = \frac{1}{1 - \gamma} \mathbb{E}_{s \sim d^\pi, a \sim \pi} \left[ \frac{\pi'(a|s)}{\pi(a|s)} A^\pi(s, a) \right]
=Eτπ[t=0γtπ(atst)π(atst)Aπ(st,at)]= \mathbb{E}_{\tau \sim \pi} \left[ \sum_{t=0}^{\infty} \gamma^t \frac{\pi'(a_t|s_t)}{\pi(a_t|s_t)} A^\pi(s_t, a_t) \right]
  • 这是一种可以通过旧策略 π\pi 采样的轨迹进行优化的方法!
  • 类似于使用重要性采样,但由于权重仅依赖于当前时间步(而不是先前的历史),因此不会消失或爆炸。

PPO

Proximal Policy Optimization (PPO) 是一种流行的强化学习算法,它以简单而有效著称。PPO 使用了一种新的策略梯度更新方法来稳定训练过程,同时减少了复杂度和超参数的调整。PPO 运用的核心是其特殊的损失函数,这个损失函数能够限制策略更新的变化幅度,因此称为"近端"(Proximal)策略优化。

PPO 的总损失函数

梯度上升

L(θ)=Et[LCLIP(θ)cvLVF(θ)+ceLENTROPY(θ)]L(\theta) = \mathbb{E}_t \left[ L^{CLIP}(\theta) - c_v L^{VF}(\theta) + c_e L^{ENTROPY}(\theta) \right]

其中:

  • LVF(θ)L^{VF}(\theta) 是值函数损失,用于估计状态值,通常是均方误差(MSE)。
  • cvc_vcec_e 是常数,控制每个损失项的相对权重。

这种设计使得 PPO 能够在短步长(small steps)内更新策略,而不会偏离太远,从而增强了策略调整过程的稳定性和可靠性。这种稳定的政策搜索方法可以在解决连续控制任务和离散动作空间任务时取得良好的效果。

1. 克利普损失函数(Clipped Surrogate Objective)

克利普损失函数是 PPO 的核心,它通过限制策略之间的变动幅度来稳定策略更新。其基本思想是通过折减(clipping)比率 (ratio) ,有条件地限制新策略与旧策略的变化。具体公式如下:

LCLIP(θ)=Et[min(rt(θ)A^t,clip(rt(θ),1ϵ,1+ϵ)A^t)]L^{CLIP}(\theta) = \mathbb{E}_t \left[ \min \left( r_t(\theta) \hat{A}_t, \text{clip}(r_t(\theta), 1 - \epsilon, 1 + \epsilon) \hat{A}_t \right) \right]

其中:

  • rt(θ)=πθ(atst)πθold(atst)r_t(\theta) = \frac{\pi_\theta(a_t | s_t)}{\pi_{\theta_{\text{old}}}(a_t | s_t)}:表示新旧策略概率比。
  • A^t\hat{A}_t:是优势函数(advantage function)的估计值,它衡量动作 ata_t 的有益程度。
  • ϵ\epsilon:是一个很小的参数,用于限制策略变化的范围(通常在0.1到0.2之间)。
  • clip()\text{clip}(\cdot):函数将比率限制在 [1ϵ,1+ϵ][1 - \epsilon, 1 + \epsilon] 的范围内。

2.值函数损失

LVF(θ)=Et[(Vθ(st)V^t)2]L^{VF}(\theta) = \mathbb{E}_t \left[ \left( V_\theta(s_t) - \hat{V}_t \right)^2 \right]

=12Vθ(s)(t=0Tγtrts0=s)22=\frac{1}{2} \left\| V_\theta(s) - \left( \sum_{t=0}^{T} \gamma^t r_t \mid s_0 = s \right) \right\|_2^2

3. 熵奖励(Entropy Bonus) PPO 通常包括一个熵项来鼓励策略的探索。这是通过增加损失函数的熵来实现的,即:

LENTROPY(θ)=Et[βH(πθ(st))]L^{ENTROPY}(\theta) = \mathbb{E}_t [ \beta \cdot \mathcal{H}(\pi_\theta(\cdot|s_t)) ]

其中:

  • H(πθ(st))\mathcal{H}(\pi_\theta(\cdot|s_t)):表示策略在状态 sts_t 下的熵。
  • β\beta:是熵奖励系数,控制熵项在总损失中的权重。

详解

近端策略优化(PPO)是一类方法,它通过对策略变化过大的步长施加惩罚来优化策略,通过不计算自然梯度来近似强制执行 KL 约束。它有两种变体:

1. Adaptive KL Penalty 自适应 KL 惩罚

  • 策略更新解决无约束的优化问题:
    θk+1=argmaxθLθk(θ)βkDˉKL(θθk)\theta_{k+1} = \arg \max_\theta \mathcal{L}_{\theta_k}(\theta) - \beta_k \bar{D}_{KL}(\theta \| \theta_k)

DˉKL(θθk)\bar{D}_{KL}(\theta \| \theta_k)被定义为:

DˉKL(θθk)=Esdπk[DKL(θk(s),πθ(s))] \bar{D}_{KL}(\theta \| \theta_k) = \mathbb{E}_{s \sim d^{\pi_k}} \left[ D_{KL}(\theta_k(\cdot|s), \pi_\theta(\cdot|s)) \right]
  • 惩罚系数 βk\beta_k 在迭代之间变化,以近似强制 KL 散度约束。

2. 截断目标 Clipped Objective

  • 新的目标函数:令 rt(θ)=πθ(atst)/πθk(atst)r_t(\theta) = \pi_\theta(a_t|s_t) / \pi_{\theta_k}(a_t|s_t)。那么

    LθkCLIP(θ)=Eτπk[t=0Tmin(rt(θ)A^tπk,clip(rt(θ),1ϵ,1+ϵ)A^tπk)]\mathcal{L}_{\theta_k}^{\text{CLIP}}(\theta) = \mathbb{E}_{\tau \sim \pi_k} \left[ \sum_{t=0}^{T} \min(r_t(\theta) \hat{A}^{\pi_k}_t, \operatorname{clip}(r_t(\theta), 1-\epsilon, 1+\epsilon) \hat{A}^{\pi_k}_t) \right]

    其中,ϵ\epsilon 是一个超参数(可能取值是 0.2)。

  • 策略更新为 θk+1=argmaxθLθkCLIP(θ)\theta_{k+1} = \arg \max_\theta \mathcal{L}_{\theta_k}^{\text{CLIP}}(\theta)

这张图解释了在PPO算法中,截断(clipping)如何通过让目标函数在远离θk\theta_k的位置上保持"悲观"态度,以确保策略的稳定性和连续性。 图表解释:

  • X轴:线性插值因子α\alpha,它表示当前策略参数θ\thetaθk\theta_kθk+1\theta_{k+1}之间的插值位置。

  • Y轴:不同目标函数的值,这反映了目标函数随α\alpha变化时的表现。

  • 线条表示

    • 蓝色线E^t[KLt]\hat{\mathbb{E}}_t[KL_t],表示KL散度的期望值,随着α\alpha增大,KL散度也增大,反映策略的变化。
    • 橙色线LCPI\mathcal{L}^{CPI},即经典的策略梯度目标函数E^t[rtAt]\hat{\mathbb{E}}_t[r_tA_t],它的值随着α\alpha增加单调上升(CPI:Conservative Policy Iteration)。
    • 绿色线E^t[clip(rt,1ϵ,1+ϵ)At]\hat{\mathbb{E}}_t[\text{clip}(r_t, 1-\epsilon, 1+\epsilon)A_t],它对α\alpha的响应被截断,以限制策略更新的步幅。
    • 红色线LCLIP\mathcal{L}^{CLIP},即PPO的截断目标函数E^t[min(rtAt,clip(rt,1ϵ,1+ϵ)At)]\hat{\mathbb{E}}_t[\min(r_tA_t, \text{clip}(r_t, 1-\epsilon, 1+\epsilon)A_t)],这条线演示了PPO通过取较小值来避免策略参数过大变化的作用,它在α\alpha过大时趋于水平,表示对过大变化的抑制。
  • Pessimistically Optimistic:截断目标通过限制更新幅度使得其在远离当前策略θk\theta_k时表现为"悲观",即不会鼓励策略在每一步更新中过多改变,以避免由于更新过大导致的不稳定性。

  • 稳定性与效率:通过限制策略更新步幅,PPO保持策略逐步改进,使其能在复杂策略空间中稳定收敛。

Generalized Advantage Estimator ( GAE )

我们得到PPO的截断目标是 LθkCLIP(θ)=Eτπk[t=0Tmin(rt(θ)A^tπk,clip(rt(θ),1ϵ,1+ϵ)A^tπk)] \mathcal{L}_{\theta_k}^{\text{CLIP}}(\theta) = \mathbb{E}_{\tau \sim \pi_k} \left[ \sum_{t=0}^{T} \min(r_t(\theta) \hat{A}^{\pi_k}_t, \operatorname{clip}(r_t(\theta), 1-\epsilon, 1+\epsilon) \hat{A}^{\pi_k}_t) \right] 那么问题来了,我们如何在策略更新中估计优势函数A^tπk\hat{A}^{\pi_k}_t

  • 回顾N-step estimators
_θV(θ)1m_i=1m_t=0T1A_ti_θlogπ_θ(a_tis_ti)\nabla\_\theta V(\theta) \approx \frac{1}{m} \sum\_{i=1}^{m} \sum\_{t=0}^{T-1} A\_{ti} \nabla\_\theta \log \pi\_\theta(a\_{ti}|s\_{ti})
  • 回顾N-step advantage estimators
A^(1)t=r_t+γV(st+1)V(s_t) \hat{A}^{(1)}*t = r\_t + \gamma V(s*{t+1}) - V(s\_t)
A^(2)t=r_t+γrt+1+γV(s_t+2)V(s_t) \hat{A}^{(2)}*t = r\_t + \gamma r*{t+1} + \gamma V(s\_{t+2}) - V(s\_t)
A^(inf)t=r_t+γrt+1+γ2r_t+2+V(s_t) \hat{A}^{(\inf)}*t = r\_t + \gamma r*{t+1} + \gamma^2 r\_{t+2} + \cdots - V(s\_t)
  • 定义:
δV_t=r_t+γV(s_t+1)V(s_t) \delta^V\_t = r\_t + \gamma V(s\_{t+1}) - V(s\_t)

然后:

A^(1)t=δV_t=r_t+γV(st+1)V(s_t) \hat{A}^{(1)}*t = \delta^V\_t = r\_t + \gamma V(s*{t+1}) - V(s\_t)
A^(2)t=δV_t+γδVt+1=r_t+γr_t+1+γ2V(s_t+2)V(s_t) \hat{A}^{(2)}*t = \delta^V\_t + \gamma \delta^V*{t+1} = r\_t + \gamma r\_{t+1} + \gamma^2 V(s\_{t+2}) - V(s\_t)
A^(k)t=l=0k1γlδV_t+l=_l=0k1γlr_t+l+γkV(s_t+k)V(s_t) \hat{A}^{(k)}*t = \sum*{l=0}^{k-1} \gamma^l \delta^V\_{t+l} = \sum\_{l=0}^{k-1} \gamma^l r\_{t+l} + \gamma^k V(s\_{t+k}) - V(s\_t)

以上是一个 telescoping sum 例子。 Generalized Advantage Estimator ( GAE ) Balance

A^(k)t=l=0k1γlr_t+l+γkV(s_t+k)V(s_t)\hat{A}^{(k)}*t = \sum*{l=0}^{k-1} \gamma^l r\_{t+l} + \gamma^k V(s\_{t+k}) - V(s\_t)
  • GAE 是一种对 k-step estimators 进行指数加权平均的方式:
A^tGAE(γ,λ)=(1λ)(A^t(1)+λA^t(2)+λ2A^t(3)+)\hat{A}^{\text{GAE}(\gamma, \lambda)}_t = (1-\lambda)(\hat{A}^{(1)}_t + \lambda \hat{A}^{(2)}_t + \lambda^2 \hat{A}^{(3)}_t + \cdots)
=(1λ)(δV_t+λ(δV_t+γδV_t+1)+λ2(δV_t+γδV_t+1+γ2δV_t+2)+)= (1-\lambda)(\delta^V\_t + \lambda(\delta^V\_t + \gamma \delta^V\_{t+1}) + \lambda^2(\delta^V\_t + \gamma \delta^V\_{t+1} + \gamma^2 \delta^V\_{t+2}) + \cdots)
=(1λ)(δV_t(1+λ+λ2+)+γδV_t+1(λ+λ2+)+γ2δV_t+2(λ2+λ3+)+...)= (1-\lambda)(\delta^V\_t(1 + \lambda + \lambda^2 + \cdots) + \gamma \delta^V\_{t+1}(\lambda + \lambda^2 + \cdots) + \gamma^2 \delta^V\_{t+2}(\lambda^2 + \lambda^3 + \cdots) + ...)
=(1γ)(δV_t11λ+γλδV_t+111λ+γ2λ2δV_t+211λ+)= (1-\gamma)(\delta^V\_t \frac{1}{1-\lambda} + \gamma \lambda \delta^V\_{t+1} \frac{1}{1-\lambda} + \gamma^2 \lambda^2 \delta^V\_{t+2} \frac{1}{1-\lambda} + \cdots)
=_l=0(γλ)lδV_t+l= \sum\_{l=0}^{\infty} (\gamma \lambda)^l \delta^V\_{t+l}
  • GAE 方法首次在 Schulman 等人的“High-Dimensional Continuous Control Using Generalized Advantage Estimation”论文中引入(发表于ICLR 2016年)。

  • 通常,我们会选择 λ(0,1)\lambda \in (0, 1) 来平衡偏差和方差。

PPO 使用了 GAE 的截断版本:

A^t=l=0Tt1(γλ)lδV_t+l \hat{A}*t = \sum*{l=0}^{T-t-1} (\gamma \lambda)^l \delta^V\_{t+l}
  • 优势:只需在环境中运行策略 TT 个时间步长后即可进行更新,从而改进梯度估计。

Monotonic Improvement Theory 回到两个策略之间差异的近似界限

  • 在上次中,我们使用 dπd^{\pi'} 作为 dπd^{\pi} 的近似
J(π)J(π)11γEsdπ,aπ[π(as)π(as)Aπ(s,a)] J(\pi') - J(\pi) \approx \frac{1}{1 - \gamma} \mathbb{E}_{s \sim d^{\pi}, a \sim \pi'} \left[ \frac{\pi'(a|s)}{\pi(a|s)} A^{\pi}(s, a) \right]

这个近似结果被标注为 Lπ(π)\mathcal{L}_{\pi}(\pi')

  • π\pi'π\pi 在 KL 散度上接近时,这种近似效果较好。

  • Relative policy performance bounds 相对策略性能界限:

J(π)(J(π)+Lπ(π))CEsdπ[DKL(ππ)[s]] \left| J(\pi') - \left( J(\pi) + \mathcal{L}_{\pi}(\pi') \right) \right| \leq C \sqrt{\mathbb{E}_{s \sim d^{\pi}} \left[ D_{KL}(\pi' \| \pi)[s] \right]}

Monotonic Improvement Theory定义 根据上面的公式,我们得到:

J(π)J(π)Lπ(π)CEsdπ[DKL(ππ)[s]]J(\pi') - J(\pi) \geq \mathcal{L}_{\pi}(\pi') - C \sqrt{\mathbb{E}_{s \sim d^{\pi}} \left[ D_{KL}(\pi' \| \pi)[s] \right]}
  • 如果我们最大化右侧(right hand side RHS)关于 π\pi'(新策略) 的值,我们可以保证相对于 π\pi (旧策略)取得改进。
    • 这是一种关于真实目标(即左侧 LHS)的majorize-maximize算法。
  • Lπ(π)\mathcal{L}_{\pi}(\pi') 和 KL 散度项都可以使用来自 π\pi 的样本进行估计!

证明: 假设 πk+1\pi_{k+1}πk\pi_k 通过以下关系关联:

πk+1=argmaxπLπk(π)CEsdπk[DKL(ππk)[s]]\pi_{k+1} = \arg \max_{\pi'} \mathcal{L}_{\pi_k}(\pi') - C \sqrt{\mathbb{E}_{s \sim d^{\pi_k}} \left[ D_{KL}(\pi' \| \pi_k)[s] \right]}
  • πk\pi_k 是一个可行点,并且在 πk\pi_k 的目标值等于0。

    • Lπk(πk)Es,adπk,πk[Aπk(s,a)]=0\mathcal{L}_{\pi_k}(\pi_k) \propto \mathbb{E}_{s, a \sim d^{\pi_k}, \pi_k} [A^{\pi_k}(s, a)] = 0
    • DKL(πkπk)[s]=0D_{KL}(\pi_k \| \pi_k)[s] = 0
  •     \implies optimal value 0\geq 0

  •     \implies 根据性能界限,J(πk+1)J(πk)0J(\pi_{k+1}) - J(\pi_k) \geq 0

以上证明在我们将优化域限制于任意参数化策略类 Πθ\Pi_{\theta} 时依然成立,只要 πkΠθ\pi_k \in \Pi_{\theta}

Approximate Monotonic Improvement 公式:

πk+1=argmaxπLπk(π)CEsdπk[DKL(ππk)[s]]\pi_{k+1} = \arg \max_{\pi'} \mathcal{L}_{\pi_k}(\pi') - C \sqrt{\mathbb{E}_{s \sim d^{\pi_k}} \left[ D_{KL}(\pi' \| \pi_k)[s] \right]}

问题:

  • 当折扣因子 γ\gamma 接近1时,理论提供的 CC 值相当高 => 公式中的步长太小。

解决方案:

  • 调整 KL penalty(=> PPO)。
  • 使用 KL constraint(called trust region)。
PPO 总结
  • 提高数据效率:在从新策略收集更多数据之前,可以进行多个梯度步骤
  • 使用 clipping (或者 KL constraint) 来帮助增加单调改进的可能性
    • 保守的策略更新在强化学习中是一个具有影响力的理念,至少可以追溯到2000年代初
  • 收敛到局部最优
  • 非常流行的方法,易于实现,用于ChatGPT的调优
Policy Gradient 总结
  • 极其流行且有用的算法
  • 可用于奖励函数不可微的情况
  • 经常与无模型的价值方法结合使用:actor-critic methods

Lecture 7 Imitation Learning

模仿学习(Imitation Learning)是一种机器学习方法,它通过模仿专家演示的行为来学习任务。模仿学习在任务中不明确或很难定义奖励函数时,特别有用,常见于机器人控制、自动驾驶和游戏等领域。

  1. 专家演示

    • 模仿学习的基础在于专家提供的行为轨迹,这些轨迹包含状态和相应的动作序列。例如,一个人类驾驶员在驾驶过程中做的决策可以作为演示数据。
  2. 学习策略

    • 目标是从这些演示中学习一个策略,使得学习到的代理能在相似情境下采取与专家相似的动作。
  3. 不依赖显式奖励信号

    • 与常规强化学习不同,模仿学习主要依赖于演示数据,而不是环境提供的奖励信号。它通过模仿专家成功的动作偏好来指导学习。

模仿学习的常见方法

  1. 行为克隆(Behavioral Cloning)

    • 是模仿学习最简单的形式,把模仿问题转换为监督学习问题。直接从状态-动作对中学习映射,类似于分类或预测任务。
    • 依赖于大量的高质量演示数据,并可能对未见过的状态表现不佳(即分布外的泛化问题)。
  2. 逆向强化学习(Inverse Reinforcement Learning, IRL)

    • 通过演示推断出隐含的奖励函数,然后使用这个奖励函数来引导策略学习。
    • 能够泛化到新的环境,并不需要显式的奖励定义。

应用场景

  • 自动驾驶:通过模仿人类驾驶数据,形成自动驾驶系统的控制策略。
  • 游戏AI:模仿高水平玩家,在视频游戏环境中执行复杂的策略。
  • 机器人手臂控制:通过模仿专家操作机器人手臂,完成复杂任务。

挑战

  • 数据质量:模仿学习对演示数据的质量和多样性要求很高,坏数据会显著影响性能。
  • 分布偏移:当状态分布与训练时的分布不同时,模型性能可能下降。
  • 鲁棒性和泛化:在未见过的状态下,应保证策略依然有效。

通过有效地利用演示数据,模仿学习能够在一定程度上减少任务的手动定义复杂性,尤其是在奖励函数难以确定或不易捕捉任务本质的情况下。

问题设置

  • 输入

    • 状态空间、动作空间
    • 转移模型 P(ss,a)P(s' \mid s, a)
    • 无奖励函数 RR
    • 一个或多个教师演示的集合 (s0,a0,s1,a1,)(s_0, a_0, s_1, a_1, \ldots)(动作从教师的策略 π\pi^* 中得出)
  • 1. 行为克隆 Behavioral Cloning

    • 我们能否通过监督学习直接学习教师的策略?
  • 2. 逆向强化学习 Inverse RL

    • 我们能否恢复奖励函数 RR
  • 3. 通过逆向强化学习的学徒学习 Apprenticeship learning via Inverse RL

    • 我们能否使用奖励函数 RR 生成一个好的策略?

1. Behavioral Cloning

行为克隆(Behavioral Cloning, BC)是一种模仿学习技术,通过将专家的行为演示转化为监督学习问题,直接从状态-动作对中进行学习。这种方法的目标是学习一个策略,使得人工智能代理可以在类似情况下采取与专家相同的动作。

  1. 数据收集
    • 从专家操作的系统或者环境中获取大量的演示数据。这些数据构成了一系列的状态和对应的动作对 ((s, a)),用于训练模型。
  2. 监督学习问题
    • 行为克隆将模仿问题框化为一个经典的监督学习问题,其中状态 (s) 作为输入,动作 (a) 作为目标输出。
    • 可以使用标准的机器学习算法(如线性回归、决策树、神经网络)训练这个输入到输出的映射。
  3. 训练策略
    • 使用收集到的数据集训练策略模型,使其能够在给定状态下预测适当的动作。

优势

  • 直接性和简单性
    • 将模仿任务转化为一个标准的监督学习任务,易于理解和实施。
  • 快速学习
    • 不需要明确的奖励函数设计,直接利用专家行为数据,可以迅速部署和测试。

局限性

  1. 数据依赖
    • 需要大量高质量和多样化的演示数据覆盖大部分可能的状态空间。
    • 没有足够的演示数据可能导致策略在新场景中的表现不佳。
  2. 分布偏移(Covariate Shift)
    • 由于代理的行为不同于专家,运行时的状态分布可能与训练分布不同,从而影响策略的有效性。
    • 如果模型偏离了专家的演示路径,可能无法有效恢复,尤其在没有看到过的状态。
  3. 泛化能力
    • 通常在训练数据之外的状态具有较差的泛化性能,容易出现错误决策。
DAGGER

DAGGER(Dataset Aggregation)是一种改进的行为克隆方法,旨在克服行为克隆中常见的分布偏移问题。行为克隆在遇到代理的状态分布与训练时的分布不同(通常由于早期决策错误导致系统偏离正常轨迹)时,性能可能受到显著影响。DAGGER通过交互式数据收集和逐步更新来解决这一问题。

  1. 初始训练

    • 从专家的演示中初始化模型,与经典的行为克隆方法类似。
  2. 在线交互与收集

    • 模型用来运行一段时间或若干步骤,收集由此产生的状态和动作对。
    • 与此同时,专家在这些新出现的状态下也给出对应的动作,生成一个专家标注的“正确”动作。
  3. 数据集聚合

    • 将新收集的状态和相应的专家动作标注加入到训练数据集中,以扩展和多样化数据样本。
  4. 重新训练模型

    • 使用更新后的数据集再次训练模型,以不断提高策略的鲁棒性和准确性。
  5. 迭代更新

    • 重复以上过程,直到模型在多样化的状态空间上达到满意的性能表现。

优势

  • 有效缓解分布偏移
    • 通过逐渐扩展数据集,使模型能在各种状态下做出更准确的决策,从而抵御由分布偏移引起的性能下降。
  • 增强泛化能力
    • 引入多样化的状态和相应的专家动作,使模型能处理未见过的状态,提升泛化能力。
  • 实用性
    • DAGGER在需要相对较少的专家交互的情况下显著提高模型的鲁棒性,是多种机器人和自动驾驶应用中实现稳定策略的重要方法。 局限性
  • 专家干预要求
    • 需要从专家处收集新的动作标注,可能对现实系统的原型设计和部署造成一些复杂性。
  • 计算和时间成本
    • 由于模型需要多个迭代进程来训练和更新,多次训练的成本可能很高。

2. Reward Learning

  • 给定状态空间、动作空间、转移模型 P(ss,a)P(s' \mid s, a)
  • 没有奖励函数 RR
  • 一组或多组教师的演示 (s0,a0,s1,s0,)(s_0, a_0, s_1, s_0, \ldots)(动作从 teacher policy π\pi^* 中抽取)
  • 目标:推断奖励函数 RR 假设教师的策略是最优的,存在许多可能的 RR 使得教师的策略最优。
Linear Feature Reward Inverse RL
  • 回忆 linear value function approximation
  • 类似地,这里考虑 reward 在特征上是线性的情况:
    • R(s)=wTx(s)R(s) = w^T x(s),其中 wRn,x:SRnw \in \mathbb{R}^n, x: S \rightarrow \mathbb{R}^n
  • 目标:给定一组demonstrations,计算出来权重向量 ww
  • 对于一个策略 π\pi,其相应的值函数可以表示为:
Vπ(s0)=Esπ[t=0γtR(st)s0]=Esπ[t=0γtwTx(st)s0]=wTEsπ[t=0γtx(st)s0]=wTμ(π)V^\pi(s_0) = \mathbb{E}_{s \sim \pi}\left[\sum_{t=0}^\infty \gamma^t R(s_t) \mid s_0 \right] = \mathbb{E}_{s \sim \pi}\left[\sum_{t=0}^\infty \gamma^t w^T x(s_t) \mid s_0 \right] = w^T \mathbb{E}_{s \sim \pi}\left[\sum_{t=0}^\infty \gamma^t x(s_t) \mid s_0 \right] = w^T \mu(\pi)
  • 其中,μ(π)(s)\mu(\pi)(s) 被定义为在状态 s0s_0 下,策略 π\pi 下 state features 的折扣加权频率。

Relating Frequencies to Optimality

  • 对于策略 π\pi 的值函数可以表示为:
Vπ=wTμ(π) V^\pi = w^T \mu(\pi)
  • 其中 μ(π)(s)\mu(\pi)(s) = discounted weighted frequency of state ss under policy π\pi
Esπ[t=0γtR(st)π]=VVπ=Esπ[t=0γtR(st)π]π\mathbb{E}_{s \sim \pi^*}\left[\sum_{t=0}^\infty \gamma^t R^*(s_t) \mid \pi^* \right] = V^* \ge V^\pi = \mathbb{E}_{s \sim \pi}\left[\sum_{t=0}^\infty \gamma^t R^*(s_t) \mid \pi \right] \quad \forall \pi
  • 因此,如果专家的演示来自最优策略,要识别 ww 就需找到满足以下条件的 ww^*
wTμ(π)wTμ(π),ππ w^{*T} \mu(\pi^*) \ge w^{*T} \mu(\pi), \forall \pi \neq \pi^*

Feature Matching

  • 希望找到一个奖励函数,使得专家策略相较于其他策略具有更好的表现。
  • 对于策略 π\pi ,为了确保其表现与专家策略 π\pi^* 一样好,只需要保证其折扣求和值的特征期望与专家的策略相匹配 [Abbeel & Ng, 2004]。
  • 更准确地说,如果
μ(π)μ(π)_1ϵ |\mu(\pi) - \mu(\pi^*)|\_1 \le \epsilon

那么对于所有满足 w1\|w\|_\infty \le 1ww (使用Holder不等式):

wTμ(π)wTμ(π)ϵ |w^T \mu(\pi) - w^T \mu(\pi^*)| \le \epsilon

Ambiguity

  1. 奖励函数的无限多样性

    • 存在无穷多个奖励函数可以对应同一个最优策略。这意味着,从相同的最优行为中推断奖励机制时,无法唯一确定可能的奖励函数。
  2. 随机策略的无限多样性

    • 存在无穷多个随机策略可以匹配相同的feature counts,即μ(π)\mu(\pi) 。这意味着即使feature counts匹配,仍然可能有许多策略组合能够实现这些匹配。

那么选择哪个?:由于有众多符合条件的奖励函数和策略,需要决定选择哪个作为基础进行学习。这通常涉及到添加某种偏好、约束或额外的信息来解决这种歧义性。

Maximum Entropy Inverse RL

最大熵原理在逆向强化学习中的应用

  • 回顾一个分布 p(s)p(s) 的熵,其计算公式是:sp(s=s)logp(s=s)-\sum_{s'} p(s = s') \log p(s = s')
  • 最大熵原理:在给定特定先验数据约束的情况下,最好地表示当前知识状态的概率分布是拥有最大熵的那个分布。
  • 直观上:考虑所有与观察数据一致的概率分布,并选择具有最大熵的概率分布。
  • 在线性奖励情况下,这等价于指定权重 ww,以产生具有最大熵的策略,同时满足特征期望的约束:
max_P_τP(τ)logP(τ)s.t._τP(τ)μ(τ)=1D_iDμ(τ_i)_τP(τ)=1 \max\_P -\sum\_{\tau} P(\tau) \log P(\tau) \quad \text{s.t.} \quad \sum\_{\tau} P(\tau)\mu(\tau) = \frac{1}{|D|}\sum\_{i \in D} \mu(\tau\_i) \quad \sum\_{\tau} P(\tau) = 1
  • 其中,μ(τ)\mu(\tau) 是轨迹 τ\tau 的特征,DD 是观察到的专家数据。

Matching Rewards to Learning Policies

  • 通常情况下,希望找到一个策略 π\pi,其引发的轨迹分布 p(τ)p(\tau) 在给定奖励函数 rϕr_\phi 下,具有与专家演示P^(τ)\hat{P}(\tau) 相同的期望奖励。
  • 具体地,要解决以下优化问题:
  • 为此,将在计算奖励函数、利用该奖励函数学习最优策略,以及更新轨迹/状态频率以更新奖励函数之间交替进行。
  • 注意:在最初的最大熵逆向强化学习论文中,假设dynamics / reward model是已知的。

计算流程 注意:假设已知的 dynamics model 和 linear rewards

  1. 输入:专家演示 D\mathcal{D}
  2. 初始化 rϕr_\phi
  3. 计算在给定 rϕr_\phi 下的最优策略 π(as)\pi(a|s),例如使用价值迭代方法 value iteration
  4. 计算 state visitation frequencies状态访问频率 p(sϕ,T)p(s|\phi, \mathcal{T})
  5. 计算奖励模型的梯度
J(ϕ)=1M_τ_dDf_s_sp(sϕ,T)f_s\nabla J(\phi) = \frac{1}{M} \sum\_{\tau\_d \in \mathcal{D}} f\_s - \sum\_{s} p(s|\phi, \mathcal{T}) f\_s
  1. 使用一个梯度步骤更新 ϕ\phi
  2. 返回步骤3
  • 以下算法的哪些步骤依赖于已知的动态模型?
    • (1) 计算最优策略 T
    • (2) 计算状态访问频率 T
    • (3) 计算梯度 No 总结
  • 最大熵方法具有巨大的影响力。
  • 最初的公式化(Ziebart等人)使用线性奖励并假设动态模型是已知的。
    • 检查你的理解:在行为克隆中是否需要这一点?
  • Finn等人于2016年(引导成本学习:通过策略优化进行深度逆向最优控制)展示了如何使用通用的奖励/成本函数并消除了对已知动态模型的需要。

模仿学习总结

  • 模仿学习可以大大减少学习一个良好策略所需的数据量。
  • 挑战依然存在,一个令人兴奋的领域是将逆向强化学习/从示例中学习与在线强化学习相结合。
  • 若要了解模仿学习与强化学习之间的一些理论,请参考Sun, Venkatraman, Gordon, Boots, Bagnell在ICML 2017年的论文。

应该了解的内容:

  • 定义行为克隆以及它与强化学习的区别。
  • 理解最大熵原理、由此产生的轨迹分布,以及如何利用这些来学习奖励函数并拟合策略。