Background
Reinforcement Learning是一个比较成熟的学科,有着比较扎实的理论基础,同时也是我觉得深度学习中比较难的一个分支。强化学习主要是围绕马尔可夫决策过程(Markov Decision Process,MDP)来进行的。强化学习不同的流派使用的符号是不一样的,而我们这里和强化学习经典之作Sutton的“An introduction to reinforcement learning”中保持一致。那么,首先我们引出一下什么是MDP,
Random Variable:随机变量是整个概率论的基础,也是机器学习的基础。随机变量是用于某一随机变量发生的可能性。
Stochastic Process:举个小例子,就是股票的价格,令t时刻股价为st。股票的价格每个时刻都是不同的,价格都是服从一个分布的。而之前时刻股票的价格肯定都是对此时的价格都有影响。而st,st+1,st+2,⋯关系非常的复杂。而{st}t=1∞则为一个随机过程。
Markov Chain/Process:就是具有马尔可夫性质的随机过程。而Markov Property用公式表达为:P(st+1∣st,st−1,⋯)=P(st+1∣st)。通俗的语言表达为,当前时刻的状态仅仅和上一个时刻的状态有关。这样可以简化计算,并具有一定的合理性。
State Space Model:包括哪些呢?有HMM,Kalman Filter,Particle Filter。状态空间模型,则为马尔可夫假设+观测独立假设。之所以有观测独立假设,是因为此模型中引入了隐变量。而某时刻观测变量只和此时刻隐变量之间有关系。
Markov Reward Process:此模型为Markov Chain+Reward。在两个状态之间发生转移的时候,会得到一个奖励。
Markov Decision Process:即为Markov Chain+Reward+Action。这里是怎么回事呢?两个相邻状态之间的转移受到action的影响,而且转移完成之后会得到一个reward,如下图所示。
![]()
实际上MDP可以由一个四元组来表示⟨S,A,P,R⟩。其中S表示的是状态集合,A表示的是动作集合,∀s∈S,A(s)→at;而P是概率转移矩阵,表达两个状态之间转移的概率。R为两个状态发生转移后得到的奖励。
动态特征
完整的马尔可夫决策过程描述
一个完整的MDP可以如下所示:
MDP在每个状态下,可以由个体从可能的行动空间A 中选择一个行动at,紧接着的状态转移概率随着所选择行动的不同而不同。另外,我们再加入即时奖励,就可以得到MDP的动态特征。
![]()
P(s′,r∣s,a)=Pr{St+1=s′,Rt+1=r∣St=s,At=a}
我们注意到,马可夫性使得我们可以仅仅利用当前状态来估计接下来的收益,即仅仅使用当前状态来估计的策略并不比使用所有历史的策略差。可以说马可夫性带给我们了极大的计算上的便利,我们不用每一步都去处理所有的历史步骤,而是只需要面对当前的状态来进行处理。同时注意到,可能有些信息并没有被完整的包含到模型的状态信号St中,这使得模型并不满足马可夫性。不过我们一般还是认为它们是近似地满足马可夫性的,因此仅仅使用当前状态的信息来做出对于未来收益的预测和行动的选择并不是很差的策略。同时,如果选取不仅仅是当前时刻的状态,而是之前的多个时刻的状态叠加在一起作为当前状态,一般可以增强马可夫性。
而实际上Rt+1是随机变量,就算St,At一样,也有可能会有细微的差别。所以,状态转移函数被写为:
P(s′∣s,a)=r∈R∑P(s′,r∣s,a)
而其中奖励函数可以定义为:
R(s′,s,a)=E[Rt+1∣St=s,At=a,St+1=s′]=p(s′∣s,a)∑r∈Rrp(s′,r∣s,a)
类似地,我们还可以得到在状态St下,采取动作at将会得到的奖励为:
R(s,a)=E[Rt+1∣St=s,At=a]=r∈R∑rs′∈S∑p(s′,r∣s,a)
强化学习最终目的
强化学习的核心是决策,而MDP想要找到最优策略。那么什么是Policy呢?Policy的主要是为了得到at。Policy用π表示,1. 确定性策略,表示输出的动作是确定的a=π(s);2. 随机性策略,π(a∣s)=Pr(At=a∣St=s),此时输出的是动作a的概率分布。那么知道策略是什么以后,下一个问题则是,什么样的策略才是好的呢?
一般来说,Reward越高,即为获得了回报越高,策略越 好。
Gt==Rt+1+γRt+2+γ2Rt+3+⋯+γT−1RTi=0∑∞γiRt+i+1
其中,Rt+1=R(St+1,St,At),γ∈[0,1]表示为衰减因子。
![]()
实际上一个转移就是其中一条线,此图例中可以看到一共有9种转移可能,可以记为Gt1,Gt2,⋯,Gt9。并不是一个单独的Gt。所以,我们就可以用这个9个可能的平均值来表示最终的衡量标准。而实际中由于可能性很多,通常通过蒙特卡罗采样来求平均值得到最终的函数值,也就是价值函数:
Vπ(s)=Eπ[Gt∣St=s]
价值函数(Value Function)
确定性策略可以看成是一种特殊的随机性策略。在前文中已经引出了价值函数Vπ(s)的概念,实际上Vπ(s)是一个列向量,列向量的维度就为∣s∣×1,有多少个状态就有多少个Vπ(s)。下面将给出价值函数和状态价值函数的定义,
Vπ(s)=Eπ[G0∣S0=s]=E[∑t=0∞γtRt+1∣S0=s]Qπ(s,a)=Eπ[G0∣S0=s,A0=a]=E[∑t=0∞γtRt+1∣S0=s,A0=a]
其中函数Vπ(s)表示的是当到达某个状态s之后,如果接下来一直按着策略π来行动,能够获得的期望收益;函数Qπ(s,a)表示的是当达到某个状态s之后,如果采取行动a,接下来再按照策略π来行动,能获得的期望收益。
这里有一个区别需要特别说明一下,π实际上就是一个状态到动作的映射,π:s→a。在Vπ(s)中π对s是有约束的,因为,在这个函数中a的选择是和π有关的;而在Qπ(s,a)就不是这样了,π对s是没有约束的,s,a在此函数中仅仅是两个自变量,彼此之间并没有关系,不是由π:s→a的关系得出的。
而Vπ(s)和Qπ(s,a)之间的关系可以写为:
Vπ(s)==Qπ(s,a)=π(a1∣s)Qπ(s,a1)+π(a2∣s)Qπ(s,a2)+π(a3∣s)Qπ(s,a3)+⋯a∈A(s)∑π(a∣s)⋅Qπ(s,a)
我们可以看到Vπ(s)=∑a∈A(s)π(a∣s)⋅Qπ(s,a)实际上是一个加权平均值。我们已经知道了它们两之间的这层关系,那么还有别的关系吗?显而易见的是,
Vπ(s)≤amaxQπ(s,a)
因为Vπ(s)是Qπ(s,a)的加权平均值。
P(s′,r∣s,a)中s′,r都是具有随机性的。而递归地展开(7)中的两个公式即可得到相应的两个Bellman方程(Bellman equation),对于Vπ(s)的式子,有:
Vπ(s)=Eπ[t=0∑∞γtRt+1∣S0=s]=Eπ[Rt+1+γt=0∑∞γtRt+2∣S1=s]=a∑π(a∣s)s′∑r∑p(s′,r∣s,a)[r+γEπ[t=0∑∞γtRt+2∣S1=s′]]=a∑π(a∣s)s′,r∑p(s′,r∣s,a)[r+γVπ(s′)]∀s∈S
同理,把∑aπ(a∣s)去掉就得到了Qπ(s,a)的Bellman方程:
Qπ(s,a)==s′,r∑p(s′,r∣s,a)[r+γVπ(s′)]s′,r∑p(s′,r∣s,a)⎣⎡r+γa′∈A(s′)∑π(a′∣s′)⋅Qπ(s′,a′)⎦⎤
这就是Bellman Expectation Function。
Bellman最优方程
上一小节中,主要介绍了价值函数和状态价值函数之间的关系,并推导出了两个Bellman方程。注意,强化学习的目的就是找到最优的π,算法中可以优化的也只有π。Vπ(s)是我们的优化目标,为了找到这个最优的V∗(s)才引入了最优价值函数的概念。同时,我们把可以使得价值函数达到最大的那个Vπ(s)称之为最优价值函数。定义如下所示:
{V∗(s)=ΔmaxπVπ(s)Q∗(s,a)=ΔmaxπQπ(s,a)
首先能够使得π到达最优的策略可能有多个,为了表达方便,就假设只有一个,那么记,
π∗=πargmaxVπ(s)=πargmaxQπ(s,a)
那么,很显然可以得到:
V∗(s)=πmaxVπ(s)=Vπ∗(s)
Q∗(s,a)=πmaxQπ(s,a)=Qπ∗(s,a)
同时需要注意的是,V∗(s)和Vπ∗(s)看上去是一模一样的,实际上它们分别属于不同的意义。最优价值函数V∗(s)隐去了策略和π没有关系,它仅仅是一个函数。而Vπ∗(s)是一个普通的价值函数,它表示的是有最优的π得出的价值函数。
那么,我们下一步的想法就是可不可以如同公式(11)一样,构建V∗(s)和V∗(s’),Q∗(s,a)和Q∗(s′,a′)来方便我们进行求解。
首先,我们要知道Vπ∗(s)和Qπ∗(s,a)之间有什么样的关系。由于,前面的小节中讲到了V函数是Q函数的一个加权平均,那么显然可以得到:
Vπ∗(s)≤amaxQπ∗(s,a)
由于π∗就是一个最优的策略,所以直觉上我们会觉得,应该是
Vπ∗(s)=amaxQπ∗(s,a)
那么有没有可能会是小于呢?如果Vπ∗(s)<maxaQπ∗(s,a)那意味着平均值小于最大值,则说明π∗肯定还有提高的空间,则不是最优策略。必然存在一个πnew=π∗使得πnew=max,这显然与π∗是最优策略的前提是矛盾的。当然这些只是我们直觉上推断,有的同学会问,这个πnew到底是长什么样呢?下面我们来构造证明一下:
假设,Vπ∗(s)<maxaQπ∗(s,a),可以构造πnew,我们假设它是一个确定性策略,
πnew={πnew(s)=maxaQπ∗(s,a)πnew(sˉ)=π∗(sˉ)∀s∈S∀sˉ=S−s
也就是出了s状态的动作等于maxaQπ∗(s,a),其他的动作都不变。那么就有
Vπnew(s)=amaxQπ∗(s,a)>Vπ∗(s)
显然πnew优于π∗,所以与我们的假设冲突,所以,必然有Vπ∗(s)=maxaQπ∗(s,a)。而我们看到这个式子实际上就是公式(8)把那个加权平均给拿掉了。其他的公式(10,11)可不可以做类似变换,那必然是不行的,因为公式(8)中的动作是人为可以选择的,而(10,11)中包含s的变化,这是环境给出的,不能人为控制。那么,同样我们可以建立最优策略中s,s′之间的关系,
V∗(s)Q∗(s,a)=a∈A(s)maxs′,r∑p(s′,r∣s,a)[r+γV∗(s′)]=a∈A(s)maxs′,r∑p(s′,r∣s,a)[r+γamaxQ∗(s,a)]=s′,r∑p(s′,r∣s,a)[r+γa′maxQ∗(s′,a′)]
这就是Bellman Optimality Equation。最后再提一点,在很多参考文献中,为了简便表示通常使用期望的方式来表达价值函数。
Vπ(s)=Eπ[Rt+1+γVπ(st+1)∣st=s]
贝尔曼算子
此小节是对老师的内容做的一个小小的补充。简单讲解一下贝尔曼方程的收敛性,需要用到压缩映射定理。
在前一节中我们定义了两种价值函数,如果能够求得在某策略下的价值函数,我们就可以对该策略的好坏进行评估;如果能够求得最优情形下的价值函数,我们就可以自然得出最优策略。但我们还不知道要如何计算得到相应的价值函数数值,我们这里引入的Bellman算子及其相关的性质,可以为相关算法的收敛性提供一些保证。
考虑有限的状态空间S=[n],和定义在状态空间上的实值函数Vπ。定义贝尔曼算子T:Rn→Rn。
(TV)i=a∈A(i)maxj∈[n]∑P(j∣i,a)(R(j,i,a)+γVj)
其中下标都表示向量的某个元素。对于一个策略π还可以定义Bellman算子Tπ:Rn→Rn,
(TπV)i=j∈[n]∑P(j∣i,π)(R(j,i,π)+γVj)
对于确定性策略来说π的输出就是一个动作,对于随机策略则还需要对整体取期望。
\textbf{定理3.1(压缩映射定理,Banach不动点定理)}设函在区间[a,b]上定义f([a,b])⊂(a,b),存在一个常数β∈[0,1],使得对于一切u,v∈[a,b],使得不等式成立∣f(u)−f(v)∣≤β(u−v),则将称为f上的一个压缩映射,则称常数β∈[0,1]为压缩常数。记为,并且用无穷范数来定义算子之间的距离。
将贝尔曼方程记为T(u)=rt+1+ηP(π)u,并且用无穷范数来定义算子之间的距离。
d(∣T(u)−T(v))===≤≤∥rt+1+γP(π)u−rt+1−γP(π)v∥∞∥γP(π)u−γP(π)v∥∞∥γP(π)(u−v)∥∞∥γP(π)∥u−v∥∞∥∞γ∥u−v∥∞=γd(u,v)
所以,根据上述推导可以得出,1.贝尔曼方程可以唯一收敛于Vπ=Vπ∗,即为limk→∞TkV=V∗,其中k为迭代次数;2. 算法以的线性速率收敛。那么通过压缩映射定理,可以推出值迭代算法的收敛性。这样就差不多可以了,很多新的算法中都是定义一个新的贝尔曼算子,然后通过压缩映射定理来证明其收敛性,最后用实验来进行说明。
小结
本章节主要是对强化学习的一个入门,介绍了强化学习的一些基本概念,从马尔可夫决策过程来引出强化学习,而强化学习的核心就是求一个策略π:s→a,来满足决策的要求。然后介绍了如何评判一个马尔可夫决策过程的优劣,从而引出了价值函数和状态动作函数,两个评判函数。然后建立了这两个评判函数相邻状态之间的关系,即为Bellman方程。为了进一步简便运算,加快收敛从而引出了Bellman Optimality Equation,并推导了最优方程中,价值函数和状态动作函数之间的关系。最后,介绍了压缩映射定理证明了贝尔曼方程的迭代可以收敛到唯一的最优解。下一章则是具体介绍如何求解最优价值函数了。
参考B站视频【机器学习】【白板推导系列】
更多干货,第一时间更新在以下微信公众号:

您的一点点支持,是我后续更多的创造和贡献

转载到请包括本文地址
更详细的转载事宜请参考文章如何转载/引用
本文由mdnice多平台发布