持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第9天,点击查看活动详情
因为早在 EM 出现之前就出现 Baum Welch 算法来求解参数,其实 Baum Welch 本身就是一个 EM 算法。也就是我们熟悉最大
EM 是一个算法框架,之前在视频中介绍过 EM 算法框架,EM 和梯度下降一样都是算法,那么今天我们就来实际应用一下这个算法来解决一下隐马尔科夫的解码问题,也就是 argmaxλP(I∣O,λ) 通过求解极大似然函数来找到能够让 P(I∣O) 概率最大,也就是所谓学习问题(learning problem)
θMLE=θargmax∫zP(x,z∣θ)P(z∣x,θ(t))
我们先简单回顾一下 EM 算法,上面就是 EM 公式,通过不断迭代来更新 θ 来找到可以让后验概率最大的参数
这里来两句闲话,其实很多算法你看了,也跟着推导过了,不过要是让你自己一步一步推导时候,自己还是无从下手。也就是说有时候还是需要我们自己尝试一下,这样培养自己独立思考和解决问题的能力,一味跟随是不会有提高和突破的
λMLE=θargmaxI∑P(O,I∣λ)P(I∣O,λ(t))
接下里我们就根据马尔科夫中的变量和参数对应到 EM 公式中,首先 O 是观测变量对应于 x,而 I 作为隐含变量对应于 z ,λ 作为参数对应于 θ,到现在我们已经一一对应上了,接下来就可以开始转换了
λ(t+1)=λargmaxI∑logP(O,I∣λ)P(I∣O,λ(t))
这里用到一个小技巧,也就是联合概率乘法,其实到现在有一个公式被用到概率比较高,在概率与数理统计中用到公式并不多,P(AB)=P(A∣B)P(B) 所以就可以列出下面式子
P(I∣O,λ(t))=P(O∣λ(t))P(I,O∣λ(t))
我们看上面式子,其中 P(I,O∣λ(t)) 是 O 和 I 的联合概率,P(O∣λ(t)) 这里 λt 是一个常数,而 P(O) 与 P(I∣O,λt) 无关,所以可以进一步化简为 P(I∣O,λ(t))=P(I,O∣λ(t))
λ(t+1)=λargmaxI∑logP(O,I∣λ)P(I,O∣λ(t))λ(t)=(π(t),A(t),B(t))
我们可以Q(λ,λ(t)) 函数来表示 ∑IlogP(O,I∣λ)P(I,O∣λ(t))
Q(λ,λ(t))=I∑logP(O,I∣λ)P(I,O∣λ(t))
P(O,I∣λ)=πi1t=2∏Tait−1aitt=1∏Tbi(ot+1)
=I∑[(logπi1+i=2∑Tlogat−1at+t=1∑Tlogbit(ot)]P(O,I∣λ(t))]
然后
π(t+1)=πargmaxQ(λ,λ(t))=πargmaxI∑[logπi1P(O,I∣λ(t))]
πargmaxi1∑⋯iT∑[logπi1P(O,i1,…,iT∣λ(t))]
argmaxi1∑[logπiP(O,i1∣λt+1)]
这里还有一个约束,也就是初始值概率求和为 1
s.t.i=1∑Nπi=1