持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第6天,点击查看活动详情
在机器学习中,许多算法在开始都似懂非懂,其实有些经验想给想要入门机器学习,底座比较薄弱的朋友,本人就是一个离开校园多年,因为自己学校一般,许多在机器学习中用到知识点在学校时候都没见过,所以学习起来有些吃力,而且不是一般吃力。不过这不是我想说的重点,重点面对困难,最后方法就是反复,同一个知识点反复看几遍,其实每一遍都有新的体会和收获。
这一次分享我们继续上一次分享,所以请先阅读 机器学习—隐马尔科夫模型(3) 前向概率方法

我们简单回归一下上一次分享内容,在上一次分享中,最后留下的问题是我们要找到 αt+1(j) 与上一个时刻 αt(i) 这两个前向概率之间的关系,首先需要列出 αt+1(j) 公式如下:
αt+1(j)=P(o1,⋯,ot,ot+1,it+1=qj∣λ)
然后还是利用边缘概率的性质引入 it=qi,引入的目标也只是为构建出一个 αt(i) 形式,通常引入一个随机变量的方式,都是将其引入后在对其求和(离散)或者积分(连续)。
i=1∑NP(o1,⋯,ot,ot+1,it+1=qj,it=qi∣λ)
接下来就是用联合概率乘积形式可以表示如下形式
i=1∑NP(ot+1∣o1,⋯ot,it+1=qj,it=qi∣λ)P(o1,⋯,ot,it=qi,it+1=qj∣λ)
然后就需要更好利用隐马尔科夫的观测条件独立假设和齐次 markov 性质,其中 P(ot+1∣o1,⋯ot,it+1=qj,it=qi∣λ) 可以利用观测独立条件化简为 P(ot+1∣it+1=qj)
i=1∑NP(Ot+1∣qt+1=qj)P(o1,⋯,ot,it=qi,it+1=qj∣λ)
然后需要对 P(o1,⋯,ot,it=qi,it+1=qj∣λ) 进一步化简来得到如下的式子
i=1∑NP(ot+1∣it+1=qj)P(it+1=qj∣o1,⋯,it=qi,λ)P(o1,⋯,ot,it=qi∣λ)
P(it+1=qj∣o1,⋯,it=qi,λ) 可以齐次 markov 假设化简为 P(it+1=qj∣it=qi,λ) 然后再去看 P(o1,⋯,ot,it=qi∣λ) 也就是 αt(i) 这样就建立了 αt+1(j) 和 αt(i) 之间的关系。
αt+1(j)=i=1∑Nbj(ot+1)aijαt(i)
这样就建立了关系,这样就可以一步一步求出 ∑i=1NαT(i) ,通常上面推导过程不难看出,当想要引入一个随机变量时候,就可以利用边缘概率来引入变量,还可以 markov 的两个性质对程序的化简。