一、概述
对于隐马尔科夫模型(HMM),它主要适用于处理隐变量为离散值的情况。然而,当我们面临连续隐变量的 HMM 时,我们通常会采用卡尔曼滤波(Kalman Filtering)来描述线性高斯模型的状态变量,而对于非高斯非线性的状态变量,我们则会选择使用粒子滤波(Particle Filter)进行描述。
线性体现在上一时刻和这一时刻的隐变量以及隐变量和观测变量之间,它们的关系可以表示为:
zt=A⋅zt−1+B+εxt=C⋅zt+D+δε∼N(0,Q)δ∼N(0,R)
类比HMM中几个参数,我们也可以写出类似初始概率、转移概率或发射概率的形式:
P(zt∣zt−1)∼N(A⋅zt−1+B,Q)P(xt∣zt)∼N(C⋅zt+D,R)z1∼N(μ1,Σ1)
所有的参数为:
θ=(A,B,C,D,Q,R,μ1,Σ1)
二、Filtering问题
在多个inference问题中,卡尔曼滤波更关心Filtering问题,即求边缘概率:
P(zt∣x1,x2,⋯,xt)
类似HMM的前向算法,我们需要找到一个递推关系:
P(zt∣x1,x2,⋯,xt)=P(x1,x2,⋯,xt)P(x1,x2,⋯,xt,zt)∝P(x1,x2,⋯,xt,zt)=P(xt∣zt)P(xt∣x1,x2,⋯,xt−1,zt)⋅P(x1,x2,⋯,xt−1,zt)=P(xt∣zt)⋅P(x1,x2,⋯,xt−1,zt)=P(xt∣zt)⋅prediction问题P(zt∣x1,x2,⋯,xt−1)⋅P(x1,x2,⋯,xt−1)∝P(xt∣zt)⋅P(zt∣x1,x2,⋯,xt−1)
上式结果中,P(xt∣zt)已知,而另一项可做以下转化:
P(zt∣x1,x2,⋯,xt−1)=∫zt−1P(zt,zt−1∣x1,x2,⋯,xt−1)dzt−1=∫zt−1P(zt∣zt−1)P(zt∣zt−1,x1,x2,⋯,xt−1)⋅Filtering问题P(zt−1∣x1,x2,⋯,xt−1)dzt−1=∫zt−1P(zt∣zt−1)⋅P(zt−1∣x1,x2,⋯,xt−1)dzt−1
因此,我们找到了Filtering问题的递推式:
P(zt∣x1,x2,⋯,xt)=C⋅P(xt∣zt)⋅∫zt−1P(zt∣zt−1)⋅P(zt−1∣x1,x2,⋯,xt−1)dzt−1
因此,我们可以确定求解Filtering问题的步骤如下:
t=1{P(z1∣x1)→updateP(z2∣x1)→predictiont=2{P(z2∣x1,x2)→updateP(z3∣x1,x2)→prediction⋮t{P(zt∣x1,x2,⋯,xt)→updateP(zt+1∣x1,x2,⋯,xt)→prediction
很明显这是一个online的过程。
三、Filtering问题求解
通过上述转化我们可以确定Filtering问题的计算是通过以下两步迭代计算进行的:
Step1 Prediction:
P(zt∣x1,x2,⋯,xt−1)=∫zt−1P(zt∣zt−1)⋅P(zt−1∣x1,x2,⋯,xt−1)dzt−1
Step2 Update:
P(zt∣x1,x2,⋯,xt)=C⋅P(xt∣zt)⋅P(zt∣x1,x2,⋯,xt−1)
我们可以确定的是几个高斯分布经过相乘或者积分运算后仍然是高斯分布,所以我们假设:
Prediction:P(zt∣x1,x2,⋯,xt−1)=N(zt∣μt∗,Σt∗)Update:P(zt∣x1,x2,⋯,xt)=N(zt∣μt,Σt)
代入高斯分布的形式可以得到:
Prediction:N(zt∣μt∗,Σt∗)=∫zt−1N(zt∣A⋅zt−1+B,Q)⋅N(zt−1∣μt−1,Σt−1)⋅dzt−1Update:N(zt∣μt,Σt)=C⋅N(xt∣C⋅zt+D,R)⋅N(zt∣μt∗,Σt∗)
接下来的求解需要用到2.高斯分布第六部分内容中我们得到的结论,即已知P(x)和P(y∣x)来求P(y)和P(x∣y),这里我们直接套用公式即可。
首先,在Prediction过程中:
P(y)P(zt∣x1,x2,⋯,xt−1)=∫zt−1P(y∣x)P(zt∣zt−1)⋅P(x)P(zt−1∣x1,x2,⋯,xt−1)dzt−1
代入计算P(y)的公式可得:
μt∗=Aμt−1+BΣt∗=Q+AΣt−1AT
在update过程中:
P(x∣y)P(zt∣x1,x2,⋯,xt)=C⋅P(y∣x)P(xt∣zt)⋅P(x)P(zt∣x1,x2,⋯,xt−1)
代入计算P(x∣y)的的公式也可以得出结果,过程比较复杂,所以省略。
注意这里将x1,x2,⋯,xt−1看做已知即可,然后再套用p(x)、p(y∣x)等形式。
“开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 14 天,点击查看活动详情”