Gibbs采样

126 阅读2分钟

开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 32 天,点击查看活动详情


1. Gibbs采样概述

前面介绍的Metropolis-Hastings采样为从指定分布中进行采样提供了一个统一的框架,但是采样的效率依赖于指定的分布的选择,若是选择的不好,会使得接受率比较低,大量的采样被拒绝,影响到整体的收敛速度。

Gibbs采样是Metropolis-Hastings采样算法的特殊形式,即找到一个已知的分布,使得接受率α=1\alpha =1。这样,每次的采样都会被接受,可以提高MCMC的收敛速度。

2. Gibbs采样算法的流程

在这部分,先直接给出Gibbs采样算法的流程,对于Gibbs采样算法的有效性将在第三部分给出论述,Gibbs采样算法的具体流程如下所述:

  • 初始化时间t=1t=1
  • 设置u=(u1,u2,,uN)\mathbf{u}=\left ( u_1,u_2,\cdots ,u_N \right )的值,并初始化初始状态Θ(t)=u\Theta ^{\left (t \right )}=\mathbf{u}
  • 重复以下的过程:
    • t=t+1t=t+1
    • 对每一维:i=1,2,Ni=1,2,\cdots N
      • θ1(t)p(θ1θ2(t1),,θN(t1)) \theta _1^{\left ( t \right )}\sim p\left ( \theta _1\mid \theta _2^{\left ( t-1 \right )},\cdots ,\theta _N^{\left ( t-1 \right )} \right )
      • θ2(t)p(θ2θ1(t),,θN(t1))\theta _2^{\left ( t \right )}\sim p\left ( \theta _2\mid \theta _1^{\left ( t \right )},\cdots ,\theta _{N}^{\left ( t-1 \right )} \right )
      • \cdots
      • θN1(t)p(θN1θ1(t),,θN(t1))\theta _{N-1}^{\left ( t \right )}\sim p\left ( \theta _{N-1}\mid \theta _1^{\left ( t \right )},\cdots ,\theta _{N}^{\left ( t-1 \right )} \right )
      • θN(t)p(θNθ1(t),,θN1(t))\theta _N^{\left ( t \right )}\sim p\left ( \theta _N\mid \theta _1^{\left ( t \right )},\cdots ,\theta _{N-1}^{\left ( t \right )} \right )
  • 直到t=Tt=T

Gibbs采样有一个缺陷,必须知道条件分布

3. 上述过程满足细致平稳条件

为简单起见,我们假设所需采样的分布为一个二元分布f(x,y)f\left ( x,y \right ),假设两个状态为(x1,y1)\left ( x_1,y_1 \right )(x1,y2)\left ( x_1,y_2 \right )。已知:

p(x1,y1)p(y2x1)=p(x1)p(y1x1)p(y2x1)p\left ( x_1,y_1 \right )\cdot p\left ( y_2\mid x_1 \right )=p\left ( x_1 \right )\cdot p\left ( y_1\mid x_1 \right )\cdot p\left ( y_2\mid x_1 \right )
p(x1,y2)p(y1x1)=p(x1)p(y2x1)p(y1x1)p\left ( x_1,y_2 \right )\cdot p\left ( y_1\mid x_1 \right )=p\left ( x_1 \right )\cdot p\left ( y_2\mid x_1 \right )\cdot p\left ( y_1\mid x_1 \right )

所以有:

p(x1,y1)p(y2x1)=p(x1,y2)p(y1x1)p\left ( x_1,y_1 \right )\cdot p\left ( y_2\mid x_1 \right )=p\left ( x_1,y_2 \right )\cdot p\left ( y_1\mid x_1 \right )

由此可见,Gibbs采样的过程是满足细致平稳条件的。这里直接取p(y2x1)p\left ( y_2\mid x_1 \right )为转移概率,则α=1\alpha =1,可见Gibbs采样算法是Metropolis-Hastings采样的特殊形式。

4. 实验

4.1. 前提

假设从二项正态分布中进行采样,假设Θ=(θ1,θ2)\Theta =\left ( \theta _1,\theta _2 \right ),且:

ΘNorm(μ,Σ)\Theta \sim Norm\left (\mu ,\Sigma \right )

其中

μ=(μ1,μ2)\mu =\left ( \mu _1,\mu _2 \right )
Σ=(1ρρ1)\Sigma =\begin{pmatrix} 1 & \rho \\ \rho & 1 \end{pmatrix}

已知:

θ1Norm(μ1+ρ(θ2μ2),1ρ2)\theta _1\sim Norm\left ( \mu _1+\rho \left ( \theta _2-\mu _2 \right ), \sqrt{1-\rho ^2} \right )
θ2Norm(μ2+ρ(θ1μ1),1ρ2)\theta _2\sim Norm\left ( \mu _2+\rho \left ( \theta _1-\mu _1 \right ), \sqrt{1-\rho ^2} \right )

4.2. 流程

  • 初始化时间t=1t=1
  • 设置u=(u1,u2)\mathbf{u}=\left ( u_1,u_2 \right )的值,并初始化初始状态Θ(t)=u\Theta ^{\left (t \right )}=\mathbf{u}
  • 重复以下的过程:
    • t=t+1t=t+1
    • 对每一维:i=1,2i=1,2
      • θ1(t)Norm(μ1+ρ(θ2μ2),1ρ2) \theta _1^{\left ( t \right )}\sim Norm\left ( \mu _1+\rho \left ( \theta _2-\mu _2 \right ), \sqrt{1-\rho ^2} \right )
      • θ2(t)Norm(μ2+ρ(θ1μ1),1ρ2)\theta _2^{\left ( t \right )}\sim Norm\left ( \mu _2+\rho \left ( \theta _1-\mu _1 \right ), \sqrt{1-\rho ^2} \right )
  • 直到t=Tt=T

4.3. 实验代码

'''
Date:20160704
@author: zhaozhiyong
'''
import random
import math
import matplotlib.pyplot as plt

def p_ygivenx(x, m1, m2, s1, s2):
    return (random.normalvariate(m2 + rho * s2 / s1 * (x - m1), math.sqrt(1 - rho ** 2) * s2))

def p_xgiveny(y, m1, m2, s1, s2):
    return (random.normalvariate(m1 + rho * s1 / s2 * (y - m2), math.sqrt(1 - rho ** 2) * s1))

N = 5000
K = 20
x_res = []
y_res = []
m1 = 10
m2 = -5
s1 = 5
s2 = 2

rho = 0.5
y = m2

for i in xrange(N):
    for j in xrange(K):
        x = p_xgiveny(y, m1, m2, s1, s2)
        y = p_ygivenx(x, m1, m2, s1, s2)
        x_res.append(x)
        y_res.append(y)
       
num_bins = 50
plt.hist(x_res, num_bins, normed=1, facecolor='green', alpha=0.5)
plt.hist(y_res, num_bins, normed=1, facecolor='red', alpha=0.5)
plt.title('Histogram')
plt.show()

4.4. 实验结果

这里写图片描述


开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 32 天,点击查看活动详情