系列33 Flow_Model

177 阅读4分钟

Introduction

在上一小节中讲到了Latent Variable Model(LAM),VAE。其主要思想就是将隐变量扩充为高维连续的分布,来增强模型的表达能力。而LAM模型中的核心困难是P(X)P(X)计算不出来,因为P(X)=ZP(XZ)P(Z)dZP(X) = \int_Z P(X|Z)P(Z) dZ,而ZZ的维度过高P(X)P(X)算不出来。而根据Bayesian公式:

P(ZX)=P(Z)P(XZ)P(X)\begin{equation} P(Z|X) = \frac{P(Z)P(X|Z)}{P(X)} \end{equation}

所以导致P(ZX)P(Z|X)无法计算。而VAE那章介绍了近似推断的方法,使用一个简单分布Qϕ(ZX)Q_\phi(Z|X)来近似P(ZX)P(Z|X),其中还使用重参数化技巧来用一个神经网络来代替分布。

而在VAE中通过优化变分下界ELBO来达到最终优化的目的,而不是直接对Log似然函数进行优化。所以当然会有误差了。那么这将启发我们,可不可以绕过这个intractable的P(Z)P(Z),使模型变得tractable。

Flow based Model

什么是flow model呢?首先用一张图来进行表示:

可以用一个简单的例子来简单的介绍Flow model。XX可以代表是当前的自己,人是比较复杂的,所以XPX(X)X \to P_X(X)计算非常困难。而一般昨天的我ZkPZk(Zk)Z_k \to P_{Z_k}(Z_k),比今天要简单一点,但是很有可能,昨天的我依然很复杂,无法计算。那么,就不但的往前推,到了刚出生的时候Z0Z_0,这时肯定是非常简单的,Z0PZ0(Z0)Z_0 \to P_{Z_0}(Z_0)婴儿的世界里是非黑即白的,此时的分布很简单,可以被假设为N(0,I)\mathcal{N}(0,I)。而这个过程:

PZ0(Z0)PZ1(Z1)PZ2(Z2)PZk(Zk)PX(X)\begin{equation} P_{Z_0}(Z_0) \to P_{Z_1}(Z_1) \to P_{Z_2}(Z_2) \cdots \to P_{Z_k}(Z_k) \to P_{X}(X) \end{equation}

就被称为“流”。因为流模型中初始分布是很简单的。极大似然估计中求的是:argmaxP(X)\arg\max P(X)。那么下一个问题就是如何建立XXZ0Z_0之间的关系,将argmaxP(X)\arg\max P(X)转换成求关于P(Z0)P(Z_0)的函数。

Change of Variables

假设X=f(Z)X=f(Z)Z,XRpZ,X\in \mathbb{R}^p。而ZPZ(Z)Z\sim P_Z(Z)XPX(X)X\sim P_X(X)ff是一个光滑可逆的函数。

那么可以得到:

ZPZ(Z)dZ=1=XPX(X)dX\begin{equation} \int_Z P_Z(Z) dZ = 1 = \int_X P_X(X) dX \end{equation}

根据不定积分的性质可以得到:

PZ(Z)dZ=PX(X)dXPX(X)=dZdXPZ(Z)\begin{gather} |P_Z(Z) dZ| = |P_X(X) dX| \\ P_X(X) = \left| \frac{dZ}{dX} P_Z(Z) \right| \end{gather}

X=f(Z)X=f(Z)ff是光滑可逆的,所以Z=f1(X)Z = f^{-1}(X),那么有

PX(X)=f1(X)XPZ(Z)\begin{equation} P_X(X) = \left| \frac{\partial f^{-1}(X)}{\partial X} \right|P_Z(Z) \end{equation}

但是实际上ZZXX都是高维变量,所以f1(X)X\frac{\partial f^{-1}(X)}{\partial X}是一个Jacobian Matrix。\textbf{熟悉矩阵的朋友应该知道,矩阵代表了一个变换,而矩阵行列式的值则代表了变换的尺度。}而在计算中我们关注的是矩阵变换的尺度,所以,

PX(X)=det(f1(X)X)PZ(Z)\begin{equation} P_X(X) = \left| \text{det}\left( \frac{\partial f^{-1}(X)}{\partial X} \right) \right|P_Z(Z) \end{equation}

而最终的目的是想将PX(X)P_X(X)完全用一个ZZ为自变量的函数来表达,所以要将f1(X)X\left| \frac{\partial f^{-1}(X)}{\partial X} \right|ZZ来表示。下面先写结论

PX(X)=det(f1(X)X)PZ(Z)=det(f1(Z)Z)1PZ(Z)\begin{equation} \begin{split} P_X(X) = & \left| \text{det}\left( \frac{\partial f^{-1}(X)}{\partial X} \right) \right|P_Z(Z) \\ = & \left| \text{det}\left( \frac{\partial f^{-1}(Z)}{\partial Z} \right) \right|^{-1}P_Z(Z) \end{split} \end{equation}

这个结论是怎么来的呢?我们来看一个简单的例子,如下图所示:

如图所示,y=f(x)y=f(x)x=f1(y)x=f^{-1}(y)。那么有

dydx=f(x)x,dxdy=f1(y)y\begin{equation} \frac{dy}{dx} = \frac{\partial f(x)}{\partial x}, \frac{dx}{dy} = \frac{\partial f^{-1}(y)}{\partial y} \end{equation}

而,

f(x)xf1(y)y=1\begin{equation} \frac{\partial f(x)}{\partial x} \frac{\partial f^{-1}(y)}{\partial y} = 1 \end{equation}

在本文举的例子中,

(f1)(a)=bcac(f)(b)=acbc\begin{equation} \begin{split} (f^{-1})'(a) = \frac{b-c}{a-c} \\ (f)'(b) = \frac{a-c}{b-c} \end{split} \end{equation}

很显然有(f1)(a)f(b)=1(f^{-1})'(a) f'(b) = 1。这就是change of variables theorem。我们可以得到两个变量之间关于映射ff的转换为:

PX(X)=det(f1(Z)Z)1PZ(Z)\begin{equation} \begin{split} P_X(X) = & \left| \text{det}\left( \frac{\partial f^{-1}(Z)}{\partial Z} \right) \right|^{-1}P_Z(Z) \end{split} \end{equation}

\textbf{那么,当训练完成之后,从P(Z)P(Z)中采样比较简单,通过上述公式,就可以得到P(X)P(X),所以P(X)P(X)是可求解的。}如何学习呢?其实并不难,通过极大似然估计可以得到:

logPX(X)=logdet(f1(Z)Z)1+logPZ(Z)\begin{equation} \log P_X(X) = \log \left| \text{det}\left( \frac{\partial f^{-1}(Z)}{\partial Z} \right) \right|^{-1} + \log P_Z(Z) \end{equation}

那么:

logPX(X)X=logdet(f1(Z)Z)1+logPZ(Z)ZZX=logdet(f1(Z)Z)1+logPZ(Z)Zf1(X)X\begin{equation} \begin{split} \frac{\partial \log P_X(X)}{\partial X} = & \frac{\partial \log \left| \text{det}\left( \frac{\partial f^{-1}(Z)}{\partial Z} \right) \right|^{-1} + \log P_Z(Z)}{ \partial Z} \frac{\partial Z}{ \partial X} \\ = & \frac{\partial \log \left| \text{det}\left( \frac{\partial f^{-1}(Z)}{\partial Z} \right) \right|^{-1} + \log P_Z(Z)}{ \partial Z} \frac{\partial f^{-1}(X)}{ \partial X} \end{split} \end{equation}

由于ff的逆很要求,上述梯度的计算还是比较简单的。然而,关于大矩阵行列式的计算并不美丽。后续有很多针对这点的改进方法,有兴趣的同学自行查看flow based的论文。

[1] ICLR 2015 NICE-Non-linear Independent Components Estimation

[2] ICLR 2017 Density estimation using Real NVP

[3] 2018 Glow: Generative Flow with Invertible 1×1 Convolutions

小结

本章主要介绍的是流模型的主要思想,在Latent Variable Model经常会遇到后验过于复杂无法求解的问题。流模型绕开了这个部分,对更简单的分布建模,然后建立原分布与简单分布之间的映射关系。个人觉得Stein变分梯度下降就有点流模型的影子在里面。在建立映射关系是用到了重要的change of variables theorem,并之后介绍了变化后的目标函数和梯度求解方法。

参考B站视频【机器学习】【白板推导系列】

更多干货,第一时间更新在以下微信公众号:

您的一点点支持,是我后续更多的创造和贡献

转载到请包括本文地址 更详细的转载事宜请参考文章如何转载/引用

本文由mdnice多平台发布