扩散模型经典改进:Improved Denoising Diffusion Probabilistic Models

1,043 阅读4分钟

这个文章是关于论文《Improved Denoising Diffusion Probabilistic Models》的论文解读。


Improving the Log-likelihood

In this paper, we show that DDPMs can achieve loglikelihoods competitive with other likelihood-based models, even on high-diversity datasets like ImageNet.

写作动机就是:虽然发现DDPMs可以根据FID和Inception Score生成高保真度的样本,但是这些模型无法实现具有竞争力的对数似然。

对数似然是生成式建模中广泛使用的度量,一般认为优化对数似然迫使生成式模型捕获数据分布的所有模式。

所以这个工作的目的就是提高扩散模型的对数似然

0 提高T

作者发现将T加到4000可以提升对数似然,本节中剩余部分都是使用T=4000T=4000

1 Learning Σθ(xt,t)Σ_θ(x_t, t)

image.png

起初β~t\tilde{\beta}_t非常小,随着扩散步数的增加,βtβ_tβ~t\tilde{\beta}_t几乎相等。 表明,随着扩散步骤增加σtσ_t的选择对样本质量可能根本无关紧要。也就是说,随着我们增加更多的扩散步长,模型均值μθ(xt,t)μ_θ ( x_t , t)Σθ(xt,t)Σ_θ ( x_t , t)更能决定分布。

图2表明扩散过程的前几步对变分下界的贡献最大。因此,似乎可以通过更好地选择Σθ(xt,t)Σ_θ ( x_t , t)来提高对数似然值。

对数域内将方差参数化为βt{\beta}_tβ~t\tilde{\beta}_t之间的插值更好。 模型输出一个每维包含一个分量的向量vv,我们将这个输出转化为方差如下: Σθ(xt,t)=exp(vlogβt+(1v)logβ~t)\Sigma_\theta\left(x_t, t\right)=\exp \left(v \log \beta_t+(1-v) \log \tilde{\beta}_t\right)

Since Lsimple L_{\text {simple }} doesn't depend on Σθ(xt,t)\Sigma_\theta\left(x_t, t\right), we define a new hybrid objective: Lhybrid =Lsimple +λLvlbL_{\text {hybrid }}=L_{\text {simple }}+\lambda L_{\mathrm{vlb}}

2 Improving the Noise Schedule

image.png

线性噪声调度对高分辨率图像效果较好,但对于分辨率为64 × 64和32 × 32的图像效果欠佳。并且在这些分辨率下,前向加噪过程的末尾噪声太大,因此对样本质量的贡献不大。

image.png

图四:反向过程跳步达到20%的时候对FID也不会有什么明显影响。

综上,本文αtα_t构造了一个不同的噪声调度: αˉt=f(t)f(0),f(t)=cos(t/T+s1+sπ2)2\bar{\alpha}_t=\frac{f(t)}{f(0)}, \quad f(t)=\cos \left(\frac{t / T+s}{1+s} \cdot \frac{\pi}{2}\right)^2 βt=1αˉtαˉt1\beta_t=1-\frac{\bar{\alpha}_t}{\bar{\alpha}_{t-1}} 限制βt0.999β_t\leq0.999,以防止在扩散过程接近t=Tt = T时出现奇怪现象。

image.png

图5可以看出,线性方差表更快地将图片破坏为噪声,但是cos方差表在t=0t=0t=Tt=T 附近变化很小,以防止噪声水平的突然变化。

开始时噪声太小会让网络难以准确地预测ϵ\epsilon,因此使用一个小的偏移量s=0.008s = 0.008,以防止在 t=0t=0 附近βtβ_t太小。

cos2cos^2纯属巧合,作者想要一个两端平滑中间线性下降的函数,换成别的能work也可以。

3 Reducing Gradient Noise

理论上直接优化 LvlbL_{vlb} 可以获得更好地对数似然。但是下图可以看到,实际中LvlbL_{vlb}很难优化,甚至LhyvridL_{hyvrid}获得更好的对数似然。但是他们俩噪声都很大。

image.png

直接优化 LvlbL_{vlb},但是要寻找一种降低其方差的方法。因为图2中不同项差的量级很大,作者猜测是因为时间步均匀采样导致的梯度噪声大,所以提出了重要性采样的方法: Lvlb=Etpt[Ltpt], where ptE[Lt2] and pt=1L_{\mathrm{vlb}}=E_{t \sim p_t}\left[\frac{L_t}{p_t}\right] \text {, where } p_t \propto \sqrt{E\left[L_t^2\right]} \text { and } \sum p_t=1

由于 E[Lt2]E[L_t^2] 无法获取准确值, 所以保存每个时间步前 10 次的损失求平均来估计, 这样损失越大的时间步采样频率越低, 从而整体上可以保证损失的稳定性。

使用重要性采样单独训练 LvlbL_{vlb} 确实有效,损失也更稳定了。 直接训练 LhybridL_{hybrid} 的损失也可以降到和使用重要性采样的 LvlbL_{vlb} 差不多, 损失曲线稍微不稳定一点,所以可以自由选择。

(来自 其他4

个人觉得第二句话有问题。重要性采样对于 LvlbL_{vlb} 确实有效,但是对于 LhybridL_{hybrid}原文只提到:

We found that the importance sampling technique was not helpful when optimizing the less-noisy Lhybrid objective directly.

就是对噪声较小的混合目标进行优化时候没有用。

但是对噪声大的地方应该也是有用的,所以重要性采样对LhybridL_{hybrid}也是有效的.

所以训练的时候可以使用 LhybridL_{hybrid}或者 LvlbL_{vlb}

Improving Sampling Speed

image.png

we evaluate FIDs for an LhybridL_{hybrid} model and an LsimpleL_{simple} model that were trained with 4000 steps, using 25, 50, 100, 200, 400, 1000, and 4000 sampling steps.

LhybridL_{hybrid} model with learnt sigmas maintains high sample quality. With this model, 100 sampling steps is sufficient to achieve near-optimal FIDs for our fully trained models.

其他