WGAN解决了原始 GAN 中的什么问题

410 阅读3分钟

WGAN(Wasserstein GAN)是一种生成对抗网络(GAN)的变体,旨在解决原始 GAN 中的一些问题。具体而言,WGAN 解决了原始 GAN 中的训练不稳定和模式崩溃问题。

在原始 GAN 中,生成器和判别器之间的训练是通过最小化交叉熵损失函数来完成的。然而,交叉熵损失函数存在梯度消失问题,并且很难稳定地训练生成器和判别器。此外,原始 GAN 可能会遭受模式崩溃问题,即生成器仅生成少数几个模式,而不是整个数据分布。

WGAN 通过使用 Wasserstein 距离来替换原始 GAN 中的交叉熵损失函数来解决这些问题。Wasserstein 距离是一种测量两个概率分布之间距离的方法,它可以更准确地衡量两个分布之间的距离,并提供更稳定的训练。 具体来说,在 WGAN 中,生成器和判别器之间的训练是通过最小化判别器将真实样本与生成样本分开的 Wasserstein 距离来完成的。这个距离被称为 WGAN 损失函数。通过使用 WGAN 损失函数,WGAN 可以更好地训练生成器和判别器,并且能够生成更多的模式。

此外,WGAN 还引入了一些技术来帮助训练。其中之一是权重剪切,这是一种在每次更新后限制判别器权重范围的方法。这有助于避免梯度爆炸或梯度消失的问题,并有助于稳定训练。

总之,WGAN 通过使用 Wasserstein 距离和一些技术来解决原始 GAN 中的训练不稳定和模式崩溃问题,使得生成对抗网络能够更稳定地训练,并且可以生成更多的模式。 WGAN解决了原始GAN中的两个主要问题:模式崩溃和难以训练。

在原始GAN中,当生成器开始生成相似的输出时,鉴别器会开始学习相应的区分它们的特征,导致其他生成的输出被忽略或弱化,最终导致模式崩溃。WGAN通过限制鉴别器的权重范数来解决这个问题,强制鉴别器在不同的生成样本之间分配权重,从而保留模式的多样性。

此外,原始GAN的训练过程很不稳定,尤其是在训练开始时。生成器和鉴别器之间的优化竞争会导致训练停滞,生成器输出的样本不符合真实分布。WGAN通过使用Wasserstein距离来代替原始GAN中的JS散度,从而使训练过程更加稳定,鼓励生成器产生更符合真实数据分布的输出。

具体来说,Wasserstein距离是一种距离度量,它表示两个分布之间的距离,并衡量将一个分布转换为另一个分布的最小成本。WGAN中的生成器通过最小化生成样本和真实样本之间的Wasserstein距离来优化,而不是最小化JS散度。这有助于缓解训练过程中的梯度消失和爆炸问题,从而使模型更加稳定和易于训练。