1.背景介绍
生成对抗网络(Generative Adversarial Network)GAN) 是一种基于深度学习的无监督学习方法,可以用来生成或者改造已有的数据集。它由两个相互竞争的神经网络组成:一个生成器(Generator)网络和一个判别器(Discriminator)网络。生成器网络的任务是在随机输入上生成新的样本,而判别器网络的任务是判断输入的样本是否是合法的、真实的还是假的。这两个网络通过不断地交流,逐渐地训练出能够欺骗判别器的生成器网络,最终得到一组生成样本,这些样本看起来就像是自然产生的样本一样。GAN 可用于图像、音频等高维度数据的建模、模拟、转换、采样、增强和采样。在自然语言处理领域,GAN 可用来生成文本,并在一定程度上增加模型的多样性。由于 GAN 的两阶段结构和非凡的训练过程,使得 GAN 在复杂的数据分布上也有着很好的表现。
2.核心概念与联系
生成器网络
生成器网络是一个由随机变量到数据空间(比如图像或文本)的映射函数,其输出被称为生成样本。为了实现这个目标,生成器网络会接收随机噪声向量作为输入,通过一系列的变换,输出一个符合要求的样本。对于图像来说,生成器通常会将随机噪声输入到一个卷积神经网络(CNN),然后输出一张具有所需特征的图片。对于文本来说,生成器可能首先会将随机噪声输入到一个循环神经网络(RNN),然后再将生成出的词向量输入到另一个 RNN 中,输出一个符合语法和语义的句子。
判别器网络
判别器网络是一个二分类器,它的任务是区分样本是真实的还是生成的。判别器网络接受一个样本作为输入,并输出一个概率值,表示该样本是真实的概率。如果生成器网络生成了真实的样本,则判别器应该能够准确预测出这一事件;反之,判别器应该能够发现生成器网络生成的假样本。
概率分布
GAN 使用了生成分布和判别分布两种不同的概率分布,生成分布由生成器网络生成的样本构成,判别分布由真实样本和生成样本的集合构成。如下图所示: 其中:
- 为真实分布,表示来自于数据集的真实样本。
- 为生成分布,表示由生成器网络生成的样本。
- 为生成器网络的参数。
- 为判别器网络的参数。
生成器网络损失函数
生成器网络的目的是让判别器无法区分生成样本和真实样本,因此,生成器网络需要最大化判别器输出的误判概率。具体地,生成器网络希望其生成样本能够使得判别器输出低置信度(即 ) ,即: 其中 表示数据分布, 表示从数据分布中抽取样本 。
判别器网络损失函数
判别器网络的目的是让生成器网络更容易生成真实的样本而不是虚假的样本,因此,判别器网络需要最小化生成器网络输出的误判概率。具体地,判别器网络希望其判别真实样本时输出高置信度(即 ),同时希望其判别生成样本时输出低置信度(即 )。判别器网络损失函数为: 其中 和 分别表示真实分布和生成分布。
3.核心算法原理和具体操作步骤以及数学模型公式详细讲解
生成器网络
生成器网络由一系列的卷积层、激活层和下采样层构成。生成器网络的输入是随机噪声向量,输出是由卷积层、激活层和下采样层生成的一张图片。如下图所示:
判别器网络
判别器网络由一系列的卷积层、激活层和全连接层构成。判别器网络的输入是一张图片,输出是生成器网络生成的图片与真实图片的概率。如下图所示:
正向传播
训练判别器
判别器网络的训练目标是最小化生成器网络的损失,所以在每一次迭代开始前,都先计算生成器网络生成的样本,并把它送入判别器网络,计算它的预测值和标签之间的交叉熵(Cross Entropy Loss)。然后利用反向传播更新判别器参数。
训练生成器
生成器网络的训练目标是最大化判别器网络的损失,所以在每一次迭代开始前,都先计算判别器网络的预测值,并把真实样本作为标签。然后利用反向传播更新生成器参数。
Wasserstein距离
Wasserstein距离是衡量两个分布之间的距离的一种度量方式。其定义为两个分布之间的差异之和的期望值,即: 其中和分别表示两个分布,表示的期望值,表示的期望值。当这两个分布属于同一个分布时,Wasserstein距离的值等于0;当比要小的时候,Wasserstein距离的值大于0;当远离的时候,Wasserstein距离的值小于0。 在生成对抗网络中,判别器网络的目标是最小化Wasserstein距离,因为这样就可以促使生成器网络生成的样本接近真实数据分布,从而训练出健壮的模型。在损失函数计算时,使用如下公式: 其中, 分别表示第 i 个真实样本和第 j 个噪声向量, 表示样本个数, 表示判别器网络对第 i 个真实样本的预测结果, 表示生成器网络生成的第 j 个样本, 表示判别器网络的所有可训练参数, 表示正则化系数。
数据扩增
在原始数据集上进行数据扩增,通过数据扩增来提升数据集的质量,是提高生成性能的重要手段。主要有以下三种方式:
- 翻转:对图片进行水平或垂直方向的镜像,比如水平翻转后,将图片从左边移到了右边。这种方式的好处是可以通过增加训练数据数量来扩大数据集规模。缺点是引入大量冗余数据,降低了模型的泛化能力。
- 裁剪:随机裁剪图片中的一部分,去掉一些背景信息。
- 对比度调整:调节图像的对比度,改变图片的亮度和对比度。
超参数选择
判别器网络参数
判别器网络的学习率、优化器、损失函数等参数都是需要根据实际情况进行调整的,一般采用Adam优化器,学习率设为0.0002~0.00005之间。损失函数选择二元交叉熵(Binary Crossentropy),用于衡量真实样本和生成样本之间的分类问题。
生成器网络参数
生成器网络的学习率、优化器、损失函数等参数也是需要根据实际情况进行调整的,一般采用Adam优化器,学习率设为0.0002~0.00005之间。损失函数选择最小化Wasserstein距离,即对应于判别器的最大化损失。
其他超参数
噪声维度和批量大小是影响模型性能的关键参数,它们需要根据实际情况进行调整。噪声维度越高,生成的样本就越逼真,但代价就是计算量也相应增加,模型的训练速度也会减慢。批量大小一般设置为16~128之间,效果最佳。
4.具体代码实例和详细解释说明
数据集加载
在深度学习领域,训练模型往往依赖于海量的训练数据,然而获取大量的高质量训练数据十分难度。在图像领域,可以使用像 ImageNet、CIFAR-10 这样的大型公开数据集。在文本领域,可以使用像 IMDB 或 WikiText2 数据集。这里,我们使用 MNIST 数据集,它包含数字的灰度图。
import tensorflow as tf
(train_images, _), (_, _) = tf.keras.datasets.mnist.load_data()
train_images = train_images.reshape(train_images.shape[0], 28, 28, 1).astype('float32') / 255.
模型构建
GAN 模型包括生成器网络和判别器网络。生成器网络用于生成数据,判别器网络用于辨别数据是否来自于真实数据集。
生成器网络
生成器网络由一系列的卷积层、激活层和下采样层组成。我们设置卷积核的数量、尺寸、步长等参数。
from tensorflow.keras import layers, models
latent_dim = 100
generator = models.Sequential([
layers.Dense(7*7*256, input_dim=latent_dim),
layers.Reshape((7, 7, 256)),
layers.Conv2DTranspose(128, (5, 5), strides=(1, 1), padding='same', use_bias=False),
layers.BatchNormalization(),
layers.Activation('relu'),
layers.Conv2DTranspose(64, (5, 5), strides=(2, 2), padding='same', use_bias=False),
layers.BatchNormalization(),
layers.Activation('relu'),
layers.Conv2DTranspose(1, (5, 5), strides=(2, 2), padding='same', use_bias=False, activation='tanh'),
])
判别器网络
判别器网络由一系列的卷积层、激活层和全连接层组成。我们设置卷积核的数量、尺寸、步长等参数。
discriminator = models.Sequential([
layers.Conv2D(64, (5, 5), strides=(2, 2), padding='same', input_shape=[28, 28, 1]),
layers.LeakyReLU(alpha=0.2),
layers.Dropout(0.3),
layers.Conv2D(128, (5, 5), strides=(2, 2), padding='same'),
layers.LeakyReLU(alpha=0.2),
layers.Dropout(0.3),
layers.Flatten(),
layers.Dense(1),
layers.Activation('sigmoid'),
])
模型编译
我们使用 Wasserstein 距离作为评估标准,并且配置生成器网络和判别器网络的参数。
cross_entropy = tf.keras.losses.BinaryCrossentropy(from_logits=True)
def discriminator_loss(real_output, fake_output):
real_loss = cross_entropy(tf.ones_like(real_output), real_output)
fake_loss = cross_entropy(tf.zeros_like(fake_output), fake_output)
total_loss = real_loss + fake_loss
return total_loss
def generator_loss(fake_output):
return cross_entropy(tf.ones_like(fake_output), fake_output)
generator_optimizer = tf.keras.optimizers.Adam(lr=0.0002, beta_1=0.5)
discriminator_optimizer = tf.keras.optimizers.Adam(lr=0.0002, beta_1=0.5)
模型训练
我们配置训练参数,包括训练轮数、批量大小、初始学习率、衰减率、是否保存模型等。
checkpoint_dir = './training_checkpoints'
checkpoint_prefix = os.path.join(checkpoint_dir, "ckpt")
checkpoint = tf.train.Checkpoint(generator_optimizer=generator_optimizer,
discriminator_optimizer=discriminator_optimizer,
generator=generator,
discriminator=discriminator)
EPOCHS = 50
BATCH_SIZE = 128
noise_dim = 100
num_examples_to_generate = 16
seed = tf.random.normal([num_examples_to_generate, noise_dim])
@tf.function
def train_step(images):
noise = tf.random.normal([BATCH_SIZE, noise_dim])
with tf.GradientTape() as gen_tape, tf.GradientTape() as disc_tape:
generated_images = generator(noise, training=True)
real_output = discriminator(images, training=True)
fake_output = discriminator(generated_images, training=True)
gen_loss = generator_loss(fake_output)
disc_loss = discriminator_loss(real_output, fake_output)
gradients_of_generator = gen_tape.gradient(gen_loss, generator.variables)
gradients_of_discriminator = disc_tape.gradient(disc_loss, discriminator.variables)
generator_optimizer.apply_gradients(zip(gradients_of_generator, generator.variables))
discriminator_optimizer.apply_gradients(zip(gradients_of_discriminator, discriminator.variables))
for epoch in range(EPOCHS):
start = time.time()
for image_batch in dataset:
train_step(image_batch)
# Generate after the final epoch
generate_and_save_images(generator, epoch+1, seed)
# Save the model every 15 epochs
if (epoch + 1) % 15 == 0:
checkpoint.save(file_prefix = checkpoint_prefix)
print ('Time for epoch {} is {} sec'.format(epoch + 1, time.time()-start))
# Generate after the final epoch
generate_and_save_images(generator, epochs, seed)
模型推理
我们可以用训练好的模型来做推理,输入一个噪声向量,然后得到对应的生成图片。
def generate_and_save_images(model, epoch, test_input):
predictions = model(test_input, training=False)
fig = plt.figure(figsize=(4,4))
for i in range(predictions.shape[0]):
plt.subplot(4, 4, i+1)
plt.imshow(predictions[i, :, :, 0] * 127.5 + 127.5, cmap='gray')
plt.axis('off')
plt.show()