arXiv 2019
Yanting Pei, Yaping Huang, Xingyuan Zhang
简介
过去的loss大多数都是MSE之类的损失,在视觉上具有更好的吸引力,而对于高级视觉任务则并非总是有更好的性能。文章对此提出了一个CNN网络,包括三个部分:去雾子网(DNet)、分类驱动的对抗生成子网(CCGAN)、与图像分类相关的分类子网(CNet)。这个设计使去雾结果在视觉上和图像分类方面都具有更好的表现。
Model
去雾子网负责去雾,其结构为对称的U-net。
Classification-driven CGAN网络负责区别去雾图像和无雾图像。Generator为VGG网络删除全连接层的结构,而Discriminator负责鉴别区别去雾图像和无雾图像。
Classification Sub-network为分类网络,网络结构来自ResNet50。
损失函数
除了MSE损失以外,文章还设计了两个损失,分别为GAN网络的对抗损失和分类器的交叉熵损失:
在实验中,权重系数分别设置为500,1,1.
数据和训练
数据集
CUB-200-2011 Caltech256 CUB-200-2011数据集包含来自200个类别的11788张图像,其中5994张为训练集(20%作验证集)和5794张为测试集。Caltech-256数据集包含来自257个类别的30,607张图像,从每个类别中选择60张图像作为训练图像(20%作验证集),其余的作为测试图像。
训练设置
- 学习率为0.0002
- Adam优化器