Multi-Scale Boosted Dehazing Network with Dense Feature Fusion

1,088 阅读2分钟

Multi-Scale Boosted Dehazing Network with Dense Feature Fusion

CVPR 2020

Hang Dong1 Jinshan Pan2 Lei Xiang1 Zhe Hu3 Xinyi Zhang1 Fei Wang1 Ming-Hsuan Yang4,5

章理登 2020-06-27

简介

文章提出了一个基于U-net架构的具有密集特征融合的多尺度Boosting去雾网络,它在解码器中加入了基于Boosting的策略,基于反投影反馈方案设计了一个密集特征融合模块。

Model

网络结构如图所示,其中步长为1、2的卷积层和步长为2的反卷积层均为普通卷积层。文章重点介绍了SOS Boosted Module、Dense Feature Fusion Module。Residual Group是普通的基于残差网络的残差连接块。

SOS Boosted Module

在去噪Boosting算法中,核心为以下公式:

\hat{J}^{n+1}=g(I+\hat{J}^n)-\hat{J}^n

\hat{J}^n为第n次去噪结果,g(\cdot)为去噪算法。其中I+\hat{J}^n目的在于提高信噪比,并且防止去噪结果被过度平滑,而减去\hat{J}^n目的在于维持可迭代性。 文章据此提出以下公式:

j^n=\mathcal{G}_{{\theta}_n}^n(i^n+(j^{n+1})\uparrow_2)-(j^{n+1})\uparrow_2

观察整体网络图可知,i^n为同一层(同一尺度)下的编码器输出的特征,j^{n+1}j^n的上一层的输出结果。即如上图e所示,和图d不同的是,将输入的特征图相加后,并在输出结果上减去。

Dense Feature Fusion Module

Dense Feature Fusion Module模仿了超分辨率中的迭代反投影技术:

\hat{H}_{t+1}=\hat{H}_t+h(f(\hat{H}_t)-L_{ob})

\hat{H}_t表示第t轮超分辨率的输出结果,L_{ob}表示初始低分辨率图像,f(\cdot)表示下采样操作,h(\cdot)表示反投影算子。

Dense Feature Fusion Module模块如上图所示,其中使用了类似于超分辨率中的迭代反投影技术。

此外,文章使用LReLU代替一般的ReLU。

数据和训练

数据集

随机缩放[0.5,1.0],随机裁切256*256的块,并执行随机水平和垂直翻转。

  • RESIDE
  • NTIRE2018
  • HazeRD

对比算法

  • DCP
  • NLD
  • AOD
  • MSCNN
  • MsPPN
  • DcGAN
  • GFN
  • GCANet
  • PFFNet
  • GDN
  • DuRN

训练设置

  • Adam优化器
  • 初始学习率10^{-4}
  • 学习率每10轮乘以0.75
  • 批大小为16

对比和测试

测试指标

  • PSNR
  • SSIM
  • CIEDE2000

指标对比

结果展示

消融研究