EfficientNetV2

274 阅读1分钟

本文已参与「新人创作礼」活动,一起开启掘金创作之路。

在之前文章EfficientNetV1 - 掘金 (juejin.cn)讲过EfficientNetV1,现在讲讲EfficientNetV2

EfficientNetV2:arxiv.org/abs/2104.00…

EfficientNetV2

卷积后跟有BN及silu激活函数

网络亮点

EfficientNetV2

  • 引入Fused-MBConv模块
  • 引入渐进式学习策略(训练更快)(该方法会根据输入图像尺寸动态调节正则方法:Dropout、Rand Augment、Mixup)

网络结构

EfficientNetV2

V1存在的问题

  • 训练图像尺寸很大时,训练速度很慢
  • 在网络浅层中使用DW卷积速度会很慢
  • 同等的放大每个stage是次优的

Fused-MBConv模块

源码搭建中没有使用SE,可能NAS搜索的有,但是实际发现不使用更好

只有有shortcut才有Dropout

Dropout

参数

300是指最大图像尺寸为300,由于采用了渐进式的学习策略,输入尺寸是会变的,验证时候384是固定的,这里的dropout是指pooling和FC之间的失活率

渐进式学习策略

size=128时,rand augment等级为5时效果最好,size=300时,等级为15时最好

所以使用不同的训练size时,正则化方法的强度也要调整

伪代码为正则化强度如何随着图像尺寸变化的

线性插值,也就是个线性变换