模型轻量化方法

1,152 阅读1分钟

压缩再扩展 SqueezeNet

先使用1*1的卷积降低通道数,然后用多尺度卷积进行计算(类似于inception结构),最后将两个特征图进行通道拼接。先压缩再扩展的方法应用很广,可以有效减少计算量。 SqueezeNet还使用了Deep compression技术,将参数量化,减少浮点运算,模型大小可以压缩到0.5MB。

深度可分离卷积 MobileNet

标准多通道卷积运算将区域信息和通道信息统一在一步运算中,若将这区域信息和通道信息分别采用逐通道的3 * 3卷积运算和1 * 1卷积运算改变通道数,可以减少计算量为标准3 *3卷积的1/9。

分组卷积与通道混洗 ShuffleNet

由于深度可分离卷积无法改变通道数,因而需要增加1*1的逐点卷积。相对深度可分离卷积而言,1 *1逐点卷积计算量较大,为进一步降低计算量,可以将1 *1逐点卷积替换为分组卷积和通道混洗。分组卷积可以将计算量减少为标准卷积的1/G,G为分组数,然而分组卷积限制了组间通道信息融合,因而使用通道混洗,将特征图之间的通道信息融合。

BN层合并

网络剪枝

权重量化

张量分解

知识蒸馏