池化操作

31 阅读2分钟

开启掘金成长之旅!这是我参与「掘金日新计划 · 12 月更文挑战」的第二十四天,点击查看活动详情

总结:此文为12月更文计划第二十四天第三十九篇。

池化操作

池化作用: 池化函数使用某一位置的相邻输出的总体统计特征来代替 网络在该位置的输出。本质是 降采样,可以大幅减少网络的参数量。 池化技术的本质:在尽可能保留图片空间信息的前提下,降低图片的尺寸,增 大卷积核感受视野,提取高层特征,同时减少网络参数量,预防过拟合。 简单来说:等比例缩小图片,图片的主体内容丢失不多,依然具有平移,旋转, 尺度的不变性,简单来说就是图片的主体内容依旧保存着原来大部分的空间信息。

最大值池化

能够抑制网络参数误差造成的估计均值偏移的现象。

image.png

Stride 步长为 2,kernel_size 还是池化核,最大值池化就是求最大,而且不补零,

池化操作特点

特点

◆常使用不重叠(池化核的大小与步长相等)、不补零(

padding 为 valid)

◆没有用于求导的参数(没有需要训练的参数,参数个数为 0)

◆池化层的超参数为步长和池化核大小

◆用于减少图像尺寸,从而减少计算量

◆一定程度平移鲁棒

比如一只猫移动了一个像素的另外一张图片,我们先做池化,再做卷积,那么最终还是可以

识别这个猫

◆损失了空间位置精度

image.png

求的是平均值

深度可分离卷积

深度可分离卷积结构,我们把 3 个块的图,替换为 6 个块的图,就完成了深度可分离的卷积 神经网络

image.png

谷歌在 15-16 年引入的 inception V3 模型,这样可以有不同的视野域 由上图可以看出,深度可分离卷积相对于传统卷积,多了 3 层,1x1 Conv,BN 和 ReLU