cnn介绍

164 阅读3分钟

深度学习之卷积神经网络CNN及tensorflow代码实现示例

卷积神经网络CNN的结构一般包含这几个层:

输入层:用于数据的输入
卷积层:使用卷积核进行特征提取和特征映射
激励层:由于卷积也是一种线性运算,因此需要增加非线性映射
池化层:进行下采样,对特征图稀疏处理,减少数据运算量。
全连接层:通常在CNN的尾部进行重新拟合,减少特征信息的损失
输出层:用于输出结果

当然中间还可以使用一些其他的功能层:

归一化层(Batch Normalization):在CNN中对特征的归一化
切分层:对某些(图片)数据的进行分区域的单独学习
融合层:对独立进行特征学习的分支进行融合

在这里插入图片描述

这个最简单的卷积神经网络说到底,终究是起到一个分类器的作用
卷积层负责提取特征,采样层负责特征选择,全连接层负责分类—知乎账号:蒋竺波

卷积层:

在这里插入图片描述
黄色矩阵称为 卷积核 ;将感受视野对输入的扫描间隔称为 步长(stride) ;当步长比较大时(stride>1),为了扫描到边缘的一些特征,感受视野可能会“出界”,这时需要对边界扩充(pad),边界扩充可以设为或 其他值。步长 和 边界扩充值的大小由用户来定义。

卷积核的大小由用户来定义,即定义的感受视野的大小;卷积核的权重矩阵的值,便是卷积神经网络的参数,为了有一个偏移项 ,卷积核可附带一个偏移项,它们的初值可以随机来生成,可通过训练进行变化。

因此 感受视野 扫描时可以计算出下一层神经元的值为:

对下一层的所有神经元来说,它们从不同的位置去探测了上一层神经元的特征。

我们将通过 一个带有卷积核的感受视野 扫描生成的下一层神经元矩阵 称为 一个feature map (特征映射图),如下图的右边便是一个 feature map:

在这里插入图片描述
因此在同一个 feature map 上的神经元使用的卷积核是相同的,因此这些神经元 shared weights,共享卷积核中的权值和附带的偏移。一个 feature map 对应 一个卷积核,若我们使用 3 个不同的卷积核,可以输出3个feature map:(感受视野:5×5,布长stride:1)

在这里插入图片描述
因此在CNN的卷积层,我们需要训练的参数大大地减少到了。

假设输入的是 28×28的RGB图片,即输入的是一个 3×28×28 的的二维神经元,这时卷积核的大小不只用长和宽来表示,还有深度,感受视野也对应的有了深度,如下图所示:
在这里插入图片描述
由图可知:感受视野: 3×2×23×2×2; 卷积核:3×2×23×2×2,深度为3;下一层的神经元的值为:
在这里插入图片描述

. 卷积核的深度和感受视野的深度相同,都由输入数据来决定,长宽可由自己来设定,数目也可以由自己来设定,一个卷积核依然对应一个 feature map 。

在这里插入图片描述

激励层:

非线性层(ReLU)
激励层主要对卷积层的输出进行一个非线性映射,因为卷积层的计算还是一种线性计算。使用的激励函数一般为ReLu函数:
f(x)=max(x,0)

卷积层和激励层通常合并在一起称为“卷积层”。

池化层:

Pooling层
4个或者9个相邻的点取最大值
在这里插入图片描述