卷积神经网络——主要层次
数据输入层:Input Layer
卷积计算层:CONV Layer
ReLU激励层:ReLU Incentive Layer
池化层:Pooling Layer
全连接层:FC Layer
备注:可能有
一般的结构
输入——卷积——激活——池化(——卷积——激活——池化)(——卷积——激活——池化)——全连接
为什么要做预处理
输入数据单位不同,可能导致神经网络收敛速度慢,训练时间长
数据范围大的输入在模式分类中的作用可能偏大,而数据范围小的作用就有可能偏小
由于神经网络中存在的激活函数是有值域限制的,因此需要将网络训练的目标数据映射到激活函数的值域
S形激活函数的(4,4)区域很平缓,区分度太小。例如S悉尼港函数f(X),f(100)与f(5).只相差0.0067
常见3种数据预处理方式
- 去均值
- 把中心点设为0点,然后做标准化
- 标准化
- 选个平均分,往上是正值,往下是负值。
- PCA
- 降维(去掉特征与特征之间的相关性)
- 白化
- 白化是在PCA的基础上,对转换后的数据每个数据轴上的幅度进行标准化