深度学习——卷积结构(复习-正课)

27 阅读1分钟

卷积神经网络——主要层次

数据输入层:Input Layer

卷积计算层:CONV Layer

ReLU激励层:ReLU Incentive Layer

池化层:Pooling Layer

全连接层:FC Layer

备注:可能有

一般的结构

输入——卷积——激活——池化(——卷积——激活——池化)(——卷积——激活——池化)——全连接

为什么要做预处理

image.png

输入数据单位不同,可能导致神经网络收敛速度慢,训练时间长

数据范围大的输入在模式分类中的作用可能偏大,而数据范围小的作用就有可能偏小

由于神经网络中存在的激活函数是有值域限制的,因此需要将网络训练的目标数据映射到激活函数的值域

S形激活函数的(4,4)区域很平缓,区分度太小。例如S悉尼港函数f(X),f(100)与f(5).只相差0.0067

常见3种数据预处理方式

  • 去均值
    • 把中心点设为0点,然后做标准化
  • 标准化
    • 选个平均分,往上是正值,往下是负值。
  • PCA
    • 降维(去掉特征与特征之间的相关性)
  • 白化
    • 白化是在PCA的基础上,对转换后的数据每个数据轴上的幅度进行标准化