李宏毅机器学习笔记——卷积神经网络

273 阅读1分钟

1、为什么用CNN

  • 直接用fully connect feedforward network来做影像处理,往往需要太多的参数。CNN做的事就是简化neural network的架构
  • Small region。要知道一个image里面有没有某一个pattern出现,不需要看整张image,只要看image的一小部分。
  • Same Patterns。同样的pattern在image里面,可能会出现在image不同的位置。
  • Subsampling。通过降低图片的像素,不会改变其本质,但可以减少需要的参数。

2、CNN的架构

  • 针对上述的Small region和Same Patterns这两个property,可以用convolution来处理。针对Subsampling,可以用Max Pooling来处理。
  • convolution卷积。3* 3的filter,意味着只看一个3 *3的范围内是否有某一个pattern的出现。通过卷积核从左上角到右下角的移动,相同的计算结果意味着相同的pattern
  • Max pooling池化。通过下采样压缩数据和参数的数量,方法可以有Max Pooling、Average Pooling
  • Flatten。相当于全连接层。

3、卷积层的一种理解

这是我觉得本课节讲得最出彩的地方,让我对convolution和fully connected之间的关系有了更通俗和深刻的理解。

  • convolution就是fully connected拿掉一些weight的结果,以及实现shared weight。

4、CNN学到了什么

这部分的理解暂时不是很通俗,待后续补充