标题:神经网络和深度学习
课程1的课程主要介绍了深度学习里面的一些基础概念。因为在上一个我学习的ml课程里面有关于神经网络的内容,对于正向传播、反向传播这些算法也有了基础的了解,所以学习起来相对比较容易。 但也有不一样的地方:
- 表示法有一些变化,参数是w和b,且b不能省略;
- 介绍了relu激励函数(之前的ml课程只介绍了sigmoid作为激励函数),在深度神经网络中不会试用sigmoid作为隐层的激励,而只可能用来作为输出层的激励。
- 提出了超参数的概念:model也就是w和b的集合了,而超参数是用于调教w和b的,其中最重要的超参数之一就是learning_rate。deep learning里面的超参数有很多,对超参数的选择和调优非常重要。
- 之前一直拿神经网络和大脑进行类比。吴恩达说经过这么多年的发展,他已经不倾向于这样去简单的对比了,因为这两者之间的联系可能并没有想象的那么紧密,虽然这样的类比inspire了很多深度学习的技术方法,但总的来说深度学习还是在走自己的路,而人脑的神经元的复杂秘密也远远没有被揭示。
- 介绍了python和jupyter notebook, 这将是我们后面学习作业用的环境(当然后面还有tensorflow框架,exciting)。这里所画出来的流程图非常清晰,关于正向传播和反向传播,实际上就正向运算和反向求导,通过链式法则来理解,真的非常的清晰和容易(之前觉得反向传播理解起来还是有些困难的)。
- 介绍的简单的参数随机初始化方法。
- 从实现层面对基础结构的深度神经网络传播算法细节进行了说明。