记录从准研一假期自学PYTHON的全过程day5(深度学习)

133 阅读2分钟

持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第5天,点击查看活动详情

本文已参加【新人创作礼】活动,一起开启掘金创作之路

今天是暑假自学的第五天,昨天没有学习,也就没有更新文章。笔记本电脑电池鼓包了,今天上午去维修电脑,电脑店没有电池现货,需要等两三天。

由于家里台式电脑没有安装pycharm环境,那么这几天就准备看看视频学习一下深度学习。

具体学习的视频就是MOOC上复旦大学赵卫东老师的深度学习课程。

以后几天文章就是观看视频后的学习笔记。

神经网络

神经网络的分类:前馈神经网络,反馈神经网络,自组织神经网络

学习训练算法:监督型学习算法与非监督型学习算法

感知器:结构最简单的前馈神经网络,也称为主机。一个感知器接受n个输入,对应n个权值,拥有函数f=y(x*w+b)

x=(x1,x2,x3···) w=(w1,w2,w3···) 向量乘

b称为偏执值

前馈神经网络

前馈神经网络,使用BP算法,也称为BP神经网络。

分为三层:输入层,隐层,输出层

db549782db5f3c35e2ca14056e7675d.jpg

其中每一个圆圈(感知器)都含有一个偏执值

BP神经网络的训练:

1.初始化网络权值和神经元的阈值,一般通过随机的方式进行初始化

2.前向传播:计算隐藏神经元和输出层神经元的输出

3.后向传播:根据目标函数公式修正权值Wij

如果损失函数J较大的话,反向传播可以用来纠正误差。

*Jmin的求法:求导求极值求最值

使用最优化理论的梯度下降法更新网络权值

激活函数

神经网络的激活函数: Sigmoid,tanh,Relu函数等

1.Sigmoid函数:

f(x)=1/(1+e^(-x))

优点:导数非零,容易计算。

缺点:梯度下降非常明显,输出的值域不对称。

2.双曲正切函数:

image.png

缺点同Sigmoid函数

3.Relu函数

f(x)=max(0,z)

激活函数共同点:非线性,可微,单调(上升),f(x)约等于x,计算值简单,归一。

损失函数:

损失函数(代价函数),评价模型对样本拟合度。预测结果与实际值越接近表示拟合能力越强。当损失函数比较大时,对应的梯度下降比较快。

*惩罚性成本函数:防止过拟合

超参数:学习步长

================================================================

今天学习了一点深度学习的基础知识。明天就要学习一些算法