深度学习(一)关于神经网络反向传播权重更新

324 阅读1分钟

为了更好的理解神经网络权重更新,反向传播,链式法则,激活函数,向量,矩阵,b都没严格说明,文章只提供了思路。

单个神经元

线性回归:

[公式]

思路:多个样本x,y训练校正w

两个神经元

线性回归:

[公式]

[公式]

思路:多个样本x,y训练校正w

多层神经元

线性回归:

[公式]

[公式]

[公式]

[公式]

[公式]

思路:

1、中间层t,y训练校正w,完成w1~w6的更新

2、把t1,t2,t3带入到y1,y2,也就没有t1,t2,t3的事了,同样,多个样本x,y训练校正w,,完成w7~w12的更新

多层神经元需要说明的是:损失L是指,该层与最后一层之间的损失,中间层都可以通过嵌套方式由该层的x来表示,就相当于中间层是完全透明的一样。