为了更好的理解神经网络权重更新,反向传播,链式法则,激活函数,向量,矩阵,b都没严格说明,文章只提供了思路。
单个神经元
线性回归:
思路:多个样本x,y训练校正w
两个神经元
线性回归:
思路:多个样本x,y训练校正w
多层神经元
线性回归:
思路:
1、中间层t,y训练校正w,完成w1~w6的更新
2、把t1,t2,t3带入到y1,y2,也就没有t1,t2,t3的事了,同样,多个样本x,y训练校正w,,完成w7~w12的更新
为了更好的理解神经网络权重更新,反向传播,链式法则,激活函数,向量,矩阵,b都没严格说明,文章只提供了思路。
线性回归:
思路:多个样本x,y训练校正w
线性回归:
思路:多个样本x,y训练校正w
线性回归:
思路:
1、中间层t,y训练校正w,完成w1~w6的更新
2、把t1,t2,t3带入到y1,y2,也就没有t1,t2,t3的事了,同样,多个样本x,y训练校正w,,完成w7~w12的更新