本文已参与「新人创作礼」活动,一起开启掘金创作之路
读书使人充实,讨论使人机智,笔记使人准确...。凡有所学,皆成性格。 ———— (英国)培根
多层前向神经网络原理介绍
多层前向神经网络原理介绍 | |
---|---|
多层前向神经网络(MLP)是神经网络中的一种, 它由一些最基本的神经元即节点组成, 如图1。除输入层外, 每一节点的输入为前一层所有节点输出值的和。 每一节点的激励输出值由节点输入、 激励函数及偏置量决定。 |
第i层为各节点的输入, 通常需要归一化到-1和1之间
在第层,节点的输入值为:
其中为阈值,正阈值的作用将激励函数沿轴向左平移 节点的输出值为:
式中为节点的激励函数,通常选择如下 函数:
在第k层的网络节点输入为:
而输出为:
对每一个输入的模式样本,平方误差,为:
全部学习样本总误差为:
在学习过程中,系统将调整连接权和阀值,使尽可能快地下降。
Matlab相关函数介绍
网络初始化函数
net= newff([,],[],{})
和分别为列向量,存储各样本数据的最小值和最大值;
第2个输入变量是一个行向量,输入各层节点数;
第3个输入变量是字符串,代表该层的传输函数.
常用
还可以用设定参数
设定迭代次数
Net.train.Param.epochs=1000
设定带动量的梯度下降算法(让学习的速度更快)
Net.train.Fcn='traingm'
网络训练函数
[net,tr,Y1,E1]=train(net,X,Y)
其中X为n×M矩阵,n为输入变量的个数,M为样本数 Y为m×M矩阵,m为输出变量的个数。 net为返回后的神经网络对象,tr为训练跟踪数据,tr.perf为各步目标函数值。 Y1为网络的最后输出,E1为训练误差向量
网络泛化函数
Y2=sim(net,X1) 其中X1为输入数据矩阵, 各列为样本数据。 Y2为对应输出值
神经网络实验
Matlab程序:
x=0:0.5:10;
y=0.2*exp(-0.2*x)+0.5*exp(-0.15*x).*sin(1.25*x);
plot(x,y) %画原始数据图
net=newff([0,10],[6,1],{'tansig','tansig'});%隐层节点选6个,y是一维为1,输入输出函数都是tansig
net=train(net,x,y); %进行网络训练
x1=0:0.1:10;
y1=sim(net,x1); %数据泛化
plot(x,y,'*',x1,y1,'r'); %作对比图
二图合一
由图像可知神经网络的函数==拟合能力==非常强
例2 蠓的分类(MCM89A)
这里我们可用三层神经网络进行判别。输入为15个二维向量, 输出也为15个二维向量。
其中Af对应的目标向量为(1,0), Apf对应的目标向量为(0,1)。
Matlab程序:
隐藏节点为5个,也可以尝试选择4,6个。网络越复杂可以选择更多,用tansig试试也可以
x=[1.24,1.36,1.38,1.38,1.38,1.40,1.48,1.54,1.56,1.14,1.18,1.20,1.26,1.28,1.30;
1.72,1.74,1.64,1.82,1.90,1.70,1.82,1.82,2.08,1.78,1.96,1.86,2.0, 2.0,1.96];
y=[1,1,1,1,1,1,1,1,1,0,0,0,0,0,0;
0,0,0,0,0,0,0,0,0,1,1,1,1,1,1];
xmin=min(x'); %求各指标最小值 %先转置,因为matlab只能对列求最大,最小,和平均值
xmax=max(x'); %求各指标最大值
net.trainParam.epochs=2500; %设定迭代步数
net=newff([xmin',xmax'],[5,2],{'logsig','logsig'}); %初始化网络
net=train(net,x,y); %进行网络训练
x1=[1.24,1.28,1.40;
1.80,1.84,2.04];%待分样本
y1=sim(net,x1); %数据泛化
plot(x(1,1:9),x(2,1:9),'*',x(1,10:15),x(2,10:15),'o',x1(1,:),x1(2,:),'p') %画数据图
grid on
三个样本输出值: y1=0.1235 0.8995 0.0037 0.8785 0.0951 0.9986
图3 Af, Apf及待分样本数据图