⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 bp神经网络实例.txt

📁 几个BP神经网络程序
💻 TXT
📖 第 1 页 / 共 2 页
字号:
例1 采用动量梯度下降算法训练 BP 网络。  
训练样本定义如下:  
输入矢量为      
 p =[-1 -2 3  1   
     -1  1 5 -3]  
目标矢量为   t = [-1 -1 1 1]  
解:本例的 MATLAB 程序如下:   

close all   
clear   
echo on   
clc   
% NEWFF——生成一个新的前向神经网络   
% TRAIN——对 BP 神经网络进行训练   
% SIM——对 BP 神经网络进行仿真   
pause          
%  敲任意键开始   
clc   
%  定义训练样本   
% P 为输入矢量   
P=[-1,  -2,    3,    1;       -1,    1,    5,  -3];  
% T 为目标矢量   
T=[-1, -1, 1, 1];   
pause;   
clc   
%  创建一个新的前向神经网络   
net=newff(minmax(P),[3,1],{'tansig','purelin'},'traingdm')  
%  当前输入层权值和阈值   
inputWeights=net.IW{1,1}   
inputbias=net.b{1}   
%  当前网络层权值和阈值   
layerWeights=net.LW{2,1}   
layerbias=net.b{2}   
pause   
clc   
%  设置训练参数   
net.trainParam.show = 50;   %训练显示间隔
net.trainParam.lr = 0.05;   %学习补偿
net.trainParam.mc = 0.9;    %动量项系数
net.trainParam.epochs = 1000;   %最大训练次数
net.trainParam.goal = 1e-3;   %最小均方误差
pause   
clc   
%  调用 TRAINGDM 算法训练 BP 网络   
[net,tr]=train(net,P,T);   
pause   
clc   
%  对 BP 网络进行仿真   
A = sim(net,P)   
%  计算仿真误差   
E = T - A   
MSE=mse(E)   
pause   
clc   
echo off   
例2 采用贝叶斯正则化算法提高 BP 网络的推广能力。在本例中,我们采用两种训练方法,即 L-M 优化算法(trainlm)和贝叶斯正则化算法(trainbr),用以训练 BP 网络,使其能够拟合某一附加有白噪声的正弦样本数据。其中,样本数据可以采用如下MATLAB 语句生成:   
输入矢量:P = [-1:0.05:1];   
目标矢量:randn(’seed’,78341223);   
T = sin(2*pi*P)+0.1*randn(size(P));   
解:本例的 MATLAB 程序如下:   
close all   
clear   
echo on   
clc   
% NEWFF——生成一个新的前向神经网络   
% TRAIN——对 BP 神经网络进行训练  
% SIM——对 BP 神经网络进行仿真   
pause          
%  敲任意键开始   
clc   
%  定义训练样本矢量   
% P 为输入矢量   
P = [-1:0.05:1];   
% T 为目标矢量   
randn('seed',78341223); T = sin(2*pi*P)+0.1*randn(size(P));   
%  绘制样本数据点   
plot(P,T,'+');   
echo off   
hold on;   
plot(P,sin(2*pi*P),':');          
%  绘制不含噪声的正弦曲线   
echo on   
clc   
pause   
clc   
%  创建一个新的前向神经网络   
net=newff(minmax(P),[20,1],{'tansig','purelin'});   
pause   
clc   
echo off   
clc  
disp('1.  L-M 优化算法 TRAINLM'); disp('2.  贝叶斯正则化算法 TRAINBR');   
choice=input('请选择训练算法(1,2):');   
figure(gcf);   
if(choice==1)                   
    echo on           
    clc           
    %  采用 L-M 优化算法 TRAINLM   
    net.trainFcn='trainlm';           
    pause           
    clc           
    %  设置训练参数           
    net.trainParam.epochs = 500;           
    net.trainParam.goal = 1e-6;           
    net=init(net);          
    %  重新初始化             
    pause           
    clc  
elseif(choice==2)           
    echo on           
    clc           
    %  采用贝叶斯正则化算法 TRAINBR           
    net.trainFcn='trainbr';           
    pause           
    clc           
    %  设置训练参数           
    net.trainParam.epochs = 500;           
    randn('seed',192736547);           
    net = init(net);          
    %  重新初始化             
    pause           
    clc           
end  
% 调用相应算法训练 BP 网络  
[net,tr]=train(net,P,T);  
pause  
clc  
% 对 BP 网络进行仿真  
A = sim(net,P);  
% 计算仿真误差  
E = T - A;  
MSE=mse(E)  
pause  
clc  
% 绘制匹配结果曲线  
close all;  
plot(P,A,P,T,'+',P,sin(2*pi*P),':');  
pause;  
clc  
echo off  

通过采用两种不同的训练算法,我们可以得到如图 1和图 2所示的两种拟合结果。图中的实线表示拟合曲线,虚线代表不含白噪声的正弦曲线,“+”点为含有白噪声的正弦样本数据点。显然,经 trainlm 函数训练后的神经网络对样本数据点实现了“过度匹配”,而经 trainbr 函数训练的神经网络对噪声不敏感,具有较好的推广能力。  

值得指出的是,在利用 trainbr 函数训练 BP 网络时,若训练结果收敛,通常会给出提示信息“Maximum MU reached”。此外,用户还可以根据 SSE 和 SSW 的大小变化情况来判断训练是否收敛:当 SSE 和 SSW 的值在经过若干步迭代后处于恒值时,则通常说明网络训练收敛,此时可以停止训练。观察trainbr 函数训练 BP 网络的误差变化曲线,可见,当训练迭代至 320 步时,网络训练收敛,此时 SSE 和 SSW 均为恒值,当前有效网络的参数(有效权值和阈值)个数为 11.7973。  
例3 采用“提前停止”方法提高 BP 网络的推广能力。对于和例 2相同的问题,在本例中我们将采用训练函数 traingdx 和“提前停止”相结合的方法来训练 BP 网络,以提高 BP 网络的推广能力。  
解:在利用“提前停止”方法时,首先应分别定义训练样本、验证样本或测试样本,其中,验证样本是必不可少的。在本例中,我们只定义并使用验证样本,即有  
验证样本输入矢量:val.P = [-0.975:.05:0.975]  
验证样本目标矢量:val.T = sin(2*pi*val.P)+0.1*randn(size(val.P))  
值得注意的是,尽管“提前停止”方法可以和任何一种 BP 网络训练函数一起使用,但是不适合同训练速度过快的算法联合使用,比如 trainlm 函数,所以本例中我们采用训练速度相对较慢的变学习速率算法 traingdx 函数作为训练函数。  
本例的 MATLAB 程序如下:  
close all  
clear  
echo on  
clc  
% NEWFF——生成一个新的前向神经网络  
% TRAIN——对 BP 神经网络进行训练  
% SIM——对 BP 神经网络进行仿真  
pause  
% 敲任意键开始  
clc  
% 定义训练样本矢量  
% P 为输入矢量  
P = [-1:0.05:1];  
% T 为目标矢量  
randn('seed',78341223);  
T = sin(2*pi*P)+0.1*randn(size(P));  
% 绘制训练样本数据点  
plot(P,T,'+');  
echo off  
hold on;  
plot(P,sin(2*pi*P),':'); % 绘制不含噪声的正弦曲线  
echo on  
clc  
pause  
clc  
% 定义验证样本  
val.P = [-0.975:0.05:0.975]; % 验证样本的输入矢量  
val.T = sin(2*pi*val.P)+0.1*randn(size(val.P)); % 验证样本的目标矢量  
pause  
clc  
% 创建一个新的前向神经网络  
net=newff(minmax(P),[5,1],{'tansig','purelin'},'traingdx');  
pause  
clc  
% 设置训练参数  
net.trainParam.epochs = 500;  
net = init(net);  
pause  
clc  
% 训练 BP 网络  
[net,tr]=train(net,P,T,[],[],val);  
pause  
clc  
% 对 BP 网络进行仿真  
A = sim(net,P);  
% 计算仿真误差  
E = T - A;  
MSE=mse(E)  
pause  
clc  
% 绘制仿真拟合结果曲线  
close all;  
plot(P,A,P,T,'+',P,sin(2*pi*P),':');  
pause;  
clc  
echo off  
下面给出了网络的某次训练结果,可见,当训练至第 136 步时,训练提前停止,此时的网络误差为 0.0102565。给出了训练后的仿真数据拟合曲线,效果是相当满意的。  
[net,tr]=train(net,P,T,[],[],val);  
TRAINGDX, Epoch 0/500, MSE 0.504647/0, Gradient 2.1201/1e-006  
TRAINGDX, Epoch 25/500, MSE 0.163593/0, Gradient 0.384793/1e-006  
TRAINGDX, Epoch 50/500, MSE 0.130259/0, Gradient 0.158209/1e-006  
TRAINGDX, Epoch 75/500, MSE 0.086869/0, Gradient 0.0883479/1e-006  
TRAINGDX, Epoch 100/500, MSE 0.0492511/0, Gradient 0.0387894/1e-006  
TRAINGDX, Epoch 125/500, MSE 0.0110016/0, Gradient 0.017242/1e-006  
TRAINGDX, Epoch 136/500, MSE 0.0102565/0, Gradient 0.01203/1e-006  
TRAINGDX, Validation stop. 



3.BP神经网络用于设备故障预测
% 运用比例共轭梯度动量算法来训练        BP网络
clear all;
pause(1);
P=[0.1452 0.1466 0.1314 0.2243 0.3523 0.4642 0.5015 0.6981 0.7821 0.8345 0.9649 1.156 0.2415 0.3027 0;
   0.1217 0.1581 0.1408 0.2304 0.3143 0.4312 0.5819 0.7125 0.8065 0.8647 0.9726 1.132 0.2385 0.3125 0;
   0.1525 0.1627 0.1507 0.2406 0.3502 0.4636 0.5051 0.7352 0.8459 0.8915 0.9654 1.156 0.2216 0.2701 1;
   0.1016 0.1105 0.1234 0.1978 0.3021 0.4232 0.5819 0.6952 0.8015 0.8725 0.9825 1.095 0.2352 0.2506 0.5;
   0.1115 0.1201 0.1312 0.2019 0.3532 0.4736 0.5029 0.7032 0.8189 0.8619 0.9365 1.125 0.2542 0.3125 0;
   0.1335 0.1322 0.1534 0.2214 0.3623 0.4827 0.5198 0.7276 0.8359 0.8906 0.9592 1.143 0.2601 0.3198 0;
   0.1368 0.1432 0.1653 0.2205 0.3823 0.4971 0.5136 0.7129 0.8263 0.8953 0.9891 1.137 0.2579 0.3099 0;
   0.1342 0.1368 0.1602 0.2131 0.3726 0.4822 0.5101 0.7098 0.8127 0.8921 0.9995 1.126 0.2301 0.2867 0.5;
   0.1113 0.1212 0.1305 0.1819 0.3952 0.4312 0.5886 0.6898 0.7999 0.8423 0.9721 1.095 0.2234 0.2799 1;
   0.1005 0.1121 0.1207 0.1605 0.3556 0.4022 0.5553 0.6673 0.7798 0.8623 0.9521 1.087 0.2314 0.2977 0]';
T=[0.1217 0.1581 0.1408 0.2304 0.3143 0.4312 0.5819 0.7125 0.8265 0.8847 0.9826 1.132;
   0.1525 0.1627 0.1507 0.2406 0.3502 0.4636 0.5051 0.7352 0.8459 0.8915 0.9464 1.156;
   0.1016 0.1105 0.1234 0.1978 0.3021 0.4232 0.5819 0.6952 0.8015 0.8825 0.9825 1.102;
   0.1115 0.1201 0.1312 0.2019 0.3532 0.4736 0.5029 0.7032 0.8189 0.8919 0.9965 1.125;
   0.1335 0.1322 0.1534 0.2214 0.3623 0.4827 0.5198 0.7276 0.8359 0.8506 0.9892 1.123;
   0.1368 0.1432 0.1653 0.2205 0.3823 0.4971 0.5136 0.7129 0.8263 0.8953 0.9691 1.117;
   0.1342 0.1368 0.1602 0.2131 0.3726 0.4822 0.5101 0.7098 0.8127 0.8921 0.9995 1.126;
   0.1113 0.1212 0.1305 0.1819 0.3952 0.4312 0.5886 0.6898 0.7999 0.8323 0.9721 1.156;
   0.1005 0.1121 0.1207 0.1605 0.3556 0.4022 0.5553 0.6673 0.7798 0.8623 0.9521 1.156;
   0.1123 0.1257 0.1343 0.2079 0.3579 0.4716 0.5459 0.7145 0.8205 0.8901 0.9419 1.136]';
threshold=[0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1];

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -