📄 wj.m
字号:
%BP网络的第一阶段学习期(训练加权系数wki,wij)
%初始化
lr=0.05;err_goal=0.0002;%lr为修正权植的学习速率;err_goal为期望误差最小植
max_epoch=1000; a=0.9;%max_epoch为训练的最大次数
Oi=0;Ok=0;%置隐含层和输出层各神经元输出初值为零
%提供一组训练集和目标值(1输入,1输出)
pi=3.1416;b=1;%b是要逼近的函数中的一参数,可选1,2,4,8
X=-2:0.1:2;T=1+sin((b/4)*pi*X);
%初始化Wki,Wij(M为输入节点j的数量;q为隐含层节点i的数量;L为输出节点k的数量)
[M,N]=size(X);q=6;[L,N]=size(T);%N为训练集对数量
Wij=rand(q,M);Wki=rand(L,q);
Wij0=zeros(size(Wij));Wki0=zeros(size(Wki));
for epoch=1:max_epoch
%计算隐含层各神经元输出
NETi=Wij*X;
for j=1:N
for i=1:q
Oi(i,j)=1/(1+exp(-NETi(i,j)));
end
end
%计算输出层各神经元输出
NETk=Wki*Oi;
for i=1:N
for k=1:L
Ok(k,i)=NETk(k,i);
end
end
%计算误差函数
E=((T-Ok)'*(T-Ok))/2;
if(E<err_goal) break;end
%调整输出层加权系数
deltak=2*Ok.*(1-Ok).*(T-Ok);
W=Wki;
Wki=Wki+lr*deltak*Oi';
Wki0=W;
%调整隐含层加权系数
deltai=Oi.*(1-Oi).*(deltak'*Wki)';
W=Wij;
Wij=Wij+lr*deltai*X'+a*(Wij-Wij0);
Wij0=W;
end
epoch%显示计算次数
%BP网络的第二阶段工作期(根据训练好的Wki,Wij和给定的输入计算输出)
X1=X;%给定输入
%计算隐含层各神经元输出
NETi=Wij*X1;
for j=1:N
for i=1:q
Oi(i,j)=1/(1+exp(-NETi(i,j)));
end
end
%计算输出层各神经元输出
NETk=Wki*Oi;
for i=1:N
for k=1:L
Ok(k,i)=NETk(k,i);
end
end
SSE=mae(E);
Ok,q,SSE%显示网络输出层的输出,隐含层节点i的数量,平均绝对误差
plot(X,T,'+',X,Ok)
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -