📄 bpclose.m
字号:
function main()
SamNum=100; %训练样本数
TestSamNum=100; %测试样本数
HiddenUnitNum=10; %隐节点数
InDim=1; %样本输入维数
OutDim=1; %样本输出维数
% 根据目标样本获得样本输入输出
SamIn=0.01*pi:0.02*pi:2*pi;
SamOut=sin(SamIn);
TestSamIn=0.01*pi:0.02*pi:2*pi;
TestSamOut=sin(TestSamIn);
figure
hold on
grid
plot(TestSamIn,TestSamOut,'k--')
xlabel('Input x');
ylabel('Output y');
MaxEpochs=50000; %最大训练次数
lr=0.005; %前期学习率
E0=1; %前期目标误差
W1=0.2*rand(HiddenUnitNum,InDim)-0.1; %输入层到隐层的权值
B1=0.2*rand(HiddenUnitNum,1)-0.1; %隐节点初始偏移
W2=0.2*rand(OutDim,HiddenUnitNum)-0.1; %隐层到输出层的初始权值
B2=0.2*rand(OutDim,1)-0.1; %输出层初始偏移
W1Ex=[W1 B1]
W2Ex=[W2 B2]
SamInEx=[SamIn' ones(SamNum,1)]'
ErrHistory=[];
for i=1:MaxEpochs
%正向传播网络输出
HiddenOut=logsig(W1Ex*SamInEx);
HiddenOutEx=[HiddenOut' ones(SamNum,1)]';
NetworkOut=W2Ex*HiddenOutEx;
%停止学习判断
Error=SamOut-NetworkOut;
SSE=sumsqr(Error)
%记录每次权值调整后的训练误差
ErrHistory=[ErrHistory SSE];
switch round(SSE*10)
case 4
lr=0.003;
case 3
lr=0.001;
case 2
lr=0.0005;
case 1
lr=0.01;
case 0
break;
otherwise
lr=0.005;
end
%计算方向传播误差
Delta2=Error;
Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);
%计算权值调节量
dW2Ex=Delta2*HiddenOutEx';
dW1Ex=Delta1*SamInEx';
%权值调节
W1Ex=W1Ex+lr*dW1Ex;
W2Ex=W2Ex+lr*dW2Ex;
%分离隐层到输出层的初始权值,以便后面使用
W2=W2Ex(:,1:HiddenUnitNum);
end
%显示计算结果
i
W1=W1Ex(:,1:InDim)
B1=W1Ex(:,InDim+1)
W2
B2=W2Ex(:,1+HiddenUnitNum);
%测试
TestHiddenOut=logsig(W1*TestSamIn+repmat(B1,1,TestSamNum));
TestNNOut=W2*TestHiddenOut+repmat(B2,1,TestSamNum);
plot(TestSamIn,TestNNOut,'r*')
%绘制学习误差曲线
figure
hold on
grid
[xx,Num]=size(ErrHistory);
plot(1:Num,ErrHistory,'k-');
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -