📄 rbfgrad.m
字号:
function main()
%%基于梯度法的RBF网设计算法
tic
SamNum=100; %训练样本数
TargetSamNum=101; %测试样本数
UnitNum=10; %隐节点数
InDim=1; %输入样本维数
MaxEpoch=5000; %最大训练次数
E0=0.9; %目标误差
%根据样本目标函数获得样本输入/输出
rand('state',sum(100*clock)) %产生均匀分布的随机矩阵,元素0.0-1.0
NoiseVar=0.1;
Noise=NoiseVar*randn(1,SamNum); %产生正态分布的随机矩阵
SamIn=8*rand(1,SamNum)-4;
SamOutNoise=1.1*(1-SamIn+2*SamIn.^2).*exp(-SamIn.^2/2);
SamOut=SamOutNoise+Noise;
TargetIn=-4:0.08:4;
TargetOut=1.1*(1-TargetIn+2*TargetIn.^2).*exp(-TargetIn.^2/2);
figure
hold on
grid
plot(SamIn,SamOut,'r+')
plot(TargetIn,TargetOut,'g-')
xlabel('Inputx');
ylabel('Outputy');
Center=8*rand(InDim,UnitNum)-4;%中心
SP=0.2*rand(1,UnitNum)+0.1;%扩展常数
W=0.2*rand(1,UnitNum)-0.1;%权值
lrCent=0.001; %隐节点数据中心学习系数
lrSP=0.001; %隐节点扩展常数学习系数
lrW=0.001; %隐节点输出权值学习系数
ErrHistory=[]; %用于记录每次参数调整后的训练误差
for epoch=1:MaxEpoch
AllDist=dist(Center',SamIn);
SPMat=repmat(SP',1,SamNum);
UnitOut=radbas(AllDist./SPMat); %radbas是径向基函数
NetOut=W*UnitOut;
Error=SamOut-NetOut;
%停止学习判断
SSE=sumsqr(Error);
%记录每次权值调整后的训练误差
ErrHistory=[ErrHistory SSE];
if SSE<E0
break;
end
for i=1:UnitNum
CentGrad=(SamIn-repmat(Center(:,i),1,SamNum))*(Error.*UnitOut(i,:)*W(i)/(SP(i)^2))';%中心的梯度
SPGard=AllDist(i,:).^2*(Error.*UnitOut(i,:)*W(i)/(SP(i)^3))';%扩展常数的梯度
WGard=Error*UnitOut(i,:)';%权值的梯度
Center(:,1)=Center(:,1)+lrCent*CentGrad;
SP(i)=SP(i)+lrSP*SPGard;
W(i)=W(i)+lrW*WGard;
end
end
%测试
TestDistance=dist(Center',TargetIn);
TestSpreadsMat=repmat(SP',1,TargetSamNum);
TestHiddenOut=radbas(TestDistance./TestSpreadsMat);
TestNNOut=W*TestHiddenOut;
plot(TargetIn,TestNNOut,'b-')
toc
%绘制学习误差曲线
figure
hold on
grid
[xx,Num]=size(ErrHistory);
plot(1:Num,ErrHistory,'k-');
epoch
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -