bp.m
来自「破坏力规模-消极效能 很好的bp神经网络实例」· M 代码 · 共 254 行
M
254 行
close all
% clear
echo on
% clc
P=[0.100 0.100 0.100
0.104 0.109 0.109
0.109 0.118 0.118
0.113 0.127 0.127
0.118 0.136 0.136
0.122 0.144 0.144
0.127 0.153 0.153
0.131 0.162 0.162
0.136 0.171 0.171
0.140 0.180 0.180
0.144 0.189 0.189
0.149 0.198 0.198
0.153 0.207 0.207
0.158 0.216 0.216
0.162 0.224 0.224
0.167 0.233 0.233
0.171 0.242 0.242
0.176 0.251 0.251
0.180 0.260 0.260
0.184 0.269 0.269
0.189 0.278 0.278
0.193 0.287 0.287
0.198 0.296 0.296
0.202 0.304 0.304
0.207 0.313 0.313
0.211 0.322 0.322
0.216 0.331 0.331
0.220 0.340 0.340
0.224 0.349 0.349
0.229 0.358 0.358
0.233 0.367 0.367
0.238 0.376 0.376
0.242 0.384 0.384
0.247 0.393 0.393
0.251 0.402 0.402
0.256 0.411 0.411
0.260 0.420 0.420
0.264 0.429 0.429
0.269 0.438 0.438
0.273 0.447 0.447
0.278 0.456 0.456
0.282 0.464 0.464
0.287 0.473 0.473
0.291 0.482 0.482
0.296 0.491 0.491
0.300 0.500 0.500
0.304 0.509 0.509
0.309 0.518 0.518
0.313 0.527 0.527
0.318 0.536 0.536
0.322 0.544 0.544
0.327 0.553 0.553
0.331 0.562 0.562
0.336 0.571 0.571
0.340 0.580 0.580
0.344 0.589 0.589
0.349 0.598 0.598
0.353 0.607 0.607
0.358 0.616 0.616
0.362 0.624 0.624
0.367 0.633 0.633
0.371 0.642 0.642
0.376 0.651 0.651
0.380 0.660 0.660
0.384 0.669 0.669
0.389 0.678 0.678
0.393 0.687 0.687
0.398 0.696 0.696
0.402 0.704 0.704
0.407 0.713 0.713
0.411 0.722 0.722
0.416 0.731 0.731
0.420 0.740 0.740
0.424 0.749 0.749
0.429 0.758 0.758
0.433 0.767 0.767
0.438 0.776 0.776
0.442 0.784 0.784
0.447 0.793 0.793
0.451 0.802 0.802
0.456 0.811 0.811
0.500 0.820 0.820
0.544 0.829 0.829
0.589 0.838 0.838
0.633 0.847 0.847
0.678 0.856 0.856
0.722 0.864 0.864
0.767 0.873 0.873
0.811 0.882 0.882
0.856 0.891 0.891
0.900 0.900 0.900
]'
T=[0.100 0.100 0.100 0.100 0.100
0.100 0.100 0.100 0.101 0.100
0.101 0.101 0.100 0.102 0.100
0.101 0.101 0.100 0.103 0.101
0.101 0.102 0.100 0.103 0.101
0.101 0.102 0.100 0.104 0.101
0.102 0.103 0.101 0.105 0.101
0.102 0.103 0.101 0.106 0.102
0.102 0.104 0.101 0.107 0.102
0.103 0.104 0.101 0.108 0.102
0.103 0.104 0.101 0.108 0.102
0.103 0.105 0.101 0.109 0.103
0.104 0.105 0.101 0.110 0.103
0.104 0.106 0.101 0.111 0.103
0.104 0.106 0.101 0.112 0.103
0.105 0.107 0.101 0.113 0.103
0.105 0.107 0.101 0.114 0.104
0.105 0.108 0.102 0.114 0.104
0.106 0.108 0.102 0.115 0.104
0.106 0.108 0.102 0.116 0.104
0.107 0.113 0.106 0.121 0.107
0.108 0.114 0.106 0.122 0.107
0.109 0.114 0.106 0.123 0.107
0.110 0.115 0.106 0.124 0.107
0.111 0.115 0.107 0.125 0.108
0.112 0.116 0.107 0.125 0.108
0.113 0.116 0.107 0.126 0.108
0.114 0.117 0.107 0.127 0.108
0.115 0.117 0.107 0.128 0.109
0.116 0.117 0.107 0.129 0.109
0.117 0.136 0.117 0.138 0.114
0.119 0.136 0.117 0.139 0.114
0.121 0.137 0.118 0.140 0.114
0.123 0.137 0.118 0.141 0.115
0.125 0.138 0.118 0.141 0.115
0.128 0.138 0.118 0.142 0.115
0.130 0.138 0.118 0.143 0.115
0.132 0.139 0.118 0.144 0.116
0.134 0.139 0.118 0.145 0.116
0.136 0.140 0.118 0.146 0.116
0.139 0.167 0.144 0.168 0.128
0.142 0.167 0.144 0.169 0.128
0.146 0.168 0.144 0.169 0.128
0.149 0.168 0.144 0.170 0.129
0.153 0.169 0.144 0.171 0.129
0.157 0.169 0.144 0.172 0.129
0.160 0.170 0.145 0.173 0.129
0.164 0.170 0.145 0.174 0.129
0.168 0.171 0.145 0.174 0.130
0.171 0.171 0.145 0.175 0.130
0.175 0.221 0.197 0.206 0.148
0.183 0.221 0.197 0.207 0.149
0.192 0.222 0.198 0.208 0.149
0.200 0.222 0.198 0.208 0.149
0.208 0.222 0.198 0.209 0.149
0.216 0.223 0.198 0.210 0.150
0.225 0.223 0.198 0.211 0.150
0.233 0.224 0.198 0.212 0.150
0.241 0.224 0.198 0.213 0.150
0.250 0.225 0.198 0.213 0.151
0.258 0.323 0.322 0.316 0.231
0.271 0.324 0.322 0.317 0.231
0.284 0.324 0.322 0.318 0.231
0.298 0.325 0.322 0.318 0.231
0.311 0.325 0.322 0.319 0.232
0.324 0.326 0.322 0.320 0.232
0.337 0.326 0.322 0.321 0.232
0.351 0.327 0.323 0.322 0.232
0.364 0.327 0.323 0.323 0.233
0.377 0.327 0.323 0.323 0.233
0.390 0.453 0.500 0.477 0.384
0.412 0.454 0.500 0.478 0.384
0.434 0.454 0.500 0.478 0.384
0.456 0.454 0.500 0.479 0.384
0.478 0.455 0.500 0.480 0.385
0.500 0.455 0.500 0.481 0.385
0.521 0.456 0.500 0.482 0.385
0.543 0.456 0.500 0.483 0.385
0.565 0.457 0.500 0.483 0.386
0.587 0.457 0.501 0.484 0.386
0.609 0.632 0.678 0.646 0.565
0.638 0.632 0.678 0.647 0.565
0.667 0.633 0.678 0.648 0.565
0.696 0.633 0.678 0.649 0.566
0.725 0.634 0.678 0.649 0.566
0.754 0.634 0.678 0.650 0.566
0.784 0.635 0.678 0.651 0.566
0.813 0.635 0.678 0.652 0.567
0.842 0.635 0.678 0.653 0.567
0.871 0.636 0.678 0.654 0.567
0.900 0.900 0.900 0.900 0.900
]'
p=[0.82 0.10 0.90
0.90 0.10 0.90
]'
tt=[0.871 0.636 0.678 0.654 0.567
0.900 0.900 0.900 0.900 0.900
]'
y=[0.82 0.10 0.90 ]'
echo off
%clc
net=newcf(minmax(P),[4,8,8,5],{'logsig','tansig','tansig','logsig'},'trainlm');%创建一个新的前向神经网络
%clc
%设计训练参数
net.trainParam.epochs=1000;%训练次数
net.trainParam.show=200;
net.trainParam.max_fail=50;%最大验证失败次数
net.trainParam.lr=0.01;
%net.trainParam.max_perf_inc=1.04;
%net.trainParam.lr_inc=1.05;
%net.trainParam.lr_dec=0.7;
%net.trainParam.lr=0.0008;%学习速率
net.trainParam.min_grad=0;
net.trainParam.goal=0.0001;%网络性能目标
%net.trainParam.time=60;
net.trainParam.mu=0.00001
[net,tr]=train(net,P,T);
%pause
%对网络进行仿真
%仿真训练样本
t=(sim(net,P));
t'
aa=(sim(net,p))
bb=(sim(net,y))
%E=T-A;
%MSE=mse(E)
%pause
%save hedonglm58 net
%clc
%绘制仿真拟合结果曲线
%A'
%aa
%close;
%G=1:1:21
% 红色代表仿真值,绿色代表实际值
%plot(G,A,'r*',G,T,'g*');
%Y=A
%yy=aa-tt
%pause
%echo off
⌨️ 快捷键说明
复制代码Ctrl + C
搜索代码Ctrl + F
全屏模式F11
增大字号Ctrl + =
减小字号Ctrl + -
显示快捷键?