📄 mybp.cpp
字号:
#include "iostream.h"
#include "iomanip.h"
#include "stdlib.h"
#include "math.h"
#include "stdio.h"
#include "time.h"
#include "fstream.h"
//using namespace std;
#define N 10 //学习样本个数
#define IN 4 //输入层神经元数目
#define HN 8 //隐层神经元数目
#define ON 1 //输出层神经元数目
double P[IN]; //单个样本输入数据
//double PP[IN];//压缩后的样本数据
//double TT[ON];//压缩后的教师数据
double T[ON]; //单个样本教师数据
double W[HN][IN]; //输入层至隐层权值
double V[ON][HN]; //隐层至输出层权值
double X[HN]; //隐层的输入
double Y[ON]; //输入层的输入
double H[HN]; //隐层的输出
double O[ON]; //输出层的输出
double YU_HN[HN]; //隐层的阈值
double YU_ON[ON]; //输出层的阈值
double err_m[N]; //第m个样本的总误差
double a; //输出层至隐层的学习效率
double b; //隐层至输入层学习效率
//定义一个放学习样本的结构
struct
{
double input[IN]; //输入在上面定义是一个
double teach[ON]; //输出在上面定义也是一个
}Study_Data[N];//学习样本
///////////////////////////
//初始化权、阈值子程序/////
///////////////////////////
initial()
{
//隐层权、阈值初始化//
srand( (unsigned)time( NULL ) );
for(int i=0;i<HN;i++)
{
for(int j=0;j<IN;j++)
W[i][j]= (double)((rand()/32767.0)*2-1); //初始化输入层到隐层的权值,-1到1之间的随机值
}
for(int ii=0;ii<ON;ii++)
{
for(int jj=0;jj<HN;jj++)
V[ii][jj]= (double)((rand()/32767.0)*2-1); //初始化隐层到输出层的权值,-1到1之间的随机值
}
for(int k=0;k<HN;k++)
{
YU_HN[k] = (double)((rand()/32767.0)*2-1); //隐层阈值初始化 -1到1之间的随机值
}
for(int kk=0;kk<ON;kk++)
{
YU_ON[kk] = (double)((rand()/32767.0)*2-1); //输出层阈值初始化 ,-1到1之间的随机值
}
return 1;
}//子程序initial()结束
////////////////////////////////
////第m个学习样本输入子程序///
///////////////////////////////
input_P(int m)
{
for (int i=0;i<IN;i++)
P[i]=Study_Data[m].input[i];
//获得第m个样本的数据
return 1;
}//子程序input_P(m)结束
/////////////////////////////
////第m个样本教师信号子程序//
/////////////////////////////
input_T(int m)
{
for (int k=0;k<ON;k++)
T[k]=Study_Data[m].teach[k];
return 1;
}//子程序input_T(m)结束
///////////////////////////
///////数据压缩子程序//////
///////////////////////////
/*compress()
{
double max,min,temp;
double p[N*(IN+ON)];
for(int i=0;i<IN;i++)
{
p[i]=P[i];
}
for(int j=0;j<ON;j++)
{
p[i+j]=T[j];
}
for(int ii=0;ii<IN+ON;ii++)
{
for(int jj=0;jj<IN+ON-ii;jj++)
{
if(p[jj]>p[jj+1])
{
temp=p[jj];
p[jj]=p[jj+1];
p[jj+1]=temp;
}
}
}
max=p[IN+ON-1];
min=p[ON-1];
for(int iii=0;iii<IN;iii++)
{
PP[iii]=0.1+0.8*(P[iii]-0.95*min)/(1.05*max-0.95*min);//压缩后的学生数据
}
for(int jjj=0;jjj<ON;jjj++)
{
TT[jjj]=0.1+0.8*(T[jjj]-0.95*min)/(1.05*max-0.95*min);//压缩后的教师数据
}
return 1;
}*/
//////////////////////////////////
//隐含层各单元输入、输出值子程序//
//////////////////////////////////
H_I_O()
{
double sigma;
int i,j;
for (j=0;j<HN;j++)
{
sigma=0.0;
for (i=0;i<IN;i++)
{
sigma+=W[j][i]*P[i];//求隐层内积
}
X[j]=sigma-YU_HN[i];//求隐层净输入,为什么减隐层的阀值
H[j]=1.0/(1.0+exp(-X[j]));//求隐层输出 siglon算法
}
return 1;
}//子程序H_I_O()结束
///////////////////////////////////
//输出层各单元输入、输出值子程序///
///////////////////////////////////
O_I_O()
{
double sigma;
for (int k=0;k<ON;k++)
{
sigma=0.0;
for (int j=0;j<HN;j++)
{
sigma+=V[k][j]*H[k];//求输出层内积
}
Y[k]=sigma-YU_ON[k]; //求输出层净输入
O[k]=1.0/(1.0+exp(-Y[k]));//求输出层输出
}
return 1;
}//子程序O_I_O()结束
////////////////////////////////////
//输出层至隐层的一般化误差子程序////
////////////////////////////////////
double d_err[ON];
Err_O_H(int m)
{
double abs_err[ON];//每个样本的绝对误差都是从0开始的
double sqr_err=0.0;//每个样本的平方误差计算都是从0开始的
for (int k=0;k<ON;k++)
{
abs_err[k]=T[k]-O[k];
//求第m个样本下的第k个神经元的绝对误差
sqr_err+=(abs_err[k])*(abs_err[k]);//求第m个样本下输出层的平方误差
d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]输出层各神经元的一般化误差
}
err_m[m]=sqr_err/2;//第m个样本下输出层的平方误差/2=第m个样本的均方误差
return 1;
}//子程序Err_O_H(m)结束
////////////////////////////////////
//隐层至输入层的一般化误差子程序////
////////////////////////////////////
double e_err[HN];
Err_H_I()
{
double sigma;
for (int j=0;j<HN;j++)
{
sigma=0.0;
for (int k=0;k<ON;k++)
{
sigma=d_err[k]*V[k][j];
}
e_err[j]=sigma*H[j]*(1-H[j]);//隐层各神经元的一般化误差
}
return 1;
}//子程序Err_H_I()结束
////////////////////////////////////////////////////////
//输出层至隐层的权值调整、输出层阈值调整计算子程序//////
////////////////////////////////////////////////////////
Delta_O_H(int m)
{
for (int k=0;k<ON;k++)
{
for (int j=0;j<HN;j++)
{
V[k][j]+=a*d_err[k]*H[j];//输出层至隐层的权值调整
}
YU_ON[k]+=a*d_err[k];//输出层至隐层的阈值调整
}
return 1;
}//子程序Delta_O_H()结束
/////////////////////////////////////////////////////
//隐层至输入层的权值调整、隐层阈值调整计算子程序/////
/////////////////////////////////////////////////////
Delta_H_I(int m)
{
for (int j=0;j<HN;j++)
{
for (int i=0;i<IN;i++)
{
W[j][i]+=b*e_err[j]*P[i];//隐层至输入层的权值调整
}
YU_HN[j]+=b*e_err[j];
}
return 1;
}//子程序Delta_H_I()结束
/////////////////////////////////
//N个样本的全局误差计算子程序////
/////////////////////////////////
double Err_Sum()
{
double total_err=0;
for (int m=0;m<N;m++)
{
total_err+=err_m[m];//每个样本的均方误差加起来就成了全局误差
}
return total_err;
}//子程序Err_sum()结束
int DataCompress()
{
ifstream GetTrainingData ( "训练样本.txt ", ios::in);
ofstream CompressingData ("归一化训练样本.txt ", ios::out);
double max,min;
// double temp;
double p[N*(IN+ON)+1];
for(int i=0; i < N*(IN+ON); i++)
{
GetTrainingData>>p[i];
}
max=p[0];
for (int o = 1; o < N*(IN+ON); o++)
{
if(max<p[o])
max=p[o];
}
min=p[0];
for (int e = 1; e < N*(IN+ON); e++)
{
if(min>p[e])
min=p[e];
}
for(int iii=0; iii < N*(IN+ON); iii++)
{
p[iii] = 0.1+0.8*(p[iii]-0.95*min)/(1.05*max-0.95*min);
// p[iii] = (p[iii]-min)/(max-min);
}
for(int k = 0; k < N*(IN+ON); k++)
{
if(k%(IN+ON)==0)
CompressingData<<"\n";
CompressingData<<p[k]<<" ";
}
GetTrainingData.close();
CompressingData.close();
return 1;
}
int GetCompressingData()
{
ifstream GetCompressingData("归一化训练样本.txt",ios::in);
for(int m=0;m<N;m++)
{
for(int i=0;i<IN;i++)
{
GetCompressingData>>Study_Data[m].input[i]; //取得归一化后的输入数据
}
for(int j=0;j<ON;j++)
{
GetCompressingData>>Study_Data[m].teach[j]; //取得归一化后的输出数据
}
}
GetCompressingData.close();
return 1;
}
///////////////////////
///保存权值和阈值/////
//////////////////////
void savequan()
{
ofstream outQuanFile( "权值.txt", ios::out );
ofstream outYuFile( "阈值.txt", ios::out );
outQuanFile<<"A\n";
for(int i=0;i<HN;i++)
{
for(int j=0;j<IN;j++)
{
outQuanFile<<W[i][j]<<" ";
}
outQuanFile<<"\n";
}
outQuanFile<<"B\n";
for(int ii=0;ii<ON;ii++)
{
for(int jj=0;jj<HN;jj++)
{
outQuanFile<<V[ii][jj]<<" ";
}
outQuanFile<<"\n";
}
for(int k=0;k<ON;k++)
{
outYuFile<<YU_ON[k]<<" "; //输出层阈值写入文本
}
outYuFile<<"\n\n";
for(int kk=0;kk<HN;kk++)
{
outYuFile<<YU_HN[kk]<<" "; //隐层阈值写入文本
}
outQuanFile.close();
outYuFile.close();
}
/**********************/
/**程序入口,即主程序**/
/**********************/
void main()
{
double sum_err;
int study;//训练次数
a = 0.7;
b = 0.7;
study=0; //学习次数
double Pre_error ; //预定误差
Pre_error = 0.01;
DataCompress();
GetCompressingData();
initial(); //隐层、输出层权、阈值初始化 (1)
do
{
++study;
for (int m=0;m<N;m++)
{
input_P(m); //输入第m个学习样本 (2)
input_T(m);//输入第m个样本的教师信号 (3)
// compress();//压缩样本数据
H_I_O(); //第m个学习样本隐层各单元输入、输出值 (4)
O_I_O(); //第m个学习样本输出层各单元输入、输出值 (5)
Err_O_H(m); //第m个学习样本输出层至隐层一般化误差 (6)
Err_H_I(); //第m个学习样本隐层至输入层一般化误差 (7)
Delta_O_H(m); //第m个学习样本输出层至隐层权阈值调整、修改 (8)
Delta_H_I(m); //第m个学习样本隐层至输入层权阈值调整、修改 (9)
} //全部样本训练完毕
sum_err=Err_Sum(); //全部样本全局误差计算 (10)
cout<<"第"<<study<<"次学习的均方误差为"<<sum_err<<endl;
}while (sum_err > Pre_error);
cout<<"网络已经学习了"<<study<<"次,学习的均方误差为"<<sum_err<<endl;
savequan();
}
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -