⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 mybp.cpp

📁 修改以后的BP人工神经网络
💻 CPP
字号:
#include "StdAfx.h"
#include <iostream>
#include <iomanip>
#include "stdlib.h"
#include "math.h"
#include "stdio.h"
#include "time.h"
#include <fstream>
#define N 80 //学习样本个数
#define IN 1 //输入层神经元数目
#define HN 3 //隐层神经元数目
#define ON 1 //输出层神经元数目
#define Pc 20 //模拟样本数
#define Pre_error 3.1 //预定误差
#define a 0.5//输出层至隐层的学习效率
#define b 0.5//隐层至输入层学习效率

double P[IN]; //单个样本输入数据
double T[ON]; //单个样本教师数据
double W[HN][IN]; //输入层至隐层权值
double V[ON][HN]; //隐层至输出层权值
double X[HN]; //隐层的输入
double Y[ON]; //输出层的输入
double H[HN]; //隐层的输出
double O[ON]; //输出层的输出
double YU_HN[HN]; //隐层的阈值
double YU_ON[ON]; //输出层的阈值
double err_m[N]; //第m个样本的总误差
double maxbound[IN],minbound[IN];//归一化的最大最小值
double maxbound_o[ON],minbound_o[ON];//归一化结果

//定义一个放学习样本的结构
struct SD{
double input[IN]; //输入在上面定义是一个	
double teach[ON]; //输出在上面定义也是一个
}Study_Data[N];//学习样本

SD pp[Pc];

unsigned __int64 __cdecl Gt()
{
	__asm _emit 0x0F
	__asm _emit 0x31
}

using namespace std;
///////////////////////////
//初始化权、阈值子程序/////
///////////////////////////
int initial(void)
{
//隐层权、阈值初始化//
	srand((int)Gt());

	for(int i=0;i<HN;i++)
	{
		for(int j=0;j<IN;j++)
			W[i][j]= (double)((rand()/32767.0)*2-1); //初始化输入层到隐层的权值,随机模拟0 和 1 -1	
	}
	for(int ii=0;ii<ON;ii++)
	{
		for(int jj=0;jj<HN;jj++)
			V[ii][jj]= (double)((rand()/32767.0)*2-1); //初始化隐层到输出层的权值,随机模拟0 和 1 -1
	}
	for(int k=0;k<HN;k++)
	{
		YU_HN[k] = (double)((rand()/32767.0)*2-1);  //隐层阈值初始化 ,-0.01 ~ 0.01 之间
	}
	for(int kk=0;kk<ON;kk++)
	{
		YU_ON[kk] = (double)((rand()/32767.0)*2-1); //输出层阈值初始化 ,-0.01 ~ 0.01 之间
	}
  return 1;
}//子程序initial()结束

void RI(void)
{
	for(int i=0;i<HN;i++)
	{
		for(int j=0;j<IN;j++)
			if(rand()%7==0)W[i][j]= (double)((rand()/32767.0)*2-1); //初始化输入层到隐层的权值,随机模拟0 和 1 -1	
	}
	for(int ii=0;ii<ON;ii++)
	{
		for(int jj=0;jj<HN;jj++)
			if(rand()%3)V[ii][jj]= (double)((rand()/32767.0)*2-1); //初始化隐层到输出层的权值,随机模拟0 和 1 -1
	}
	for(int k=0;k<HN;k++)
	{
		if(rand()%3)YU_HN[k] = (double)((rand()/32767.0)*2-1);  //隐层阈值初始化 ,-0.01 ~ 0.01 之间
	}
	for(int kk=0;kk<ON;kk++)
	{
		if(rand()%3)YU_ON[kk] = (double)((rand()/32767.0)*2-1); //输出层阈值初始化 ,-0.01 ~ 0.01 之间
	}
}
////////////////////////////////
////第m个学习样本输入子程序///
///////////////////////////////
int input_P(int m)
{
for (int i=0;i<IN;i++)
 P[i]=Study_Data[m].input[i];
//获得第m个样本的数据
return 1;
}//子程序input_P(m)结束

/////////////////////////////
////第m个样本教师信号子程序//
/////////////////////////////
int input_T(int m)
{
	for (int k=0;k<ON;k++)
		T[k]=Study_Data[m].teach[k];
	return 1;
}//子程序input_T(m)结束


/////////////////////////////////
//隐层各单元输入、输出值子程序///
/////////////////////////////////
int H_I_O(void)
{
	double sigma;
	int i,j;
	for (j=0;j<HN;j++)
	{
		sigma=0.0;
		for (i=0;i<IN;i++)
		{
			sigma+=W[j][i]*P[i];//求隐层内积
		}
		X[j]=sigma+YU_HN[i];//求隐层净输入,为什么减隐层的阀值
		H[j]=1.0/(1.0+exp(-X[j]));//求隐层输出 siglon算法
	}
	return 1;
}//子程序H_I_O()结束


///////////////////////////////////
//输出层各单元输入、输出值子程序///
///////////////////////////////////
int O_I_O(void)
{
	double sigma;
	for (int k=0;k<ON;k++)
	{
		sigma=0.0;
		for (int j=0;j<HN;j++)
		{
			sigma+=V[k][j]*H[k];//求输出层内积
		}
		Y[k]=sigma+YU_ON[k]; //求输出层净输入
		O[k]=1.0/(1.0+exp(-Y[k]));//求输出层输出
	}
	return 1;
}//子程序O_I_O()结束


////////////////////////////////////
//输出层至隐层的一般化误差子程序////
////////////////////////////////////
double d_err[ON];
int Err_O_H(int m)
{
	double abs_err[ON];//每个样本的绝对误差都是从0开始的
	double sqr_err=0;//每个样本的平方误差计算都是从0开始的
	for (int k=0;k<ON;k++)
	{
		abs_err[k]=T[k]-O[k];//求第m个样本下的第k个神经元的绝对误差
		sqr_err+=(abs_err[k])*(abs_err[k]);//求第m个样本下输出层的平方误差
		d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]输出层各神经元的一般化误差
	}
	err_m[m]=sqr_err/ON;//第m个样本下输出层的平方误差/2=第m个样本的均方误差
	return 1;
}//子程序Err_O_H(m)结束


////////////////////////////////////
//隐层至输入层的一般化误差子程序////
////////////////////////////////////
double e_err[HN];
int Err_H_I(){
	double sigma;
	for (int j=0;j<HN;j++)
	{
		sigma=0.0;
		for (int k=0;k<ON;k++)
		{
			sigma+=d_err[k]*V[k][j];
		}
		e_err[j]=sigma*H[j]*(1-H[j]);//隐层各神经元的一般化误差
	}
	return 1;
}//子程序Err_H_I()结束


////////////////////////////////////////////////////////
//输出层至隐层的权值调整、输出层阈值调整计算子程序//////
////////////////////////////////////////////////////////
int Delta_O_H(int m)
{
	for (int k=0;k<ON;k++)
	{
		for (int j=0;j<HN;j++)
		{
			V[k][j]+=a*d_err[k]*H[j];//输出层至隐层的权值调整
		}
		YU_ON[k]+=a*d_err[k];//输出层至隐层的阈值调整
	}
	return 1;
}//子程序Delta_O_H()结束


/////////////////////////////////////////////////////
//隐层至输入层的权值调整、隐层阈值调整计算子程序/////
/////////////////////////////////////////////////////
int Delta_H_I(int m)
{
	for (int j=0;j<HN;j++)
	{
		for (int i=0;i<IN;i++) 
		{
			W[j][i]+=b*e_err[j]*P[i];//隐层至输入层的权值调整
		}
		YU_HN[j]+=b*e_err[j];
	}
	return 1;
}//子程序Delta_H_I()结束



/////////////////////////////////
//N个样本的全局误差计算子程序////
/////////////////////////////////
double Err_Sum()
{
	double total_err=0;
	for (int m=0;m<N;m++)
	{
		total_err+=err_m[m];//每个样本的均方误差加起来就成了全局误差
	}
	return total_err;
}//子程序Err_sum()结束

int GetTrainingData()
{
	ifstream GetTrainingData ( "train.txt", ios::in );
	ofstream outMinmaxFile( "minmax.txt", ios::out );

	for(int m=0;m<N;m++)
	{
		for(int i=0;i<IN;i++)
		{
			GetTrainingData>>Study_Data[m].input[i];  //取得输入数据
		}
		for(int j=0;j<ON;j++)
		{
			GetTrainingData>>Study_Data[m].teach[j];  //取得输出数据
		}
	}
	for(int i=0;i<IN;i++)
	{
		maxbound[i]=minbound[i]=Study_Data[0].input[i];
		for(int m=0;m<N;m++)
		{
			if(Study_Data[m].input[i]>maxbound[i])maxbound[i]=Study_Data[m].input[i];
			if(Study_Data[m].input[i]<minbound[i])minbound[i]=Study_Data[m].input[i];
		}
		for(int m=0;m<N;m++)
		{
			Study_Data[m].input[i]=(Study_Data[m].input[i]-minbound[i])/(maxbound[i]-minbound[i]);
		}
		outMinmaxFile<<minbound[i]<<"\t"<<maxbound[i]<<endl;
	}
	for(int i=0;i<ON;i++)
	{
		maxbound_o[i]=minbound_o[i]=Study_Data[0].teach[i];
		for(int m=0;m<N;m++)
		{
			if(Study_Data[m].teach[i]>maxbound_o[i])maxbound_o[i]=Study_Data[m].teach[i];
			if(Study_Data[m].teach[i]<minbound_o[i])minbound_o[i]=Study_Data[m].teach[i];
		}
		for(int m=0;m<N;m++)
		{
			Study_Data[m].teach[i]=(Study_Data[m].teach[i]-minbound_o[i])/(maxbound_o[i]-minbound_o[i]);
		}
		outMinmaxFile<<minbound_o[i]<<"\t"<<maxbound_o[i]<<endl;
	}

	outMinmaxFile.close();
	GetTrainingData.close();
	return 1;
}
void loadquan(void)
{
	ifstream inQuanFile( "wv.txt", ios::in );
	ifstream inYuFile( "bv.txt", ios::in );
	for(int i=0;i<HN;i++)
	{
		for(int j=0;j<IN;j++)
		{
			inQuanFile>>W[i][j];
		}
	}
	for(int ii=0;ii<ON;ii++)
	{
		for(int jj=0;jj<HN;jj++)
		{
			inQuanFile>>V[ii][jj];
		}
	}
	for(int k=0;k<ON;k++)
	{
		inYuFile>>YU_ON[k];  //输出层阈值写入文本
	}
	for(int kk=0;kk<HN;kk++)
	{
		inYuFile>>YU_HN[kk];  //隐层阈值写入文本
	}
	inYuFile.close();
	inQuanFile.close();
}

void savequan()
{
	ofstream outQuanFile( "wv.txt", ios::out );
	ofstream outYuFile( "bv.txt", ios::out );
	for(int i=0;i<HN;i++)
	{
		for(int j=0;j<IN;j++)
		{
			outQuanFile<<W[i][j]<<"   ";
		}
		outQuanFile<<"\n";
	}
	for(int ii=0;ii<ON;ii++)
	{
		for(int jj=0;jj<HN;jj++)
		{
			outQuanFile<<V[ii][jj]<<"   ";
		}
		outQuanFile<<"\n";
	}
	for(int k=0;k<ON;k++)
	{
		outYuFile<<YU_ON[k]<<"  ";  //输出层阈值写入文本
	}
	for(int kk=0;kk<HN;kk++)
	{
		outYuFile<<YU_HN[kk]<<"  ";  //隐层阈值写入文本
	}
	outYuFile.close();
	outQuanFile.close();
}

void GetPData(void)
{
	ifstream GetData( "p.txt", ios::in );
	ifstream outMinmaxFile( "minmax.txt", ios::in );

	for(int m=0;m<Pc;m++)
	{
		for(int i=0;i<IN;i++)
		{
			GetData>>pp[m].input[i];  //取得输入数据
		}
	}
	for(int i=0;i<IN;i++)
	{
		outMinmaxFile>>minbound[i]>>maxbound[i];
		for(int m=0;m<Pc;m++)
		{
			if(pp[m].input[i]>maxbound[i])pp[m].input[i]=maxbound[i];
			if(pp[m].input[i]<minbound[i])pp[m].input[i]=minbound[i];
			pp[m].input[i]=(pp[m].input[i]-minbound[i])/(maxbound[i]-minbound[i]);
		}
	}
	for(int i=0;i<ON;i++)
	{
		outMinmaxFile>>minbound_o[i]>>maxbound_o[i];
		for(int m=0;m<Pc;m++)
		{
			pp[m].teach[i]=(pp[m].teach[i]-minbound_o[i])/(maxbound_o[i]-minbound_o[i]);
		}
	}

	outMinmaxFile.close();
	GetData.close();
}

/**********************/
/**程序入口,即主程序**/
/**********************/


void main1()
{
double sum_err,uue=0;
int study=0;//训练次数

GetTrainingData();
initial(); //隐层、输出层权、阈值初始化 (1) 
do
{
	++study; 
	for (int m=0;m<N;m++) 
	{
		input_P(m); //输入第m个学习样本 (2)
		input_T(m);//输入第m个样本的教师信号 (3)
		H_I_O(); //第m个学习样本隐层各单元输入、输出值 (4)
		O_I_O(); //第m个学习样本输出层各单元输入、输出值 (5)
		Err_O_H(m); //第m个学习样本输出层至隐层一般化误差 (6) 
		Err_H_I(); //第m个学习样本隐层至输入层一般化误差 (7)
		Delta_O_H(m); //第m个学习样本输出层至隐层权阈值调整、修改 (8)
		Delta_H_I(m); //第m个学习样本隐层至输入层权阈值调整、修改 (9)
	} //全部样本训练完毕
	sum_err=Err_Sum(); //全部样本全局误差计算 (10)
	if(fabs(uue-sum_err)<0.001)RI();
	uue=sum_err;
	if(study>>16){cout<<sum_err<<endl;study=0;}
}while (sum_err > Pre_error); 
savequan();
}

void main2()
{
	ofstream outResultFile( "r.txt", ios::out );
	GetPData();
	loadquan(); //隐层、输出层权、阈值初始化 (1)
	for (int m=0;m<Pc;m++) 
	{
		P[0]=pp[m].input[0];
		P[1]=pp[m].input[1];
		H_I_O(); //第m个学习样本隐层各单元输入、输出值 (4)
		O_I_O(); //第m个学习样本输出层各单元输入、输出值 (5)
		outResultFile<<(O[0]*(maxbound_o[0]-minbound_o[0])+minbound_o[0])<<endl;
	} //全部完毕
	outResultFile.close();
}

void main()
{
	int k;
	cout<<"input chiose"<<endl;
	cin>>k;
	if(k==1)main1();
	else main2();
}

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -