⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 bp.cpp

📁 BP神经网络程序,C语言源代码 如下: #include "iostream.h" #include "iomanip.h" #include "stdlib.h" #include "ma
💻 CPP
字号:
#include "iostream.h"
#include "iomanip.h"
#include "stdlib.h"
#include "math.h"
#include "stdio.h"
#include "time.h"
#include "fstream.h"
#define N 120 //学习样本个数
#define IN 3 //输入层神经元数目
#define HN 2 //隐层神经元数目
#define ON 2 //输出层神经元数目
#define Z 20000 //旧权值保存-》每次study的权值都保存下来
double P[IN]; //单个样本输入数据
double T[ON]; //单个样本教师数据
double U11[IN][HN]; //输入层至第一隐层权值
double V[HN][ON]; //隐层至输出层权值
double X1[HN]; //第一隐层的输入
double Y[ON]; //输出层的输入
double H1[HN]; //第一隐层的输出
double O[ON]; //输出层的输出
double YU_HN1[HN]; //第一隐层的阈值
double YU_ON[ON]; //输出层的阈值
double err_m[N]; //第m个样本的总误差
double a; //学习效率
double alpha;  //动量因子

//定义一个放学习样本的结构
struct {
double input[IN]; //输入在上面定义是五个        
double teach[ON]; //输出在上面定义是三个
}Study_Data[N];//学习样本

//bp算法用来保存每次计算的权值
struct {
double old_U11[IN][HN];  //保存输入层至隐层权值旧权
double old_V[HN][ON];  //保存隐层至输出层旧权
}Old_WV[Z];


saveWV(int m)
{
	for(int i=0;i<IN;i++)
	{
		for(int j=0;j<HN;j++)
		{
			Old_WV[m].old_U11[i][j] = U11[i][j];
		}
	}
	for(int i3=0;i3<HN;i3++)
	{
		for(int j3=0;j3<ON;j3++)
		{
			Old_WV[m].old_V[i3][j3] = V[i3][j3];
		}
	}
	return 1;
}

///////////////////////////
//初始化权、阈值子程序/////
///////////////////////////
initial()
{
	//隐层权、阈值初始化//
    srand( (unsigned)time( NULL ) );

    for(int i=0;i<HN;i++)
    {
		for(int j=0;j<IN;j++)
			U11[j][i]= (double)((rand()/32767.0)*2-1); //初始化输入层到第一隐层的权值,随机模拟0 和 1 -1        
	}

    for(int i3=0;i3<ON;i3++)
    {
		for(int j3=0;j3<HN;j3++)
			V[j3][i3]= (double)((rand()/32767.0)*2-1); //初始化隐层到输出层的权值,随机模拟0 和 1 -1
    }
    for(int k=0;k<HN;k++)
    {
		YU_HN1[k] = (double)((rand()/32767.0)*2-1);  //第一隐层阈值初始化 ,-0.01 ~ 0.01 之间
    }

    for(int kk=0;kk<ON;kk++)
    {
		YU_ON[kk] = (double)((rand()/32767.0)*2-1); //输出层阈值初始化 ,-0.01 ~ 0.01 之间
    }
	return 1;
}//子程序initial()结束


////////////////////////////////
////第m个学习样本输入子程序///
///////////////////////////////
input_P(int m)
{
	for (int i=0;i<IN;i++)
	P[i]=Study_Data[m].input[i];
	//获得第m个样本的数据
	return 1;
}//子程序input_P(m)结束

/////////////////////////////
////第m个样本教师信号子程序//
/////////////////////////////
input_T(int m)
{
	for (int k=0;k<ON;k++)
	T[k]=Study_Data[m].teach[k];
	return 1;
}//子程序input_T(m)结束


/////////////////////////////////
//隐层各单元输入、输出值子程序///
/////////////////////////////////
H_I_O()
{
	double sigma;
	int i,j;
	//第一隐层
	for (j=0;j<HN;j++)
	{
		sigma=0.0;
        for (i=0;i<IN;i++)
			sigma+=U11[i][j]*P[i];//求第一隐层内积
                
		X1[j]=sigma - YU_HN1[j];//求第一隐层净输入
		H1[j]=1.0/(1.0+exp(-X1[j]));//求第一隐层输出sigmoid算法
	}
	return 1;
}//子程序H_I_O()结束


///////////////////////////////////
//输出层各单元输入、输出值子程序///
///////////////////////////////////
O_I_O()
{
	double sigma;
	for (int k=0;k<ON;k++)
	{
		sigma=0.0;
		for (int j=0;j<HN;j++)
		{
/*			sigma+=V[k][j]*H3[k];//求输出层内积*/
			sigma+=V[j][k]*H1[j];//求输出层内积
		}
		Y[k]=sigma-YU_ON[k]; //求输出层净输入
		O[k]=1.0/(1.0+exp(-Y[k]));//求输出层输出
	}
	return 1;
}//子程序O_I_O()结束


////////////////////////////////////
//输出层至隐层的一般化误差子程序////
////////////////////////////////////
double d_err[ON];
Err_O_H(int m)
{
	double abs_err[ON];//每个样本的绝对误差都是从0开始的
	double sqr_err=0;//每个样本的平方误差计算都是从0开始的
	for (int k=0;k<ON;k++)
	{
		abs_err[k]=T[k]-O[k];
		//求第m个样本下的第k个神经元的绝对误差
		sqr_err+=(abs_err[k])*(abs_err[k]);//求第m个样本下输出层的平方误差
		d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]输出层各神经元的一般化误差
	}
	err_m[m]=sqr_err/2;//第m个样本下输出层的平方误差/2=第m个样本的均方误差
	return 1;
}//子程序Err_O_H(m)结束


////////////////////////////////////
//隐层至输入层的一般化误差子程序////
////////////////////////////////////
double e_err[HN];//定义第一隐层各神经元的一般化误差
Err_H_I()
{
	double sigma;
	for (int j=0;j<HN;j++) 
	{
		sigma=0.0;
		for (int k=0;k<ON;k++) 
		{
			sigma+=d_err[k]*V[j][k];
		}
		e_err[j]=sigma*H1[j]*(1-H1[j]);//隐层各神经元的一般化误差
	}
	return 1;
}//子程序Err_H_I()结束


////////////////////////////////////////////////////////
//输出层至隐层的权值调整、输出层阈值调整计算子程序//////
////////////////////////////////////////////////////////
Delta_O_H1(int m,int n)
{
	if(n<=1)
	{
		for (int k=0;k<ON;k++)
        {
			for (int j=0;j<HN;j++)
			{
				V[j][k]=V[j][k]+a*d_err[k]*H1[j];//输出层至第三隐层的权值调整
			}
            YU_ON[k]+=a*d_err[k];//输出层阈值调整
        }
	}
	else if(n>1)
	{
        for (int k=0;k<ON;k++)
        {
			for (int j=0;j<HN;j++)
			{
				V[j][k]=V[j][k]+a*d_err[k]*H1[j]+alpha*(V[j][k]-Old_WV[(n-1)].old_V[j][k]);//输出层至隐层的权值调整
			}
            YU_ON[k]+=a*d_err[k];//输出层至隐层的阈值调整
        }
	}
	return 1;
}//子程序Delta_O_H3()结束



/////////////////////////////////////////////////////////////
//第一隐层至输入层的权值调整、第一隐层阈值调整计算子程序/////
/////////////////////////////////////////////////////////////
Delta_H1_I(int m,int n)
{

	if(n<=1)
	{
		for (int j=0;j<HN;j++)
        {
			for (int i=0;i<IN;i++) 
			{
				U11[i][j]=U11[i][j]+a*e_err[j]*P[i];//第一隐层至输入层的权值调整
			}
			YU_HN1[j]+=a*e_err[j];//第一隐层阈值调整
        }
	}
	else if(n>1)
	{
        for (int j=0;j<HN;j++)
        {
			for (int i=0;i<IN;i++) 
			{
				U11[i][j]=U11[i][j]+a*e_err[j]*P[i]+alpha*(U11[i][j]-Old_WV[(n-1)].old_U11[i][j]);//第一隐层至输入层的权值调整
			}
			YU_HN1[j]+=a*e_err[j];//第一隐层阈值调整
		}
	}
	return 1;
}//子程序Delta_H1_I()结束



/////////////////////////////////
//N个样本的全局误差计算子程序////
/////////////////////////////////
double Err_Sum()
{
double total_err=0;
for (int m=0;m<N;m++) 
{
  total_err+=err_m[m];//每个样本的均方误差加起来就成了全局误差
}
return total_err;
}//子程序Err_sum()结束



GetTrainingData()
{
        ifstream GetTrainingData ( "训练样本.txt", ios::in );

        for(int m=0;m<N;m++)
        {
                for(int i=0;i<IN;i++)
                {
                        GetTrainingData>>Study_Data[m].input[i];  //取得输入数据
                }
                for(int j=0;j<ON;j++)
                {
                        GetTrainingData>>Study_Data[m].teach[j];  //取得输出数据
                }
        }

        GetTrainingData.close();
        return 1;
}


void savequan()
{
	ofstream outQuanFile( "权值.txt", ios::out );
	ofstream outYuFile( "阈值.txt", ios::out );


	outQuanFile<<"A\n";
	for(int i=0;i<HN;i++)
	{
		for(int j=0;j<IN;j++)
		{
			outQuanFile<<U11[j][i]<<"   ";
		}
		outQuanFile<<"\n";

	}//取得输入层至第一隐层权值

	outQuanFile<<"B\n";
	for(int i3=0;i3<ON;i3++)
	{
		for(int j3=0;j3<HN;j3++)
		{
			outQuanFile<<V[j3][i3]<<"   ";
		}
		outQuanFile<<"\n";
	}//取得第三隐层至输出层权值

	outYuFile<<"\n第一隐层的阈值为:\n";
	for(int k1=0;k1<HN;k1++)
	{
		outYuFile<<YU_HN1[k1]<<"  ";  //隐层阈值写入文本
	}
	outYuFile<<"\n输出层的阈值为:\n";
	for(int k=0;k<ON;k++)
	{
		outYuFile<<YU_ON[k]<<"  ";  //输出层阈值写入文本
	}
	outQuanFile.close();
}

/**********************/
/**程序入口,即主程序**/
/**********************/
void main()
{

double sum_err;
int study;//训练次数
a = 0.3;//学习速率,即步长
alpha = 0.9;  //动量因子
study=0; //学习次数
double Pre_error ; //预定误差
Pre_error = 0.05;
int Pre_times;
Pre_times = 2000;
GetTrainingData();//输入样本 (1)
initial(); //隐层、输出层权、阈值初始化  (2)
do
{
++study; 
for (int m=0;m<N;m++) 
{
input_P(m); //输入第m个学习样本 
input_T(m);//输入第m个样本的教师信号 
H_I_O(); //第m个学习样本隐层各神经元输入、输出值 
O_I_O(); //第m个学习样本输出层各神经元输入、输出值 (3)
Err_O_H(m); //第m个学习样本输出层至隐层一般化误差  
Err_H_I(); //第m个学习样本隐层至输入层一般化误差 (4)
Delta_O_H1(m,study); //第m个学习样本输出层至第三隐层权值、阈值调整、修改
Delta_H1_I(m,study); //第m个学习样本第一隐层至输入层的权值、阈值调整、修改  (5)  
} //全部样本训练完毕
sum_err=Err_Sum(); //全部样本全局误差计算  
saveWV(study);  //把本次的学习权值全保存到数组
cout<<"第"<<study<<"次学习的均方误差为"<<sum_err<<endl;
  if(study>Pre_times)
   {
    printf("\n*******************************\n");
    printf("The program is ended by itself because of error!\nThe learning times is surpassed!\n");
    printf("*****************************\n");
    break;
   }
}while (sum_err > Pre_error);           //  (6)
cout<<"网络已经学习了"<<study<<"次,学习的均方误差为"<<sum_err<<endl;
savequan();
}

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -