⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 ann+ga.cpp

📁 使用遗传算法训练的神经网络VC++源代码
💻 CPP
📖 第 1 页 / 共 2 页
字号:
#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#include <math.h>
#include <ctype.h>
#include <iostream.h>//输入输出流
#include <iomanip.h> //控制输入输出的宽度
#include <fstream.h>// 文件流
//#include <string.h>
//定义控制参数
#define N   81 //学习样本个数
#define IN  1 //输入层神经元数目
#define HN  4 //隐层神经元数目
#define ON  1 //输出层神经元数目
#define POPSIZE  50  //定义种群的大小
#define NVARS  (IN*HN+HN*ON+HN+ON)  //定义参数的个数
#define Z 200009  //保存旧权值
//随机数发生器的宏定义
#define rdint(i)   (rand()%(int)(i))//产生随机整数0~i之间
#define rdft()  ((double)rdint(16384)/(16383.0))//产生随机实数0~1之间
#define rnd(a,b)  (rdint((int)(b)-(int)(a)+1)+(int)(a))//产生a~b之间的随机整数

double  evaluate(double *prms);


double P[IN]; //单个样本输入数据
double T[ON]; //单个样本教师数据
double W[HN][IN]; //输入层至隐层权值,初始化时使用
double V[ON][HN]; //隐层至输出层权值,初始化时使用
double Ww[HN][IN]; //输入层至隐层权值,网络训练时使用
double Vv[ON][HN]; //隐层至输出层权值,网络训练时使用
double X[HN]; //隐层的净输入
double Y[ON]; //输出层的输入
double H[HN]; //隐层的输出
double O[ON]; //输出层的输出
double YU_HN[HN]; //隐层的阈值,初始化时使用
double YU_ON[ON]; //输出层的阈值,初始化时使用
double YU_H[HN]; //隐层的阈值,网络训练时使用
double YU_O[ON]; //输出层的阈值,网络训练时使用
double err_m[N]; //第m个样本的总误差
double a; //输出层至隐层的学习效率
double b; //隐层至输入层学习效率
double alpha;//动量因子
int flag=0;//标志位,用于标识是否进行总体样本误差的权值调整
double out[N][ON];//网络输出
static double pc=0.9,pm=0.15;

static int location[POPSIZE+1];     //排序后的个体的位置
static int gen;      //当前代数
static int maxgen;  //最大代数
static int change=0; //适应性没有改进的代数
int v=0,u=0,uu=0,vv=0;
static double  maxlsquare=-1.0e50,minlsquare=1.0e50;//,fx; 
static double pc1=0.9,pc2=0.6,pm1=0.1,pm2=0.001;
static double pmt1,pmt2;
 
//定义一个放学习样本的结构
struct {
double input[IN]; //网络训练的输入数据	
double teach[ON]; //网络训练的教师数据
}Study_Data[N];//学习样本

//定义用来保存每次计算的权值和阈值的结构
struct {
double old_W[HN][IN];  //保存HN-IN旧权!
double old_V[ON][HN];  //保存ON-HN旧权!
double old_YU_HN[HN]; 
double old_YU_ON[ON];
}Old_WV[Z];

struct  individual   //定义基因,种群中的一个个体
{
	double chrom[NVARS];      //定义需整定的网络参数数组,即相关的权值和阈值组成的数组
	double lsquare;        //个体的评价度,存放的是评价函数的返回值,即误差平方和的大小
	double r;             //个体的相关系数
	int  fitness;     //相关适应度
};

static individual newpop[POPSIZE+1];  //新种群
static individual oldpop[POPSIZE+1];  //老种群


//保存旧权值的函数
saveWV(int m,double *chrom0)  //m代表计算次数,即第m次运算后得到的权值和阈值
{
	int k=0;
   // cout<<"WV"<<endl;
	for(int i=0;i<HN;i++)
	{
		for(int j=0;j<IN;j++)
		{
			Old_WV[m].old_W[i][j] = chrom0[k++];
//		    cout<<Old_WV[m].old_W[i][j]<<"  ";
		}
//		cout<<endl;
	}
	
	for(int ii=0;ii<ON;ii++)
	{
		for(int jj=0;jj<HN;jj++)
		{
			Old_WV[m].old_V[ii][jj] =chrom0[k++];
  //          cout<<Old_WV[m].old_V[ii][jj]<<"  ";
		}
	//	cout<<endl;
	}
	
	for(int l=0;l<HN;l++)
	{
		Old_WV[m].old_YU_HN[l]=chrom0[k++];
//		cout<<Old_WV[m].old_YU_HN[l]<<"  ";
	}
//	cout<<endl;
    for(int ll=0;ll<ON;ll++)
	{
		Old_WV[m].old_YU_ON[ll]=chrom0[k++];
//	    cout<<Old_WV[m].old_YU_ON[ll]<<"   ";
	}
//	cout<<endl;
//	getchar();
	return 1;
}




//用于确定数组选择区域函数,通过快速排序法实现,(二分法排序)

//locat数组中保存排序后的各个元素在原来数组中的位置,即原先的下标值
void quick_sort(double *item,int left,int right,int *locat) //<号升序>号降序 
      //item:需排序的数组,left:数组的下标下界, 
	  //right:数组的下标上界,locat:数组中各元素在原数组中的位置
      //求最大值则用升序,求最小值用降序
{
    double fa,fb;
    int i,j,k;

	i=left;j=right;
	fa=item[(left+right)/2];

	do{

		while((item[i]>fa)&&(i<right))i++;       //降序排列 
		while((fa>item[j])&&(j>left))j--;         


		if(i<=j)
		{
			fb=item[i];
			item[i]=item[j];
			item[j]=fb;

			k=locat[i];
			locat[i]=locat[j];
			locat[j]=k;

			i++;j--;
		}

	}while(i<=j);
	if(left<j) quick_sort(item,left,j,locat);
	if(i<right)quick_sort(item,i,right,locat);
}


void quick_sort_all(double *item,int left,int right,int *locat) //<号升序>号降序 
      //item:需排序的数组,left:数组的下标下界, 
	  //right:数组的下标上界,locat:数组中各元素在原数组中的位置
      //求最大值则用升序,求最小值用降序
{
    double fa,fb;
    int i,j,k;

	
	i=left;j=right;
	fa=item[(left+right)/2];

	do{

		while((item[i]<fa)&&(i<right))i++;   //升序排列
		while((fa<item[j])&&(j>left))j--;


		if(i<=j)
		{
			fb=item[i];
			item[i]=item[j];
			item[j]=fb;



			k=locat[i];
			locat[i]=locat[j];
			locat[j]=k;

			i++;j--;
		
		
		}

	}while(i<=j);
	if(left<j) quick_sort_all(item,left,j,locat);
	if(i<right)quick_sort_all(item,i,right,locat);
}


void quick_sort_length(double *item,int left,int right,int *locat) //<号升序>号降序 
      //item:需排序的数组,left:数组的下标下界, 
	  //right:数组的下标上界,locat:数组中各元素在原数组中的位置
      //求最大值则用升序,求最小值用降序
{
    double fa,fb;
    int i,j,k;

	i=left;j=right;
	fa=item[(left+right)/2];

	do{

		while((item[i]>fa)&&(i<right))i++;   //降序排列
		while((fa>item[j])&&(j>left))j--;


		if(i<=j)
		{
			fb=item[i];
			item[i]=item[j];
			item[j]=fb;
 
			k=locat[i];
			locat[i]=locat[j];
			locat[j]=k;

			i++;j--;
		}

	}while(i<=j);
	if(left<j) quick_sort_length(item,left,j,locat);
	if(i<right)quick_sort_length(item,i,right,locat);
}





void normalfitness(individual *pop)  //参数是种群数组newpop[]等
{
	double fit[POPSIZE];
	int i;
	double fitsum=0.0,fitave;

	for(i=0;i<POPSIZE;i++)
	{
		fit[i]=pop[i].lsquare;  //个体的适应性 
		location[i]=i;
		fitsum+=fit[i];
		}

	fitave=fitsum/POPSIZE;

	quick_sort(fit,0,POPSIZE-1,location);   //降序排列

	for(i=0;i<POPSIZE;i++)
	{
		pop[location[i]].fitness=2*(i+1);   //重新计算适应度,计算后原先误差大的将变小
	                                       //因初始适应度是用评价函数的返回值表示的,而评价函数返回的是误差,
	                                       //故原先的适应度大的表示实际误差大,实际的适应性较差
	                                        //规格化运算后,适应度的值正比地 反映了该个体的适应程度
		pop[i].r=POPSIZE*fabs(pop[i].lsquare-fitave);
	//	printf(" r=%lf    ",pop[i].r);
	//	if((i+1)%5==0)printf("\n");
	}
//getchar();
}


///////////////////////////
//初始化权、阈值子程序/////
///////////////////////////
initial()
{
//隐层权、阈值初始化//
	//srand( (unsigned)time( NULL ) ); //以时间函数作为随机数种子数
   // cout<<"intial"<<endl;
	for(int i=0;i<HN;i++)
	{
		for(int j=0;j<IN;j++)
		{	W[i][j]= (double)((rand()/32767.0)*2-1); 
	//	    cout<<W[i][j]<<"  ";
		}
	//	cout<<endl;
		// 初始化输入层到隐层的权值,随机模拟0 和 1 -1	
		//32767是rand()函数的最大值0x7fff
	}
	
	for(int ii=0;ii<ON;ii++)
	{
		for(int jj=0;jj<HN;jj++)
		{
			V[ii][jj]= (double)((rand()/32767.0)*2-1); //初始化隐层到输出层的权值,随机模拟0 和 1 -1
//			cout<<V[ii][jj]<<"   ";
		}
  //   cout<<endl;
	}
	
	for(int k=0;k<HN;k++)
	{
		YU_HN[k] = (double)((rand()/32767.0)*2-1);  //隐层阈值初始化 ,-1到1之间
//		cout<<YU_HN[k]<<"  ";
	}
//	cout<<endl;
	for(int kk=0;kk<ON;kk++)
	{
		YU_ON[kk] = (double)((rand()/32767.0)*2-1); //输出层阈值初始化 ,-1到1之间
  //      cout<<YU_ON[kk]<<" ";	
	}
//	cout<<endl;
  return 1;
}//子程序initial()结束


void initpop(void)
{
	int i,j,k,q,p,ii,jj,kk;
	int qq=0;
    for(p=0;p<POPSIZE;p++)
	{
		initial();
		q=0;
		for(i=0;i<HN;i++)
			for(j=0;j<IN;j++)
				oldpop[p].chrom[q++]=W[i][j];  
		for(ii=0;ii<ON;ii++)
			for(jj=0;jj<HN;jj++)
                oldpop[p].chrom[q++]=V[ii][jj];
		for(k=0;k<HN;k++)
            oldpop[p].chrom[q++]=YU_HN[k];
        for(kk=0;kk<ON;kk++)
            oldpop[p].chrom[q++]=YU_ON[kk];
        oldpop[p].lsquare=evaluate(oldpop[p].chrom);//用评估函数的返回值作为个体的适应度
		oldpop[p].fitness=0;
		}
//	cout<<"initpop"<<endl;
//    qq=0;
//	for(int rr=0;rr<NVARS;rr++)
//	{
//		cout<<oldpop[0].chrom[qq++]<<"  ";
//		if((rr+1)%3==0)cout<<endl;
//	}
//	cout<<endl;	
	normalfitness(oldpop);//确定个体的选择位置和规格化适应度
	oldpop[POPSIZE]=oldpop[location[POPSIZE-1]];
}




//初始化函数:
void initialize(void)     
{
	
	srand((unsigned )time(NULL));   //初始化随机函数发生器
	location[POPSIZE]=POPSIZE;
	initpop();        //初始化种群
}



//获取训练样本数据
double  lengthin,lengthout,maxin,minin,maxout,minout;

GetTrainingData()
{
	ifstream GetTrainingData ( "训练样本.txt", ios::in );
    int m,i,j;
	double maxinput,mininput,maxoutput,minoutput;
	for(m=0;m<N;m++)
	{
		for(i=0;i<IN;i++)
		{
			GetTrainingData>>Study_Data[m].input[i];  //取得输入数据
            //cout<<Study_Data[m].input[i]<<endl;
		}
		for(j=0;j<ON;j++)
		{
			GetTrainingData>>Study_Data[m].teach[j];  //取得输出数据
			//cout<<Study_Data[m].teach[j]<<endl;
		}
		//getchar();
	}
// 数据进行归一化处理开始
          maxinput=Study_Data[0].input[0];
		  mininput=Study_Data[0].input[0];
          maxoutput=Study_Data[0].teach[0];
		  minoutput=Study_Data[0].teach[0];
  for ( m=0; m<N;m++)
  {
	  for( i=0;i<IN;i++)
	  {
		 
		  if (Study_Data[m].input[i]>maxinput)
		  maxinput=Study_Data[m].input[i];
		  if (Study_Data[m].input[i]<mininput)
		  mininput=Study_Data[m].input[i];
	  }
       for(j=0;j<ON;j++)
	   { 
		  
		   if (Study_Data[m].teach[j]>maxoutput)
		  maxoutput=Study_Data[m].teach[j];
		  if (Study_Data[m].teach[j]<minoutput)
		  minoutput=Study_Data[m].teach[j];

	   }

//cout<<maxoutput<<"   "<<minoutput<<endl;

  }

   for( m=0;m<N;m++)
   {  
	   for( i=0;i<IN;i++)
	   {
		   Study_Data[m].input[i]=(Study_Data[m].input[i]-mininput)/(maxinput-mininput);
	   }
       for( j=0;j<ON;j++)
	   {
           Study_Data[m].teach[j]=(Study_Data[m].teach[j]-minoutput)/(maxoutput-minoutput);
	  // cout<<Study_Data[m].teach[j]<<endl;
	   }
	  // getchar();
   }
 //数据归一化结束


   maxin=maxinput;
   minin=mininput;
   maxout=maxoutput;
   minout=minoutput;
   lengthin=maxinput-mininput;
   lengthout=maxoutput-minoutput;
  GetTrainingData.close();

	return 1;
}

////////////////////////////////
////第m个学习样本输入子程序///
///////////////////////////////
input_P(int m)
{
for (int i=0;i<IN;i++)
{ P[i]=Study_Data[m].input[i];
  //cout<<P[i]<<"  ";
}
//getchar();
//获得第m个样本的数据
return 1;
}//子程序input_P(m)结束

/////////////////////////////
////第m个样本教师信号子程序//
/////////////////////////////
input_T(int m)
{
for (int k=0;k<ON;k++)
 T[k]=Study_Data[m].teach[k];
return 1;
}//子程序input_T(m)结束


/////////////////////////////////
//隐层各单元输入、输出值子程序///
/////////////////////////////////
H_I_O(){
double sigma;
int i,j;
for (j=0;j<HN;j++){
sigma=0.0;
	for (i=0;i<IN;i++)
		sigma+=Ww[j][i]*P[i];//求隐层内积
		
X[j]=sigma - YU_H[j];//求隐层净输入,为什么减隐层的阀值(有公式可证明)
H[j]=1.0/(1.0+exp(-X[j]));//求隐层输出 siglon算法
}
return 1;
}//子程序H_I_O()结束


///////////////////////////////////
//输出层各单元输入、输出值子程序///
///////////////////////////////////
O_I_O()
{
double sigma;
for (int k=0;k<ON;k++){
 sigma=0.0;
 for (int j=0;j<HN;j++){
 sigma+=Vv[k][j]*H[j];//求输出层内积
}
Y[k]=sigma-YU_O[k]; //求输出层净输入
O[k]=1.0/(1.0+exp(-Y[k]));//求输出层输出
}
return 1;
}//子程序O_I_O()结束


////////////////////////////////////
//输出层至隐层的一般化误差子程序////
////////////////////////////////////
double d_err[ON];
double d_err_total[ON];

Err_O_H(int m)
{
double abs_err[ON];//每个样本的绝对误差都是从0开始的
double sqr_err=0;//每个样本的平方误差计算都是从0开始的
for (int k=0;k<ON;k++)
{
  abs_err[k]=T[k]-O[k];//求第m个样本下的第k个神经元的绝对误差
  sqr_err+=(abs_err[k])*(abs_err[k]);//求第m个样本下输出层的平方误差
  d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]输出层各神经元的一般化误差

 // d_err_total[k]+=d_err[k];

}
err_m[m]=sqr_err/2;//第m个样本下输出层的平方误差/2=第m个样本的均方误差
return 1;
}//子程序Err_O_H(m)结束


////////////////////////////////////
//隐层至输入层的一般化误差子程序////
////////////////////////////////////
double e_err[HN];
double e_err_total[HN];

Err_H_I()
{
	double sigma=0.0;
	for (int j=0;j<HN;j++) 
	{
		sigma=0.0;
		for (int k=0;k<ON;k++) 
		{
			sigma+=d_err[k]*Vv[k][j];//我认为是加权和 +=
		}
		e_err[j]=sigma*H[j]*(1-H[j]);//隐层各神经元的一般化误差
		
	//	e_err_total[j]+=e_err[j];

}
return 1;
}//子程序Err_H_I()结束


////////////////////////////////////////////////////////
//输出层至隐层的权值调整、输出层阈值调整计算子程序//////
////////////////////////////////////////////////////////
Delta_O_H(int n)
{
//	if(n<=1)
//	{
for (int k=0;k<ON;k++){
		for (int j=0;j<HN;j++)
		{
			//if(flag==1)
		//	    Vv[k][j]+=a*d_err_total[k]*H[j];//a*d_err[k]*H[j];//输出层至隐层的权值调整
			    
		//	 else
		    	Vv[k][j]+=a*d_err[k]*H[j];
		}
	//	if(flag==1)
	//		YU_O[k]+=a*d_err_total[k];//a*d_err[k];//输出层至隐层的阈值调整
	//	else
			YU_O[k]+=a*d_err[k];
			
}
//	}
/*	else
	{
for (int k=0;k<ON;k++){
		for (int j=0;j<HN;j++)
		{
		//	if(flag==1)
		//	    Vv[k][j]+=a*d_err_total[k]*H[j]+alpha*(Vv[k][j]-Old_WV[(n-1)].old_V[k][j]);//a*d_err[k]*H[j];//输出层至隐层的权值调整
			    
		//	 else
		    	Vv[k][j]+=a*d_err[k]*H[j]+alpha*(Vv[k][j]-Old_WV[(n-1)].old_V[k][j]);
		}
	//	if(flag==1)
	//		YU_O[k]+=a*d_err_total[k]+alpha*(YU_O[k]-Old_WV[(n-1)].old_YU_ON[k]);//a*d_err[k];//输出层至隐层的阈值调整
	//	else
			YU_O[k]+=a*d_err[k]+alpha*(YU_O[k]-Old_WV[(n-1)].old_YU_ON[k]);
			
}	
	}*/

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -