⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 bp1.cpp

📁 调试通过了的BP神经网络
💻 CPP
📖 第 1 页 / 共 2 页
字号:
// BP.cpp : 定义控制台应用程序的入口点。
//

#include "stdafx.h"

#include <stdlib.h>
#include <math.h>
#include <stdio.h>
#include <time.h>
#include <fstream.h>
#include <iostream.h>
#include <iomanip>


#define N 5//11学习样本个数
#define IN 2 //输入层神经元数目
#define HN 8 //隐层神经元数目
//#define HC 3 //隐层层数
#define ON 1 //输出层神经元数目//1
#define Te 5//测试样本个数
//#define Z 200000 //旧权值保存-》每次study的权值都保存下来
double P[IN]; //单个样本输入数据
double T[ON]; //单个样本教师数据
double U11[HN][IN]; //输入层至第一隐层权值
//double U12[HN][HN]; //第一隐层至第二隐层权值
//double U23[HN][HN]; //第二隐层至第三隐层权值
double V[ON][HN]; //第三隐层至输出层权值
double X1[HN]; //第一隐层的输入
//double X2[HN]; //第二隐层的输入
//double X3[HN]; //第三隐层的输入
double Y[ON]; //输出层的输入
double H1[HN]; //第一隐层的输出
//double H2[HN]; //第二隐层的输出
//double H3[HN]; //第三隐层的输出
double O[ON]; //输出层的输出
double YU_HN1[HN]; //第一隐层的阈值
//double YU_HN2[HN]; //第二隐层的阈值
//double YU_HN3[HN]; //第三隐层的阈值
double YU_ON[ON]; //输出层的阈值
double err_m[N]; //第m个样本的总误差
double a = 0.06;//学习速率,即步长0.06
double alpha =0.9;  //动量因子0.9

//定义一个放学习样本的结构
struct {
double input[IN]; //输入在上面定义是五个        
double teach[ON]; //输出在上面定义是三个
}Study_Data[N];//学习样本

//bp算法用来保存每次计算的权值
/*struct {
double old_U11[HN][IN];  //保存输入层至隐层权值旧权
double old_U12[HN][HN]; //保存第一隐层至第二隐层权值
double old_U23[HN][HN]; //保存第二隐层至第三隐层权值
double old_V[ON][HN];  //保存第三隐层至输出层旧权
}Old_WV[Z];*/

double old_V[ON][HN];
double old_U11[HN][IN];

double data_in[IN][N]=
{
-1,3,1,5,4,
-1,2,3,1,2
};

double data_out[ON][N]=
{
0,0,0,1,1
};

double data_check[IN][Te]=
{
  -1,3,1,5,4,
-1,2,3,1,2
};
/*
double data_in[N][IN]=
{{1,1,1,1,0,1,1,0,1,1,0,1,1,1,1},
{0,1,0,0,1,0,0,1,0,0,1,0,0,1,0},
{1,1,1,0,0,1,0,1,0,1,0,0,1,1,1},
{1,1,1,0,0,1,0,1,0,0,0,1,1,1,1},
{1,0,1,1,0,1,1,1,1,0,0,1,0,0,1},
{1,1,1,1,0,0,1,1,1,0,0,1,1,1,1},
{1,1,1,1,0,0,1,1,1,1,0,1,1,1,1},
{1,1,1,0,0,1,0,0,1,0,0,1,0,0,1}
};
double data_out[N][ON]=
{{0,0,0},
{0,0,1},
{0,1,0},
{0,1,1},
{1,0,0},
{1,0,1},
{1,1,0},
{1,1,1}
};
double data_check[Te][IN]=
{{0,1,0,0,1,0,0,1,0,0,1,0,0,1,0},//1
{0,1,1,0,1,0,0,1,0,0,1,0,0,1,0},//1.
{1,0,0,1,0,1,1,1,1,0,0,1,0,0,1},//4.
{1,0,1,1,0,1,1,1,1,0,0,1,0,0,1},//4
{1,1,1,0,0,1,0,0,1,0,0,1,0,0,1},//7
{1,1,1,0,0,1,0,0,1,0,0,1,1,0,1}//7.
};*/


double fun_logsig(double xx)
{
   return 1.0/(1.0+exp(-2*xx));
}

double fun_tansig(double xx)
{
   return 2/(1+exp(-2*xx))-1;
}

double fun_purelin(double xx)
{
   return xx;
}

/*int saveWV(int m)
{
	int i,j,i1,i2,i3,j1,j2,j3; 
        for( i=0;i<HN;i++)
        {
                for( j=0;j<IN;j++)
                {
                        Old_WV[m].old_U11[i][j] = U11[i][j];
                }
        }

        for( i1=0;i1<HN;i1++)
        {
                for( j1=0;j1<HN;j1++)
                {
                        Old_WV[m].old_U12[i1][j1] = U12[i1][j1];
                }
        }

        for( i2=0;i2<HN;i2++)
        {
                for( j2=0;j2<HN;j2++)
                {
                        Old_WV[m].old_U23[i2][j2] = U23[i2][j2];
                }
        }
        for( i3=0;i3<ON;i3++)
        {
                for( j3=0;j3<HN;j3++)
                {
                        Old_WV[m].old_V[i3][j3] = V[i3][j3];
                }
        }
        return 1;
}*/
///////////////////////////
//初始化权、阈值子程序/////
///////////////////////////
int initial()
{
//隐层权、阈值初始化//
	int i,i1,i2,i3,j,j1,j2,j3,k,k1,k2,kk;
        srand( (unsigned)time( NULL ) );//将rand()设置为由时间提供的随机数

        for( i=0;i<HN;i++)
        {
                for( j=0;j<IN;j++)
                        U11[i][j]= (double)((rand()/32767.0)*2-1); //初始化输入层到第一隐层的权值,随机模拟0 和 1 -1        
        }
        /*for( i1=0;i1<HN;i1++)
        {
                for( j1=0;j1<HN;j1++)
                        U12[i1][j1]= (double)((rand()/32767.0)*2-1); //初始化第一隐层到第二隐层权值,随机模拟0 和 1 -1        
       }
        for( i2=0;i2<HN;i2++)
        {
                for( j2=0;j2<HN;j2++)
                        U23[i2][j2]= (double)((rand()/32767.0)*2-1); //初始化第二隐层到第三隐层权值,随机模拟0 和 1 -1        
        }*/
        for( i3=0;i3<ON;i3++)
        {
                for(j3=0;j3<HN;j3++)
                        V[i3][j3]= (double)((rand()/32767.0)*2-1); //初始化隐层到输出层的权值,随机模拟0 和 1 -1
        }
        for( k=0;k<HN;k++)
        {
                YU_HN1[k] = (double)((rand()/32767.0)*2-1);  //第一隐层阈值初始化 ,-0.01 ~ 0.01 之间
        }
        /*for( k1=0;k1<HN;k1++)
        {
                YU_HN2[k1] = (double)((rand()/32767.0)*2-1);  //第二隐层阈值初始化 ,-0.01 ~ 0.01 之间
        }
    for( k2=0;k2<HN;k2++)
        {
                YU_HN3[k2] = (double)((rand()/32767.0)*2-1);  //第三隐层阈值初始化 ,-0.01 ~ 0.01 之间
        }*/
        for( kk=0;kk<ON;kk++)
        {
                YU_ON[kk] = (double)((rand()/32767.0)*2-1); //输出层阈值初始化 ,-0.01 ~ 0.01 之间
        }
  return 1;
}//子程序initial()结束


////////////////////////////////
////第m个学习样本输入子程序///
///////////////////////////////

int input_P(int m)
{
int i;
for ( i=0;i<IN;i++)
P[i]=data_in[i][m];
//获得第m个样本的数据
return 1;
}
/////////////////////////////
////第m个样本教师信号子程序//
/////////////////////////////

int input_T(int m)
{
int k;
for ( k=0;k<ON;k++)
T[k]=data_out[k][m];
return 1;
}//子程序input_T(m)结束

/////////////////////////////////
//隐层各单元输入、输出值子程序///
/////////////////////////////////
int H_I_O()
{
double sigma1,sigma2,sigma3;
int i,i1,i2,j,j1,j2;
for (j=0;j<HN;j++)
{
sigma1=0.0;
        for (i=0;i<IN;i++)
                sigma1+=U11[j][i]*P[i];//求第一隐层内积
                
X1[j]=sigma1 - YU_HN1[j];//求第一隐层净输入
H1[j]=fun_logsig(X1[j]);//求第一隐层输出sigmoid算法
}
/*for (j1=0;j1<HN;j1++)
{
sigma2=0.0;
        for (i1=0;i1<HN;i1++)
                sigma2+=U12[j1][i1]*H1[i1];//求第二隐层内积
                
X2[j1]=sigma2 - YU_HN2[j1];//求第二隐层净输入
H2[j1]=1.0/(1.0+exp(-X2[j1]));//求第二隐层输出sigmoid算法
}
for (j2=0;j2<HN;j2++)
{
sigma3=0.0;
        for (i2=0;i2<HN;i2++)
                sigma3+=U23[j2][i2]*H2[i2];//求第三隐层内积
                
X3[j2]=sigma3 - YU_HN3[j2];//求第三隐层净输入
H3[j2]=1.0/(1.0+exp(-X3[j2]));//求第三隐层输出sigmoid算法
}*/
return 1;
}//子程序H_I_O()结束


///////////////////////////////////
//输出层各单元输入、输出值子程序///
///////////////////////////////////
int O_I_O()
{
double sigma;
int k,j;
for ( k=0;k<ON;k++)
{
sigma=0.0;
for ( j=0;j<HN;j++)
{
sigma+=V[k][j]*H1[k];//求输出层内积///////////////////////////////////////////////////////////
}
Y[k]=sigma-YU_ON[k]; //求输出层净输入
O[k]=fun_logsig(Y[k]);//求输出层输出
}
return 1;
}//子程序O_I_O()结束


////////////////////////////////////
//输出层至隐层的一般化误差子程序////
////////////////////////////////////
double d_err[ON];
int Err_O_H(int m)
{int k;
double abs_err[ON];//每个样本的绝对误差都是从0开始的
double sqr_err=0;//每个样本的平方误差计算都是从0开始的
for (k=0;k<ON;k++)
{
  abs_err[k]=T[k]-O[k];
//求第m个样本下的第k个神经元的绝对误差
sqr_err+=(abs_err[k])*(abs_err[k]);//求第m个样本下输出层的平方误差
d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]输出层各神经元的一般化误差
}
err_m[m]=sqr_err/2;//第m个样本下输出层的平方误差/2=第m个样本的均方误差
return 1;
}//子程序Err_O_H(m)结束


////////////////////////////////////
//隐层至输入层的一般化误差子程序////
////////////////////////////////////
//double e_err3[HN];//定义第三隐层各神经元的一般化误差
//double e_err2[HN];//定义第二隐层各神经元的一般化误差
double e_err1[HN];//定义第一隐层各神经元的一般化误差
int Err_H_I()
{
int k3,j3,k2,j2,k1,j1;

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -