⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 bp.txt

📁 这个C语言的程序是bp算法实现
💻 TXT
字号:
#include "iostream.h"
#include "iomanip.h"
#include "stdlib.h"
#include "stdio.h"
#include "math.h"
#include "ctime"
#define sqr(x) ((x)*(x))
#define N 3 //学习样本个数
#define IN 1 //输入层神经元数目
#define HN 3 //隐层神经元数目
#define ON 1 //输出层神经元数目
double P[IN]; //单个样本输入数据
double T[ON]; //单个样本教师数据
double W[HN][IN]; //输入层至隐层权值
double V[ON][HN]; //隐层至输出层权值
double X[HN]; //隐层的输入
double Y[ON]; //输出层的输入
double H[HN]; //隐层的输出
double O[ON]; //输出层的输出
double sita[HN]; //隐层的阈值
double gama[ON]; //输出层的阈值
double err_m[N]; //第m个样本的总误差
double alpha; //输出层至隐层的学习效率
double beta; //隐层至输入层学习效率
double total_err;
//定义一个放学习样本的结构
struct {
double input[IN];
double teach[ON];
}Study_Data[N][IN];
int gyh(double a[]);
//初始化权、阈值子程序/////
initial()
{
int i,j;
//隐层权、阈值初始化,W[HN][IN]    //  
for(j=0; j<HN; j++)
{   
    for(i=0; i<IN; i++)
    {      
     W[j][i]= (double)(rand()%1000)/1000;      //隐层权值初始化。
    }
}
//randomize();  
for(j=0;j<HN;j++)
{    
    sita[j]= (double)(rand()%1000)/1000;;//中间层阈值初始化  
    cout<<"sita:"<<sita[j]<<endl;  
}
//输出层权、阈值初始化//
//randomize();      V[ON][HN]
for (int k=0;k<ON;k++) 
{
    for (int j=0;j<HN;j++) 
    {   
     V[k][j]=(double)(rand()%1000)/1000;      //第m个样本输出层权值初始化
    }
}
for(k=0; k<ON; k++)      //gama[ON]
{ 
    gama[k]=(double)(rand()%1000)/1000;;      //输出层阈值初始化    
    cout<<"gama[k]:"<<gama[k]<<endl;    
}   
return 1;
}//子程序initial()结束
////第m个学习样本输入子程序///
input_P(int m)
{
for (int i=0;i<IN;i++)
{
    P[i]=Study_Data[m]->input[i];     //获得第m个样本的数据    
    cout<<"第"<<m+1<<"个样本的学习输入:"<<P[i]<<endl;
}
return 1;
}       //子程序input_P(m)结束
////第m个样本教师信号子程序//
input_T(int m)
{
for (int k=0; k<m; k++)
{
    T[k]=Study_Data[m]->teach[k]; 
    cout<<"第"<<m+1<<"个样本的教师信号:"<<T[k]<<endl;
}
return 1;
}//子程序input_T(m)结束
//隐层各单元输入、输出值子程序///
int H_I_O(){
double sigma;
int i,j;
for (j=0;j<HN;j++)
{
    sigma=0.0; 
    for (i=0;i<IN;i++)  
    {
     sigma +=W[j][i] * P[i];      //求隐层内积 
    }  
    X[j] = sigma - sita[j];      //求隐层净输入     
    H[j] = 1.0/(1.0 + exp(-X[j]));      //求隐层输出  
    cout<<"隐层的第"<<j+1<<"输出:"<<H[j]<<endl;
}
return 1;
}//子程序H_I_O()结束
//输出层各单元输入、输出值子程序///
int O_I_O()
{
double sigma;
for (int k=0; k<ON; k++)
{
    sigma=0.0; 
    for (int j=0; j<HN; j++) 
    {
     sigma +=V[k][j]*H[j];      //求输出层内积 
    }
    Y[k]=sigma-gama[k];     //求输出层净输入 
    O[k]=1.0/(1.0+exp(-Y[k]));      //求输出层输出
    cout<<"输出层的输出:"<<O[k]<<endl;
}
return 1;
}      //子程序O_I_O()结束
//输出层至隐层的一般化误差子程序////
double d_err[ON];
int Err_O_H(int m)
{
double abs_err[ON];      //每个样本的绝对误差都是从0开始的
double sqr_err=0;       //每个样本的平方误差计算都是从0开始的
//for (int output=0;output<ON;output++)    //output???  
for (int k=0; k<ON; k++){
    abs_err[k]=T[k]-O[k];
    //求第m个样本下的第k个神经元的绝对误差 
    sqr_err+=sqr(abs_err[k]);       //求第m个样本下输出层的平方误差 
    d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);      //d_err[k]输出层各神经元的一般化误差
}
err_m[m]=sqr_err/2;      //第m个样本下输出层的平方误差/2=第m个样本的均方误差
return 1;
} //子程序Err_O_H(m)结束
//隐层至输入层的一般化误差子程序////
double e_err[HN];
int Err_H_I(){
double sigma;
for (int j=0;j<HN;j++)
{ 
    sigma=0.0;
    for (int k=0;k<ON;k++) 
    {
     sigma=d_err[k]*V[k][j];
    }
    e_err[j]=sigma * H[j]* (1-H[j]);  //隐层各神经元的一般化误差
}
return 1;
}//子程序Err_H_I()结束
//输出层至隐层的权值调整、输出层阈值调整计算子程序//////
int Delta_O_H(int m)
{
for (int k=0;k<ON;k++)
{
    for (int j=0;j<HN;j++) 
    {    
     V[k][j]+=alpha*d_err[k]*H[j];      //输出层至隐层的权值调整
    }   
    gama[k]+=alpha*d_err[k];      //输出层至隐层的阈值调整
}
return 1;
}//子程序Delta_O_H()结束
//隐层至输入层的权值调整、隐层阈值调整计算子程序/////
int Delta_H_I(int m)
{
for (int j=0;j<HN;j++)
{
    for (int i=0;i<IN;i++)
    { 
     W[j][i]+=beta*e_err[j]*P[i];      //隐层至输入层的权值调整
    }
    sita[j]+=beta*e_err[j];
}
return 1;
}//子程序Delta_H_I()结束
//N个样本的全局误差计算子程序////
double Err_Sum()
{
double total_err=0;
for (int m=0; m<N; m++)
{  
    total_err+=err_m[m];      //每个样本的均方误差加起来就成了全局误差
}
return total_err;
}//子程序Err_sum()结束
/**程序入口,即主程序**/
int main()
{
double sum_err;
int study=0;      //训练次数
int m,i,j;
srand((unsigned)time(NULL));
//cout<<"请输入输出层到隐含层学习效率: alpha=\n";
//cin>>alpha;
      alpha=0.7;
//cout<<"请输入隐含层到输入层学习效率: beta=\n";
//cin>>beta;
beta=0.85;
//int study=0; //学习次数
double Pre_error ; //预定误差
//cout<<"请输入预定误差: Pre_error= \n";
//cin>>Pre_error;
Pre_error=0.05;
int Pre_times;
//cout<<"请输入预定最大学习次数:Pre_times=\n";
//cin>>Pre_times;
Pre_times=5;
//cout<<"请输入学习样本数据\n";
for (m=0; m<N; m++)   
{  
    cout<<"请输入第"<<m+1<<"组学习样本"<<endl;  
    for (i=0; i<IN; i++) 
    {
     cin>>Study_Data[m]->input[i];        
    }
}
for (m=0;m<N; m++)
{ 
    cout<<"请输入第"<<m+1<<"组教师样本"<<endl;  
    for (int k=0; k<ON; k++)   
     cin>>Study_Data[m]->teach[k];
    //Study_Data[m]->teach[k]=4;
}
initial(); //隐层、输出层权、阈值初始化 (1)
for (m=0; m<N; m++)
{
    input_P(m);       //输入第m个学习样本 (2)
    input_T(m);      //输入第m个样本的教师信号 (3)
}
gyh(P);
gyh(T);
do
{
    ++study; 
    for (m=0; m<N; m++)
    {
     H_I_O();    //第m个学习样本隐层各单元输入、输出值 (4)
     O_I_O();    //第m个学习样本输出层各单元输入、输出值 (5)
     Err_O_H(m); //第m个学习样本输出层至隐层一般化误差 (6)
     Err_H_I();   //第m个学习样本隐层至输入层一般化误差 (7)
     Delta_O_H(m); //第m个学习样本输出层至隐层权阈值调整、修改 (8)
     Delta_H_I(m); //第m个学习样本隐层至输入层权阈值调整、修改 (9)
    } //全部样本训练完毕
    sum_err=Err_Sum();       //全部样本全局误差计算 (10)     
    cout<<"第"<<study<<"次学习的均方误差为"<<sum_err<<endl;
}while (sum_err > Pre_error && study<1000);      //or(study
    //{ 
    // N个样本全局误差小于预定误差否? 小于则退出 (11)
    // cout<<"网络已经学习了"<<study<<"次,学习的均方误差为"<<sum_err<<endl;
    //}; 
return 1;
}
/*main()
{
int i,j,k,t=0;
int a[100][3];
for(i=1;i<=8;i++)
{
    for(j=1;j<=8;j++)
     for(k=1;k<=8;k++)
      if(i+j+k==14)
      {
       a[t][0]=i;
       a[t][1]=j;   
       a[t][2]=k;
       t++;
      }
}
printf("%d\n",t);
for(i=0;i<t;i++)
    printf("%d,    %d,    %d\n ",a[i][0],a[i][1],a[i][2]);
}*/
int gyh(double a[])
{
int i,j;
double max,min;
max=min=a[0];
for(i=0;i<N-1;i++)
{
    for(j=i+1;j<N;j++)
    {
     if(max<a[j])
     {
      max=a[j];
     }
     if(min>a[j])
     {
      min=a[j];
     }
    }
} 
//max=max;
for(i=0;i<N;i++)
{
    a[i]=a[i]/max;
}
return 0;
}

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -