⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 3.3 模糊神经网络的学习.htm

📁 企业数字神经网络功能开发文章
💻 HTM
📖 第 1 页 / 共 3 页
字号:
          <TD width="28%"></TD></TR>
        <TR>
          <TD width="72%"><IMG height=46 
            src="3.3 模糊神经网络的学习.files/6.3.ht55.gif" width=287 border=0></TD>
          <TD width="28%">(3-104)</TD></TR></TBODY></TABLE></TD></TR>
  <TR>
    <TD width="100%" height=181>
      <P>从上面(3—100)到(3—104)式中,可以看出:神经网络的模糊量α截集输出是由输入,隐层和阀值的α截集计算出来的。在输入的模糊量的α截集X<SUB>i</SUB>[α]是非负的,即有 
      </P>
      <P>X<SUB>i</SUB>[α]=[X<SUB>L</SUB>(α),X<SUB>U</SUB>(α)]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (3-105)</P>
      <P>并且</P>
      <P>0≤X<SUB>L</SUB>(α)≤X<SUB>U</SUB>(α)</P>
      <P>从而,对于输入层,隐层及输出层,可以用下列式子计算:</P>
      <P>1.对于输入层:</P>
      <P>I<SUB>i</SUB>[α]=X<SUB>i</SUB>[α]=[X<SUB>iL</SUB>(α),X<SUB>iU</SUB>(α)]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (3-106)</P>
      <P>2.对于隐层:</P>
      <P>H<SUB>j</SUB>[α]=[h<SUB>jL</SUB>(α),h<SUB>jU</SUB>(α)]<BR>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      =[f(U<SUB>jL</SUB>(α)),f(U<SUB>jU</SUB>(α))]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (3-107)</P>
      <P>其中</P>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
        <TBODY>
        <TR>
          <TD width="79%"><IMG height=76 
            src="3.3 模糊神经网络的学习.files/6.3.ht56.gif" width=487 border=0></TD>
          <TD width="21%">(3-108)</TD></TR>
        <TR>
          <TD width="79%"><IMG height=72 
            src="3.3 模糊神经网络的学习.files/6.3.ht57.gif" width=496 border=0></TD>
          <TD width="21%">(3-109)</TD></TR></TBODY></TABLE></TD></TR>
  <TR>
    <TD width="100%" height=67>
      <P>3.对于输出层 </P>
      <P>O<SUB>k</SUB>[α]=[O<SUB>kL</SUB>(α),O<SUB>kU</SUB>(α)]<BR>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      &nbsp; 
      =[f(U<SUB>kL</SUB>(α)),f(U<SUB>kU</SUB>(α))]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (3-110)</P>
      <P>其中</P>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
        <TBODY>
        <TR>
          <TD width="79%"><IMG height=74 
            src="3.3 模糊神经网络的学习.files/6.3.ht58.gif" width=493 border=0></TD>
          <TD width="21%">(3-111)</TD></TR>
        <TR>
          <TD width="79%"><IMG height=74 
            src="3.3 模糊神经网络的学习.files/6.3.ht59.gif" width=497 border=0></TD>
          <TD width="21%">(3-112)</TD></TR></TBODY></TABLE></TD></TR>
  <TR>
    <TD width="100%" height=170>
      <P>二、模糊神经网络的学习 </P>
      <P>在模糊神经网络的学习中首先要给出目标函数,然后给出学习算法公式,再给出学习步骤。</P>
      <P align=center><IMG height=289 src="3.3 模糊神经网络的学习.files/6.3.ht1.gif" 
      width=511 border=0></P>
      <P align=center>图3-11 目标函数</P></TD></TR>
  <TR>
    <TD width="100%" height=231>
      <P>1.目标函数 </P>
      <P>考虑对应于模糊输人Xi, i=1,2,…,nI,有目标输出T<SUB>k</SUB>, 
      k=1,2,…,nO;对于网络的第k个输出端O<SUB>k</SUB>的α截集以及相应的目标输出T<SUB>k</SUB>,可以定义目标函数e。</P>
      <P>在图3—11中,取O<SUB>k</SUB>和T<SUB>k</SUB>的α截集的上限值和下限值的误差的平方,并用 
      α值进行加权作为目标函数e,有</P>
      <P>e<SUB>k</SUB>(α)=e<SUB>kL</SUB>(α)+e<SUB>kU</SUB>(α)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (3-113)</P>
      <P>其中:e<SUB>kL</SUB>( α)是O<SUB>k</SUB>和T<SUB>k</SUB>的 
      α截集的下限值的误差平方的。加权值:</P>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
        <TBODY>
        <TR>
          <TD width="76%"><IMG height=46 src="3.3 模糊神经网络的学习.files/6.3.ht2.gif" 
            width=274 border=0></TD>
          <TD width="24%">(3-114)</TD></TR>
        <TR>
          <TD width="76%"><FONT 
            size=2>e<SUB>kU</SUB>(α)是O<SUB>k</SUB>和T<SUB>k</SUB>的α截集的上限值的误差平方的 
            α加权值:</FONT></TD>
          <TD width="24%"></TD></TR>
        <TR>
          <TD width="76%"><IMG height=46 src="3.3 模糊神经网络的学习.files/6.3.ht3.gif" 
            width=279 border=0></TD>
          <TD width="24%">(3-115)</TD></TR>
        <TR>
          <TD width="76%"><FONT 
            size=2>从而O<SUB>k</SUB>和T<SUB>k</SUB>的α截集的目标函数可以定义为e( α)</FONT></TD>
          <TD width="24%"></TD></TR>
        <TR>
          <TD width="76%"><IMG height=42 src="3.3 模糊神经网络的学习.files/6.3.ht4.gif" 
            width=135 border=0></TD>
          <TD width="24%">(3-116)</TD></TR>
        <TR>
          <TD width="76%"><FONT 
            size=2>则输入输出对X<SUB>i</SUB>,T<SUB>k</SUB>的目标函数可以给出如下:</FONT></TD>
          <TD width="24%"></TD></TR>
        <TR>
          <TD width="76%"><IMG height=32 src="3.3 模糊神经网络的学习.files/6.3.ht5.gif" 
            width=93 border=0></TD>
          <TD width="24%">(3-117)</TD></TR></TBODY></TABLE></TD></TR>
  <TR>
    <TD width="100%" height=96>
      <P>2.学习算法 </P>
      <P>假设三角模糊权系数W<SUB>kj</SUB>,W<SUB>ji</SUB>可以用三个参数表示,即</P>
      <P>W<SUB>kj</SUB>=(W<SUB>kjL</SUB>,W<SUB>kjC</SUB>,W<SUB>kjU</SUB>)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (3-118)</P>
      <P>其中:W<SUB>kjL</SUB>是权系数的最小值,即其零截集的下限值;</P>
      <P>W<SUB>kjC</SUB>是权系数的中值,即其顶角所对应的值;</P>
      <P>W<SUB>kjU</SUB>是权系数的最大值,即其零截集的上限值;</P>
      <P>W<SUB>ji</SUB>=(W<SUB>jiL</SUB>,W<SUB>jiC</SUB>,W<SUB>jiU</SUB>)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (3-119)</P>
      <P>其中参数的意义和W<SUB>kj</SUB>中的类同。</P>
      <P>很明显,有</P>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
        <TBODY>
        <TR>
          <TD width="76%"><IMG height=43 src="3.3 模糊神经网络的学习.files/6.3.ht6.gif" 
            width=160 border=0></TD>
          <TD width="24%">(3-120)</TD></TR>
        <TR>
          <TD width="76%"><IMG height=45 src="3.3 模糊神经网络的学习.files/6.3.ht7.gif" 
            width=160 border=0></TD>
          <TD width="24%">(3-121)</TD></TR></TBODY></TABLE></TD></TR>
  <TR>
    <TD width="100%" height=2>
      <P>由于W<SUB>kj</SUB>是表示隐层和输出层之间的权系数,可以先考虑其学习算法。根据梯度法.可以用目标函数对Wkj进行修正: </P>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
        <TBODY>
        <TR>
          <TD width="76%"><IMG height=49 src="3.3 模糊神经网络的学习.files/6.3.ht8.gif" 
            width=359 border=0></TD>
          <TD width="24%">(3-122)</TD></TR>
        <TR>
          <TD width="76%"><IMG height=49 src="3.3 模糊神经网络的学习.files/6.3.ht9.gif" 
            width=365 border=0></TD>
          <TD width="24%">(3-123)</TD></TR></TBODY></TABLE></TD></TR>
  <TR>
    <TD width="100%" height=156>
      <P>其中: η是学习常数, β是修改常数。 </P>
      <P>在上面式(3-122),(3-123)中,说明利用目标函数e修改权系数的零截集下限值WkjL以及上限值WkjU;故而也就修改了权系数Wkj。</P>
      <P>很明显,在式(3—122)(3—123)中,关键在于求取:</P>
      <P><IMG height=52 src="3.3 模糊神经网络的学习.files/6.3.ht10.gif" width=162 
      border=0></P>
      <P>从e( α)的定义可知:e( α)必定是权系数W<SUB>kj</SUB>的函数,故而也是W<SUB>kj</SUB>的 
      α截集的上下限值的函数,即有</P>
      <P>e( α)=g(W<SUB>kjL</SUB>( α),W<SUB>kjU</SUB>( 
      α))&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (3-124)</P>
      <P>而W<SUB>kjL</SUB>,W<SUB>kjU</SUB>分别是W<SUB>kj</SUB>的零截集的上下限值,则可知:</P>
      <P>W<SUB>kjL</SUB>( α)是W<SUB>kjL</SUB>或W<SUB>kjU</SUB>的函数;W<SUB>kjU</SUB>( 
      α)也是W<SUB>kjL</SUB>或W<SUB>kjU</SUB>的函数。</P>
      <P>从全微分的角度则有:</P>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
        <TBODY>
        <TR>
          <TD width="78%"><IMG height=52 
            src="3.3 模糊神经网络的学习.files/6.3.ht11.gif" width=448 border=0></TD>
          <TD width="22%">(3-125)</TD></TR>
        <TR>
          <TD width="78%"><IMG height=54 
            src="3.3 模糊神经网络的学习.files/6.3.ht12.gif" width=448 border=0></TD>
          <TD width="22%">(3-126)</TD></TR></TBODY></TABLE></TD></TR>
  <TR>
    <TD width="100%" height=221>
      <P>为了求式(3—125)(3—126)的结果,很明显,需要求出W<SUB>kjL</SUB>、W<SUB>kjU</SUB>和W<SUB>kjL</SUB>( 
      α)、W<SUB>kjU</SUB>( α)之间的关系。由于权系数W<SUB>kj</SUB>是一个三角对称模糊数,它的形状如图3—12所示。 
      </P>
      <P align=center><IMG height=300 src="3.3 模糊神经网络的学习.files/6.3.ht13.gif" 
      width=461 border=0></P>
      <P align=center>图3-12 W<SUB>kjL</SUB>、W<SUB>kjU</SUB>和W<SUB>kjL</SUB>( 
      α)、W<SUB>kjU</SUB>( α)的关系示意</P></TD></TR>
  <TR>
    <TD width="100%" height=452>
      <P>在图3-12中,可以看出有 </P>

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -