⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 7.htm

📁 介绍讲解人工智能神经网络——数字神经网络系统的教程
💻 HTM
📖 第 1 页 / 共 2 页
字号:
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<!-- saved from url=(0046)http://www.jgchina.com/ednns/ednnsbk/4.4.4.htm -->
<HTML><HEAD><TITLE>1.4.4 ART模型的学习算法</TITLE>
<META http-equiv=Content-Type content="text/html; charset=gb2312">
<META content="MSHTML 6.00.2800.1106" name=GENERATOR>
<META content=FrontPage.Editor.Document name=ProgId><LINK 
href="7.files/style.css" type=text/css rel=stylesheet></HEAD>
<BODY bgColor=#ffffff leftMargin=0 topMargin=0>
<TABLE height=197 cellSpacing=0 cellPadding=0 width=778 border=0>
  <TBODY>
  <TR>
    <TD width="100%" height=13>
      <P><A 
      href="http://www.jgchina.com/ednns/ednnsbk/director.htm">回目录</A>&nbsp;&nbsp;&nbsp; 
      <A 
      href="http://www.jgchina.com/ednns/ednnsbk/4.4.htm">上一页</A>&nbsp;&nbsp;&nbsp; 
      <A href="http://www.jgchina.com/ednns/ednnsbk/4.5.htm">下一页</A></P></TD></TR>
  <TR>
    <TD width="100%" height=12>
      <P>1.4.4 ART模型的学习算法</P></TD></TR>
  <TR>
    <TD width="100%" height=177>
      <P>ART模型是一种有自组织能力的神经网络模型,它是通过竞争机制在F2中建立对应于输入模式I的编码的。<BR>在F2中形成对应于输人模式I的编码;在本质上就是对外界输入模式I进行学习,使网络的权系数取得恰当的对应值。这就要按照一定的规则或者学习算法来对权系数进行修改。 

      <P>下面分别就F<SUB>1</SUB>到F<SUB>2</SUB>,F<SUB>2</SUB>到F<SUB>1</SUB>的权系数学习过程进行介绍。</P>
      <P>一、自下而上的权系数学习算法</P>
      <P>所谓自下而上,也即是从F<SUB>1</SUB>到F<SUB>2</SUB>的方向;自下而上的权系数就是从F<SUB>1</SUB>到F<SUB>2</SUB>的权系数。F<SUB>1</SUB>中的神经元用N<SUB>i</SUB>表示,F<SUB>2</SUB>中的神经元用N<SUB>j</SUB>表示;则从F<SUB>1</SUB>的神经元N<SUB>i</SUB>到F<SUB>2</SUB>的神经元N<SUB>j</SUB>的权系数用w<SUB>ij</SUB>表示。</P>
      <P>在学习时,权系数W<SUB>ij</SUB>用下面的方程来修正:</P>
      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="67%"><IMG height=45 src="7.files/4.4.4.42.gif" width=297 
            border=0></TD>
          <TD width="33%">(1-63)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=18>
      <P>其中:f(x<SUB>j</SUB>)是神经元N<SUB>j</SUB>到F<SUB>1</SUB>的输出信号; 
      <P>h(X<SUB>i</SUB>)是神经元N<SUB>i</SUB>到F<SUB>2</SUB>的输出信号;</P>
      <P>E<SUB>ij</SUB>是参数;</P>
      <P>K<SUB>1</SUB>是参数。</P>
      <P>对于参数E<SUB>ij</SUB>,一般按下式选取</P>
      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="67%"><IMG height=34 src="7.files/4.4.4.43.gif" width=225 
            border=0></TD>
          <TD width="33%">(1-64)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=18>
      <P>其中:L为常数L<SUP>-1</SUP>=1/L。 
      <P>如果取K1为常数,并且有K<SUB>1</SUB>=KL,则权系数W<SUB>ij</SUB>的微分方程可以写成</P>
      <P><IMG height=44 src="7.files/4.4.4.44.gif" width=416 border=0></P>
      <P>这个方程说明:当F<SUB>2</SUB>层中神经元N<SUB>j</SUB>的输出为正时,来自F<SUB>1</SUB>层中神经元N<SUB>i</SUB>正的输出信号以速率(1-W<SUB>ij</SUB>)Lh(X<SUB>i</SUB>)Kf(X<SUB>j</SUB>)来影响权系数Wij的改变。<BR>在上面方程中,<IMG 
      height=32 src="7.files/4.4.4.45.gif" width=107 
      border=0>所有输入神经元中i≠k的输出信号h(X<SUB>k</SUB>)的总和;这个信号也就是F<SUB>1</SUB>中除N<SUB>i</SUB>以外的其它所有神经元对F<SUB>2</SUB>中神经元N<SUB>j</SUB>的输人信号。ART模型就根据这个信号的大小来增强与Nj相对应的连接权系数。</P>
      <P>二、自上而下的权系数的学习算法</P>
      <P>从F<SUB>2</SUB>到F<SUB>1</SUB>的权系数称为自上而下的权系数,它用W<SUB>ji</SUB>表示。权系数W<SUB>ji</SUB>满足如下方程:</P>
      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="76%"><IMG height=44 src="7.files/4.4.4.46.gif" width=295 
            border=0></TD>
          <TD width="24%">(1-65)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=18>
      <P>其中:f(x<SUB>j</SUB>)是神经元N<SUB>j</SUB>到F<SUB>1</SUB>的输出信号; 
      <P>h(X<SUB>i</SUB>)是神经元N<SUB>i</SUB>到F<SUB>2</SUB>的输出信号;</P>
      <P>K<SUB>2</SUB>,E<SUB>ji</SUB>是参数,一般简单取K<SUB>2</SUB>=E<SUB>ji-1</SUB></P>
      <P>很明显,W<SUB>ji</SUB>的微分方程可以写成下式:</P>
      <P><IMG height=47 src="7.files/4.4.4.47.gif" width=256 border=0></P>
      <P>如果从F<SUB>2</SUB>来的学习期望和外部输入在F<SUB>1</SUB>中不能匹配时;调整子系统A就会产生一个重置信导到F<SUB>2</SUB>中去,改变F<SUB>2</SUB>的状态,取消原来的学习期望输出。显然,在这时取向子系统处于工作状态。输入模式为I,它是一个n维向量,故有n个元素。当I输人到ART网络的F<SUB>1</SUB>层时,它就会送m个大小固定为P的信号到A中。这样,从输入端到A的所有激励信号为n’P。同样,F<SUB>1</SUB>中的神经元也同时产生一个大小固定为Q的抑制信号送到A中;F<SUB>1</SUB>中的激活模式为X,而对应于激活模式X从F1到A的激话连接个数为I;那么,从F<SUB>1</SUB>到A的所有的抑制信号为IQ。如存在条件</P>
      <P>n'p&gt;IQ</P>
      <P>则说明激励作用大于抑制作用.则取向子系统A就会收到激励信号,并产生一个重置信号到F<SUB>2</SUB>中,令</P>
      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="64%"><IMG height=47 src="7.files/4.4.4.48.gif" width=53 
            border=0></TD>
          <TD width="36%">(1-67)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=21>
      <P>并称为取向子系统的警戒线参数。 
      <P>考虑在n'P&gt;IQ时有</P>
      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="83%"><IMG height=45 src="7.files/4.4.4.49.gif" width=68 
            border=0></TD>
          <TD width="17%" rowSpan=2>(1-68)</TD></TR>
        <TR>
          <TD width="83%">显然有</TD></TR>
        <TR>
          <TD width="55%"><IMG height=41 src="7.files/4.4.4.50.gif" width=55 
            border=0></TD>
          <TD width="45%">(1-69)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=13>
      <P>这时,则A会产生重置信号到F<SUB>2</SUB>。反亦反之。<BR>当A把重置信号送到F<SUB>2</SUB>时,F<SUB>2</SUB>中的神经元的输出按下式进行修正: 

      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="66%"><IMG height=53 src="7.files/4.4.4.51.gif" width=321 
            border=0></TD>
          <TD width="34%">(1-70)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=12>
      <P>其中:T<SUB>j</SUB>是从F<SUB>1</SUB>来的到F<SUB>2</SUB>的输入模式;<IMG height=36 
      src="7.files/4.4.4.52.gif" width=160 border=0> 
      <P>J是F<SUB>2</SUB>中神经元的一些集合;这些神经元在学习过程中末被置以新值。</P>
      <P>在学习的过程中,每个学习周期开始把J置为(n+1,n+2,……m)。随着学习过程的继续,在这个周期内每次递归都应从J中清去一个F<SUB>2</SUB>神经元的下标.直到产生了正确的匹配才停止。</P>
      <P>自适应共振理论模型ART的数学分析以及学习算法有关情况可以用图1—26所示的框图表示。</P>
      <P align=center><IMG height=332 src="7.files/4.4.4.53.gif" width=463 
      border=0></P></TD></TR>
  <TR>
    <TD width="100%" height=1>
      <P align=center>图1-26&nbsp; 数学分析及算法有关图示</P></TD></TR>
  <TR>
    <TD width="100%" height=9>
      <P>1.4.5 ART模型的Lippman学习算法 
      <P>ART网络有多种学习算法,在这部分介绍Lippman在1987年提出的算法。这个算法的步骤及执行过程如下:</P>
      <P>一、初始化</P>
      <P>初始化时对从F<SUB>1</SUB>到F<SUB>2</SUB>的权系数W<SUB>ij</SUB>,F<SUB>2</SUB>到F<SUB>1</SUB>的权系数W<SUB>ji</SUB>以及警戒值P进行初设定。</P>
      <P>1.F<SUB>1</SUB>到F<SUB>2</SUB>的权系数w<SUB>ij</SUB>初始化</P>
      <P>W<SUB>ij</SUB>的初始值按下式设定:</P>
      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="73%"><IMG height=40 src="7.files/4.4.4.54.gif" width=192 
            border=0></TD>
          <TD width="27%">(1-71)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=7>
      <P>其中:n为输入向量I的元素个数; 
      <P>L为大于1的常数,一般取L=2。</P>
      <P>为了方便,可直接取:</P>
      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="73%"><IMG height=41 src="7.files/4.4.4.55.gif" width=127 
            border=0></TD>
          <TD width="27%">(1-72)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=10>
      <P>W<SUB>ij</SUB>(0)的值不能太大,太大则网络可能把识别层F2的所有神经元都分配给一个输入模式。 
      <P>2.F<SUB>2</SUB>到F<SUB>1</SUB>的权系数W<SUB>ij</SUB>初始化</P>

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -