📄 7.htm
字号:
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<!-- saved from url=(0046)http://www.jgchina.com/ednns/ednnsbk/4.4.4.htm -->
<HTML><HEAD><TITLE>1.4.4 ART模型的学习算法</TITLE>
<META http-equiv=Content-Type content="text/html; charset=gb2312">
<META content="MSHTML 6.00.2800.1106" name=GENERATOR>
<META content=FrontPage.Editor.Document name=ProgId><LINK
href="7.files/style.css" type=text/css rel=stylesheet></HEAD>
<BODY bgColor=#ffffff leftMargin=0 topMargin=0>
<TABLE height=197 cellSpacing=0 cellPadding=0 width=778 border=0>
<TBODY>
<TR>
<TD width="100%" height=13>
<P><A
href="http://www.jgchina.com/ednns/ednnsbk/director.htm">回目录</A>
<A
href="http://www.jgchina.com/ednns/ednnsbk/4.4.htm">上一页</A>
<A href="http://www.jgchina.com/ednns/ednnsbk/4.5.htm">下一页</A></P></TD></TR>
<TR>
<TD width="100%" height=12>
<P>1.4.4 ART模型的学习算法</P></TD></TR>
<TR>
<TD width="100%" height=177>
<P>ART模型是一种有自组织能力的神经网络模型,它是通过竞争机制在F2中建立对应于输入模式I的编码的。<BR>在F2中形成对应于输人模式I的编码;在本质上就是对外界输入模式I进行学习,使网络的权系数取得恰当的对应值。这就要按照一定的规则或者学习算法来对权系数进行修改。
<P>下面分别就F<SUB>1</SUB>到F<SUB>2</SUB>,F<SUB>2</SUB>到F<SUB>1</SUB>的权系数学习过程进行介绍。</P>
<P>一、自下而上的权系数学习算法</P>
<P>所谓自下而上,也即是从F<SUB>1</SUB>到F<SUB>2</SUB>的方向;自下而上的权系数就是从F<SUB>1</SUB>到F<SUB>2</SUB>的权系数。F<SUB>1</SUB>中的神经元用N<SUB>i</SUB>表示,F<SUB>2</SUB>中的神经元用N<SUB>j</SUB>表示;则从F<SUB>1</SUB>的神经元N<SUB>i</SUB>到F<SUB>2</SUB>的神经元N<SUB>j</SUB>的权系数用w<SUB>ij</SUB>表示。</P>
<P>在学习时,权系数W<SUB>ij</SUB>用下面的方程来修正:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="67%"><IMG height=45 src="7.files/4.4.4.42.gif" width=297
border=0></TD>
<TD width="33%">(1-63)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=18>
<P>其中:f(x<SUB>j</SUB>)是神经元N<SUB>j</SUB>到F<SUB>1</SUB>的输出信号;
<P>h(X<SUB>i</SUB>)是神经元N<SUB>i</SUB>到F<SUB>2</SUB>的输出信号;</P>
<P>E<SUB>ij</SUB>是参数;</P>
<P>K<SUB>1</SUB>是参数。</P>
<P>对于参数E<SUB>ij</SUB>,一般按下式选取</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="67%"><IMG height=34 src="7.files/4.4.4.43.gif" width=225
border=0></TD>
<TD width="33%">(1-64)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=18>
<P>其中:L为常数L<SUP>-1</SUP>=1/L。
<P>如果取K1为常数,并且有K<SUB>1</SUB>=KL,则权系数W<SUB>ij</SUB>的微分方程可以写成</P>
<P><IMG height=44 src="7.files/4.4.4.44.gif" width=416 border=0></P>
<P>这个方程说明:当F<SUB>2</SUB>层中神经元N<SUB>j</SUB>的输出为正时,来自F<SUB>1</SUB>层中神经元N<SUB>i</SUB>正的输出信号以速率(1-W<SUB>ij</SUB>)Lh(X<SUB>i</SUB>)Kf(X<SUB>j</SUB>)来影响权系数Wij的改变。<BR>在上面方程中,<IMG
height=32 src="7.files/4.4.4.45.gif" width=107
border=0>所有输入神经元中i≠k的输出信号h(X<SUB>k</SUB>)的总和;这个信号也就是F<SUB>1</SUB>中除N<SUB>i</SUB>以外的其它所有神经元对F<SUB>2</SUB>中神经元N<SUB>j</SUB>的输人信号。ART模型就根据这个信号的大小来增强与Nj相对应的连接权系数。</P>
<P>二、自上而下的权系数的学习算法</P>
<P>从F<SUB>2</SUB>到F<SUB>1</SUB>的权系数称为自上而下的权系数,它用W<SUB>ji</SUB>表示。权系数W<SUB>ji</SUB>满足如下方程:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="76%"><IMG height=44 src="7.files/4.4.4.46.gif" width=295
border=0></TD>
<TD width="24%">(1-65)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=18>
<P>其中:f(x<SUB>j</SUB>)是神经元N<SUB>j</SUB>到F<SUB>1</SUB>的输出信号;
<P>h(X<SUB>i</SUB>)是神经元N<SUB>i</SUB>到F<SUB>2</SUB>的输出信号;</P>
<P>K<SUB>2</SUB>,E<SUB>ji</SUB>是参数,一般简单取K<SUB>2</SUB>=E<SUB>ji-1</SUB></P>
<P>很明显,W<SUB>ji</SUB>的微分方程可以写成下式:</P>
<P><IMG height=47 src="7.files/4.4.4.47.gif" width=256 border=0></P>
<P>如果从F<SUB>2</SUB>来的学习期望和外部输入在F<SUB>1</SUB>中不能匹配时;调整子系统A就会产生一个重置信导到F<SUB>2</SUB>中去,改变F<SUB>2</SUB>的状态,取消原来的学习期望输出。显然,在这时取向子系统处于工作状态。输入模式为I,它是一个n维向量,故有n个元素。当I输人到ART网络的F<SUB>1</SUB>层时,它就会送m个大小固定为P的信号到A中。这样,从输入端到A的所有激励信号为n’P。同样,F<SUB>1</SUB>中的神经元也同时产生一个大小固定为Q的抑制信号送到A中;F<SUB>1</SUB>中的激活模式为X,而对应于激活模式X从F1到A的激话连接个数为I;那么,从F<SUB>1</SUB>到A的所有的抑制信号为IQ。如存在条件</P>
<P>n'p>IQ</P>
<P>则说明激励作用大于抑制作用.则取向子系统A就会收到激励信号,并产生一个重置信号到F<SUB>2</SUB>中,令</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="64%"><IMG height=47 src="7.files/4.4.4.48.gif" width=53
border=0></TD>
<TD width="36%">(1-67)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=21>
<P>并称为取向子系统的警戒线参数。
<P>考虑在n'P>IQ时有</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="83%"><IMG height=45 src="7.files/4.4.4.49.gif" width=68
border=0></TD>
<TD width="17%" rowSpan=2>(1-68)</TD></TR>
<TR>
<TD width="83%">显然有</TD></TR>
<TR>
<TD width="55%"><IMG height=41 src="7.files/4.4.4.50.gif" width=55
border=0></TD>
<TD width="45%">(1-69)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=13>
<P>这时,则A会产生重置信号到F<SUB>2</SUB>。反亦反之。<BR>当A把重置信号送到F<SUB>2</SUB>时,F<SUB>2</SUB>中的神经元的输出按下式进行修正:
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="66%"><IMG height=53 src="7.files/4.4.4.51.gif" width=321
border=0></TD>
<TD width="34%">(1-70)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=12>
<P>其中:T<SUB>j</SUB>是从F<SUB>1</SUB>来的到F<SUB>2</SUB>的输入模式;<IMG height=36
src="7.files/4.4.4.52.gif" width=160 border=0>
<P>J是F<SUB>2</SUB>中神经元的一些集合;这些神经元在学习过程中末被置以新值。</P>
<P>在学习的过程中,每个学习周期开始把J置为(n+1,n+2,……m)。随着学习过程的继续,在这个周期内每次递归都应从J中清去一个F<SUB>2</SUB>神经元的下标.直到产生了正确的匹配才停止。</P>
<P>自适应共振理论模型ART的数学分析以及学习算法有关情况可以用图1—26所示的框图表示。</P>
<P align=center><IMG height=332 src="7.files/4.4.4.53.gif" width=463
border=0></P></TD></TR>
<TR>
<TD width="100%" height=1>
<P align=center>图1-26 数学分析及算法有关图示</P></TD></TR>
<TR>
<TD width="100%" height=9>
<P>1.4.5 ART模型的Lippman学习算法
<P>ART网络有多种学习算法,在这部分介绍Lippman在1987年提出的算法。这个算法的步骤及执行过程如下:</P>
<P>一、初始化</P>
<P>初始化时对从F<SUB>1</SUB>到F<SUB>2</SUB>的权系数W<SUB>ij</SUB>,F<SUB>2</SUB>到F<SUB>1</SUB>的权系数W<SUB>ji</SUB>以及警戒值P进行初设定。</P>
<P>1.F<SUB>1</SUB>到F<SUB>2</SUB>的权系数w<SUB>ij</SUB>初始化</P>
<P>W<SUB>ij</SUB>的初始值按下式设定:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="73%"><IMG height=40 src="7.files/4.4.4.54.gif" width=192
border=0></TD>
<TD width="27%">(1-71)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=7>
<P>其中:n为输入向量I的元素个数;
<P>L为大于1的常数,一般取L=2。</P>
<P>为了方便,可直接取:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="73%"><IMG height=41 src="7.files/4.4.4.55.gif" width=127
border=0></TD>
<TD width="27%">(1-72)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=10>
<P>W<SUB>ij</SUB>(0)的值不能太大,太大则网络可能把识别层F2的所有神经元都分配给一个输入模式。
<P>2.F<SUB>2</SUB>到F<SUB>1</SUB>的权系数W<SUB>ij</SUB>初始化</P>
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -