📄 7.htm
字号:
<P>W<SUB>ji</SUB>的初始值取为1,即有</P>
<P>W<SUB>ji</SUB>(0)=1 (1-73)</P>
<P>Wji(0)的值不能太小,太小则导致比较层F1不匹配。</P>
<P>3.警戒值P的初始化</P>
<P>P的值按下列范围选取:</P>
<P>0≤P≤1 (1-74)</P>
<P>P的值的选择要恰当。P的值太大,则网络会过细辩别差异iP的值太小,则容易把稍有某点相似的输入模式都当作同一类。在学习中,一开始取小的P值,进行粗分类;然后,逐渐增大警戒值P,进行逐步细分类。</P>
<P>二、输入一个新的模式</P>
<P>三、进行匹配度计算</P>
<P>由于识别层是输入向量I的分类器,为了考虑输入向量I和识别层中对应的神经元相关的权系数形态是否匹配,故而要求其匹配程度。这时,计算识别层每个神经元j的激活量Y<SUB>j</SUB>。</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="83%"><IMG height=34 src="7.files/4.4.4.56.gif" width=160
border=0></TD>
<TD width="17%">(1-75)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=72>
<P>其中:Yj为识别层神经元j的激活值;
<P>Si为比较层神经元i的输出;</P>
<P>k是学习的次数。</P>
<P>四、选择最优匹配神经元C</P>
<P>ART网络在识别层通过横向抑制,从而使到只有激活值最大的神经元c才能输出1,其它神经元则输出0。神经元C的激活值用Yc表示,则:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="83%"><IMG height=32 src="7.files/4.4.4.57.gif" width=116
border=0></TD>
<TD width="17%">(1-76)</TD></TR>
<TR>
<TD width="83%">考虑识别层的神经元传递函数f为阶跃型函数,即有输出Uj</TD>
<TD width="17%"></TD></TR>
<TR>
<TD width="83%"><IMG height=60 src="7.files/4.4.4.58.gif" width=256
border=0></TD>
<TD width="17%">(1-77)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=8>
<P>其中:Y<SUB>j</SUB>是神经元j的激活值;
<P><SPAN
style="FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: Times New Roman; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA"><FONT
size=3>θ</FONT></SPAN><SUB>j</SUB>是神经元j的阀值;</P>
<P>U<SUB>j</SUB>是神经元j的输出。</P>
<P>五、比较和试验警戒值</P>
<P>识别层的神经元在选择出最优匹配的神经元之后,则有1输出,故而比较层增益控制输出0。依据2/3规则,比较层中U和I的元素均为1的神经元被激活。取向子系统A则对比较层输出的向量s和输入向量I进行比较,如果相似率低于警戒值P,则向识别层发出重置信号,对识别层进行清零。向量S和向量I的相似率用R表示,则有</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="83%"><IMG height=49 src="7.files/4.4.4.59.gif" width=96
border=0></TD>
<TD width="17%">(1-78)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=10>
<P>其中:‖S‖是s向量的元素值之和,‖s‖=ΣS<SUB>i</SUB>;
<P>‖I‖是I向量的元素值之和,‖I‖=ΣI<SUB>i</SUB></P>
<P>在上面‖S‖和‖I‖的实际计算方法如下:</P>
<P>S=101O1011 ‖S‖=5</P>
<P>I=11111001 ‖II‖=6</P>
<P>由于比较层输出s是由输入向量I和识别层输出向量U共同作用产生的;同时,因神经元c的输出为1,向量U在本质上是等于取得最优匹配的神经元c从F<SUB>2</SUB>到F<SUB>1</SUB>的权系数向量W<SUB>ci</SUB>。</P>
<P>按2/3规则,两个输入同时为1时输出才能为1。则向量s的元素s<SUB>i</SUB>;可表示为:</P>
<P>S<SUB>i</SUB>=W<SUB>ci</SUB><SUP>.</SUP>I<SUB>i
</SUB>(1-79)</P>
<P>故而</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="83%"><IMG height=31 src="7.files/4.4.4.1.gif" width=208
border=0></TD>
<TD width="17%">(1-80)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=5>
<P>如果相似率R大于警值P,即有
<P>R>P</P>
<P>则转向第七点执行,否则继续向下执行第六点。</P>
<P>六、最优匹配无效及其处理</P>
<P>如果相似率R小于警戒值p,即R<P,所以,应对其余存储的模式进行搜索,以便找到一个和输入模式更加接近的存储模式。</P>
<P>这时,重置信号到识别层去对神经元清0,则原来选中的最优匹配神经元为0,也说明取消了该神经元的优胜性;把比较层增益控制设置为输出1,转到第三点,重复上面过程。</P>
<P>在识别层一个神经元所取得的相似率大于警似值,则转向策七点,结束分类过程。</P>
<P>在识别层的全部神经元都被搜索过,但没有一个神经元能匹配,则经学习后确定识别层—个神经元作为输入模式的最优匹配单元;然后停止分类学习过程;则输入模式被存储。分类过程结束时,则从F<SUB>2</SUB>到F<SUB>1</SUB>的权系数全部为1;比较层输出S等于I,相似率等于1。</P>
<P>七、自学习过程</P>
<P>自学习时,给出一组模式样本向量,按一定顺序作为网络的输入向量,对ART网络的权系数进行调整.使相似类向量都激活识别层同一神经元。</P>
<P>自学习算法如下:</P>
<P>1.计算F<SUB>1</SUB>到F<SUB>2</SUB>的权系数W<SUB>ij</SUB></P>
<P>计算公式如下:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="70%"><IMG height=54 src="7.files/4.4.4.2.gif" width=192
border=0></TD>
<TD width="30%">(1-81)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=10>
<P>其中:S<SUB>i</SUB>是比较层输出向量S的第i个元素;
<P>j是识别和最优匹配神经元序号;</P>
<P>W<SUB>ij</SUB>是比较层神经元i与识别层神经元j之间的权系数</P>
<P>L是大于1的常数。</P>
<P>2.计算F<SUB>2</SUB>到F<SUB>1</SUB>的权系数W<SUB>ji</SUB></P>
<P>把W<SUB>ji</SUB>调整为等于向量S中相应元素的二进制值:</P>
<P>W<SUB>ji</SUB>=S<SUB>i
</SUB>(1-82)</P>
<P>在实际求W<SUB>ij</SUB>和W<SUB>ji</SUB>时,可以采用下面的有效式子。</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="74%"><IMG height=92 src="7.files/4.4.4.3.gif" width=160
border=0></TD>
<TD width="26%">(1-83)</TD></TR>
<TR>
<TD width="74%">考虑到学习次数k,则上面式子写成</TD>
<TD width="26%"></TD></TR>
<TR>
<TD width="74%"><IMG height=85 src="7.files/4.4.4.4.gif" width=275
border=0></TD>
<TD width="26%">(1-84)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=8>
<P>用其它向量对网络继续进行学习时,则会把这些向量中元素值为0的对应权系数置0。这样.一组向量全部学习完毕时,则这组向量的元素中有多少个0,则相应位置中的权系数都被置0。学习之后所存储的权系数形态,是全组向量的“交”形式。这时的权系数形态也是全组向量基本特征。显然,这等于抽取插入模式的特征。
<P>3.比较层输出S中1的个数越多,则从F<SUB>1</SUB>到F<SUB>2</SUB>的权系数W<SUB>ij</SUB>越小。</P>
<P>从F1到F2的权系数调整公式为:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="74%"><IMG height=52 src="7.files/4.4.4.5.gif" width=179
border=0></TD>
<TD width="26%">(1-85)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=230>
<P>在分母中,ΣS<SUB>k</SUB>是比较层输出S中1的个数,它表示了向量S的“大小”。显然,ΣS<SUB>k</SUB>越大则W<SUB>ij</SUB>越小。也就是比较层输出S的“大小”对权系数W<SUB>ij</SUB>有自动调节作用。
<P>这是一个重要特点,它可以判别两个输入向量中,其中一个是否是另一个的子集。ART网络在自学习过程结束之后,则自动返回第二点;从而准备开始对输入的新模式进行分类。
<P>在上面Lippman学习算法中可以看出有如下一些特点:
<P>1.F2到F1t的权系数Wij(0)必须初始值取1。
<P>因为.比较层的输出s是由输入向量I和最优匹配神经元的权系数Wji;按2/3规则产生。只有I和Wji都为1,s的元素才会为1。
<P>如果W<SUB>ji</SUB>(0)=0,则S的元素会全部为0。则无法进行模式识别。
<P>实际上,搜索过程是一个“剪裁”与输入向量不匹配的存储模式元素的过程,这是一个不可逆的过程;一旦权系数取值为0,那么,学习算法是无法使其再取非零的值的。
<P>2.抽取输入模式的特征
<P>对于一组相似的向量,会被ART网络中识别层F<SUB>2</SUB>中的一个神经元识别为同一类。
<P>在用这组相似的向量对网络执行学习时,第一个向量学习的结果选中F<SUB>2</SUB>中的一个神经元。</P></TD></TR>
<TR>
<TD width="100%" height=14>
<P align=right><A
href="http://www.jgchina.com/ednns/ednnsbk/4.4.htm">上一页</A>
<A
href="http://www.jgchina.com/ednns/ednnsbk/4.5.htm">下一页</A></P></TD></TR></TBODY></TABLE></BODY></HTML>
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -