📄 1.5 kohonen模型.htm
字号:
style="FONT-SIZE: 10.5pt; FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: 'Times New Roman'; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">‖</SPAN>x—W<SUB>j</SUB><SPAN
style="FONT-SIZE: 10.5pt; FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: 'Times New Roman'; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">‖</SPAN>是欧几里德距离。它由下面式子求出:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="73%"><IMG height=48
src="1.5 Kohonen模型.files/4.5.ht17.gif" width=258 border=0></TD>
<TD width="27%">(1-92)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=81>
<P>根据匹配规则求出的Wc是神经元C的权系数向量,它是以C为中心的气泡的一种表示形态;Wc的表示形态就是和输人模式x的最优匹配。一般称wc是x的最优匹配。在求出Wc之后,也即是求出了气泡中心C。接着,就可以考虑对神经元C为中心的邻域Nc有关神经元的权系数的自组织过程。因为,Wc虽然是求出的对输入模式x的最优匹配;但wc仍然不是充分表示X;为了使见能够在改进之后,其形态能充分表示x;故还应对权系数向量Wc进行自组织学习,才能真正形成对应x的气泡。
</P>
<P>二、网络权系数的自组织</P>
<P>在SOM网络中,每一个输出神经元都接收相同的输入模式X。对于输出神经元j来说,其最简单的输出是线性的;并且,可以用下式表示:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="73%"><IMG height=39
src="1.5 Kohonen模型.files/4.5.ht18.gif" width=109 border=0></TD>
<TD width="27%">(1-93)</TD></TR>
<TR>
<TD width="73%" height=2>
<P>在权系数进行自组织学习时,权系数的调整方程如下:</P></TD>
<TD width="27%" height=2></TD></TR>
<TR>
<TD width="73%"><IMG height=42
src="1.5 Kohonen模型.files/4.5.ht19.gif" width=384 border=0></TD>
<TD width="27%">(1-94)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=19>
<P>其中:Y(t)是随时间t变化的递减增益函数;
<P>Yj(t)是输出神经元i的输出;</P>
<P>Xi(t)是输入神经元i的输人;</P>
<P>Wij(t)是输入神经元i和输出神经元j在时间t时的权系数;</P>
<P>r是常系数。</P>
<P>对于气泡中心神经元c,以其为中心考虑一个邻近的区域Nc。Nc是以神经元C为中心的某一半径范围内全部神经元的集合。</P>
<P>在Nc区域之内,所有神经元的输出为1;在Nc区域之外,所有神经元的输出为0。即有</P>
<P><IMG height=57 src="1.5 Kohonen模型.files/4.5.ht20.gif" width=230
border=0></P>
<P>如果令常系数r为1,即</P>
<P>r=1</P>
<P>则权系数的调整方程成为</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="64%"><IMG height=107
src="1.5 Kohonen模型.files/4.5.ht21.gif" width=384 border=0></TD>
<TD width="36%">(1-95)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=19>
<P align=center><IMG height=481 src="1.5 Kohonen模型.files/4.5.ht22.gif"
width=582 border=0></P>
<P align=center>图1-31 邻近区域Nc随时向的变化</P></TD></TR>
<TR>
<TD width="100%" height=92>
<P>区域Nc的范围宽度是时变的,在开始时可以选择范围宽一些,通常不妨为网络宽度的一半以上;随着时间的推移,Nc向以C为中心的小范围单调变小,最后甚至可以终结在神经元C处,即Nc={C}。
</P>
<P>邻近区域Nc随时间而变化的示意图如图1—31中所示。从图中可以看出Nc(tk-1)时的范围比Nc(tk-2)时要小;也就是说,随时间的推移所考虑的邻近区域变小。当到达时间tk时,邻近区域Nk则处在神经元c处,也即处于气泡中心位置。</P>
<P>上面式(1—95)的权系数调整方程可以写为下面形式</P>
<P><IMG height=62 src="1.5 Kohonen模型.files/4.5.ht23.gif" width=408
border=0></P>
<P>在离散系统中,如果以△t为采样周期T,则有△t=1T。所以,权系灵敏调整方程写成</P>
<P><IMG height=62 src="1.5 Kohonen模型.files/4.5.ht24.gif" width=384
border=0></P>
<P>考虑离散系统中的权系数调整为差分方程:</P>
<P><IMG height=57 src="1.5 Kohonen模型.files/4.5.ht25.gif" width=392
border=0></P>
<P>即是:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="77%"><IMG height=60
src="1.5 Kohonen模型.files/4.5.ht26.gif" width=500 border=0></TD>
<TD width="23%">(1-96)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=22>
<P>这就是权系数自组织的离散数字表达式。 </P>
<P>对于增益函数<SPAN
style="FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: Times New Roman; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">η</SPAN>(t)而言,它是一个随时间变化的递减函数。一般要求</P>
<P><IMG height=39 src="1.5 Kohonen模型.files/4.5.ht27.gif" width=141
border=0></P>
<P><IMG height=38 src="1.5 Kohonen模型.files/4.5.ht28.gif" width=144
border=0></P>
<P>实际上有</P>
<P>0<η(t+k)<1 k=1,2,...,∞</P>
<P>在实际的权系数自组织过程中,对于连续系统,取:</P>
<P><IMG height=39 src="1.5 Kohonen模型.files/4.5.ht29.gif" width=81
border=0></P>
<P>或者</P>
<P><IMG height=37 src="1.5 Kohonen模型.files/4.5.ht30.gif" width=196
border=0></P>
<P>对于离散系统,则取</P>
<P><IMG height=41 src="1.5 Kohonen模型.files/4.5.ht31.gif" width=347
border=0></P>
<P>或者</P>
<P><IMG height=40 src="1.5 Kohonen模型.files/4.5.ht32.gif" width=442
border=0></P>
<P>从上面可以看出:无论是连续系统还是离散系统,随时间的增加或采样周期的推移,增益函数7的值会越来越小。通常取500≤t≤10000或500≤t+k≤10000时,结束自组织过程。</P>
<P>1.5.4 SOM模型学习的具体步骤</P>
<P>在计算机中可以采取一定的恰当步骤对自组织特征映射模型SOM进行学习。这些步骤介绍如下:</P>
<P>一、权系数初始化</P>
<P>对于有n个输入神经元,P个输出神经元的SOM网络,对连接输入神经元和输出神经元之间的权系数设定为小的随机数a,一般有:</P>
<P>0<a<1</P>
<P>同时,设定邻近区域的初始半径。</P>
<P>二、给出一个新的输入模式X<SUB>k</SUB></P>
<P>Xk={X<SUB>1k</SUB>,X<SUB>2k</SUB>,...X<SUB>nk</SUB>}</P>
<P>k=1,2,...</P>
<P>三、求模式X<SUB>k</SUB>和所有的出神经元的距离</P>
<P>对于输出神经元j,它和特定的输入模式X<SUB>k</SUB>之间的距离用d<SUB>jk</SUB>表示,并且有</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="80%"><IMG height=46
src="1.5 Kohonen模型.files/4.5.ht33.gif" width=383 border=0></TD>
<TD width="20%">(1-97)</TD></TR>
<TR>
<TD width="80%">j=1,2,...,p</TD>
<TD width="20%"></TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=23>
<P>四、选择最优匹配的输出神经元C </P>
<P>和输入模式X<SUB>k</SUB>的距离最小的神经元就是最优匹配的输出神经元c。</P>
<P>用W<SUB>c</SUB>表示神经元C对输入神经元的权系数向量,则应有</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="80%"><IMG height=32
src="1.5 Kohonen模型.files/4.5.ht34.gif" width=204 border=0></TD>
<TD width="20%">(1-98)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=31>
<P>五、修正权系数 </P>
<P>根据设定的邻近区域,或递减变小后的区域,对区域Nc中的神经元进行权系数修正。</P>
<P>修正按下式执行</P>
<P>W<SUB>ij</SUB>(t+1)=W<SUB>ij</SUB>(t)+η(t)[X<SUB>i</SUB>(t)-W<SUB>ij</SUB>(t)]
(1-99)</P>
<P>对于区域Nc外的神经元,其权系数不变,即有</P>
<P>W<SUB>ij</SUB>(t+1)=W<SUB>ij</SUB>(t) (1-100)</P>
<P>其中,η(t)是递减的增益函数,并且有0<η(t)<1。<BR>通常取:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="80%"><IMG height=40
src="1.5 Kohonen模型.files/4.5.ht35.gif" width=81 border=0></TD>
<TD width="20%">(1-101)</TD></TR>
<TR>
<TD width="80%">或</TD>
<TD width="20%"></TD></TR>
<TR>
<TD width="80%"><IMG height=38
src="1.5 Kohonen模型.files/4.5.ht36.gif" width=195 border=0></TD>
<TD width="20%">(1-102)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=196>
<P>六、对于不同的t=1,2,…,z(500≤z≤10000),雷新返回第2步去执行。 </P>
<P>在自组织特征映射模型的学习中,当N<SUB>c</SUB>不止包含一个神经元时,这种竞争学习实际上是泄漏竞争学习。<BR>在学习中,增益函数η(t)也即是学习率。由于学习率η(t)随时间的增加而渐渐趋向零.因此,保证了学习过程必然是收敛的。</P>
<P>自组织特征映射网络的学习是一种无教师的学习,输人信号模式是环境自行给出的,而不是人为给出的。当然,这种学习也可以是有教师的,这时则是人为给出教师信号作为输入肋M模型在检索时是按下面方式对输入模式进行分类的:</P>
<P>首先对输入层输入模式x,再找出在输出层中和它有员优匹配的神经元C。则表示输入模式x属于神经元c所对应的类别。</P>
<P>SOM网络学习的不足有如下二点:</P>
<P>第一,当输入模式较少时,分类结果依赖于模式输入的先后次序。</P>
<P>第二,和ART网络不一样,SOM网络在没有经过完整的重新学习之前,不能加入新的类别。</P>
<P>Kohonen已经证明:在学习结束时.每个权系数向量w<SUB>j</SUB>都近似落入到由神经元j所对应的类别的输入模式空间的中心,可以认为权系数向量w<SUB>j</SUB>形成了这个输入模式空间的概率结构。所以,权系数向量W<SUB>j</SUB>可作为这个输入模式的最优参考向量。
<P>自组织特征映射网络由于有上述作用,所以很适宜用于数据的量化;故也称作学习向量量化器。</P></TD></TR>
<TR>
<TD width="100%" height=24>
<P align=right><A
href="http://www.jgchina.com/ednns/ednnsbk/4.4.4.htm">上一页</A>
<A
href="http://www.jgchina.com/ednns/ednnsbk/5.htm">下一页</A></P></TD></TR></TBODY></TABLE></BODY></HTML>
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -