📄 3.3 模糊神经网络的学习.htm
字号:
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<!-- saved from url=(0044)http://www.jgchina.com/ednns/ednnsbk/6.3.htm -->
<HTML><HEAD><TITLE>3.3 模糊神经网络的学习</TITLE>
<META http-equiv=Content-Type content="text/html; charset=gb2312">
<META content="MSHTML 6.00.2800.1106" name=GENERATOR>
<META content=FrontPage.Editor.Document name=ProgId><LINK
href="3.3 模糊神经网络的学习.files/style.css" type=text/css rel=stylesheet></HEAD>
<BODY bgColor=#ffffff leftMargin=0 topMargin=0>
<TABLE height=897 cellSpacing=0 cellPadding=0 width=778 border=0>
<TBODY>
<TR>
<TD width="100%" height=7>
<P><A
href="http://www.jgchina.com/ednns/ednnsbk/director.htm">回目录</A>
<A
href="http://www.jgchina.com/ednns/ednnsbk/6.2.htm">上一页</A>
<A href="http://www.jgchina.com/ednns/ednnsbk/6.3.3.htm">下一页</A>
</P></TD></TR>
<TR>
<TD width="100%" height=18>
<P align=center>3.3 模糊神经网络的学习</P></TD></TR>
<TR>
<TD width="100%" height=348>
<P>在模糊神经网络中,混合模糊神经网络在目前还是表示一种算法,所以它不存在学习问题。所谓学习,是指对逻辑模糊神经网络和常规模彻神经网络而言的。在这一节中,分别介绍逻辑模糊神经网络的学习,算术模糊神经网络的学习方法。
</P>
<P>3.3.1 逻辑模糊神经网络的学习算法</P>
<P>考虑图3—1所示的模糊神经元模型。在图中,xi,i=O,1,…,n,是模糊输入信号;W<SUB>j</SUB>,j=0
,1,…,n,是模糊权系数。</P>
<P>逻辑模糊神经网络的神经元模型是由式(3—3)来描述的。对于“或”神经元用式(3—4)(3-5)表示,而“与”神经元则用式(3—6)(3—7)表示。</P>
<P>设Y<SUB>d</SUB>是输出的期望值,Y<SUB>d</SUB>∈[-1,1]。而Y是模糊神经元的实际输出;则有输出误差e:</P>
<P>e-Y<SUB>d</SUB>-Y∈[-1,1]</P>
<P>执行学习的目的就是修改神经元中的权系数W'和增益参数g。使到输出的误差e最小。学习结构框图如图3—8所示。</P>
<P align=center><IMG height=239 src="3.3 模糊神经网络的学习.files/6.3.ht42.gif"
width=548 border=0></P>
<P align=center>图3-8 模糊神经元学习框架</P></TD></TR>
<TR>
<TD width="100%" height=574>
<P>如果输入的信号属于[0,1]<SUP>n+1</SUP>超立方体空间的,则先变换到[-1,1]<SUP>n+1</SUP>超立方体空间。再送入神经元中,神经元的输出Y和给定的期望值Y<SUB>d</SUB>比较。产生误差e。学习机构根据误差的情况分别对权系数W和激发函数的增益g进行修改。使神经元的输出Y趋于期望Y<SUB>d</SUB>。
</P>
<P>考虑神经元的输入和权系数向量分别如式(3—8),式(3—9)所示。</P>
<P>X(t)=[X<SUB>0</SUB>(t),X<SUB>1</SUB>(t),...,X<SUB>n</SUB>(t)]<SUP>T</SUP>∈[0,1]<SUP>n+1</SUP></P>
<P>W(t)=[W<SUB>0</SUB>(t),W<SUB>1</SUB>(t),...,W<SUB>n</SUB>(t)]<SUP>T</SUP>∈[0,1]<SUP>n+1</SUP></P>
<P>令</P>
<P>Z<SUB>i</SUB>(t)=2X<SUB>i</SUB>(t)-1</P>
<P>W<SUB>i</SUB>'(t)=2W<SUB>i</SUB>(t)-1</P>
<P>则有</P>
<P>Z(t)=[Z<SUB>0</SUB>(t),Z<SUB>1</SUB>(t),...,Z<SUB>n</SUB>(t)]<SUP>T</SUP>∈[-1,1]<SUP>n+1</SUP></P>
<P>W'(t)=[W<SUB>0</SUB>'(t),W<SUB>1</SUB>'(t),...,W<SUB>n</SUB>'(t)]<SUP>T</SUP>∈[0,1]<SUP>n+1</SUP></P>
<P>模糊神经元的学习算法如下</P>
<P>1.权系数W'的学习算法</P>
<P>W'(t+1)=W'(t)OR
ΔW'(t)=S[W'(t),ΔW'(t)]
(3-87)</P>
<P>其中</P>
<P>ΔW'(t)=Z(t) AND e(t)=T|Z(t),e(t)|</P>
<P>2.S函数的增益g的学习算法</P>
<P>g(t+1)=g(t) OR Δg(t)=S|g(t),Δg(t)|
(3-88)</P>
<P>其中</P>
<P>Δg(t)=u(t) AND e(t)=T[u(t),e(t)]</P>
<P align=center><IMG height=309 src="3.3 模糊神经网络的学习.files/6.3.ht43.gif"
width=568 border=0></P>
<P align=center>图3-9 模糊神经元的学习结构</P></TD></TR>
<TR>
<TD width="100%" height=304>
<P>在上面式(3—87)中,结出了模糊神经元权系数学习的算法;它也表示了一种模糊神经结构的实际模型。如果认为权系数是外部输人和树突输入之间的模糊关系,那么,模糊神经网络是可以通过经验进行学习的。<BR>在上面式(3—88)中,修改g实际上是修改激发的灵敏度。因为参数g影响S函数的斜率,很明显也就影响神经元受激发的灵敏度。
</P>
<P>模糊神经元的学习结构如图3—9中所示。</P>
<P>在图3—9中,很明显有2个学习环节,一个是权系数W'的学习环节,另一个是增益g的学习环节,它们是相互独立的。在这两个环节中,其中的Z-1处理框图是表示延时一个采样周期,故而它的输入为W'(t+1)时,输出为W'(t);输入为g(t+1)时,输出为g(t)。就是说这时Z-1的z是脉冲传递函数的符号;而不是双极信号z(t)中的信号。</P>
<P>3.3.2算术模糊神经网络的学习算法</P>
<P>算术模糊神经网络也称常规模糊神经网络,对算术模糊神经网络的学习算法随着这种网络的提出也同时提出了,但在这方面的研究方法有多种,而这些方法各有特点;在不同的场合和条件下有各自的优点。1992年,Buckley和Hayashi提出了模糊反向传播算法;同时.Ishibuchi等人提出了基于。截集的反向传播法。1994年,Buckley和Hayashi提出模糊神经网络的遗传算法。1995年,Ishibuchi等人提出了具有三角模糊权的模糊神经网络的学习算法。还有人提出了一些其它的算法。</P>
<P>在各种学习算法中,较有实际意义的是具有三角模糊权的模糊神经网络的学习算法.和遗传学习算法。</P>
<P>对于具有三角模物权的模城神经网络的学习算法,首先考虑模数数的模糊乘式(3—20)和模糊加式(3—23)。模糊非线性映射式(3—25),这些运算都是在水平截集的情况中执行的。</P>
<P>对于α截集,为了方便书写,这里不采用式(3—58)的表示方法,而采用下面表示方法:</P>
<P>对于模糊数N的α截集,用N[α]表示,并且有:</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="78%"><IMG height=30
src="3.3 模糊神经网络的学习.files/6.3.ht44.gif" width=270 border=0></TD>
<TD width="22%">(3-89)</TD></TR>
<TR>
<TD width="78%"><FONT
size=2>其中:N(n)是隶属函数,R是全体实数集。<BR>由于模糊数的水平截集是一个闭区间,故α截集N[α]可以表示为</FONT></TD>
<TD width="22%"></TD></TR>
<TR>
<TD width="78%"><IMG height=29
src="3.3 模糊神经网络的学习.files/6.3.ht45.gif" width=206 border=0></TD>
<TD width="22%">(3-90)</TD></TR>
<TR>
<TD width="78%"><FONT
size=2>其中n<SUB>L</SUB>(α)是N[α]的下限值;<BR>n<SUB>u</SUB>(α)是N[α]的上限值。<BR>根据区问算法,模糊数的运算可以写成α截集的运算</FONT></TD>
<TD width="22%"></TD></TR>
<TR>
<TD width="78%"><IMG height=64
src="3.3 模糊神经网络的学习.files/6.3.ht46.gif" width=438 border=0></TD>
<TD width="22%">(3-91)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=11>
<P><IMG height=31 src="3.3 模糊神经网络的学习.files/6.3.ht47.gif" width=417
border=0><BR>
<P><IMG height=56 src="3.3 模糊神经网络的学习.files/6.3.ht48.gif" width=630
border=0></P></TD></TR>
<TR>
<TD width="100%" height=11>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="77%"><IMG height=59
src="3.3 模糊神经网络的学习.files/6.3.ht49.gif" width=288 border=0></TD>
<TD width="23%">(3-93)</TD></TR>
<TR>
<TD width="77%"><FONT
size=2>在b<SUB>u</SUB>(α)>b<SUB>L</SUB>(α)>0的情况中,则式(3—92)可以简化为</FONT></TD>
<TD width="23%"></TD></TR>
<TR>
<TD width="100%" colSpan=2><IMG height=27
src="3.3 模糊神经网络的学习.files/6.3.ht50.gif" width=695 border=0>
<P
align=right>(3-94) </P></TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=375>
<P>一、算术模糊神经网络输出的计算 </P>
<P>考虑一个三层的前向神经网络,用I表示输入层,H表示隐层,O表示输出层。假设其输入、输出、权系数和阀值都是模糊量;其中输人、输出是任意模糊量,但权系数和阀值是三角模糊量。这种模糊神经网络如图3—10所示。</P>
<P align=center><IMG height=380 src="3.3 模糊神经网络的学习.files/6.3.ht51.gif"
width=458 border=0></P>
<P align=center>图3-10 模糊神经网络</P></TD></TR>
<TR>
<TD width="100%" height=99>
<P>很明显,对于图3—10所示的网络有如下输入输出关系,输人层的输出为I<SUB>i</SUB>:<BR>I<SUB>i</SUB>=X<SUB>i</SUB>
i=1,2,...,nI
(3-95) </P>
<P>隐层的输出为Hj:</P>
<P>H<SUB>j</SUB>=f(U<SUB>j</SUB>),j=1,2,...,nH
(3-96)</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="85%"><IMG height=44
src="3.3 模糊神经网络的学习.files/6.3.ht52.gif" width=160 border=0></TD>
<TD width="15%">(3-97)</TD></TR>
<TR>
<TD width="85%"><FONT
size=2>输出层的输出为Ok:<BR>O<SUB>k</SUB>=f(U<SUB>k</SUB>),k=1,2,...,nO </FONT>
</TD>
<TD width="15%">(3-98)</TD></TR>
<TR>
<TD width="85%"><IMG height=44
src="3.3 模糊神经网络的学习.files/6.3.ht53.gif" width=164 border=0></TD>
<TD width="15%">(3-99)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=95>
<P>在上面(3—95)到(3—99)式中,X<SUB>i</SUB>是模糊输入,W<SUB>ji</SUB>,W<SUB>kj</SUB>是模糊权系数,θ<SUB>j</SUB>,θ<SUB>k</SUB>是模糊阀值。
</P>
<P>为方便计算,在图3—10所示的模糊神经网络中,采用水平截集进行计算。对于α截集,则模糊神经网络输入输出关系可以写为下面式子:</P>
<P>对于输入层,有</P>
<P>I<SUB>i</SUB>[α]=X<SUB>i</SUB>[α]
(3-100)</P>
<P>对于隐层,有</P>
<P>H<SUB>j</SUB>[α]=f(U<SUB>j</SUB>[α])
(3-101)</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="72%"><IMG height=39
src="3.3 模糊神经网络的学习.files/6.3.ht54.gif" width=272 border=0></TD>
<TD width="28%">(3-102)</TD></TR>
<TR>
<TD width="72%"><FONT size=2>对于输出层,有 </FONT>
<P><FONT
size=2>O<SUB>k</SUB>[α]=f(U<SUB>k</SUB>[α])
(3-103)</FONT> </P></TD>
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -