📄 3.3 模糊神经网络的学习.htm
字号:
<TD width="28%"></TD></TR>
<TR>
<TD width="72%"><IMG height=46
src="3.3 模糊神经网络的学习.files/6.3.ht55.gif" width=287 border=0></TD>
<TD width="28%">(3-104)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=181>
<P>从上面(3—100)到(3—104)式中,可以看出:神经网络的模糊量α截集输出是由输入,隐层和阀值的α截集计算出来的。在输入的模糊量的α截集X<SUB>i</SUB>[α]是非负的,即有
</P>
<P>X<SUB>i</SUB>[α]=[X<SUB>L</SUB>(α),X<SUB>U</SUB>(α)]
(3-105)</P>
<P>并且</P>
<P>0≤X<SUB>L</SUB>(α)≤X<SUB>U</SUB>(α)</P>
<P>从而,对于输入层,隐层及输出层,可以用下列式子计算:</P>
<P>1.对于输入层:</P>
<P>I<SUB>i</SUB>[α]=X<SUB>i</SUB>[α]=[X<SUB>iL</SUB>(α),X<SUB>iU</SUB>(α)]
(3-106)</P>
<P>2.对于隐层:</P>
<P>H<SUB>j</SUB>[α]=[h<SUB>jL</SUB>(α),h<SUB>jU</SUB>(α)]<BR>
=[f(U<SUB>jL</SUB>(α)),f(U<SUB>jU</SUB>(α))]
(3-107)</P>
<P>其中</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="79%"><IMG height=76
src="3.3 模糊神经网络的学习.files/6.3.ht56.gif" width=487 border=0></TD>
<TD width="21%">(3-108)</TD></TR>
<TR>
<TD width="79%"><IMG height=72
src="3.3 模糊神经网络的学习.files/6.3.ht57.gif" width=496 border=0></TD>
<TD width="21%">(3-109)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=67>
<P>3.对于输出层 </P>
<P>O<SUB>k</SUB>[α]=[O<SUB>kL</SUB>(α),O<SUB>kU</SUB>(α)]<BR>
=[f(U<SUB>kL</SUB>(α)),f(U<SUB>kU</SUB>(α))]
(3-110)</P>
<P>其中</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="79%"><IMG height=74
src="3.3 模糊神经网络的学习.files/6.3.ht58.gif" width=493 border=0></TD>
<TD width="21%">(3-111)</TD></TR>
<TR>
<TD width="79%"><IMG height=74
src="3.3 模糊神经网络的学习.files/6.3.ht59.gif" width=497 border=0></TD>
<TD width="21%">(3-112)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=170>
<P>二、模糊神经网络的学习 </P>
<P>在模糊神经网络的学习中首先要给出目标函数,然后给出学习算法公式,再给出学习步骤。</P>
<P align=center><IMG height=289 src="3.3 模糊神经网络的学习.files/6.3.ht1.gif"
width=511 border=0></P>
<P align=center>图3-11 目标函数</P></TD></TR>
<TR>
<TD width="100%" height=231>
<P>1.目标函数 </P>
<P>考虑对应于模糊输人Xi, i=1,2,…,nI,有目标输出T<SUB>k</SUB>,
k=1,2,…,nO;对于网络的第k个输出端O<SUB>k</SUB>的α截集以及相应的目标输出T<SUB>k</SUB>,可以定义目标函数e。</P>
<P>在图3—11中,取O<SUB>k</SUB>和T<SUB>k</SUB>的α截集的上限值和下限值的误差的平方,并用
α值进行加权作为目标函数e,有</P>
<P>e<SUB>k</SUB>(α)=e<SUB>kL</SUB>(α)+e<SUB>kU</SUB>(α)
(3-113)</P>
<P>其中:e<SUB>kL</SUB>( α)是O<SUB>k</SUB>和T<SUB>k</SUB>的
α截集的下限值的误差平方的。加权值:</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="76%"><IMG height=46 src="3.3 模糊神经网络的学习.files/6.3.ht2.gif"
width=274 border=0></TD>
<TD width="24%">(3-114)</TD></TR>
<TR>
<TD width="76%"><FONT
size=2>e<SUB>kU</SUB>(α)是O<SUB>k</SUB>和T<SUB>k</SUB>的α截集的上限值的误差平方的
α加权值:</FONT></TD>
<TD width="24%"></TD></TR>
<TR>
<TD width="76%"><IMG height=46 src="3.3 模糊神经网络的学习.files/6.3.ht3.gif"
width=279 border=0></TD>
<TD width="24%">(3-115)</TD></TR>
<TR>
<TD width="76%"><FONT
size=2>从而O<SUB>k</SUB>和T<SUB>k</SUB>的α截集的目标函数可以定义为e( α)</FONT></TD>
<TD width="24%"></TD></TR>
<TR>
<TD width="76%"><IMG height=42 src="3.3 模糊神经网络的学习.files/6.3.ht4.gif"
width=135 border=0></TD>
<TD width="24%">(3-116)</TD></TR>
<TR>
<TD width="76%"><FONT
size=2>则输入输出对X<SUB>i</SUB>,T<SUB>k</SUB>的目标函数可以给出如下:</FONT></TD>
<TD width="24%"></TD></TR>
<TR>
<TD width="76%"><IMG height=32 src="3.3 模糊神经网络的学习.files/6.3.ht5.gif"
width=93 border=0></TD>
<TD width="24%">(3-117)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=96>
<P>2.学习算法 </P>
<P>假设三角模糊权系数W<SUB>kj</SUB>,W<SUB>ji</SUB>可以用三个参数表示,即</P>
<P>W<SUB>kj</SUB>=(W<SUB>kjL</SUB>,W<SUB>kjC</SUB>,W<SUB>kjU</SUB>)
(3-118)</P>
<P>其中:W<SUB>kjL</SUB>是权系数的最小值,即其零截集的下限值;</P>
<P>W<SUB>kjC</SUB>是权系数的中值,即其顶角所对应的值;</P>
<P>W<SUB>kjU</SUB>是权系数的最大值,即其零截集的上限值;</P>
<P>W<SUB>ji</SUB>=(W<SUB>jiL</SUB>,W<SUB>jiC</SUB>,W<SUB>jiU</SUB>)
(3-119)</P>
<P>其中参数的意义和W<SUB>kj</SUB>中的类同。</P>
<P>很明显,有</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="76%"><IMG height=43 src="3.3 模糊神经网络的学习.files/6.3.ht6.gif"
width=160 border=0></TD>
<TD width="24%">(3-120)</TD></TR>
<TR>
<TD width="76%"><IMG height=45 src="3.3 模糊神经网络的学习.files/6.3.ht7.gif"
width=160 border=0></TD>
<TD width="24%">(3-121)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=2>
<P>由于W<SUB>kj</SUB>是表示隐层和输出层之间的权系数,可以先考虑其学习算法。根据梯度法.可以用目标函数对Wkj进行修正: </P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="76%"><IMG height=49 src="3.3 模糊神经网络的学习.files/6.3.ht8.gif"
width=359 border=0></TD>
<TD width="24%">(3-122)</TD></TR>
<TR>
<TD width="76%"><IMG height=49 src="3.3 模糊神经网络的学习.files/6.3.ht9.gif"
width=365 border=0></TD>
<TD width="24%">(3-123)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=156>
<P>其中: η是学习常数, β是修改常数。 </P>
<P>在上面式(3-122),(3-123)中,说明利用目标函数e修改权系数的零截集下限值WkjL以及上限值WkjU;故而也就修改了权系数Wkj。</P>
<P>很明显,在式(3—122)(3—123)中,关键在于求取:</P>
<P><IMG height=52 src="3.3 模糊神经网络的学习.files/6.3.ht10.gif" width=162
border=0></P>
<P>从e( α)的定义可知:e( α)必定是权系数W<SUB>kj</SUB>的函数,故而也是W<SUB>kj</SUB>的
α截集的上下限值的函数,即有</P>
<P>e( α)=g(W<SUB>kjL</SUB>( α),W<SUB>kjU</SUB>(
α)) (3-124)</P>
<P>而W<SUB>kjL</SUB>,W<SUB>kjU</SUB>分别是W<SUB>kj</SUB>的零截集的上下限值,则可知:</P>
<P>W<SUB>kjL</SUB>( α)是W<SUB>kjL</SUB>或W<SUB>kjU</SUB>的函数;W<SUB>kjU</SUB>(
α)也是W<SUB>kjL</SUB>或W<SUB>kjU</SUB>的函数。</P>
<P>从全微分的角度则有:</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="78%"><IMG height=52
src="3.3 模糊神经网络的学习.files/6.3.ht11.gif" width=448 border=0></TD>
<TD width="22%">(3-125)</TD></TR>
<TR>
<TD width="78%"><IMG height=54
src="3.3 模糊神经网络的学习.files/6.3.ht12.gif" width=448 border=0></TD>
<TD width="22%">(3-126)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=221>
<P>为了求式(3—125)(3—126)的结果,很明显,需要求出W<SUB>kjL</SUB>、W<SUB>kjU</SUB>和W<SUB>kjL</SUB>(
α)、W<SUB>kjU</SUB>( α)之间的关系。由于权系数W<SUB>kj</SUB>是一个三角对称模糊数,它的形状如图3—12所示。
</P>
<P align=center><IMG height=300 src="3.3 模糊神经网络的学习.files/6.3.ht13.gif"
width=461 border=0></P>
<P align=center>图3-12 W<SUB>kjL</SUB>、W<SUB>kjU</SUB>和W<SUB>kjL</SUB>(
α)、W<SUB>kjU</SUB>( α)的关系示意</P></TD></TR>
<TR>
<TD width="100%" height=452>
<P>在图3-12中,可以看出有 </P>
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -