⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 11.htm

📁 介绍讲解人工智能神经网络——数字神经网络系统的教程
💻 HTM
📖 第 1 页 / 共 2 页
字号:
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<!-- saved from url=(0044)http://www.jgchina.com/ednns/ednnsbk/5.3.htm -->
<HTML><HEAD><TITLE>2.3 神经网络控制系统</TITLE>
<META http-equiv=Content-Type content="text/html; charset=gb2312">
<META content="MSHTML 6.00.2800.1106" name=GENERATOR>
<META content=FrontPage.Editor.Document name=ProgId><LINK 
href="11.files/style.css" type=text/css rel=stylesheet></HEAD>
<BODY bgColor=#ffffff leftMargin=0 topMargin=0>
<TABLE cellSpacing=0 cellPadding=0 width=778 border=0>
  <TBODY>
  <TR>
    <TD width="100%">
      <P><A 
      href="http://www.jgchina.com/ednns/ednnsbk/director.htm">回目录</A>&nbsp;&nbsp;&nbsp; 
      <A 
      href="http://www.jgchina.com/ednns/ednnsbk/5.2.htm">上一页</A>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      <A href="http://www.jgchina.com/ednns/ednnsbk/5.3.2.htm">下一页</A> 
</P></TD></TR>
  <TR>
    <TD width="100%">
      <P align=center>2.3 神经网络控制系统 </P></TD></TR>
  <TR>
    <TD width="100%" height=388>
      <P>神经网络控制系统在本质上讲是由神经网络构成控制器的控制系统。这种控制系统最吸引人之处是在于控制器具有学习功能,从而可以对不明确的对象进行学习式控制.使对象的输出与给定值的偏差趋于无穷小。 
      </P>
      <P>在这一节中,介绍几个实际具体的神经网络控制系统,井给出这些系统的控制结果。</P>
      <P>2.3.1 离散系统的神经适应控制</P>
      <P>对于一个线性离散系统,进行神经适应控制时,其系统的结构框图如图2—16所示。在图中可以看出:它包括神经网络控制器NC,对象仿真器PE和学习机构,以及被控对象。PE的输入有控制量u和对象输出量y两种,NC的输入则有给定值r、本身的输出U和对象输出量y。系统中的NC和PE都是在工作中执行联机学习的,这是一个实时学习的控制系统。</P>
      <P align=center><IMG height=306 src="11.files/5.3.ht1.gif" width=479 
      border=0></P>
      <P align=center>图2-16&nbsp; 离散系统神经控制结构 </P></TD></TR>
  <TR>
    <TD width="100%" height=463>
      <P>一、被控对象 </P>
      <P>被控对象可以用下面线性方程表示</P>
      <P>A(q<SUP>-1</SUP>)y(k)=B(q<SUP>-1</SUP>)u(k)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (2.52)</P>
      <P>其中:</P>
      <P>A(q<SUP>-1</SUP>)=1+a<SUB>1</SUB>q<SUP>-1</SUP>+...+a<SUB>n</SUB>q<SUP>-n</SUP>;</P>
      <P>B(q<SUP>-1</SUP>)=b<SUB>1</SUB>q<SUP>-1</SUP>+...+b<SUB>m</SUB>q<SUP>-m</SUP>;</P>
      <P>q<SUP>-1</SUP>是延时算子,q<SUP>-1</SUP>y(k)=y(k-1);</P>
      <P>y(k)是输出;</P>
      <P>u(k)是输入。</P>
      <P>对于被控对象的表达式,它满足下列3个条件:</P>
      <P>1.m,n是有上界的,并且已知。</P>
      <P>2.B(q-1)是一个稳定的多项式。</P>
      <P>3.系数b<SUB>1</SUB><SPAN 
      style="FONT-SIZE: 10.5pt; FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: 'Times New Roman'; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">≠</SPAN>0。</P>
      <P>m.n有界,则可以明确用其上界值构造NC和PE的输入,从而得出具体的NC和PE,便于实际有效训练。B(q-1)稳定,则可保证控制器的闭环控制稳定。b<SUB>1</SUB><SPAN 
      style="FONT-SIZE: 10.5pt; FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: 'Times New Roman'; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">≠</SPAN>0,是控制器所需的。</P>
      <P>二、对象仿真器和神经控制器</P>
      <P>对象仿真器PE和神经控制器NC都用线性神经网络构成。而且在结构上,都是一个输入层和一个输出层,而没有中层隐层的2层神经网络所构成。</P>
      <P>1.对象仿真器PE</P>
      <P>对象仿真器PE的结构如图2—17所示。在图中可看出:PE的输入向量为x(k-1),输出为y(k).权系数向量为w(k-1)。</P>
      <P align=center><IMG height=188 src="11.files/5.3.ht2.gif" width=622 
      border=0></P>
      <P align=center>图2-17&nbsp; 对象仿真器PE的结构 </P></TD></TR>
  <TR>
    <TD width="100%" height=116>
      <P>考虑在k时刻,则这时有输入向量x(k) </P>
      <P>x(k)=[x<SUB>1</SUB>(k),x<SUB>2</SUB>(k),…,x<SUB>n</SUB>(k),x<SUB>n+1</SUB>(k),…,x<SUB>n+m</SUB>(k)]<SUP>T</SUP><BR>&nbsp;&nbsp;&nbsp;&nbsp; 
      =[-y(k),…,-y(k-n+1),u(k),…,u(k-m+1)]<SUP>T</SUP>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (2.53)</P>
      <P>而PE的权系数向量为w(k)</P>
      <P>w(k)=[w<SUB>1</SUB>(k),w<SUB>2</SUB>(k),…,w<SUB>n</SUB>(k),w<SUB>n+1</SUB>(k),…,w<SUB>n+ 
      m</SUB>(k)]<SUP>T</SUP>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (2.54)</P>
      <P>由于对象仿真器PE是由线性神经网络构成,其输出y由下式求出</P>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
        <TBODY>
        <TR>
          <TD width="71%"><IMG height=40 src="11.files/5.3.ht3.gif" width=256 
            border=0></TD>
          <TD width="29%">(2.55)</TD></TR>
        <TR>
          <TD width="71%"><FONT 
          size=2>在实时训练中,权系数采用Widrow-Hoff规则进行更新,即</FONT></TD>
          <TD width="29%"></TD></TR>
        <TR>
          <TD width="71%"><IMG height=45 src="11.files/5.3.ht4.gif" width=330 
            border=0></TD>
          <TD width="29%">(2.56)</TD></TR></TBODY></TABLE></TD></TR>
  <TR>
    <TD width="100%" height=243>
      <P>其中:<SPAN 
      style="FONT-SIZE: 10.5pt; FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: 'Times New Roman'; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">α</SPAN><SPAN 
      style="FONT-SIZE: 10.5pt; FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: 'Times New Roman'; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">∈</SPAN>(0,2),是衰减因子: 
      </P>
      <P>E是接近于0的小数,用于防止在x<SUP>T</SUP>(k)x(k)等于0时分母为0;</P>
      <P>e(k+1)是输出偏差,e(k+1)=y(k+1)-y<SUB>E</SUB>(k+1)。</P>
      <P>利用式(2.56)进行学习训练,最终目的就是使输出偏差e(k+1)最小化。而且,当e(k+1)——U时,从式(2.56)看出有w(k+1)=w(k)。</P>
      <P>2.神经控制器NC</P>
      <P>神经控制器NC也是二层神经网络构成,输入端有n+m个,输出端有一个。它的结构如图2—18所示。输入为z(k),输出为控制量u(k)。</P>
      <P>在k时刻,NC的输入为z(k).有</P>
      <P>z(k)=[z<SUB>1</SUB>(k),z<SUB>2</SUB>(k),…,z<SUB>n+1</SUB>(k),z<SUB>n+2</SUB>(k),…,z<SUB>n+m</SUB>(k)]<SUP>T</SUP><BR>&nbsp;&nbsp;&nbsp;&nbsp; 
      =[r(k+1),-x<SUB>1</SUB>(k),…,-x<SUB>n</SUB>(k),-x<SUB>n+2</SUB>(k),…,x<SUB>n+m</SUB>(k)]<SUP>T</SUP><BR>&nbsp;&nbsp;&nbsp;&nbsp; 
      =[r(k+1),y(k)…,y(k-n+2),-u(k-1),…,-u(k-m+1)]<SUP>T</SUP>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (2.57)</P>
      <P>注意在式(2.57)中没有-Xn+1(k),即y(k-n-1)这项。</P>
      <P>神经控制器NC的权系数向量为W'(k)有</P>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
        <TBODY>
        <TR>
          <TD width="77%"><IMG height=79 src="11.files/5.3.ht5.gif" width=659 
            border=0></TD>
          <TD width="23%">(2.58)</TD></TR>
        <TR>
          <TD width="77%"><FONT 
            size=2>显然.NC的权系数向量w’(k)是PE的权系数向量W(k)的函数。<BR>由NC产生的控制输出信号u(k),由下式求出:</FONT></TD>
          <TD width="23%"></TD></TR>
        <TR>
          <TD width="77%"><IMG height=41 src="11.files/5.3.ht6.gif" width=197 
            border=0></TD>
          <TD width="23%">(2.59)</TD></TR></TBODY></TABLE></TD></TR>
  <TR>
    <TD width="100%">
      <P align=center><IMG height=252 src="11.files/5.3.ht7.gif" width=608 
      border=0></P>
      <P align=center>图2-18&nbsp; 神经控制器NC的结构 </P></TD></TR>
  <TR>
    <TD width="100%">
      <P>3.控制系统的信息处理过程
      <P>在图2—16所示的神经网络控制系统中,信息的处理过程和步骤如下:</P>
      <P>(1)取给定值r(k+1),取对象输出值y(k)。</P>
      <P>(2)用原有权系数向量W(k-1),通过式(2.55)计算对象仿真器PE的预测输出y<SUB>E</SUB>(k)</P>
      <P>(3)计算偏差e(k)=y(k)—y<SUB>E</SUB>(k),并且利用式(2.56)计算出新的权系数向量W(k)。</P>
      <P>(4)用式(2.58)更新神经控制器NC的权系数向量w'(k)。</P>
      <P>(5)神经控制器Nc通过式(2.59)产生控制量u(k)。</P>
      <P>三、控制系统的闭环性能分析</P>
      <P>在确立闭环系统的性能之前先考虑对象仿真器的一些性质。</P>
      <P>设W<SUB>0</SUB>是对象仿真器PE训练之后得到的最终权系数向量</P>
      <P>W<SUB>0</SUB>=[W<SUB>01</SUB>,W<SUB>02</SUB>,...,W<SUB>0n+m</SUB>]<SUP>T</SUP>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (2.60)</P>
      <P>则W<SUB>0</SUB>满足下式</P>
      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="70%"><IMG height=40 src="11.files/5.3.ht8.gif" width=352 
            border=0></TD>
          <TD width="30%">(2.61)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=498>
      <P>也即是说在权系数为W<SUB>0</SUB>向量时,PE能精确预测对象的输出。 </P>
      <P>引理:由式(2.53)—(2.55)所表述的对象仿真器PE,满足如下性质:</P>
      <P><IMG height=83 src="11.files/5.3.ht9.gif" width=622 border=0></P>
      <P>证明:</P>
      <P>考虑权系数误差ΔW(k)</P>
      <P>ΔW(k)=W(K)-W<SUB>0</SUB>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (2.62)</P>
      <P>根据式(2.55),(2.6I),(2.62),则系统输出误差e(k)可以表达为权系数误差ΔW的函数,即</P>
      <P><IMG height=177 src="11.files/5.3.ht10.gif" width=425 border=0></P>
      <P>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      =-X<SUP>T</SUP>(k-1)ΔW(k-1)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
      (2.63)</P>
      <P>把式(2.56)两边减去W<SUB>0</SUB>,可求出权系数误差,则得:</P>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
        <TBODY>
        <TR>
          <TD width="77%"><IMG height=47 src="11.files/5.3.ht11.gif" width=425 
            border=0></TD>
          <TD width="23%">(2.64)</TD></TR>
        <TR>
          <TD width="77%"><FONT size=2>把上式(2.64)两边平方有</FONT></TD>
          <TD width="23%"></TD></TR>
        <TR>
          <TD width="100%" colSpan=2>
            <DIV align=center><IMG height=79 src="11.files/5.3.ht12.gif" 
            width=670 border=0></DIV></TD></TR>
        <TR>
          <TD width="100%" colSpan=2>
            <P align=right>(2.65) </P></TD></TR></TBODY></TABLE></TD></TR>
  <TR>
    <TD width="100%" height=127>
      <P>从式(2.63)可知 </P>
      <P>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; e(k)=-X<SUP>T</SUP>(k-1)ΔW(k-1)</P>
      <P>即有</P>
      <P><IMG height=49 src="11.files/5.3.ht13.gif" width=235 border=0></P>
      <P>代入式(2.65),有</P>
      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="50%"><IMG height=155 src="11.files/5.3.ht14.gif" 
            width=647 border=0></TD>
          <TD width="50%">(2.66)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=69>
      <P>从式(2.66)中,有 </P>
      <P><SPAN 
      style="FONT-SIZE: 10.5pt; FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: 'Times New Roman'; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">α∈</SPAN>(O,2),故即<SPAN 
      style="FONT-SIZE: 10.5pt; FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: 'Times New Roman'; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">α</SPAN>>0;</P>
      <P>X(k-1)/XT(k-1),XT(k-1)X(k-1)都为正;</P>
      <P>e(k)2也必定大于0,<SPAN 
      style="FONT-FAMILY: 宋体; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: Times New Roman; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">ε</SPAN>是趋于0的正数。</P>
      <P>所以,在式(2.66)中</P>
      <DIV align=center>
      <CENTER>
      <TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
        <TBODY>
        <TR>
          <TD width="75%"><IMG height=46 src="11.files/5.3.ht15.gif" width=256 
            border=0></TD>
          <TD width="25%">(2.67)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
  <TR>
    <TD width="100%" height=286>
      <P>的结果确定了[ΔW(k)]<SUP>2</SUP>-[ΔW(k-1)]<SUP>2</SUP>的正负。 </P>
      <P>令 H=x<SUP>T</SUP>(k-1)x(k-1)</P>
      <P>则式(2.67)可写为:</P>
      <P><IMG height=41 src="11.files/5.3.ht16.gif" width=100 border=0></P>
      <P>则有</P>
      <P><IMG height=43 src="11.files/5.3.ht17.gif" width=224 border=0></P>

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -