⭐ 欢迎来到虫虫下载站! | 📦 资源下载 📁 资源专辑 ℹ️ 关于我们
⭐ 虫虫下载站

📄 xiao1jun.bokee.htm

📁 基于粒子群优化的书籍或程序基于粒子群优化的书籍或程序基于粒子群优化的书籍或程序基于粒子群优化的书籍或程序
💻 HTM
📖 第 1 页 / 共 3 页
字号:
<P align=left>PSO 初始化为一群随机粒子(随机解)。然后通过叠代找到最优解。在每一次叠代中,粒子通过跟踪两个"极值"来更新自己。第一个就是粒子本身所找到的最优解。这个解叫做个体极值pBest. 另一个极值是整个种群目前找到的最优解。这个极值是全局极值gBest。另外也可以不用整个种群而只是用其中一部分最为粒子的邻居,那么在所有邻居中的极值就是局部极值。</P>
<P align=left>在找到这两个最优值时, 粒子根据如下的公式来更新自己的速度和新的位置</P>
<P align=left>v[] = v[] &#43; c1 * rand() * (pbest[] - present[]) &#43; c2 * rand() * (gbest[] - present[]) (a)<BR>present[] = persent[] &#43; v[] (b)</P>
<P align=left>v[] 是粒子的速度, persent[] 是当前粒子的位置. pbest[] and gbest[] 如前定义 rand () 是介于(0, 1)之间的随机数. c1, c2 是学习因子. 通常 c1 = c2 = 2. </P>
<P align=left>程序的伪代码如下</P>
<P align=left>For each particle <BR>____Initialize particle<BR>END</P>
<P align=left>Do<BR>____For each particle <BR>________Calculate fitness value<BR>________If the fitness value is better than the best fitness value (pBest) in history<BR>____________set current value as the new pBest<BR>____End</P>
<P align=left>____Choose the particle with the best fitness value of all the particles as the gBest<BR>____For each particle <BR>________Calculate particle velocity according equation (a)<BR>________Update particle position according equation (b)<BR>____End <BR>While maximum iterations or minimum error criteria is not attained</P>
<P align=left>在每一维粒子的速度都会被限制在一个最大速度Vmax,如果某一维更新后的速度超过用户设定的Vmax,那么这一维的速度就被限定为Vmax</P>
<P align=left>4. 遗传算法和 PSO 的比较</P>
<P align=left>大多数演化计算技术都是用同样的过程<BR>1. 种群随机初始化<BR>2. 对种群内的每一个个体计算适应值(fitness value).适应值与最优解的距离直接有关<BR>3. 种群根据适应值进行复制 <BR>4. 如果终止条件满足的话,就停止,否则转步骤2</P>
<P align=left>从以上步骤,我们可以看到PSO和GA有很多共同之处。两者都随机初始化种群,而且都使用适应值来评价系统,而且都根据适应值来进行一定的随机搜索。两个系统都不是保证一定找到最优解</P>
<P align=left>但是,PSO 没有遗传操作如交叉(crossover)和变异(mutation). 而是根据自己的速度来决定搜索。粒子还有一个重要的特点,就是有记忆。</P>
<P align=left>与遗传算法比较, PSO 的信息共享机制是很不同的. 在遗传算法中,染色体(chromosomes) 互相共享信息,所以整个种群的移动是比较均匀的向最优区域移动. 在PSO中, 只有gBest (or lBest) 给出信息给其他的粒子, 这是单向的信息流动. 整个搜索更新过程是跟随当前最优解的过程. 与遗传算法比较, 在大多数的情况下,所有的粒子可能更快的收敛于最优解</P>
<P align=left>5. 人工神经网络 和 PSO</P>
<P align=left>人工神经网络(ANN)是模拟大脑分析过程的简单数学模型,反向转播算法是最流行的神经网络训练算法。进来也有很多研究开始利用演化计算(evolutionary computation)技术来研究人工神经网络的各个方面。</P>
<P align=left>演化计算可以用来研究神经网络的三个方面:网络连接权重,网络结构(网络拓扑结构,传递函数),网络学习算法。</P>
<P align=left>不过大多数这方面的工作都集中在网络连接权重,和网络拓扑结构上。在GA中,网络权重和/或拓扑结构一般编码为染色体(Chromosome),适应函数(fitness function)的选择一般根据研究目的确定。例如在分类问题中,错误分类的比率可以用来作为适应值</P>
<P align=left>演化计算的优势在于可以处理一些传统方法不能处理的例子例如不可导的节点传递函数或者没有梯度信息存在。但是缺点在于:在某些问题上性能并不是特别好。2. 网络权重的编码而且遗传算子的选择有时比较麻烦</P>
<P align=left>最近已经有一些利用PSO来代替反向传播算法来训练神经网络的论文。研究表明PSO 是一种很有潜力的神经网络算法。PSO速度比较快而且可以得到比较好的结果。而且还没有遗传算法碰到的问题</P>
<P align=left>这里用一个简单的例子说明PSO训练神经网络的过程。这个例子使用分类问题的基准函数(Benchmark function)IRIS数据集。(Iris 是一种鸢尾属植物) 在数据记录中,每组数据包含Iris花的四种属性:萼片长度,萼片宽度,花瓣长度,和花瓣宽度,三种不同的花各有50组数据. 这样总共有150组数据或模式。</P>
<P align=left>我们用3层的神经网络来做分类。现在有四个输入和三个输出。所以神经网络的输入层有4个节点,输出层有3个节点我们也可以动态调节隐含层节点的数目,不过这里我们假定隐含层有6个节点。我们也可以训练神经网络中其他的参数。不过这里我们只是来确定网络权重。粒子就表示神经网络的一组权重,应该是4*6&#43;6*3=42个参数。权重的范围设定为[-100,100] (这只是一个例子,在实际情况中可能需要试验调整).在完成编码以后,我们需要确定适应函数。对于分类问题,我们把所有的数据送入神经网络,网络的权重有粒子的参数决定。然后记录所有的错误分类的数目作为那个粒子的适应值。现在我们就利用PSO来训练神经网络来获得尽可能低的错误分类数目。PSO本身并没有很多的参数需要调整。所以在实验中只需要调整隐含层的节点数目和权重的范围以取得较好的分类效果。 </P>
<P align=left>6. PSO的参数设置</P>
<P align=left>从上面的例子我们可以看到应用PSO解决优化问题的过程中有两个重要的步骤: 问题解的编码和适应度函数<BR>PSO的一个优势就是采用实数编码, 不需要像遗传算法一样是二进制编码(或者采用针对实数的遗传操作.例如对于问题 f(x) = x1^2 &#43; x2^2&#43;x3^2 求解, 粒子可以直接编码为 (x1, x2, x3), 而适应度函数就是f(x). 接着我们就可以利用前面的过程去寻优.这个寻优过程是一个叠代过程, 中止条件一般为设置为达到最大循环数或者最小错误</P>
<P align=left>PSO中并没有许多需要调节的参数,下面列出了这些参数以及经验设置</P>
<P align=left>粒子数: 一般取 20 – 40. 其实对于大部分的问题10个粒子已经足够可以取得好的结果, 不过对于比较难的问题或者特定类别的问题, 粒子数可以取到100 或 200</P>
<P align=left>粒子的长度: 这是由优化问题决定, 就是问题解的长度</P>
<P align=left>粒子的范围: 由优化问题决定,每一维可是设定不同的范围</P>
<P align=left>Vmax: 最大速度,决定粒子在一个循环中最大的移动距离,通常设定为粒子的范围宽度,例如上面的例子里,粒子 (x1, x2, x3) x1 属于 [-10, 10], 那么 Vmax 的大小就是 20</P>
<P align=left>学习因子: c1 和 c2 通常等于 2. 不过在文献中也有其他的取值. 但是一般 c1 等于 c2 并且范围在0和4之间</P>
<P align=left>中止条件: 最大循环数以及最小错误要求. 例如, 在上面的神经网络训练例子中, 最小错误可以设定为1个错误分类, 最大循环设定为2000, 这个中止条件由具体的问题确定. </P>
<P align=left>全局PSO和局部PSO: 我们介绍了两种版本的粒子群优化算法: 全局版和局部版. 前者速度快不过有时会陷入局部最优. 后者收敛速度慢一点不过很难陷入局部最优. 在实际应用中, 可以先用全局PSO找到大致的结果,再有局部PSO进行搜索.</P>
<P align=left>另外的一个参数是惯性权重, 由Shi 和Eberhart提出, 有兴趣的可以参考他们1998年的论文(题目: A modified particle swarm optimizer)</P>
<P align=left></P>
<DIV align=left>7. Online Resources of PSO </DIV>
<P align=left>The development of PSO is still ongoing. And there are still many unknown areas in PSO research such as the mathematical validation of particle swarm theory.</P>
<P align=left>One can find much information from the internet. Following are some information you can get online:</P>
<P align=left>http://www.particleswarm.net lots of information about Particle Swarms and, particularly, Particle Swarm Optimization. lots of Particle Swarm Links.</P>
<P align=left>http://icdweb.cc.purdue.edu/~hux/PSO.shtml lists an updated bibliography of particle swarm optimization and some online paper links</P>
<P align=left>http://www.researchindex.com/ you can search particle swarm related papers and references. </P></div><div class='entry-footer'><span class='f'><span class='pub-date' title='发布日期'>2006.7.11</span> <span class='pub-time' title='发布时间'>13:20</span> <span class='ln-author'>作者:<a class='author' href='http://id.bokee.com/showInfo.b?username=xiao1jun'>xiao1jun</a></span> <script type="text/javascript">if(blogID!=null)document.writeln('<a href="http://'+blogID+'/trackback/doTrackDiary.b?trackDiaryUrl=http://xiao1jun.bokee.com/trackback/trackDiary.b?diaryId=12059089" class="ln-trackbacks">引用0<\/a> | ');</script><a href='javascript:void(0);' class='ln-bookmark' onClick='addFavorite("PSO粒子群优化算法","http://xiao1jun.bokee.com/viewdiary.12059089.html")'>收藏</a> | <a href='/viewdiary.12059089.html#remark' class='ln-comments'>评论:0</a></span></div></div><div class='entry-preview'><div class='entry-title' style='cursor:hand' onClick='resize(this)'><h2><a href='/viewdiary.12059003.html'>蚁群算法</a></h2><p><span class=fenlei-Span>分类:<a href='http://xiao1jun.bokee.com/cat.10242388.html'>编程及其他</a></span></p></div><div class='entry-body'><P>

<SPAN style="FONT-WEIGHT: bold; FONT-SIZE: 14px">简介:</SPAN>蚁群算法(ant colony optimization, ACO),又称蚂蚁算法,是一种用来在图中寻找优化路径的机率型技术。它由Marco Dorigo于1992年在他的博士论文中引入,其灵感来源于蚂蚁在寻找食物过程中发现路径的行为。 </P>
<P>蚁群算法(ant colony optimization, ACO),又称蚂蚁算法,是一种用来在图中寻找优化路径的机率型技术。它由Marco Dorigo于1992年在他的博士论文中引入,其灵感来源于蚂蚁在寻找食物过程中发现路径的行为。</P>
<P align=center><IMG src="http://www.roboticfan.com/college/UploadFiles_7562/200606/20060605213618420.jpg" border=0></P>
<P>为什么小小的蚂蚁能够找到食物?他们具有智能么?设想,如果我们要为蚂蚁设计一个人工智能的程序,那么这个程序要多么复杂呢?首先,你要让蚂蚁能够避开障碍物,就必须根据适当的地形给它编进指令让他们能够巧妙的避开障碍物,其次,要让蚂蚁找到食物,就需要让他们遍历空间上的所有点;再次,如果要让蚂蚁找到最短的路径,那么需要计算所有可能的路径并且比较它们的大小,而且更重要的是,你要小心翼翼的编程,因为程序的错误也许会让你前功尽弃。这是多么不可思议的程序!太复杂了,恐怕没人能够完成这样繁琐冗余的程序。</P>
<P>然而,事实并没有你想得那么复杂,上面这个程序每个蚂蚁的核心程序编码不过100多行!为什么这么简单的程序会让蚂蚁干这样复杂的事情?答案是:简单规则的涌现。事实上,每只蚂蚁并不是像我们想象的需要知道整个世界的信息,他们其实只关心很小范围内的眼前信息,而且根据这些局部信息利用几条简单的规则进行决策,这样,在蚁群这个集体里,复杂性的行为就会凸现出来。这就是人工生命、复杂性科学解释的规律!那么,这些简单规则是什么呢?下面详细说明:</P>
<P>1、范围:<BR>蚂蚁观察到的范围是一个方格世界,蚂蚁有一个参数为速度半径(一般是3),那么它能观察到的范围就是3*3个方格世界,并且能移动的距离也在这个范围之内。<BR>2、环境:<BR>蚂蚁所在的环境是一个虚拟的世界,其中有障碍物,有别的蚂蚁,还有信息素,信息素有两种,一种是找到食物的蚂蚁洒下的食物信息素,一种是找到窝的蚂蚁洒下的窝的信息素。每个蚂蚁都仅仅能感知它范围内的环境信息。环境以一定的速率让信息素消失。<BR>3、觅食规则:<BR>在每只蚂蚁能感知的范围内寻找是否有食物,如果有就直接过去。否则看是否有信息素,并且比较在能感知的范围内哪一点的信息素最多,这样,它就朝信息素多的地方走,并且每只蚂蚁多会以小概率犯错误,从而并不是往信息素最多的点移动。蚂蚁找窝的规则和上面一样,只不过它对窝的信息素做出反应,而对食物信息素没反应。<BR>4、移动规则: <BR>每只蚂蚁都朝向信息素最多的方向移,并且,当周围没有信息素指引的时候,蚂蚁会按照自己原来运动的方向惯性的运动下去,并且,在运动的方向有一个随机的小的扰动。为了防止蚂蚁原地转圈,它会记住最近刚走过了哪些点,如果发现要走的下一点已经在最近走过了,它就会尽量避开。<BR>5、避障规则:<BR>如果蚂蚁要移动的方向有障碍物挡住,它会随机的选择另一个方向,并且有信息素指引的话,它会按照觅食的规则行为。 <BR>7、播撒信息素规则:<BR>每只蚂蚁在刚找到食物或者窝的时候撒发的信息素最多,并随着它走远的距离,播撒的信息素越来越少。</P>
<P>根据这几条规则,蚂蚁之间并没有直接的关系,但是每只蚂蚁都和环境发生交互,而通过信息素这个纽带,实际上把各个蚂蚁之间关联起来了。比如,当一只蚂蚁找到了食物,它并没有直接告诉其它蚂蚁这儿有食物,而是向环境播撒信息素,当其它的蚂蚁经过它附近的时候,就会感觉到信息素的存在,进而根据信息素的指引找到了食物。</P>
<H3>问题:</H3>
<P>说了这么多,蚂蚁究竟是怎么找到食物的呢?<BR>在没有蚂蚁找到食物的时候,环境没有有用的信息素,那么蚂蚁为什么会相对有效的找到食物呢?这要归功于蚂蚁的移动规则,尤其是在没有信息素时候的移动规则。首先,它要能尽量保持某种惯性,这样使得蚂蚁尽量向前方移动(开始,这个前方是随机固定的一个方向),而不是原地无谓的打转或者震动;其次,蚂蚁要有一定的随机性,虽然有了固定的方向,但它也不能像粒子一样直线运动下去,而是有一个随机的干扰。这样就使得蚂蚁运动起来具有了一定的目的性,尽量保持原来的方向,但又有新的试探,尤其当碰到障碍物的时候它会立即改变方向,这可以看成一种选择的过程,也就是环境的障碍物让蚂蚁的某个方向正确,而其他方向则不对。这就解释了为什么单个蚂蚁在复杂的诸如迷宫的地图中仍然能找到隐蔽得很好的食物。<BR>当然,在有一只蚂蚁找到了食物的时候,其他蚂蚁会沿着信息素很快找到食物的。</P>
<P>蚂蚁如何找到最短路径的?这一是要归功于信息素,另外要归功于环境,具体说是计算机时钟。信息素多的地方显然经过这里的蚂蚁会多,因而会有更多的蚂蚁聚集过来。假设有两条路从窝通向食物,开始的时候,走这两条路的蚂蚁数量同样多(或者较长的路上蚂蚁多,这也无关紧要)。当蚂蚁沿着一条路到达终点以后会马上返回来,这样,短的路蚂蚁来回一次的时间就短,这也意味着重复的频率就快,因而在单位时间里走过的蚂蚁数目就多,洒下的信息素自然也会多,自然会有更多的蚂蚁被吸引过来,从而洒下更多的信息素……;而长的路正相反,因此,越来越多地蚂蚁聚集到较短的路径上来,最短的路径就近似找到了。也许有人会问局部最短路径和全局最短路的问题,实际上蚂蚁逐渐接近全局最短路的,为什么呢?这源于蚂蚁会犯错误,也就是它会按照一定的概率不往信息素高的地方走而另辟蹊径,这可以理解为一种创新,这种创新如果能缩短路途,那么根据刚才叙述的原理,更多的蚂蚁会被吸引过来。</P>
<H3>引申:</H3>
<P>跟着蚂蚁的踪迹,你找到了什么?通过上面的原理叙述和实际操作,我们不难发现蚂蚁之所以具有智能行为,完全归功于它的简单行为规则,而这些规则综合起来具有下面两个方面的特点:<BR>1、多样性<BR>2、正反馈<BR>多样性保证了蚂蚁在觅食的时候不置走进死胡同而无限循环,正反馈机制则保证了相对优良的信息能够被保存下来。我们可以把多样性看成是一种创造能力,而正反馈是一种学习强化能力。正反馈的力量也可以比喻成权威的意见,而多样性是打破权威体现的创造性,正是这两点小心翼翼的巧妙结合才使得智能行为涌现出来了。<BR>引申来讲,大自然的进化,社会的进步、人类的创新实际上都离不开这两样东西,多样性保证了系统的创新能力,正反馈保证了优良特性能够得到强化,两者要恰到好处的结合。如果多样性过剩,也就是系统过于活跃,这相当于蚂蚁会过多的随机运动,它就会陷入混沌状态;而相反,多样性不够,正反馈机制过强,那么系统就好比一潭死水。这在蚁群中来讲就表现为,蚂蚁的行为过于僵硬,当环境变化了,蚂蚁群仍然不能适当的调整。<BR>既然复杂性、智能行为是根据底层规则涌现的,既然底层规则具有多样性和正反馈特点,那么也许你会问这些规则是哪里来的?多样性和正反馈又是哪里来的?我本人的意见:规则来源于大自然的进化。而大自然的进化根据刚才讲的也体现为多样性和正反馈的巧妙结合。而这样的巧妙结合又是为什么呢?为什么在你眼前呈现的世界是如此栩栩如生呢?答案在于环境造就了这一切,之所以你看到栩栩如生的世界,是因为那些不能够适应环境的多样性与正反馈的结合都已经死掉了,被环境淘汰了!</P>
<H3>参数说明:</H3>
<P>最大信息素:蚂蚁在一开始拥有的信息素总量,越大表示程序在较长一段时间能够存在信息素。信息素消减的速度:随着时间的流逝,已经存在于世界上的信息素会消减,这个数值越大,那么消减的越快。<BR>错误概率表示这个蚂蚁不往信息素最大的区域走的概率,越大则表示这个蚂蚁越有创新性。<BR>速度半径表示蚂蚁一次能走的最大长度,也表示这个蚂蚁的感知范围。<BR>记忆能力表示蚂蚁能记住多少个刚刚走过点的坐标,这个值避免了蚂蚁在本地打转,停滞不前。而这个值越大那么整个系统运行速度就慢,越小则蚂蚁越容易原地转圈。</P></div><div class='entry-footer'><span class='f'><span class='pub-date' title='发布日期'>2006.7.11</span> <span class='pub-time' title='发布时间'>13:08</span> <span class='ln-author'>作者:<a class='author' href='http://id.bokee.com/showInfo.b?username=xiao1jun'>xiao1jun</a></span> <script type="text/javascript">if(blogID!=null)document.writeln('<a href="http://'+blogID+'/trackback/doTrackDiary.b?trackDiaryUrl=http://xiao1jun.bokee.com/trackback/trackDiary.b?diaryId=12059003" class="ln-trackbacks">引用0<\/a> | ');</script><a href='javascript:void(0);' class='ln-bookmark' onClick='addFavorite("蚁群算法","http://xiao1jun.bokee.com/viewdiary.12059003.html")'>收藏</a> | <a href='/viewdiary.12059003.html#remark' class='ln-comments'>评论:0</a></span></div></div><div class='entry-preview'><div class='entry-title' style='cursor:hand' onClick='resize(this)'><h2><a href='/viewdiary.12058988.html'>智能算法综述</a></h2><p><span class=fenlei-Span>分类:<a href='http://xiao1jun.bokee.com/cat.10163509.html'>数字图像处理</a></span></p></div><div class='entry-body'>
<TABLE cellSpacing=0 cellPadding=0 width="100&#37;" border=0>
<TBODY>
<TR>
<TD class=bodyCopyBlackLargeSpaced vAlign=top width="3&#37;">&nbsp;</TD>
<TD class=bodyCopyBlackLargeSpaced width="89&#37;"></TD></TR></TBODY></TABLE>
<P>1 什么是智能算法 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>智能计算也有人称之为“软计算”,是们受自然(生物界)规律的启迪,根据其原理,模仿求解问题的算法。从自然界得到启迪,模仿其结构进行发明创造,这就是仿生学。这是我们向自然界学习的一个方面。另一方面,我们还可以利用仿生原理进行设计(包括设计算法),这就是智能计算的思想。这方面的内容很多,如人工神经网络技术、遗传算法、模拟退火算法、模拟退火技术和群集智能技术等。 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>2 人工神经网络算法 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>“人工神经网络”(ARTIFICIAL NEURALNETWORK,简称ANN)是在对人脑组织结构和运行机制的认识理解基础之上模拟其结构和智能行为的一种工程系统。早在本世纪40年代初期,心理学家McCulloch、数学家Pitts就提出了人工神经网络的第一个数学模型,从此开创了神经科学理论的研究时代。其后,FRosenblatt、Widrow和J. J .Hopfield等学者又先后提出了感知模型,使得人工神经网络技术得以蓬勃发展。 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>神经系统的基本构造是神经元(神经细胞),它是处理人体内各部分之间相互信息传递的基本单元。据神经生物学家研究的结果表明,人的一个大脑一般有1010~1011个神经元。每个神经元都由一个细胞体,一个连接其他神经元的轴突和一些向外伸出的其它较短分支——树突组成。轴突的功能是将本神经元的输出信号(兴奋)传递给别的神经元。其末端的许多神经末梢使得兴奋可以同时传送给多个神经元。树突的功能是接受来自其它神经元的兴奋。神经元细胞体将接受到的所有信号进行简单处理(如:加权求和,即对所有的输入信号都加以考虑且对每个信号的重视程度——体现在权值上——有所不同)后由轴突输出。神经元的树突与另外的神经元的神经末梢相连的部分称为突触。 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>2.1 人工神经网络的特点 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>人工神经网络是由大量的神经元广泛互连而成的系统,它的这一结构特点决定着人工神经网络具有高速信息处理的能力。人脑的每个神经元大约有103~104个树突及相应的突触,一个人的大脑总计约形成1014~1015个突触。用神经网络的术语来说,即是人脑具有1014~1015个互相连接的存储潜力。虽然每个神经元的运算功能十分简单,且信号传输速率也较低(大约100次/秒),但由于各神经元之间的极度并行互连功能,最终使得一个普通人的大脑在约1秒内就能完成现行计算机至少需要数10亿次处理步骤才能完成的任务。 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>人工神经网络的知识存储容量很大。在神经网络中,知识与信息的存储表现为神经元之间分布式的物理联系。它分散地表示和存储于整个网络内的各神经元及其连线上。每个神经元及其连线只表示一部分信息,而不是一个完整具体概念。只有通过各神经元的分布式综合效果才能表达出特定的概念和知识。 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>由于人工神经网络中神经元个数众多以及整个网络存储信息容量的巨大,使得它具有很强的不确定性信息处理能力。即使输入信息不完全、不准确或模糊不清,神经网络仍然能够联想思维存在于记忆中的事物的完整图象。只要输入的模式接近于训练样本,系统就能给出正确的推理结论。 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>正是因为人工神经网络的结构特点和其信息存储的分布式特点,使得它相对于其它的判断识别系统,如:专家系统等,具有另一个显著的优点:健壮性。生物神经网络不会因为个别神经元的损失而失去对原有模式的记忆。最有力的证明是,当一个人的大脑因意外事故受轻微损伤之后,并不会失去原有事物的全部记忆。人工神经网络也有类似的情况。因某些原因,无论是网络的硬件实现还是软件实现中的某个或某些神经元失效,整个网络仍然能继续工作。 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>人工神经网络是一种非线性的处理单元。只有当神经元对所有的输入信号的综合处理结果超过某一门限值后才输出一个信号。因此神经网络是一种具有高度非线性的超大规模连续时间动力学系统。它突破了传统的以线性处理为基础的数字电子计算机的局限,标志着人们智能信息处理能力和模拟人脑智能行为能力的一大飞跃。 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>2.2 几种典型神经网络简介 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>2.2.1 多层感知网络(误差逆传播神经网络) </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>在1986年以Rumelhart和McCelland为首的科学家出版的《ParallelDistributed Processing》一书中,完整地提出了误差逆传播学习算法,并被广泛接受。多层感知网络是一种具有三层或三层以上的阶层型神经网络。典型的多层感知网络是三层、前馈的阶层网络,即:输入层I、隐含层(也称中间层)J和输出层K。相邻层之间的各神经元实现全连接,即下一层的每一个神经元与上一层的每个神经元都实现全连接,而且每层各神经元之间无连接。 </P>
<P>&nbsp;</P>
<P>&nbsp; </P>
<P>&nbsp;</P>
<P>但BP网并不是十分的完善,它存在以下一些主要缺陷:学习收敛速度太慢、网络的学习记忆具有不稳定性,即:当给一个训练好的网提供新的学习记忆模式时,将使已有的连接权值被打乱,导致已记忆的学习模式的信息的消失。

⌨️ 快捷键说明

复制代码 Ctrl + C
搜索代码 Ctrl + F
全屏模式 F11
切换主题 Ctrl + Shift + D
显示快捷键 ?
增大字号 Ctrl + =
减小字号 Ctrl + -