反馈网络课件_第1页
反馈网络课件_第2页
反馈网络课件_第3页
反馈网络课件_第4页
反馈网络课件_第5页
已阅读5页,还剩45页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、人工神经网络及应用主讲 何东健第七章 反馈网络 反馈网络(Recurrent Network),又称自联想记忆网络,其目的是:设计一个网 络,储存一组平衡点,使得当给网络一组初始值时,网络通过自行运行而最终收敛到这个设计的平衡点上。 1982年,美国加州工学院物理学家J.Hopfield提出了一种具有相互联接的反馈型人工神经网络模型,并引入 “能量函数”的概念,给出了网络的稳定性判据,并用来进行约束优化问题,如TSP问题的求解,实现AD转换等。 他利用多元霍普菲尔德网 络的多吸引子及其吸引域,实现了信息的联想记忆(associahve memory)功能。另外霍普菲尔德网络与电子模拟线路之间存

2、在着明显的对应关系,使得该网络易于理解且便于实现。而它所执行的运算在本质上不同于布尔代数运算,对新一代电子神经计算机具有很大的吸引力。 反馈网络表现出非线性动力学系统的动态特性。主要特性为以下两点: 第一、网络系统具有若干个稳定状态。当网络从某一初始状态开始运动,网络系统总可以收敛到某一个稳定的平衡状态; 第二,系统稳定的平衡状态可以通过设计网络的权值而被存储到网络中。 如果将反馈网络稳定的平衡状态作为一种记忆,那么当网络由任一初始状态向稳态的转化过程,实质上是一种寻找记忆的过程。网络所具有的稳定平衡点是实现联想记忆的基础。 所以对反馈网络的设计和应用必须建立在对其系统所具有的动力学特性理解的

3、基础上,这其中包括 网络的稳定性, 稳定的平衡状态 判定其稳定的能量函数等基本概念。 Hopfield 网络为反馈网络。 本章着重网络的稳定性问题,重点是怎样得到和利用稳定的反馈网络。 霍普菲尔德网络是单层对称全反馈网络,根据其激活函数的选取不同,可分为离散型的霍普菲尔德网络 (Discrete Hopfield Neural Network,简称DHNN)和连续型的霍普菲尔德网络(Continuous Hopfield Neural Network,简称CHNN)。 DHNN的激活函数为二值型的,其输入、输出为 10,11的反馈网络,主要用于联想记忆。 CHNN的激活函数为连续可微的单调上升

4、函数,主要用于优化计算。 霍普菲尔德网络具体的应用: 图像处理、语声处理、信号处理、数据查询、容错计算、模式分类、模式识别等。 本章主要介绍DHNN。6.1 霍普菲尔德网络模型 该网络为单层全反馈网络,其中的每个神经元的输出都是与其他神经元的输入相连的。所以其输入数目与输出层神经元的数目是相等的,有r=s。 在反馈网络中,如果其激活函数f(.)是一个二值型的硬限幅函数aisgn(ni), i1,2.r,则称此网络为离散型反馈网络;如果f(.)为一个 连续函数,这类网络被称为连续型反馈网络,图中为伪线性激活函数,它满足连续单调上升的有界函数的条件,常作为连续型的激活函数。6.2状态轨迹 一个r个

5、神经元的反馈网络,若将加权输入和n视作网络的状态,则状态矢量Nn1,n2,.,nrT,网络的输出矢量为Aa1,a2,as T 。在某一时刻,分别用N(t),A(t)来表示各自的矢量。在下一时刻t+1,可得到N(t+1), 而N(t+1)又引起A(t+1) 的变化,这种反馈演化的过程,使状态矢量N(t)随时间发生变化。在一个r维状态空间上, 可以用一条轨迹来描述状态变化情况。从初始值N(t0)出发, N(t0+ t) N(t0+2t ) N(t0+mt ),这些在空间上的点组成的确定轨迹,是演化过程中所有可能状态的集合, 称这个状态空间为相空间。对于不同的连接权值wij和输入Pj(i,j=1,2

6、,.,r),反馈网络状态轨迹可能出现以下几情况。 下图描述了一个三维相空间上三条不同的轨迹,对于 DHNN,因为N(t)中每个值只可能为1,或0,1,对于确定的权值wij,其轨迹是跳跃的阶梯式,如图中A所示,对于CHNN,因为f()是连续的,因而,其轨迹也是连续的。 如图中B、C所示。 6.2.1 状态轨迹为稳定点 状态轨迹从系统在t0时的初值N(t0)开始,经过一定的时间t(t0)后,到达N(t0+t)。 如果N(t0+t+t)= N(t0+t),t0,则状态N(t0+t)称为网络的稳定点,或平衡点。 由于N(t0+t)不再变化,对于P0 (t0+t)也达到了稳定值。即反馈网络从任一初始态P

7、(0)开始运动,若存在某一有限时刻t,从t以后的网络状态不再发生变化: P (t0+t) P (t), t0, 则称该网络是稳定的。 处于稳定时的网络状态叫做稳定状态,又称为定吸引子。 对于非线性系统来说,不同的初始值N(t0),可能有不同的轨迹,到达不同的稳定点, 这些稳定点也可以认为是人工神经网络的解。在一个反馈网络中,存在很多稳定点,根据不同情况,这些稳定点可以分为:1)渐近稳定点 如果在稳定点Ne周围的N ()区域内,从任一个初始状态N(t0)出发的每个运动,当t时都收敛于Ne,则称Ne为渐近稳定点。此时,不仅存在一个稳定点 Ne,而且存在一个稳定域。称此稳定点为吸引子,其对应的稳定域

8、为吸引域; 2)不稳定平衡点Nen 在某些特定的轨迹演化过程中,网络能够到达稳定点Nen,但对于其它方向上的任意一个小的区域N(),不管N() 取多么小,其轨迹在时间t以后总是偏离Nen;3)网络的解 如果网络最后稳定到设计人员期望的稳定点,且该稳定点又是渐近稳定点,那么这个点称为网络的解; 4)网络的伪稳定点 网络最终稳定到一个渐近稳定点上,但这个稳定点不是网络设计所要求的解,这个稳定点为伪稳定点。网络设计的目的: 是希望网络最终收敛到所要求的稳定点上,并且还要有一定的稳定域。6.2.2 状态轨迹为极限环 如果在某些参数的情况下,状态N(t)的轨迹是一个圆,或一个环,状态N(t)沿着环重复旋

9、转,永不停止,此时的输出A(t)也出现周期变化,即出现振荡,如图中C的轨迹即是极限环出现的情形。对于DHNN,轨迹变化可能在两种状态下来回跳动,其极限环为 2。如果在r种状态下循环变化,称其极限环为r。6.2.3 混沌现象 如果状态N(t)的轨迹在某个确定的范围内运动,但既不重复,又不能停下来,状态变化为无穷多个,而轨迹也不能发散到无穷远,这种现象称为混沌(chaos)。 在出现混沌的情况下,系统输出变化为无穷多个,并且随时间推移不能趋向稳定,但又不发散。这种现象越来越引起人们的重视,因为在脑电波的测试中已发现这种现象,而在真正的神经网络中存在这种现象,也应在人工神经网络中加以考虑。6.2.4

10、 状态轨迹发散 如果状态N(t)的轨迹随时间一直延伸到无穷远,此时状态发散,系统的输出也发散。 在人工神经网络中,由于输入、输出激活函数是一个有界函数,虽然状态N(t)是发散的, 但其输出A(t)还是稳定的,而N(t)的稳定反过来又限制了状态的发散。一般非线性人工神经网络中发散现象是不会发生的,除非神经元的输入输出激活函数是线性的。 人工神经网络是利用第一种情况即稳定的状态轨迹来解决某些问题的。 (1)联想记忆 如果把系统的稳定点视做一个记忆的话,那么从初始状态朝这个稳定点移动的过程就是寻找该记忆的过程。 状态的初始值可以认为是给定的有关该记忆的部分信息,状态N(t)移动的过程, 是从部分信息

11、去寻找全部信息,这就是联想记忆的过程。 (2)优化求解 如果把系统的稳定点考虑为一个能量函数的极小点,在状态空间中,从初始状态N(t0) 最后到达N*。 若N*为稳定点,则可以看作是N*把N(t0)吸引了过去,在N(t0)时能量比较大,而吸引到N*时能量已为极小了。 据此,可把这个能量的极小点作为一个优化目标函数的极小点, 把状态变化的过程看成是优化某一个目标函数的过程。 网络的解并不需要真的去计算,只需要去形成一类反馈神经网络,适当地确定其权重值wij,使其初始输入A(t0)向稳定吸引子状态的移动就可以达到这个目的。反馈网络设计应考虑的问题: (1)网络系统能否达到稳定收敛 即研究系统在什么

12、条件下不会出现振荡和混钝现象。 (2)网络的稳定点 一个非线性网络可有多个稳定点,对权值的设计,要求其中的某些稳定点是所要求的解。 对于用做联想记忆的反馈型网络,希望稳定点就是一个记忆,那么记忆容量就与 稳定点的数量有关,希望记忆的量越大,稳定点的数目也越大,但稳定点数目的增加可能会引起吸引域的减小,从而使联想功能减弱。 用于优化的网络,由于目标函数(即系统能量函数)往往要求一个全局最小。那么稳定点越多,陷入局部最小的可能性就越大,因而要求系统的稳定点越少越好。 (3)吸引域的设计 希望的稳定点有尽可能大的吸引域; 非希望的稳定点的吸引域要尽可能的小。 因为状态空间是一个多维空间,状态随时间的

13、变化轨迹可能是多种形状,吸引域就很难用一个 明确的解析式来表达,这在设计时要尽可能考虑。 6.3.1 DHNN模型结构 DHNN模型每个神经元节点的输出可以有两值状态1或0,其输出可表示为 上式中,取b0,权矩阵中有wijwji,且取wii0。即DHNN采用对称联接。 因此,其网络结构可以用一个加权无向量图表示。图(a)为一个3节点DHNN结构,其中,每个输入神经元节点除了不与具有相同节点号的输出相连外,与其他节点两两相连。 每个输出信号又反馈到相同的输入节点。 由图 (a),考虑到DHNN的权值特性wijwji ,网络各节点加权输入和分别为: 由此可得简化后等效的网络结构如图 (b)所示 。

14、对于以符号函数为激活函数的网络,网络的方程可写为 :6.3.2 联想记忆 联想记忆功能是DHNN的一个重要应用范围。要实现联想记忆,必须具有两个基本条件:网络能收敛到稳定的平衡状态,并以其作为样本的记忆信息;具有回忆能力,能够从某一残缺的信息回忆起所属的完整的记忆信息。 DHNN实现联想记忆的过程分为两个阶段: 学习记忆阶段和联想回忆阶段。 学习记忆阶段:通过某一设计方法确定一组合适的权值,使网络记忆期望的稳定平衡点。 联想回忆阶段:是网络的工作过程。此时,当给定网络某一输入模式,网络能够通过自身的动力学状态演化过程最终达到稳定的平衡点,从而实现自联想或异联想回忆。 反馈网络两种基本工作方式:

15、串行异步和并行同步方式。 1)串行异步方式:任意时刻随机地或确定性地选择网络中的一个神经元进行状态更 新,而其余神经元的状态保持不变;2)并行同步方式: 任意时刻网络中部分神经元(比如同一层的神经元)的状态同时更新。如果任意时刻网络中全部神经元同时进行状态更新,那么称之为全并行同步方式。 s个神经元的DHNN有2s个状态的可能性。输出状态是包含-1或 1(0或1)的矢量,每一时刻网络将处于某一种状态下。状态更新采用随机异步策略,即随机选择下一个要更新的神经元,且允许所有神经元具有相同的平均变化概率。状态更新包括三种情况:由-1变为1;由1变为-1及状态保持不变。 异步状态更新在任一时刻,只有一

16、个神经元进行状态更新或保持,所以网络从某一初态开始需经过多次更新状态后才可以达到某种稳态。特点是:(1)实现上容易,每个神经元有自己的状态更新时刻,不需要同步机制;(2)功能上的串行状态更新可以限制网络的输出状态,避免不同稳态等概率的出现;(3)异步状态更新更接近实际的生物神经系统的表现。 6.3.3 DHNN的海布学习规则 DHNN网络训练采用海布学习规则:当神经元输入与输出节点的状态相同(即同时兴奋或抑制)时,从第j个到第i个神经元之间的连接强度则增强,否则则减弱。 DHNN的学习目的,是对输入样本组PrxqP1 P2 Pq,希望通过调节计算权值矩阵W,使得当每一组输入样本Pk,k=1,2

17、,q,作为系统的初始值,经过网络的工作运行后,系统能够收敛到各自输入样本矢量本身,当k1 时,对于第i个神经元,由海布学习规则可得网络权值对输入矢量的学习关系式为: 其中,0,i=1,2,r,j=1,2,r。在实际学习规则的运用中,一般取1或 1/r。海布调节规则:输入P与输出A的状态相同(即同时为正或为负)时,从第j个到第i个神经元之间的连接强度wij则增强(即为正),否则wij则减弱 (为负)。 当k1时,海布规则能够保证ai1 pi1成立,使网络收敛到自己。 问题是:对于同一权矢量W,要能够同时记忆住多个稳态值,即同一个网络权矢量必须能够记忆多组输入样本。所以,当k由1增加到2,直至q时

18、, 则是在原有已设计出的权值的基础上,增加一个新量pjk pik, k2,,q,所以对网络所有输入样本记忆权值的设计公式为:式中矢量T为记忆样本,TP。上式称为推广的学习调节规则。当系数1时,上式为T的外积和公式。 DHNN的设计目的是使任意输入矢量经过网络循环最终收敛到网络所记忆的某个样本上。 因为霍普菲尔德网络有wijwji,所以完整的霍普菲尔德网络权值设计公式应当为:T解:由题意可得记忆矢量为:根据海布学习法则的外积和DHNN权值设计公式:例7-1 有输入和目标矢量,设计DHNN权值验证:将目标矢量作为输入矢量带入网络中可得:A1sgn(W P1)T1A2sgn(W P2)T2A3sgn

19、(W P3)T2 T3可见,没计的DHNN记忆网络并没有准确的记忆所有期望的模式。6.3.4 影响记忆容量的因素 上例看出:当网络只记忆一个稳定模式时,该模式肯定被网络准确无误地记忆住,即所设计的W值一定能够满足正比于输入和输出矢量的乘积关系。但当需要记忆的模式增多时,情况则发生了变化,主要表现在下面两点上: (1)权值移动 在网络的学习过程中,网络对记忆样本输入T1, T2,, Tq的权值学习记忆实际上是逐个实现的。即对权值W,有程序:此时,网络记住了样本T1,当k2时,为了记忆样本T2,需要在记忆了样本T1的权值上加上对样本T2的记忆项T2T 2T-I。求出新的W为: Wijtj1ti1+

20、tj2ti2,对于样本T1来说,网络的输出为: 此输出有可能不再对所有的s个输出均满足加权输入和与输出符号一致的条件。网络可能部分遗忘了以前已记忆住的模式。 随着学习样本数k的增加,权值移动现象将进一步发生,当学习了第q个样本Pq后,权值又在前q-1个样本修正的基础上产生了移动,此时,网络在精确学习了第一个样本后的第q-1次移动。有可能出现的问题:网络部分甚至全部地遗忘了先前已学习过的样本。 (2)交叉干扰 设网络的权矩阵已经设计完成,网络的输入矢量为P,并希望其成为网络的稳定矢量TP,按同步更新规则,状态演变方程为:上式为P成为稳定矢量的条件,式中N为神经网络的加权输入和矢量交叉干扰项klj

21、k6.3.5 网络的记忆容量确定 从对网络的记忆容量产生影响的权值移动和交叉干扰上看,采用海布学习法则,网络记忆样本的数量是有限制的,通过上面的分析得知,当交叉干扰项幅值大于正确记忆值时,将产生错误输出. 问题:在什么情况下,能够保证记忆住所有样本? 答案:当所期望记忆的样本是两两正交时,能够准确得到一个可记忆数量的上限值。 设r为样本维数,q为样本个数,可以证明,只要满足rq,可保证网络有稳定解。 但对非正交的记忆样本,网络不能保证收敛到所希望的记忆样本上。例7-2 采用外积和记忆公式设计DHNN的权值,希望记忆的样本为:解:由外积和权值设计公式,可得权矩阵为:经验证所设计的网络能够准确的回忆出记忆的全部三个模式。实际上,该网络可能的输入状态有2r2532种,分析一下其稳定点的情况可得,系统共有四个稳定点,分别为:四个稳定点都是渐近稳定点,其中T1,T2和T3为要求的稳定点,即网络的解。 在神经网络工具箱中有关采用海布公式设计网络的函数: net = newhop(T);以对话框的方式建立一个网络。T - R x Q matrix of Q target vectors. (Values must be +1 or -1.) 例7-3 建立一个两个单元的DHNNT = -1 -1 1; 1 -1 1;net = newhop(T);Ai = T;Y,Pf,Af = sim(ne

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论