




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、第三讲 反馈神经网络本章知识结构概述离散Hopfield网络连续Hopfield网络连续Hopfield网络的应用优化计算3.1 概述 联想特性是ANN的一个重要特性。前面介绍的网络模型属于前向NN,从学习的角度看,具有较强的学习能力,结构简单,易于编程。从系统角度看,属于静态的非线性映射,通过简单的非线性处理单元的复合映射可获得复杂的非线性处理能力。但他们因此缺乏反馈,所以并不是强有力的动力学系统。联想特性是ANN的一个重要特性,主要包括联想映射和联想记忆。前馈网络具有诱人的联想映射能力,而不具备联想记忆能力。在反馈NN中,我们将着重介绍NN的联想记忆和优化计算的能力。3.1 概述 联想记忆
2、是指当网络输入某个矢量后,网络经过反馈演化,从网络输出端得到另一个矢量,这样输出矢量就称作网络从初始输入矢量联想得到的一个稳定记忆,即网络的一个平衡点。优化计算是指当某一问题存在多种解法时,可以设计一个目标函数,然后寻求满足这一目标函数的最优解法。例如,在很多情况下可以把能量函数作为目标函数,得到的最优解法需要使能量函数达到极小点,即能量函数的稳定平衡点。总之,反馈网络的设计思想就是在初始输入下,使网络经过反馈计算最后到达稳定状态,这时的输出即是用户需要的平衡点。1982年,美国加州工学院J.Hopfield提出了可用作联想存储器和优化计算的反馈网络,这个网络称为Hopfield神经网络(HN
3、N)模型,也称Hopfield模型.HNN是一种循环NN,从输出到输入有反馈连接.HNN有离散型和连续型两种.3.1 概述 反馈网络(Recurrent Network),又称自联想记忆网络,如下图所示:3.1 概述 反馈网络的目的是为了设计一个网络,储存一组平衡点,使得当给网络一组初始值时,网络通过自行运行而最终收敛到这个设计的平衡点上。 反馈网络能够表现出非线性动力学系统的动态特性。它所具有的主要特性为以下两点:第一、网络系统具有若干个稳定状态。当网络从某一初始状态开始运动,网络系统总可以收敛到某一个稳定的平衡状态;第二、系统稳定的平衡状态可以通过设计网络的权值而被存储到网络中。 3.1
4、概述由于HNN为动力学系统,且其平衡态关系到信息的存储与联想记忆,其平衡态与稳定性是非常关键的问题。反馈网络根据信号的时间域的性质的分类为如果激活函数f()是一个二值型的阶跃函数,则称此网络为离散型反馈网络,主要用于联想记忆;如果f()为一个连续单调上升的有界函数,这类网络被称为连续型反馈网络,主要用于优化计算。3.1 概述反馈NN由于其输出端有反馈到其输入端,所以,HNN在输入的激励下,会产生不断的状态变化.当有输入之后,可以求取出HNN的输出,这个输出反馈到输入从而产生新的输出,这个反馈过程一直进行下去.如果HNN是一个能稳定的网络,则这个反馈与迭代的计算过程所产生的变化越来越小,一旦到达
5、了稳定平衡状态,那么HNN就会输出一个稳定的恒值.对于HNN来说,关键是在于确定它在稳定条件下的权系数.应该指出,反馈网络有稳定的,也有不稳定的.对于HNN来说,还存在如何判别它是稳定网络,亦或是不稳定的问题.而判别依据是什么,也是需要确定的.3.1 概述3.1 概述反馈网络与前向网络的区别结构不同 前向神经网络:没有反馈环节。 反馈神经网络:一个动态系统,存在稳定性问题。(关键问题)模型不同 前向网络:从输入到输出的映射关系,不考虑延时。 反馈网络:考虑延时,是一个动态系统,模型是动态方程(微分方程)。3.1 概述网络的演变过程不同 前向网络:通过学习得到连接权然后完成指定任务。 反馈网络:
6、(优化计算时)首先确定w(不是通过学习而来的,而是通过目标函数用解析算法得到的),设定网络的初始状态,然后系统运动,若稳定,则最后达到一个稳定状态,对应的输出就是优化问题的解。3.1 概述学习方法不同 前向网络:误差修正算法(BP算法)。 反向网络:海布(Hebb)算法(用于联想、分类的时候)3.1 概述应用范围不同 前向网络:只能用于联想映射及其分类。 反馈网络:同时也可以用于联想记忆和约束优化问题的求解。对于如HNN类似的反馈网络,研究的重点为:如何通过网络神经元状态的变迁而最终稳定于平衡状态,得到联想存储或优化计算的结果网络的稳定性问题怎样设计和利用稳定的反馈网络网络系统能够达到稳定收敛
7、 网络的稳定点 吸引域的设计 下面开始介绍HNN,分别介绍两种主要的HNN:离散Hopfield网络连续Hopfield网络3.1 概述3.2 离散Hopfield网络Hopfield最早提出的网络是神经元的输出为0-1二值的NN,所以,也称离散的HNN (简称为DHNN).下面分别讨论DHNN的结构动力学稳定性(网络收敛性)联想存储中的应用记忆容量问题在DHNN网络中,神经元所输出的离散值1和0分别表示神经元处于兴奋和抑制状态.各神经元通过赋有权重的连接来互联.下面,首先考虑由三个神经元组成的DHNN,其结构如图3.1所示.3.2.1离散Hopfield网络的结构3.2.1离散Hopfiel
8、d网络的结构在图中,第0层仅仅是作为网络的输入,它不是实际神经元,所以无计算功能;而第一层是实际神经元,故而执行对输入信息和权系数乘积求累加和,并由非线性函数f处理后产生输出信息.f是一个简单的阈值函效,如果神经元的输入信息的综合大于阈值,那么,神经元的输出就取值为1;小于阈值,则神经元的输出就取值为0.对于二值神经元,它的计算公式如下3.2.1离散Hopfield网络的结构其中xj为外部输入,并且有yj=1,当ujj时yj=0,当uj0,有:y(t+t)=y(t)则称网络是稳定的.吸引子:若y(t)是网络的稳定状态,则称y(t)是网络的稳定吸引子。吸引域:能够稳定在吸引子y(t)的所有初始状
9、态y(0)的集合,称为吸引子y(t)的吸引域。从DHNN可以看出:它是一种多输入,含有阈值的二值非线性动力系统.在动力系统中,平衡稳定状态可以理解为系统的某种形式的能量函数在系统运动过程中,其能量值不断减小,最后处于最小值.因此,对HNN可引入一个Lyapunov函数,即所谓能量函数:3.2.2 DHNN的动力学稳定性即有3.2.2 DHNN的动力学稳定性对HNN的能量函数有几点说明:当对反馈网络应用能量函数后,从任一初始状态开始,因为在每次迭代后都能满足E0,所以网络的能量将会越来越小.由于能量函数存在下界,因此其最后趋于稳定点E=0. Hopfield能量函数的物理意义是:在那些渐进稳定点
10、的吸引域内,离吸引点越远的状态,所具有的能量越大.由于能量函数的单调下降特性,保证状态的运动方向能从远离吸引点处,不断地趋于吸引点,直到达到稳定点.3.2.2 DHNN的动力学稳定性能量函数是反馈网络中的重要概念.根据能量函数可以方便的判断系统的稳定性;Hopfield选择的能量函数,只是保证系统稳定和渐进稳定的充分条件,而不是必要条件,其能量函数也不是唯一的.在状态更新过程中,包括三种情况:由0变为1;由1变为0及状态保持不变。3.2.2 DHNN的动力学稳定性类似于研究动力学系统稳定性的Lyapunov稳定性理论,上述DHNN的稳定性可由分析上述定义的Lyapunov函数E的变化规律而揭示
11、.因此,由神经元j的状态变化量yj(t)所引起的的能量变化量Ej为:若所讨论的HNN是对称网络,即有wi,j=wj,i,i,j=1,2,.,n,则有则yj(t+1)=fuj(t)-j式(3)则可记为:Ej(t)=-uj(t)+jyj(t) (3A)下面分别对串行异步方式和并行同步方式,证明对称二值型HNN是稳定的.3.2.2 DHNN的动力学稳定性如果,令A.串行异步方式对串行异步和对称权值型的HNN,基于式(3A)Ej(t)=-uj(t)+jyj(t) (3A)考虑如下两种情况:如果ujj,即神经元j的输入综合大于阈值,则从二值神经元的计算公式知道:yj的值保持为1,或者从0变到1.这说明y
12、j的变化yj只能是0或正值.这时很明显有Ej:Ej0这说明HNN神经元的能量减少或不变.3.2.2 DHNN的动力学稳定性如果ujj,即神经元j的输入综合小于阈值,则知yj的值保持为0,或者从1变到0,而yj小于等于零.这时则有Ej:Ej0这也说明HNN神经元的能量减少.上面两点说明了DHNN在权系数矩阵W的对角线元素为0,而且W矩阵元素对称时,串行异步方式的DHNN是稳定的.3.2.2 DHNN的动力学稳定性B. 并行同步方式由上述对串行异步和对称权值型的DHNN的稳定性分析过程知,单个神经元的状态变化引起的Lyapunov函数的变化量Ej(t)0 因此, 并行同步且权值对称的DHNN的所有
13、神经元引起的Lyapunov函数的变化量为:3.2.2 DHNN的动力学稳定性 故上面两点说明了DHNN在权系数矩阵W的对角线元素为0,而且W矩阵元素对称时,并行同步方式的DHNN是稳定的.基于上述分析,Coben和Grossberg在1983年给出了关于HNN稳定的充分条件,他们指出:如果权系数矩阵W是一个对称矩阵,并且,对角线元素为0.则这个网络是稳定的.即是说在权系数矩阵W中,若i=j时, Wij=0ij时,Wij=Wji则HNN是稳定的.应该指出: 这只是HNN稳定的充分条件,而不是必要条件.在实际中有很多稳定的HNN,但是它们并不满足权系数矩阵w是对称矩阵这一条件.3.2.2 DHN
14、N的动力学稳定性3.2.2 DHNN的动力学稳定性由上面的分析可知:无自反馈的权系数对称HNN是稳定.它如图3.4所示.2.2.3 HNN的联想记忆所谓联想可以理解为从一种事物联系到与其相关的事物的过程.日常生活中,从一种事物出发,人们会非常自然地联想到与该事物密切相关或有因果关系的种种事务.两种联想形式自联想(Auto-association) :由某种代表事物(或该事物的主要特征,或部分主要特征)联想到其所标示的实际事物。从英文字头“Newt”联想到“Newton”。听到歌曲的一部分可以联想起整个曲子。2.2.3 HNN的联想记忆异联想(他联想)(Hetero -association)
15、:由一种事物(或该事物的主要特征,或部分主要特征)联想到与其密切相关的另一事物。从质能关系式E=mc2联想到其发明者爱因斯坦。看到某人的名字会联想起他的相貌和特点。人脑从一种事物得到对应事物的两种途径按时间顺序对相关事物进行思考可通过时间表来回忆某一阶段所做的工作.通过事物本质特征的对比来确定事物的属性由提示信息或局部信息对事物进行回忆或确认.2.2.3 HNN的联想记忆HNN的一个功能是可用于联想记忆,也即是联想存储器.这是人类的智能特点之一.人类的所谓“触景生情”就是见到一些类同过去接触的景物,容易产生对过去情景的回昧和思忆.对于HNN,用它作联想记忆时,首先通过一个学习训练过程确定网络中
16、的权系数,使所记忆的信息在网络的n维超立方体的某一个顶角的能量最小.当网络的权系数确定之后,只要向网络给出输入向量,这个向量可能是局部数据.即不完全或部分不正确的数据,但是网络仍然产生所记忆的信息的完整输出.2.2.3 HNN的联想记忆1984年Hopfield提出一种用n维HNN作联想存储器的结构.HNN联想存储器的主要思想为:根据欲存储的信息的表示形式和维数,设计相应的HNN结构将欲存储的信息设计为HNN的动力学过程的已知的渐近稳定平衡点通过学习和设计算法寻求合适的权值矩阵将稳定状态存储到网络中2.2.3 HNN的联想记忆在HNN联想存储器中,权系数的赋值规则Hebb规则,即为存储向量的外
17、积存储规则,其原理如下:设有m个样本存储向量X1,X2,Xm,其中Xi=Xi1,Xi2,.,Xi,n把这m个样本向量存储入HNN中,则在网络中第i,j两个节点之间权系数的值为(权值学习规则):其中k为样本向量Xk的下标,k=1,2,m;i,j分别是样本向量Xk的第i,j分量Xk,i,Xk,j的下标.2.2.3 HNN的联想记忆如果把系统的稳定点视做一个记忆的话,那么从初始状态朝这个稳定点移动的过程就是寻找该记忆的过程。例1:计算如图3.5所示3节点DHNN的状态转移关系。考虑到DHNN的权值特性wijwji,可简化为图3.6右边的等价图。2.2.3 HNN的联想记忆 图3.6 一个3节点的DH
18、NN结构图2.2.3 HNN的联想记忆设网络参数为:现在以初始状态(可任意选定)y1y2y3=(000)为例,以异步运行网络,考察各个节点的状态转移情况。现在考虑每个节点y1y2y3以等概率(1/n)被选择。假定首先选择节点y1,则节点状态为: Net1=1*0+2*0-(-5)=50节点1输出为: y1=1即,网络状态由(000)变化到(100),转移概率为1/3。2.2.3 HNN的联想记忆如选择节点y2 ,则节点状态为: Net2=1*0+(-3)*0-0=0节点2输出为: y1=0即,网络状态由(000)变化到(000),转移概率为1/3。如选择节点y3 ,则节点状态为: Net3=2
19、*0+(-3)*0-3=-30节点3输出为: y3=0即,网络状态由(000)变化到(000),同样,转移概率为1/3。从上面的网络运行可以看出,在网络参数给定的情况下,网络状态以1/3的概率转移到(100),以2/3的概率转移到(000),即保持不变,而不会转移到(010)等其它状态。2.2.3 HNN的联想记忆同理,还可以计算出其它状态之间的转移关系。从这个例子可以看出:(1)状态(110)是一个满足前面稳定定义的状态,即为稳定状态;(2)从任意初始状态开始,网络经过有限次状态更新后,都将到达该稳定状态。2.2.3 HNN的联想记忆例2:计算例1中3节点模型的个状态的能量。首先选择状态y1
20、y2y3=(011),此时,网络的能量为:再选择状态y1y2y3=(110),同理,网络的能量为:2.2.3 HNN的联想记忆其余状态能量如表2所示: 表2.模型各状态能量表y1y2y3E0000001301000116100-5101-4110-6111-2显然,状态y1y2y3=(110)处的能量最小。从任意状态开始,网络沿能量减小(包括同一级能量)方向更新状态,最终能达到对应能量极小的稳态。2.2.4 记忆容量问题设计DHNN网络的目的,是希望通过所设计的权值矩阵W储存多个期望模式.因此,在DHNN用于联想记忆问题,记忆容量问题是一个必须回答的基本问题.当网络只记忆一个稳定模式时,该模式
21、肯定被网络准确无误地记忆住,即所设计的W值一定能够满足正比于输入和输出矢量的乘积关系.但当需要记忆的模式增多时,网络记忆可能出现问题.2.2.4 记忆容量问题按照Hebb规则求出权矩阵后,可以认为已有M个模式存入网络的连接权中。在联想过程中,先给出原始模式m0,使网络处于某种初始状态下,用网络方程动态运行,最后到达一个稳定状态。如果此稳定状态对应于已存储的M个模式中的某个模式mk,则称模式mk是由模式m0联想起来的。在这里举例说明。例3.对于一个4神经元的网络,取阈值为0。给定两个模式存储于网络中: m1:Y(1)=y1,y2,y3,y4=1,1,1,1, m2:Y(2)=y1,y2,y3,y4=-1,-1,-1,-1.2.2.4 记忆容量问题按照Hebb规则可求得权矩阵:2.2.4 记忆容量问题给出用于联想的原始模式: mA:Y=y1,y2,y3,y4=1,1,-1,1,运用网络方程:得到: Y(1)=1,1,1,1,再次运行,得到 Y(2)=1,1,1,1。 这时网络已处于稳定状态:Y=1,1,1,1。而这个稳定状态正好是网络已记忆的模式m1,
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 银行投资分析基础试题及答案2025年探讨
- 2025年证券市场监管的试题及答案
- 银行从业资格证考试经验分享试题及答案
- 探索2024年项目管理背景环境的考试考点试题及答案
- 证券投资组合管理考试试题及答案
- 浙江省强基联盟2024-2025学年高一下学期4月期中地理试题(原卷版+解析版)
- 2025年山西省晋中市榆次区中考一模物理试题(原卷版+解析版)
- 从数据处理到知识转化-医学生眼中的大数据疾病诊断应用
- 2025年CRO服务项目合作计划书
- 2025至2030年中国肠杆行业投资前景及策略咨询研究报告
- 电网工程设备材料信息参考价(2024年第四季度)
- 经济效益证明(模板)
- 汽车总装车辆返工返修作业标准管理办法
- D建筑消防设施故障维修记录表
- DB43∕T 497-2009 博落回果-行业标准
- 黑龙江省哈尔滨市恒泰石材有限公司(扩大区)建筑用凝灰岩
- 创意综艺风脱口秀活动策划PPT模板
- 枣树桃小食心虫
- 防蝇防鼠防虫情况记录表
- 大客户营销技巧ppt课件
- C++优秀课件PPT
评论
0/150
提交评论