人工神经元网络控制论网络模型_第1页
人工神经元网络控制论网络模型_第2页
人工神经元网络控制论网络模型_第3页
人工神经元网络控制论网络模型_第4页
人工神经元网络控制论网络模型_第5页
已阅读5页,还剩97页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工神经元网络控制论网络模型1第一页,共一百零二页,2022年,8月28日4.1引言4.2前向神经网络模型4.6神经网络控制基础4.7非线性动态系统的神经网络辨识4.8神经网络控制的学习机制4.9神经网络控制器的设计4.3动态神经网络模型4.10单一神经元控制法目录2第二页,共一百零二页,2022年,8月28日4.1引言人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能,且能实现并行处理、自学习和非线性映射等能力的一种系统模型。3第三页,共一百零二页,2022年,8月28日发展历史1943年,心理学家McCmloch和数学家Pitts合作提出形式神经元数学模型(MP),揭开了神经科学理论的新时代。1944年Hebb提出了改变神经元连接强度的Hebb规则。1957年Rosenblatt首次引进了感知器概念(Perceptron)。。1976年,Grossberg提出了自适应共振理论。1982年,美国加州工学院物理学家Hopfield提出了HNN模型,他引入了“计算能量函数”的概念,给出了网络的稳定性判据。1986年,Rumelhart等PDP研究小组提出了多层前向传播网络的BP学习算法。4第四页,共一百零二页,2022年,8月28日主要内容5第五页,共一百零二页,2022年,8月28日4.1引言4.1.1神经元模型4.1.2神经网络的模型分类4.1.3神经网络的学习算法4.1.4神经网络的泛化能力6第六页,共一百零二页,2022年,8月28日4.1.1神经元模型神经元模型是生物神经元的抽象和模拟。可看作多输入/单输出的非线性器件。ui

神经元的内部状态,θi

阀值,

xi输入信号,j=1,2,…,n;wij表示从单元uj

到单元ui

的连接权值;si外部输入信号7第七页,共一百零二页,2022年,8月28日数学模型通常直接假设

yi=f(Neti)

f为激励函数,有4种类型。8第八页,共一百零二页,2022年,8月28日激励函数类型1阈值型9第九页,共一百零二页,2022年,8月28日激励函数类型2分段线性型10第十页,共一百零二页,2022年,8月28日激励函数类型3Sigmoid函数型11第十一页,共一百零二页,2022年,8月28日激励函数类型4Tan函数型12第十二页,共一百零二页,2022年,8月28日4.1引言4.1.1神经元模型4.1.2神经网络的模型分类4.1.3神经网络的学习算法4.1.4神经网络的泛化能力13第十三页,共一百零二页,2022年,8月28日4.1.2神经网络的模型分类123414第十四页,共一百零二页,2022年,8月28日网络结构图15第十五页,共一百零二页,2022年,8月28日4.1引言4.1.1神经元模型4.1.2神经网络的模型分类4.1.3神经网络的学习算法4.1.4神经网络的泛化能力16第十六页,共一百零二页,2022年,8月28日4.1.3神经网络的学习算法ab17第十七页,共一百零二页,2022年,8月28日学习规则18第十八页,共一百零二页,2022年,8月28日相关学习仅仅根据连接间的激活水平改变权系数。它常用于自联想网络。最常见的学习算法是Hebb规则。η表示学习步长19第十九页,共一百零二页,2022年,8月28日纠错学习有导师学习方法,依赖关于输出节点的外部反馈改变权系数。它常用于感知器网络、多层前向传播网络和Boltzmann机网络。其学习的方法是梯度下降法。最常见的学习算法有δ规则、模拟退火学习规则。20第二十页,共一百零二页,2022年,8月28日无导师学习学习表现为自适应实现输入空间的检测规则。它常用于ART、Kohonen自组织网络。在这类学习规则中,关键不在于实际节点的输出怎样与外部的期望输出相一致,而在于调整参数以反映观察事件的分布。例如Winner-Take-All学习规则。21第二十一页,共一百零二页,2022年,8月28日4.1引言4.1.1神经元模型4.1.2神经网络的模型分类4.1.3神经网络的学习算法4.1.4神经网络的泛化能力22第二十二页,共一百零二页,2022年,8月28日4.1.4神经网络的泛化能力当输入矢量与样本输入矢量存在差异时,其神经网络的输出同样能够准确地呈现出应有的输出。这种能力就称为神经网络的泛化能力。在有导师指导下的学习中,泛化能力可以定义为训练误差和测试误差之差。与输入矢量的个数、网络的节点数和权值与训练样本集数目之间存在密切的关系。23第二十三页,共一百零二页,2022年,8月28日4.1引言4.2前向神经网络模型4.6神经网络控制基础4.7非线性动态系统的神经网络辨识4.8神经网络控制的学习机制4.9神经网络控制器的设计4.3动态神经网络模型4.10单一神经元控制法目录24第二十四页,共一百零二页,2022年,8月28日4.2前向神经网络模型4.2.1网络结构4.2.2多层传播网络的BP学习算法4.2.3快速的BP改进算法25第二十五页,共一百零二页,2022年,8月28日4.2.1网络结构单一神经元12326第二十六页,共一百零二页,2022年,8月28日单一神经元w0

为阈值,

wj

决定第j个输入的突触权系数。27第二十七页,共一百零二页,2022年,8月28日单层神经网络结构x0=128第二十八页,共一百零二页,2022年,8月28日多层神经网络结构以单隐含层网络为例:Oj为隐含层的激励29第二十九页,共一百零二页,2022年,8月28日4.2前向神经网络模型4.2.1网络结构4.2.2多层传播网络的BP学习算法4.2.3快速的BP改进算法30第三十页,共一百零二页,2022年,8月28日4.2.2多层传播网络的BP学习算法基本思想单层网络的学习算法多层前向网络学习算法31第三十一页,共一百零二页,2022年,8月28日1.有导师学习的基本思想性能指标为φ(·)是一个正定的、可微的凸函数,常取32第三十二页,共一百零二页,2022年,8月28日2.单层网络的学习算法激励函数为线性函数时,可通过最小二乘法来学习。

激励函数为非线性函数时,可采用Delta规则,即梯度法,有α是学习因子

33第三十三页,共一百零二页,2022年,8月28日4.多层前向网络学习算法针对多层前向网络有导师学习34第三十四页,共一百零二页,2022年,8月28日网络模型第r+1个隐含层:输出层35第三十五页,共一百零二页,2022年,8月28日采用梯度法:其中:定义广义误差:可得:BP学习算法36第三十六页,共一百零二页,2022年,8月28日反向误差传播输出层时,有:隐含层时,有:37第三十七页,共一百零二页,2022年,8月28日例3-1假设对于期望的输入。

网络权系数的初始值见图。试用BP算法训练此网络(本例中只给出一步迭代学习过程)。这里,取神经元激励函数:

学习步长为38第三十八页,共一百零二页,2022年,8月28日图3-1539第三十九页,共一百零二页,2022年,8月28日当前输出40第四十页,共一百零二页,2022年,8月28日计算广义误差41第四十一页,共一百零二页,2022年,8月28日连接权系数更新42第四十二页,共一百零二页,2022年,8月28日学习流程43第四十三页,共一百零二页,2022年,8月28日(1)初始化设置学习因子η>0。较大时,收敛快,但易振荡。较小时,反之。最大容许误差Emax。 用于判断学习是否结束。随机赋网络初始权值。 一般选择比较小的随机数。44第四十四页,共一百零二页,2022年,8月28日增量型学习累积型学习(2)学习方式45第四十五页,共一百零二页,2022年,8月28日收敛性46第四十六页,共一百零二页,2022年,8月28日(3)学习速率激励函数,如用Sigmoid函数,应增大斜率,减少饱和的情况。调节学习因子增加Momentum项47第四十七页,共一百零二页,2022年,8月28日例3-2:非线性函数逼近目标函数:48第四十八页,共一百零二页,2022年,8月28日学习设置采用传统的BP学习算法激励函数都为Sigmoid函数。初始权系数阵由(0,1)之间的随机数组成。学习步长η=0.09。学习样本取20点,即:

校验样本取30点,即:49第四十九页,共一百零二页,2022年,8月28日两种MLP模型的学习效果50第五十页,共一百零二页,2022年,8月28日4.2前向神经网络模型4.2.1网络结构4.2.2多层传播网络的BP学习算法4.2.3快速的BP改进算法51第五十一页,共一百零二页,2022年,8月28日1.快速BP算法Fahlman在1988年首先提出当问题满足以下条件时:误差表面呈抛物面、极值点附近凹面向上;某一权系数的梯度变化与其它权系数变化无关。可采取如下的更新公式52第五十二页,共一百零二页,2022年,8月28日2.共轭梯度学习算法共轭梯度算法是一种经典优化方法共轭梯度学习算法 特点:使用二阶导数信息,但不计算Hessian矩阵53第五十三页,共一百零二页,2022年,8月28日目标函数的二阶近似目标函数:Taylor展开:其中:54第五十四页,共一百零二页,2022年,8月28日最佳权系数求取函数取极小值时,最佳权系数可求解

获得。由最优化理论可知,解决H逆矩阵的计算问题方法之一是利用共轭梯度来间接地构成H的逆矩阵值。55第五十五页,共一百零二页,2022年,8月28日共轭方向如果diHdjT=0对于所有的i≠j,i,j,=1,2,...,n。 则称d1,d2,...,dn是H共轭的。可见d1,d2,...,dn是线性无关的,因此可作为一组基。56第五十六页,共一百零二页,2022年,8月28日最优矩阵的间接求解记W*是极值点的权系数矢量,则有:令Wk=Wk-1+αkdk

,则n次迭代后可得W*。57第五十七页,共一百零二页,2022年,8月28日共轭梯度学习算法注意到则58第五十八页,共一百零二页,2022年,8月28日共轭矢量的递推求取定义第一个矢量d1为初始点的负梯度矢量,即d1=-g1。根据gTk+1dk=0(线性无关),可得

dk+1=-gk+1+βkdk

βk=gk+1HdkT/(dkHdkT)注意到 (gk+1-gk)T=H(Wk+1-Wk)T=αkHdkT

所以βk=gk+1(gk+1-gk)T/[dk(gk+1-gk)T]

αk

可通过一维步长最优搜索得到59第五十九页,共一百零二页,2022年,8月28日4.1引言4.2前向神经网络模型4.6神经网络控制基础4.7非线性动态系统的神经网络辨识4.8神经网络控制的学习机制4.9神经网络控制器的设计4.3动态神经网络模型4.10单一神经元控制法目录60第六十页,共一百零二页,2022年,8月28日4.3动态神经网络模型动态神经网络带时滞的多层感知器网络Hopfield网络回归神经网络61第六十一页,共一百零二页,2022年,8月28日4.4.1带时滞的多层感知器网络有两种实现:无输出反馈有输出反馈62第六十二页,共一百零二页,2022年,8月28日带时滞的多层感知器网络1图3-20时滞神经网络结构63第六十三页,共一百零二页,2022年,8月28日带时滞的多层感知器网络2图3-21带反馈时滞神经网络结构64第六十四页,共一百零二页,2022年,8月28日4.4.2Hopfield神经网络具有相互连接的反馈型神经网络模型将其定义的“能量函数”概念引入到神经网络研究中,给出了网络的稳定性判据。用模拟电子线路实现了所提出的模型,并成功地用神经网络方法实现了4位A/D转换。65第六十五页,共一百零二页,2022年,8月28日类型1266第六十六页,共一百零二页,2022年,8月28日1.二值型的Hopfield网络全连接单层网络神经元模型yi取值通常为0和1或-1和1

67第六十七页,共一百零二页,2022年,8月28日例3-4:状态转移关系假设一个3节点的离散Hopfield神经网络,已知网络权值与阈值如图3-23(a)所示。采取随机异步更新策略,求计算状态转移关系。68第六十八页,共一百零二页,2022年,8月28日状态转移图69第六十九页,共一百零二页,2022年,8月28日动力学特征:能量井能量函数能量井:能量极小状态(与网络的稳定状态一一对应)用途:联想记忆、优化70第七十页,共一百零二页,2022年,8月28日能量井设计能量井的分布是由连接权值决定的。一是根据求解问题的要求直接计算出所需要的连接权值。这种方法为静态产生方法,一旦权值确定下来就不再改变;二是通过提供一种学习机制来训练网络,使其能够自动调整连接权值,产生期望的能量井。这种方法为动态产生方法。71第七十一页,共一百零二页,2022年,8月28日(1)权值的静态设计方法:例3-6如下图3节点DHNN模型为例要求设计的能量井为状态y1y2y3=010和111。权值和阈值可在[-1,1]区间取值,确定网络权值和阈值。72第七十二页,共一百零二页,2022年,8月28日解对于状态A,当系统处于稳态时,有

W12+θ1<0 θ2>0W23+θ3<0对于状态B,当系统处于稳态时,有

W12+W13+θ1>0W12+W23+θ2>0W23+W13+θ3>073第七十三页,共一百零二页,2022年,8月28日特解W12=0.5,W13=0.4,W23=0.1,θ1=-0.7,θ2=0.2,θ3=-0.4.W12=-0.5,W13=0.5,W23=0.4,θ1=0.1,θ2=0.2,θ3=-0.7.出现了假能量井10074第七十四页,共一百零二页,2022年,8月28日(2)基于学习规则的设计方法Hebb学习规则(主要方法)δ学习规则

75第七十五页,共一百零二页,2022年,8月28日Hebb学习规则原则为:若i与j两个神经元同时处于兴奋状态,则它们之间的连接应加强,即:

.76第七十六页,共一百零二页,2022年,8月28日外积规则对于一给定的需记忆的样本向量{t1,t2,...,tN},如果初始权值为0,tk的状态值为+1或-1,则其连接权系数的学习可以利用“外积规则”,即:标量形式:活跃值为1或0时:77第七十七页,共一百零二页,2022年,8月28日2.网络的稳定性定理3-2:令S=(W,θ)代表神经网络,W为一对称矩阵。则有:如果S工作在串行模式,W的对角元素非负(包括对角元为0的情况),则网络总是收敛于稳定状态。(即在状态空间没有极限环存在);如果S工作在并行模式时,网络总是收敛于稳定状态或Hamming距离小于2的极限环。78第七十八页,共一百零二页,2022年,8月28日证明定义能量函数为:

将E(k)在Y(k)展开Talyor级数,有:其中,

79第七十九页,共一百零二页,2022年,8月28日不失一般性,假设阈值函数f(·)为符号函数sgn(·)。则

其中:80第八十页,共一百零二页,2022年,8月28日显然在串行工作方式下,81第八十一页,共一百零二页,2022年,8月28日例3-7:

假设神经元的阈值矢量θ=0,网络输出只取两值{0,1}。要求Hopfield网络记忆如下稳定状态,t1=(1010)T。设采取并行更新,并对以下三种初始状态下的网络行为作出评价。y1(0)=(1001)T,y2(0)=(1000)T,y3(0)=(0001)T。82第八十二页,共一百零二页,2022年,8月28日步骤1:权值设计根据得83第八十三页,共一百零二页,2022年,8月28日步骤2:稳定性分析对于y1(0)有: [1,0,0,1]T→[0,0,0,0]T→[0,0,0,0]T,

因此y1=[0,0,0,0]T,是一个稳定态。对于y2(0)有: [1,0,0,0]T→[0,0,1,0]T→[1,0,0,0]T,

所以初始状态2不属于此Hopfield网络记忆范围。无法实现联想。对于y3(0)有: [0,0,0,1]T→[0,1,0,0]T→[0,0,0,1]T,

也不属于此Hopfield区的记忆范围。84第八十四页,共一百零二页,2022年,8月28日4.应用:联想记忆功能必须具备两个基本条件:能够收敛于稳定状态,利用此稳态来记忆样本信息;具有回忆能力,能够从某一局部输入信息回忆起与其相关的其它记忆,或者由某一残缺的信息回忆起比较完整的记忆。85第八十五页,共一百零二页,2022年,8月28日举例:数字识别X=[x1,x2,...,xN]T

、X∈{-1,1}N

,N=10×12=12086第八十六页,共一百零二页,2022年,8月28日存在的问题假能量井现象并非任何一组样本经训练都可构成一组稳定的状态。给定一个偏离样本的初始状态,最终不一定收敛到与其Hamming距离最近的标准样本状态。各样本之间的Hamming距离分布对联想记忆功能的正确实现有重要影响。若样本之间相互正交(dH=N/2)效果最好。反之,若样本特征相近则易出现错误识别。样本数M越小,联想记忆功能出现的错误的可能性越小。仿真研究表明,取M=0.15N时,联想的正确率较高。87第八十七页,共一百零二页,2022年,8月28日4.连续型的Hopfield网络与二值型的Hopfield网络模型具有相同的拓扑结构神经元的状态oj满足:

N为网络中神经元的个数;

oj

为神经元j的状态;

cj

为常数且大于0;

Rj

为正数;

xj

为外部输入;

yi

为神经元i的输出,满足yi=f(oi)。88第八十八页,共一百零二页,2022年,8月28日稳定性引入一个能量函数E:定理3-3:若f-1

为单调递增且连续, ,则沿系统轨道有:且当且仅当时,89第八十九页,共一百零二页,2022年,8月28日证明因为且当时,90第九十页,共一百零二页,2022年,8月28日5.优化问题的应用:TSP问题旅行商最优路径问题(TravellingSalesmanProblem,简称TSP)91第九十一页,共一百零二页,2022年,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论