智能控制第3节人工神经元网络控制论网络模型_第1页
智能控制第3节人工神经元网络控制论网络模型_第2页
智能控制第3节人工神经元网络控制论网络模型_第3页
智能控制第3节人工神经元网络控制论网络模型_第4页
智能控制第3节人工神经元网络控制论网络模型_第5页
已阅读5页,还剩97页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第3章人工神经元网络控制论-网络模型智能控制根底3.1引言3.2前向神经网络模型3.6神经网络控制根底3.7非线性动态系统的神经网络辨识3.8神经网络控制的学习机制3.9神经网络控制器的设计3.3动态神经网络模型3.10单一神经元控制法目录23.1引言人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能,且能实现并行处理、自学习和非线性映射等能力的一种系统模型。3开展历史1943年,心理学家McCmloch和数学家Pitts合作提出形式神经元数学模型(MP),揭开了神经科学理论的新时代。1944年Hebb提出了改变神经元连接强度的Hebb规那么。1957年Rosenblatt首次引进了感知器概念〔Perceptron)。。1976年,Grossberg提出了自适应共振理论。1982年,美国加州工学院物理学家Hopfield提出了HNN模型,他引入了“计算能量函数〞的概念,给出了网络的稳定性判据。1986年,Rumelhart等PDP研究小组提出了多层前向传播网络的BP学习算法。4主要内容53.1引言3.1.1神经元模型3.1.2神经网络的模型分类3.1.3神经网络的学习算法3.1.4神经网络的泛化能力63.1.1神经元模型神经元模型是生物神经元的抽象和模拟。可看作多输入/单输出的非线性器件。ui

神经元的内部状态,θi

阀值,

xi

输入信号,j=1,2,…,n;wij

表示从单元uj

到单元ui

的连接权值;si

外部输入信号7数学模型通常直接假设 yi=f(Neti)f为鼓励函数,有4种类型。8鼓励函数类型1阈值型9鼓励函数类型2分段线性型10鼓励函数类型3Sigmoid函数型11鼓励函数类型4Tan函数型123.1引言3.1.1神经元模型3.1.2神经网络的模型分类3.1.3神经网络的学习算法3.1.4神经网络的泛化能力133.1.2神经网络的模型分类123414网络结构图153.1引言3.1.1神经元模型3.1.2神经网络的模型分类3.1.3神经网络的学习算法3.1.4神经网络的泛化能力163.1.3神经网络的学习算法ab17学习规那么18相关学习仅仅根据连接间的激活水平改变权系数。它常用于自联想网络。最常见的学习算法是Hebb规那么。η表示学习步长19纠错学习有导师学习方法,依赖关于输出节点的外部反响改变权系数。它常用于感知器网络、多层前向传播网络和Boltzmann机网络。其学习的方法是梯度下降法。最常见的学习算法有δ规那么、模拟退火学习规那么。20无导师学习学习表现为自适应实现输入空间的检测规那么。它常用于ART、Kohonen自组织网络。在这类学习规那么中,关键不在于实际节点的输出怎样与外部的期望输出相一致,而在于调整参数以反映观察事件的分布。例如Winner-Take-All学习规那么。213.1引言3.1.1神经元模型3.1.2神经网络的模型分类3.1.3神经网络的学习算法3.1.4神经网络的泛化能力223.1.4神经网络的泛化能力当输入矢量与样本输入矢量存在差异时,其神经网络的输出同样能够准确地呈现出应有的输出。这种能力就称为神经网络的泛化能力。在有导师指导下的学习中,泛化能力可以定义为训练误差和测试误差之差。与输入矢量的个数、网络的节点数和权值与训练样本集数目之间存在密切的关系。233.1引言3.2前向神经网络模型3.6神经网络控制根底3.7非线性动态系统的神经网络辨识3.8神经网络控制的学习机制3.9神经网络控制器的设计3.3动态神经网络模型3.10单一神经元控制法目录243.2前向神经网络模型3.2.1网络结构3.2.2多层传播网络的BP学习算法3.2.3快速的BP改进算法253.2.1网络结构单一神经元12326单一神经元w0

为阈值,

wj

决定第j个输入的突触权系数。27单层神经网络结构x0=128多层神经网络结构以单隐含层网络为例:Oj为隐含层的鼓励293.2前向神经网络模型3.2.1网络结构3.2.2多层传播网络的BP学习算法3.2.3快速的BP改进算法303.2.2多层传播网络的BP学习算法根本思想单层网络的学习算法多层前向网络学习算法311.有导师学习的根本思想性能指标为φ〔·〕是一个正定的、可微的凸函数,常取322.单层网络的学习算法鼓励函数为线性函数时,可通过最小二乘法来学习。

鼓励函数为非线性函数时,可采用Delta规那么,即梯度法,有α是学习因子

333.多层前向网络学习算法针对多层前向网络有导师学习34网络模型第r+1个隐含层:输出层35采用梯度法:其中:定义广义误差:可得:BP学习算法36反向误差传播输出层时,有:隐含层时,有:37例3-1假设对于期望的输入。

网络权系数的初始值见图。试用BP算法训练此网络〔本例中只给出一步迭代学习过程〕。这里,取神经元鼓励函数: 学习步长为38图3-1539当前输出40计算广义误差41连接权系数更新42学习流程43(1)初始化设置学习因子η>0。较大时,收敛快,但易振荡。较小时,反之。最大容许误差Emax。 用于判断学习是否结束。随机赋网络初始权值。 一般选择比较小的随机数。44增量型学习累积型学习(2)学习方式45收敛性46(3)学习速率鼓励函数,如用Sigmoid函数,应增大斜率,减少饱和的情况。调节学习因子增加Momentum项47例3-2:非线性函数逼近目标函数:48学习设置采用传统的BP学习算法鼓励函数都为Sigmoid函数。初始权系数阵由〔0,1〕之间的随机数组成。学习步长η=0.09。学习样本取20点,即:

校验样本取30点,即:49两种MLP模型的学习效果503.2前向神经网络模型3.2.1网络结构3.2.2多层传播网络的BP学习算法3.2.3快速的BP改进算法511.快速BP算法Fahlman在1988年首先提出当问题满足以下条件时:误差外表呈抛物面、极值点附近凹面向上;某一权系数的梯度变化与其它权系数变化无关。可采取如下的更新公式522.共轭梯度学习算法共轭梯度算法是一种经典优化方法共轭梯度学习算法 特点:使用二阶导数信息,但不计算Hessian矩阵53目标函数的二阶近似目标函数:Taylor展开:其中:54最正确权系数求取函数取极小值时,最正确权系数可求解

获得。由最优化理论可知,解决H逆矩阵的计算问题方法之一是利用共轭梯度来间接地构成H的逆矩阵值。55共轭方向如果diHdjT=0对于所有的i≠j,i,j,=1,2,...,n。 那么称d1,d2,...,dn是H共轭的。可见d1,d2,...,dn是线性无关的,因此可作为一组基。56最优矩阵的间接求解记W*是极值点的权系数矢量,那么有:

令Wk=Wk-1+αkdk,那么n次迭代后可得W*。57共轭梯度学习算法注意到那么58共轭矢量的递推求取定义第一个矢量d1为初始点的负梯度矢量,即d1=-g1。根据gTk+1dk=0〔线性无关〕,可得 dk+1=-gk+1+βkdk βk=gk+1HdkT/(dkHdkT)注意到 (gk+1-gk)T=H(Wk+1-Wk)T=αkHdkT 所以βk=gk+1(gk+1-gk)T/[dk(gk+1-gk)T] αk可通过一维步长最优搜索得到593.1引言3.2前向神经网络模型3.6神经网络控制根底3.7非线性动态系统的神经网络辨识3.8神经网络控制的学习机制3.9神经网络控制器的设计3.3动态神经网络模型3.10单一神经元控制法目录603.3动态神经网络模型动态神经网络带时滞的多层感知器网络Hopfield网络回归神经网络613.3.1带时滞的多层感知器网络有两种实现:无输出反响有输出反响62带时滞的多层感知器网络1图3-20时滞神经网络结构63带时滞的多层感知器网络2图3-21带反响时滞神经网络结构643.3.2Hopfield神经网络具有相互连接的反响型神经网络模型将其定义的“能量函数〞概念引入到神经网络研究中,给出了网络的稳定性判据。用模拟电子线路实现了所提出的模型,并成功地用神经网络方法实现了4位A/D转换。65类型12661.二值型的Hopfield网络全连接单层网络神经元模型yi取值通常为0和1或-1和1

67例3-4:状态转移关系假设一个3节点的离散Hopfield神经网络,网络权值与阈值如图3-23(a)所示。采取随机异步更新策略,求计算状态转移关系。68状态转移图69动力学特征:能量井能量函数能量井:能量极小状态〔与网络的稳定状态一一对应〕用途:联想记忆、优化70能量井设计能量井的分布是由连接权值决定的。一是根据求解问题的要求直接计算出所需要的连接权值。这种方法为静态产生方法,一旦权值确定下来就不再改变;二是通过提供一种学习机制来训练网络,使其能够自动调整连接权值,产生期望的能量井。这种方法为动态产生方法。71〔1〕权值的静态设计方法:例3-6如以下图3节点DHNN模型为例要求设计的能量井为状态y1y2y3=010和111。权值和阈值可在[-1,1]区间取值,确定网络权值和阈值。72解对于状态A,当系统处于稳态时,有

W12+θ1<0 θ2>0W23+θ3<0对于状态B,当系统处于稳态时,有

W12+W13+θ1>0W12+W23+θ2>0W23+W13+θ3>073特解W12=0.5,W13=0.4,W23=0.1,θ1=-0.7,θ2=0.2,θ3=-0.4.W12=-0.5,W13=0.5,W23=0.4,θ1=0.1,θ2=0.2,θ3=-0.7.出现了假能量井10074〔2〕基于学习规那么的设计方法Hebb学习规那么〔主要方法〕δ学习规那么

75Hebb学习规那么原那么为:假设i与j两个神经元同时处于兴奋状态,那么它们之间的连接应加强,即:

.76外积规那么对于一给定的需记忆的样本向量{t1,t2,...,tN},如果初始权值为0,tk的状态值为+1或-1,那么其连接权系数的学习可以利用“外积规那么〞,即:标量形式:活泼值为1或0时:772.网络的稳定性定理3-2:令S=〔W,θ〕代表神经网络,W为一对称矩阵。那么有:如果S工作在串行模式,W的对角元素非负〔包括对角元为0的情况〕,那么网络总是收敛于稳定状态。〔即在状态空间没有极限环存在〕;如果S工作在并行模式时,网络总是收敛于稳定状态或Hamming距离小于2的极限环。78证明定义能量函数为:

将E(k)在Y(k)展开Talyor级数,有:其中,

79不失一般性,假设阈值函数f(·)为符号函数sgn(·)。那么

其中:80显然在串行工作方式下,81例3-7:假设神经元的阈值矢量θ=0,网络输出只取两值{0,1}。要求Hopfield网络记忆如下稳定状态,t1=(1010)T。设采取并行更新,并对以下三种初始状态下的网络行为作出评价。y1〔0〕=(1001)T,y2〔0〕=(1000)T,y3〔0〕=(0001)T。82步骤1:权值设计根据得83步骤2:稳定性分析对于y1(0)有: [1,0,0,1]T→[0,0,0,0]T→[0,0,0,0]T,

因此y1=[0,0,0,0]T,是一个稳定态。对于y2(0)有: [1,0,0,0]T→[0,0,1,0]T→[1,0,0,0]T,

所以初始状态2不属于此Hopfield网络记忆范围。无法实现联想。对于y3(0)有: [0,0,0,1]T→[0,1,0,0]T→[0,0,0,1]T,

也不属于此Hopfield区的记忆范围。843.应用:联想记忆功能必须具备两个根本条件:能够收敛于稳定状态,利用此稳态来记忆样本信息;具有回忆能力,能够从某一局部输入信息回忆起与其相关的其它记忆,或者由某一残缺的信息回忆起比较完整的记忆。85举例:数字识别X=[x1,x2,...,xN]T

、X∈{-1,1}N

,N=10×12=12086存在的问题假能量井现象并非任何一组样本经训练都可构成一组稳定的状态。给定一个偏离样本的初始状态,最终不一定收敛到与其Hamming距离最近的标准样本状态。各样本之间的Hamming距离分布对联想记忆功能的正确实现有重要影响。假设样本之间相互正交(dH=N/2)效果最好。反之,假设样本特征相近那么易出现错误识别。样本数M越小,联想记忆功能出现的错误的可能性越小。仿真研究说明,取M=0.15N时,联想的正确率较高。874.连续型的Hopfield网络与二值型的Hopfield网络模型具有相同的拓扑结构神经元的状态oj满足:

N为网络中神经元的个数;

oj

为神经元j的状态;

cj

为常数且大于0;

Rj

为正数;

xj

为外部输入;

yi

为神经元i的输出,满足yi=f(oi)。88稳定性引入一个能量函数E:定理3-3:假设f-1为单调递增且连续, ,那么沿系统轨道有:且当且仅当时,89证明因为且当时,905.优化问题的应用:TSP问题旅行商最优路径问题(TravellingSal

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论