智能控制 第3章 人工神经元网络控制论-网络模型_第1页
智能控制 第3章 人工神经元网络控制论-网络模型_第2页
智能控制 第3章 人工神经元网络控制论-网络模型_第3页
智能控制 第3章 人工神经元网络控制论-网络模型_第4页
智能控制 第3章 人工神经元网络控制论-网络模型_第5页
已阅读5页,还剩97页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、第3章人工神经元网络控制论 网络模型,智能控制基础,2/102,3.1 引言,3.2 前向神经网络模型,3.6 神经网络控制基础,3.7 非线性动态系统的神经网络辨识,3.8 神经网络控制的学习机制,3.9 神经网络控制器的设计,3.3 动态神经网络模型,3.10 单一神经元控制法,目录,3/102,3.1 引言,人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能,且能实现并行处理、自学习和非线性映射等能力的一种系统模型。,4/102,发展历史,1943年,心理学家McCmloch和数学家Pitts合作提出形式神经元数学模型(MP),揭开了神经科学理论的新时代。 1944年Hebb提出了

2、改变神经元连接强度的Hebb规则。 1957年Rosenblatt首次引进了感知器概念(Perceptron)。 1976年,Grossberg提出了自适应共振理论。 1982年,美国加州工学院物理学家Hopfield提出了HNN模型,他引入了“计算能量函数”的概念,给出了网络的稳定性判据。 1986年,Rumelhart等PDP研究小组提出了多层前向传播网络的BP学习算法。,5/102,主要内容,6/102,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的泛化能力,7/102,3.1.1 神经元模型,神经元模型是生物

3、神经元的抽象和模拟。可看作多输入/单输出的非线性器件 。,ui 神经元的内部状态, i 阀值, xi 输入信号,j=1,2,n; wij 表示从单元uj 到单元ui 的连接权值; si外部输入信号,8/102,数学模型,通常直接假设 yi=f(Neti) f为激励函数 ,有4种类型。,9/102,激励函数类型1,阈值型,10/102,激励函数类型2,分段线性型,11/102,激励函数类型3,Sigmoid 函数型,12/102,激励函数类型4,Tan函数型,13/102,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的

4、泛化能力,14/102,前向网络,反馈网络,相互结合型网络,混合型网络,3.1.2 神经网络的模型分类,1,2,3,4,15/102,网络结构图,16/102,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的泛化能力,17/102,3.1.3 神经网络的学习算法,有导师学习,无导师学习,a,b,18/102,学习规则,19/102,相关学习,仅仅根据连接间的激活水平改变权系数。它常用于自联想网络 。 最常见的学习算法是Hebb规则。 表示学习步长,20/102,纠错学习,有导师学习方法 ,依赖关于输出节点的外部反馈改变

5、权系数。它常用于感知器网络、多层前向传播网络和Boltzmann机网络。其学习的方法是梯度下降法。 最常见的学习算法有规则、模拟退火学习规则。,21/102,无导师学习,学习表现为自适应实现输入空间的检测规则。它常用于ART、Kohonen自组织网络。 在这类学习规则中,关键不在于实际节点的输出怎样与外部的期望输出相一致,而在于调整参数以反映观察事件的分布。 例如Winner-Take-All 学习规则 。,22/102,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的泛化能力,23/102,3.1.4 神经网络的泛化

6、能力,当输入矢量与样本输入矢量存在差异时,其神经网络的输出同样能够准确地呈现出应有的输出。这种能力就称为神经网络的泛化能力。 在有导师指导下的学习中,泛化能力可以定义为训练误差和测试误差之差。 与输入矢量的个数、网络的节点数和权值与训练样本集数目之间存在密切的关系。,24/102,3.1 引言,3.2 前向神经网络模型,3.6 神经网络控制基础,3.7 非线性动态系统的神经网络辨识,3.8 神经网络控制的学习机制,3.9 神经网络控制器的设计,3.3 动态神经网络模型,3.10 单一神经元控制法,目录,25/102,3.2 前向神经网络模型,3.2.1 网络结构,3.2.2 多层传播网络的BP

7、学习算法,3.2.3 快速的BP改进算法,26/102,3.2.1 网络结构,单一神经元,单层神经网络结构,多层神经网络结构,1,2,3,27/102,单一神经元,w0 为阈值, wj 决定第j个输入的突触权系数。,28/102,单层神经网络结构,x0=1,29/102,多层神经网络结构,以单隐含层网络为例:,Oj为隐含层的激励,30/102,3.2 前向神经网络模型,3.2.1 网络结构,3.2.2 多层传播网络的BP学习算法,3.2.3 快速的BP改进算法,31/102,3.2.2 多层传播网络的BP学习算法,基本思想 单层网络的学习算法 多层前向网络学习算法,32/102,1. 有导师学

8、习的基本思想,性能指标为 ()是一个正定的、可微的凸函数 ,常取,33/102,2. 单层网络的学习算法,激励函数为线性函数时,可通过最小二乘法来 学习。 激励函数为非线性函数时,可采用Delta规则,即梯度法,有,是学习因子,34/102,3. 多层前向网络学习算法,针对多层前向网络 有导师学习,35/102,网络模型,第r1个隐含层: 输出层,36,采用梯度法: 其中: 定义广义误差 : 可得:,BP学习算法,37/102,反向误差传播,输出层时,有: 隐含层时,有:,38/102,例3-1,假设对于期望的输入。 网络权系数的初始值见图。 试用BP算法训练此网络(本例中只给出一步迭代学习过

9、程)。 这里,取神经元激励函数: 学习步长为,39/102,图315,40/102,当前输出,41/102,计算广义误差,42/102,连接权系数更新,43/102,学习流程,44/102,(1) 初始化,设置学习因子0。 较大时,收敛快,但易振荡。 较小时,反之。 最大容许误差Emax。 用于判断学习是否结束。 随机赋网络初始权值。 一般选择比较小的随机数。,45/102,(2) 学习方式,46/102,收敛性,47/102,(3) 学习速率,激励函数,如用Sigmoid函数,应增大斜率,减少饱和的情况。 调节学习因子 增加Momentum项,48/102,例3-2:非线性函数逼近,目标函数

10、:,49/102,学习设置,采用传统的BP学习算法 激励函数都为Sigmoid函数。 初始权系数阵由(0,1)之间的随机数组成。 学习步长=0.09。 学习样本取20点,即: 校验样本取30点,即:,50/102,两种MLP模型的学习效果,51/102,3.2 前向神经网络模型,3.2.1 网络结构,3.2.2 多层传播网络的BP学习算法,3.2.3 快速的BP改进算法,52/102,1. 快速BP算法,Fahlman在1988年首先提出 当问题满足以下条件时: 误差表面呈抛物面、极值点附近凹面向上; 某一权系数的梯度变化与其它权系数变化无关。 可采取如下的更新公式,53/102,2. 共轭梯

11、度学习算法,共轭梯度算法是一种经典优化方法 共轭梯度学习算法 特点:使用二阶导数信息,但不计算Hessian矩阵,54,目标函数的二阶近似,目标函数: Taylor展开 : 其中:,55/102,最佳权系数求取,函数取极小值时,最佳权系数可求解 获得。 由最优化理论可知,解决H逆矩阵的计算问题方法之一是利用共轭梯度来间接地构成H的逆矩阵值。,56/102,共轭方向,如果 diHdjT=0 对于所有的 ij, i,j,=1,2,.,n。 则称d1,d2,.,dn是H共轭的。 可见d1,d2,.,dn是线性无关的 ,因此可作为一组基。,57/102,最优矩阵的间接求解,记W*是极值点的权系数矢量,

12、则有: 令 Wk=Wk-1+kdk ,则n次迭代后可得W*。,58/102,共轭梯度学习算法,注意到 则,59/102,共轭矢量的递推求取,定义第一个矢量d1为初始点的负梯度矢量,即 d1=-g1。 根据gTk+1dk=0 (线性无关),可得 dk+1=-gk+1+kdk k=gk+1HdkT/(dkHdkT) 注意到(gk+1-gk)T=H(Wk+1-Wk)T=kHdkT 所以 k=gk+1(gk+1-gk)T/ dk (gk+1-gk)T k 可通过一维步长最优搜索得到,60/102,3.1 引言,3.2 前向神经网络模型,3.6 神经网络控制基础,3.7 非线性动态系统的神经网络辨识,3

13、.8 神经网络控制的学习机制,3.9 神经网络控制器的设计,3.3 动态神经网络模型,3.10 单一神经元控制法,目录,61/102,3.3 动态神经网络模型,动态神经网络,带时滞的多层感知器网络,Hopfield网络,回归神经网络,62/102,3.3.1 带时滞的多层感知器网络,有两种实现: 无输出反馈 有输出反馈,63/102,带时滞的多层感知器网络1,图3-20 时滞神经网络结构,64/102,带时滞的多层感知器网络2,图3-21 带反馈时滞神经网络结构,65/102,3.3.2 Hopfield神经网络,具有相互连接的反馈型神经网络模型 将其定义的“能量函数”概念引入到神经网络研究中

14、,给出了网络的稳定性判据。 用模拟电子线路实现了所提出的模型,并成功地用神经网络方法实现了4位A/D转换。,66/102,类型,二值型的Hopfield,连续型的Hopfield网络,1,2,67/102,1. 二值型的Hopfield网络,全连接单层网络 神经元模型,yi取值通常为 0和1或-1和1,68/102,例3-4:状态转移关系,假设一个3节点的离散Hopfield神经网络,已知网络权值与阈值如图3-23(a)所示。 采取随机异步更新策略,求计算状态转移关系。,69/102,状态转移图,70/102,动力学特征:能量井,能量函数 能量井 :能量极小状态(与网络的稳定状态一一对应) 用

15、途:联想记忆、优化,71/102,能量井设计,能量井的分布是由连接权值决定的。 一是根据求解问题的要求直接计算出所需要的连接权值。这种方法为静态产生方法,一旦权值确定下来就不再改变; 二是通过提供一种学习机制来训练网络,使其能够自动调整连接权值,产生期望的能量井。这种方法为动态产生方法。,72/102,(1)权值的静态设计方法:例3-6,如下图3节点DHNN模型为例要求设计的能量井为状态y1y2y3=010和111。权值和阈值可在-1,1区间取值,确定网络权值和阈值。,73/102,解,对于状态A,当系统处于稳态时, 有 W12+10 W23+30 W12+ W23+20 W23+ W13+3

16、0,74/102,特解,W12=0.5, W13=0.4, W23=0.1, 1=-0.7, 2=0.2, 3=-0.4. W12=-0.5, W13=0.5, W23=0.4, 1=0.1, 2=0.2, 3=-0.7. 出现了假能量井100,75/102,(2)基于学习规则的设计方法,Hebb学习规则(主要方法) 学习规则,76/102,Hebb学习规则,原则为:若i与j两个神经元同时处于兴奋状态,则它们之间的连接应加强,即: .,77/102,外积规则,对于一给定的需记忆的样本向量t1,t2,.,tN ,如果初始权值为0,tk的状态值为+1或-1,则其连接权系数的学习可以利用“外积规则”

17、,即: 标量形式: 活跃值为1或0时 :,78/102,2. 网络的稳定性,定理3-2: 令S=(W,)代表神经网络,W为一对称矩阵。则有: 如果S工作在串行模式,W的对角元素非负(包括对角元为0的情况),则网络总是收敛于稳定状态。(即在状态空间没有极限环存在); 如果S工作在并行模式时,网络总是收敛于稳定状态或Hamming距离小于2的极限环。,79/102,证明,定义能量函数为: 将E(k)在Y(k)展开Talyor级数,有: 其中,,80/102,不失一般性,假设阈值函数f()为符号函数sgn()。则 其中:,81/102,显然 在串行工作方式下,,82/102,例3-7:,假设神经元的

18、阈值矢量=0,网络输出只取两值0,1。要求Hopfield网络记忆如下稳定状态, t1=(1 0 1 0)T。设采取并行更新,并对以下三种初始状态下的网络行为作出评价。 y1(0)=(1 0 0 1)T, y2(0)=(1 0 0 0)T, y3(0)=(0 0 0 1)T。,83/102,步骤1:权值设计,根据 得,84/102,步骤2:稳定性分析,对于y1(0)有: 1,0,0,1T 0,0,0,0T 0,0,0,0T, 因此 y1=0,0,0,0T,是一个稳定态。 对于y2(0)有: 1,0,0,0T 0,0,1,0T 1,0,0,0T, 所以初始状态2不属于此Hopfield网络记忆范

19、围。无法实现联想。 对于y3(0)有: 0,0,0,1T 0,1,0,0T 0,0,0,1T, 也不属于此Hopfield区的记忆范围。,85/102,3. 应用:联想记忆功能,必须具备两个基本条件: 能够收敛于稳定状态,利用此稳态来记忆样本信息; 具有回忆能力,能够从某一局部输入信息回忆起与其相关的其它记忆,或者由某一残缺的信息回忆起比较完整的记忆。,86/102,举例:数字识别,X=x1,x2,.,xNT 、X-1,1N ,N=1012=120,87/102,存在的问题,假能量井现象 并非任何一组样本经训练都可构成一组稳定的状态。 给定一个偏离样本的初始状态,最终不一定收敛到与其Hammi

20、ng距离最近的标准样本状态。 各样本之间的Hamming距离分布对联想记忆功能的正确实现有重要影响。若样本之间相互正交(dH=N/2)效果最好。反之,若样本特征相近则易出现错误识别。 样本数M越小,联想记忆功能出现的错误的可能性越小。仿真研究表明,取M=0.15N时,联想的正确率较高。,88/102,4. 连续型的Hopfield网络,与二值型的Hopfield网络模型具有相同的拓扑结构 神经元的状态oj满足 : N为网络中神经元的个数; oj 为神经元j的状态; cj 为常数且大于0; Rj 为正数; xj 为外部输入; yi 为神经元i的输出,满足 yi=f(oi) 。,89/102,稳定性,引入一个能量函数E: 定理3-3:若f-1 为单调递增且连续, ,则沿系统轨道有: 且当且仅当 时,,90/102,证明,因为 且当 时,,91/102,5. 优化问题的应用:TSP问题,旅行商最优路径问题(Travelling S

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论