神经网络控制大全_第1页
神经网络控制大全_第2页
神经网络控制大全_第3页
神经网络控制大全_第4页
神经网络控制大全_第5页
已阅读5页,还剩69页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、人工神经元网络模型与控制 引言 前向神经网络模型 动态神经网络模型 神经网络神经网络PID控制控制 小结 第一节 引言 模糊控制解决了人类语言的描述和推理问题,为模拟人脑的感知推理等 智能行为迈了一大步。但是在数据处理、自学习能力方面还有很大的差距。 人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能实现并 行处理、自学习和非线性映射等能力。 1943年,心理学家McCmloch和数学家Pitts合作提出里神经元数学模型(MP); 1944年,Hebb提出的改变神经元连接强度的Hebb规则; 1957年,Rosenblatt引进感知概念; 1976年,Grossberg基于生理和心理学的

2、经验,提出了自适应共振理论; 1982年,美国加州工学院物理学家Hopfield提出了HNN模型; 1986年,Rummelhart等PDF研究小组提出了多层前向传播网络的BP学习算法。 研究神经元网络系统主要有三个方面的内容:神经元模型、神经网络结构、 神经网络学习方法。从神经元模型来分有:线性处理单元、非线性处理单元; 从网络结构来分有:前向网络、反馈网络和自组织网络。 神经元网络的特点: 1)非线性 2)分布处理 3)学习并行和自适应 4)数据融合 5)适用于多变量系统 6)便于硬件实现 人 工 神 经 网 络 前向网络 反馈网络 自组织网络 CMAC MLP Hopfield RNN

3、Kohonen ART Boltzman Machine 图4-1 神经网络结构分类示意图 人脑大约包含1012个神经元,分成约1000种类型, 每个神经元大约与102104个其他神经元相连接, 形成极为错综复杂而又灵活多变的神经网络。每 个神经元虽然都十分简单,但是如此大量的神经 元之间、如此复杂的连接却可以演化出丰富多彩 的行为方式。同时,如此大量的神经元与外部感 受器之间的多种多样的连接方式也蕴含了变化莫 测的反应方式。 从生物控制论的观点来看,神经元作 为控制和信息处理的基本单元,具有下列 一些重要的功能与特性: 时空整合功能 兴奋与抑制状态 脉冲与电位转换 神经纤维传导速度 突触延时

4、和不应期 学习、遗忘和疲劳 图4-2 神经元结构模型 X1 X2 Xn Wi1 Wi2 Win Ui yi Si 神经元是生物神经系统的基本单元。 神经元模型是生物神经元的抽象和模拟。 神经元一般是多输入-三输出的非线性器件。 图中 为神经元内部状态; 为阀值; 为输入信号,j=1,2, 3,.n; 表示从单元 到单元 的连接系数, 为外部输入信号。 i u i i x ij w j u i u i s )34()()( )24()( ) 14( iii ii ii j jiji Nethugy Netfu sxwNet 图4-2 神经元结构模型 X1 X2 Xn Wi1 Wi2 Win Ui

5、 yi Si 假如, 即 ,常用的神经元非线性特性有四种: ii uug)()( ii Netfy (1)、阀值型 i Net (2)、分段线性型 ili iliii ii i NetNetf NetNetNetkNet NetNet Netf max 0 0 0 )( i Net il Net 0i Net (3)、Sigmoid函数型 T Net i i e Netf 1 1 )( i Net 00 01 )( i i i Net Net Netf (4)、Tan函数型 T Net T Net T Net T Net i ii ii ee ee Netf )( 二、神经网络的模型分类 (1

6、)、神经元层次模型 研究由单个神经元的动态特性和自适应特性; (2)、组合式模型由几种互相补充、互相协作的神经元组成,完成特定的 任务; (3)、网络层次模型由众多相同的神经元相互连接而成的网络,研究神经 网络的整体性能; (4)、神经系统层次模型一般有多个神经网络构成,以模拟生物神经系统 更复杂、更抽象的特性。 典型的神经网络有:BP网、Hopfield网络、CMAC小脑模型、ART自适应共振 理论、BAM双向联想记忆、SOM自组织网络、Blotzman机网络和Madaline网 络等等 根据联结方式分: (1)、前向网络神经元分层排列,组成输入层、隐含层和输出层。每层 只能够接受前一层神经

7、元的输入。 (2)、反馈网络在输入层到输出层存在反馈。 (3)、相互结合型网络相互结合网络属于网络结构。任意两个神经元之 间可能有连接。 (4)、混合型网络层次形型网络和网状结构网络的一种结合。 输 入 输 出 输 入 输 出 (a) (b) (c)(d) 三、神经网络的学习算法 学习的实质就是针对一组给定输入Xp使网络产生相应的期望的输出的过程。 网络学习分两大类: 1、有导师学习存在一个期望的网络输出。期望输出和实际输出之间的 距离作为误差度量并用于调整权值。 2、无导师学习没有直接的误差信息,需要建立一个间接的评价函数, 以对网络的某种行为进行评价。 学习规则根据连接权系数的改变方式分:

8、 (1)、相关学习根据连接之间的激活水平改变权系数。 (2)、纠错学习依赖关于输出节点的外部反馈改变权系数。 (3)、无导师学习学习表现为自动实现输入空间的检测和分类。 第二节 前向神经网络模型 前向神经网络是由一层或者多层非线性处理单元组成的。相邻层之间通 过突触权连接起来。由于前一层的输出作为下一层的输入,因此,称此类网 络结构为前向神经网络。 一、单一人工神经元 )(x 1 X1 X2 Xn 0 1 w 2 w n w y 图4-11 单一人工神经元示意图 )()( 1 0 1 0 n j jj n j jj xwNety xwNet 1 x n x 1 x 2 x n x 1 x 2

9、x n x 11 w 12 w n w1 1n w 2n w nn w y 图4-12 只含二次项的神经元结构示意图 )()( 111 0 111 0 n j n k kjjk n j jj n j n k kjjk n j jj xxwxwNety xxwxwNet 二、单层神经网络结构 1 x 2 x n x 1 y 2 y n y 图2-13 单层前向传播网络结构示意图 j n j ijiji xwy 1 )( 三、多层神经网络结构 k x1 k x2 kni x k y1 k y2 kn y 0 1 ij w 2 ij w (a) k x1 k x2 kni x 1 ij w L ij

10、 w k y1 k y2 kn y 0 (b) 图4-14 多层前向传播网络结构示意图 (a)含一个隐含层前向传播网络结构示意图 (b)含L+1个隐含层前向传播网络结构示意图 0 0 2 1 1 , 3 , 2 , 1 , 3 , 2 , 1 njxwy njxw h j n j ilijj h n i jljlj )( 121 12 1 1 LLL L L L L L XWWWF 四、多层传播网络学习算法 前向传播网络实质上表示的是一种从输入空间输出空间的映射。 )(XTY 网络的训练实质上是对突触权阵的调整,以满足当输入为Xp时其输出应为Tp. 对于一组给定的权系数,网络对当前输入Xp的响

11、应为: 突触权系数的调整是通过对样本p=1,2,3,.,N的误差指标 达到极小的方法来实现的。 )( pp XTY ),( ppp YTdE 对于N个样本集,性能指标为: N p n i pipi N p p ytEE 111 0 )( 对于具有n0个输出的单元网络,每一个期望输出矢量Tp和实际的输出矢量 Yp之间的误差函数可以用平方差和来表示,即 0 1 2 )( 2 1 n j pipip ytE 一般说,前向神经网络是通过期望输出与实际输出之间的误差平方的极 小来进行权阵的学习和训练。通常一个周期一个周期进行训练,一个周期对 所有的样本集,完成后下一个周期对此样本集进行重复训练,直到性能

12、指标E 满足要求为止。 对于多层前向传播网络 k x1 k x2 kni x 1 ij w L ij w k y1 k y2 kn y 0 (b) 图4-14 多层前向传播网络结构示意图 (b)含L+1个隐含层前向传播网络结构示意图 设输入模式Xp,则相应的隐含单元的输出为 )( 1 11 1 )1( j n i ipijipj xwo 根据L层网络结构可知,网络输出为: 0 )1( 1 , 2 , 1)()( 1 njowNety L j L pi n i L jlL L pjLpj L 第r+1个隐含层的输入是第r个隐含层的输出,所以: 1, 2 , 1 , 0)( 1 1)(1 1 )1

13、( Lrowo r n l r j r pl r jir r pj 多层前向传播网络的权系数训练算法是利用著名的误差反向传播 学系算法得到的BP算法 0 1 2 )( 2 1 n j pipip ytE 因为: r ji pr ji w E w r ji r pj r pj p r ji p w Net Net E w E k r pi r pk r jk r ji r ji r pj oow ww Net )1()1( r pj pr pj Net E 其中 定义为广义误差 则 )1( r pi r pj r pj p o Net E )1( r pi r pj r pj p o Net E

14、 要使E安梯度下降,就必须按下式进行权值的调整 )1( r pi r pj r ji ow 式中:上标变量表示第r个隐含层,r=1,2,L; 为第r-1层第i个单 元到第r层的第j单元的连接系数; 为学习步长。 r ji w 因为 若r=L为输出单元层,则: )()( L pjLpjpj L pj pj pj p r pj pL pj Netyt Net y y E Net E )()( )()( 11 1 1 r pjr k r kj r pk k r pjr r pj r pk r pk p r pj r pj r pj pr pj Netw Net o Net Net E Net o o

15、 E 若 为输出单元层,则:Lr BP学习算法步骤: 给定P组样本(X1,T1;X2,T2;,Xp,Tp)。其中Xi为ni维输入矢量,T维n0维期 望的输出矢量I=1,2,.,p。假如矢量y和0分别表示网络的输出层和隐含层的输 出矢量。则训练过程为: 1)、选 , 作为最大容许误差,并将权系数 ,初始 化成某小的随机权矩阵。 0 max E LlW ll ,、21, 0, 1Ep 2)、训练开始, ppp TTXo, )0( 计算出各隐含层神经元的激励输出; 计算各输出层神经的激励输出: 按 按 1, 2 , 1 , 0)( 1 1)(1 1 )1( Lrowo r n l r j r pl

16、r jir r pj 0 )1( 1 , 2 , 1)()( 1 njowNety L j L pi n i L jlL L pjLpj L 3)、计算误差 0 2 , 2 , 1,2/)(nEytE kk 4)、按下式计算广义误差 L pj 按下式计算广义误差 r pj )()( L pjLpjpj L pj pj pj p r pj pL pj Netyt Net y y E Net E )()( )()( 11 1 1 r pjr k r kj r pk k r pjr r pj r pk r pk p r pj r pj r pj pr pj Netw Net o Net Net E

17、Net o o E 5)、调整权阵系数 r pj r j r pi r pj r ji ow )1( 6)、 。,否则转转若 00 72, 1,ppPp 7)、 0 max 2, 1, 0,转结束,否则若pEEE 实际上,对训练过程有较大影响的有:权系数的初值、学习方式、激励函数、 学习速率等 (1)、权系数的初值 权系数通常初始化成小的初始值,尽可能覆盖整个 权阵的空间域,避免出现初始阵系数相同的情况。 (2)、学习方式 学习方式不同,训练的效果也不同 (3)、激励函数 激励函数的选择对训练有较大的影响。 (4)、学习速率 一般来说,学习速率越快,收敛越快,但容易产生震荡; 学习速率越小,收

18、敛越慢。 BP学习算法本质上是属于一次收敛的学习算法。所以BP算法不可避免存 在局部极小问题,且学习速度很慢,在极点附近出现震荡现象,而且不能 够平滑趋于最优解。为了减小这种现象,一般采用平滑的权值更新公式, 即: ) 1(0)( 1 kwkw r ji r pi r pj r ji 例3-1 如图3-15所示的多层前向传播神经网络结构。假设对于期望的输 入 。网络权系数的初始值见图,试用BP算法 训练此网络。这里神经元激励函数为 ,学习步长为 TTTT ttxx05. 095. 0 ,31 2121 x e xf 1 1 )( 1 图3-15 神经网络结构图 x1 x2 1 1 2 0 3

19、-2 -1 o1 o2 1 1 0 -2 1 -2 3 y1 y2 解:1)、输入最大容许逼近误差值 和最大迭代学习次数 设初始迭代学习次数 2)、计算当前输入状态下、当前网络的连接权系数下的神经网络输出。 maxiteafe 0iteafe 1102 23)2(1 21 1 202 1 221 1 21 1 2 21 1 102 1 121 1 11 1 1 xxwxwxwnet xxwxwxwnet 731. 0 1 1 1 1 1192. 0 1 1 1 1 1 2 2 1 1 2 1 1 e e o e e o netnet 6572. 13)2(1 8808. 1201 21 2 2

20、02 2 221 2 21 2 2 21 2 102 2 121 2 11 2 1 oowowownet oowowownet 8399. 0 1 1 1323. 0 1 1 2 2 2 1 21 netnet e y e y 3)、判断神经网络逼近误差要求或者迭代学习到最大容许值否? max iterateiterateoryt 若上述不等式中有一个满足,则退出学习.否则进入4)。 4)、计算广义误差。 0938. 0)1 ()()()( 1111 2 1 11 2 1 yyytnetfyt 1062. 0)1 ()()()( 2222 2 2 22 2 2 yyytnetfyt 2811.

21、 0)1 ()()1 ( 11 2 21 2 2 2 11 2 111 2 1 21 1 oowwoowk k k 04176. 0)1 ()()1 ( 22 2 22 2 2 2 12 2 122 2 2 21 2 oowwoowk k k 5)连接权系数更新 2811. 0 1 1 1 1 11 xw8433. 0 2 1 1 1 12 xw2811. 0 1 1 1 10 w 04176. 0 1 1 2 1 21 xw1253. 0 2 1 2 1 22 xw04176. 0 1 2 1 20 w 0112. 0 1 2 1 2 11 ow0686. 0 2 2 1 2 12 ow09

22、38. 0 2 1 2 10 w 01266. 0 1 2 2 2 21 ow0776. 0 2 2 2 2 22 ow1062. 0 2 2 2 20 w . 2 , 1; 2 , 1 , 0; 2 , 1)() 1(jilwiteratewiteratew l ji l ji l ji iterate=iterate+1;继续迭代计算直至满足终止条件为止。 例3-2 利用多层前向传播神经网络来逼近非线性函数)cos1 (5 . 0 xy 解: x x yy 从图中可以看到,增加隐含层的数目并不一定意味着能够改善逼近精度 第三节 动态神经网络模型 前向传播网络的特点:1、结构简单、易于编程;

23、2、是一种静态非线性映射, 不注重非线性动态性能的研究,缺乏丰富的动力学行为; 反馈型神经网络:具有丰富的非线性动力学特性,如稳定性、极限环、奇异 吸引子(混沌现象) 反馈动力学神经网络系统具有以下特性: 1、系统有若干稳定状态,如果从某一初始状态开始运动,系统总可以进入 某一稳定状态。(将神经网络稳定状态当作记忆,实际上神经网络由任一初 始状态向稳态的演化过程,实质上寻找记忆的过程。稳定是神经网络的 一个重要特性,能量函数是判断网络稳定性的基本概念。 2、系统的稳定状态可以通过改变相连单元的权值而产生。 网络稳定性? 定义4-1 神经网络从任一初始状态 X(0)开始运动,若存在某一有限的时刻

24、 , 从 以后神经网络的状态不再发生变化,即 ,则称网络稳 定。处于稳定时刻的网络状态叫稳定状态,又称定点吸引子。 s t s t 0),()(ttXttX ss 神经动力学系统具有以下一些共性: (1)、非常大的自由度 仿真系统的神经元数限于 。人脑的神经细 胞个数 (2)、非线性非线性是神经东西学系统的主要特征。任何由现行单元 组成的神经网络都可以退化成一个等效的单层神经网络。 (3)、消耗性消耗性指的是随时间的推移系统状态收敛于某一个流形 域。 (4)、节点方程微分方程或者差分方程,不是简单的非线性方程。 5 10 11 10 动态神经网络的类型: 1、带时滞的多层感知器网络 2、回归神

25、经网络 3、Hopfield网络 1、带时滞的多层感知器网络 多层感知器网络 抽头时滞环节 X(k)X(k-1)X(k-n) X(k) y(k) 图4-18 时滞的多层感知器网络 2、回归神经网络 多层感知器网络 抽头时滞环节 X(k) X(k-1)X(k-n) X(k) y(k) 图4-19 带反馈的时滞的多层感知器网络 抽头时滞环节 y(k-m)y(k-2)y(k-1) 1 z 1、将时间作为一维信号同时加入到神经 网络的输入端实现利用静态网络来逼近 动态时滞的时间序列系统。 )(,),1(),()(2nkxkxkxfky、 )(,),2(),1(),(,),1(),()(mkykykyn

26、kxkxkxfky 3、Hopfield网络 1982年和1984年Hopfield发表了两篇著名的文章: 1、Neural network and physical systems with emergerent collective computation ability ; 2、Neurons with graded response have collective computation properties like those of two state neurons。 第一次将能量函数引入到神经网络中,给出了稳定性的判据; 利用模拟电子线路实现了提出的模型,成功用神经网络实现了4

27、位A/D转换; 用一组耦合的非线性微分方程来表示Hopfield网络; Hopfield网络在任何初始状态下都能够趋于稳定态; Hopfield网络稳定态是由神经元的连接权数决定的; Hopfield网络主要贡献在于成功实现了联想记忆和快速优化计算。 我们主要讨论二值型Hopfield网络 1、二值型Hopfield网络 二值型Hopfield网络又称离散型的Hopfield网络(DHNN)只有一个神经元 层次,每个处理单元有两个状态0、1或者-1、1,即抑制和兴奋,而整个网 络由单一神经元组成。 图3-20 二值型Hopfield网络结构 1 2 3 N N y 3 y 2 y 1 y 11

28、 w 21 w 33 w 13 w N w1 22 w 12 w 23 w NN w )() 1( )()( 1 kNetfky kywkNet ii N j jijii 二值型Hopfield网络节点方程式: K表示时间变量; 表示外部输入; 表示神经元输出表示神经元内部状 态; 表示阀值函数。 i i y i Net 对于n个节点的离散Hopfield网络有个可能的状态。 节点更新包括三种情况: 、 或者状态保持 1001 例4-3 假设一个3节点的离散Hopfield神经网络,已知网络权值与阀值如图所 示,计算状态转移关系。 v10.1 0.0 0.0 v2 v3 -0.5 0.6 0.

29、2 已知网络权值初值,圈内为阀值,线上为连接系数 解:设定初始状态为: ,可以依次选择节点V1、V2、V3,确定其节 点兴奋的条件及状态的转移。假设首选节点V1,激励函数为: 000 321 yyy 01 . 01 . 00)2 . 0(0)5 . 0()0()0( 1 111 N j jjy wNet 可见,节点V1处于兴奋状态并且状态y1由0 1。网络状态由000 001,转 移概率为1/3。 000)6 . 0(0)5 . 0()0()0( 1 222 N j jjy wNet同理可得: 000)6 . 0(0)2 . 0()0()0( 1 333 N j jjy wNet 可见节点V1

30、、V2的状态保持不变。因此,由状态000不会转变到001和010。 同理,可以计算出其他的状态之间的转移关系,见下图所示。 -0.6 110 001 000 100 101 111 011 010 -0.4 -0.3 -0.1 0.0 0.0 0.4 0.0 易知,Hopfield神经网络的 神经元状态要么在同一“高 度”上变化,要么从上向下 转移(能量从达到小的变 化)必然规律。 由图可知,系统状态011是一 个网络的稳定状态;任意初 始状态经过几次的状态更新 后将到达此稳态。 能量函数: n i n ij j iijij TT yywYWYYE 11 )( 2 1 2 1 则Hopfiel

31、d神经网络中的状态变化导致能量函数E的下降,并且能量函数 的极小值点与网络稳定状态由这紧密的关系。 定理4-1 离散Hopfield 神经网络的稳定状态与能量函数E在状态空间的 局部极小状态是一一对应的。 第四节第四节 神经网络神经网络PID控制控制 尽管神经网络控制技术有许多潜在的优势,但单纯使用神 经网络的控制方法的研究仍有待进一步发展。通常将人工 神经网络技术与传统的控制理论或智能技术综合使用。神 经网络在控制中的作用有以下几种: 1在传统的控制系统中用以动态系统建模,充当对象模 型; 2在反馈控制系统中直接充当控制器的作用; 3在传统控制系统中起优化计算作用; 4与其他智能控制方法如模

32、糊逻辑、遗传算法、专家控 制等相融合。 3.4.1 基于BP神经网络控制参数自学习PID控 制 BP神经网络具有逼近任意非线性函数的能力,而且结构 和学习算法简单明确。通过神经网络自身的学习,可以找 到某一最优控制律下的P,I,D参数。基于BP神经网络的 PD控制系统结构如图所示,控制器由两个部分组成: 经典的PID控制器:直接对被控对象进行闭环控制,并且 KP,KI,KD三个参数为在线整定;神经网络NN:根据系统 的运行状态,调节PID控制器的参数,以期达到某种性能 指标的最优化。即使输出层神经元的输出状态对应于PID 控制器的三个可调参数KP,KI,KD,通过神经网络的自学习、 调整权系数

33、,从而使其稳定状态对应于某种最优控制律下 的PID控制器参数。 基于BP神经网络的PID控制算法可归纳如下: 1). 事先选定BP神经网络NN的结构,即选定输入层节点 数M和隐含层节点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0),选定学习速率和平滑因子,k=1; 2). 采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k); 3). 对r(i),y(i),u(i-1),e(i)进行归一化处理,作为NN的输入; 4). 前向计算NN的各层神经元的输入和输出,NN输出层 的输出即为PID控制器的三个可调参数KP(k),KI(k),KD(k); 5). 计算PI

34、D控制器的控制输出u(k),参与控制和计算; 6). 计算修正输出层的权系数w(3)li(k); 7). 计算修正隐含层的权系数w(2)ij(k); 8). 置k=k+1,返回到“2)”。 3.4.2 改进型BP神经网络控制参数自学习PID 控制 将神经网络用于控制器的设计或直接学习 计算控制器的输出(控制量),一般都要 用到系统的预测输出值或其变化量来计算 权系数的修正量。但实际上,系统的预测 输出值是不易直接测得的,通常的做法是 建立被控对象的预测数学模型,用该模型 所计算的预测输出来取代预测处的实测值, 以提高控制效果。 1采用线性预测模型的BP神经网络PID控制器 采用线性预测模型的采

35、用线性预测模型的BP神经网络神经网络PID控制系统算法归纳如下控制系统算法归纳如下: 1). 事先选定BP神经网络NN的结构,即选定输入层节点数 M和隐含层节点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0), 选定学习速率和平滑因子,k=1; 2). 用线性系统辨识法估计出参数矢量(k),从而形成一步 预报模型式; 3). 采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k); 4). 对r(i),y(i),u(i-1),e(i)进行归一化处理,作为NN的输入; 5). 前向计算NN的各层神经元的输入和输出,NN输出层的 输出即为PID控制器的三个可调参数K

36、P(k),KI(k),KD(k); 6). 计算PID控制器的控制输出u(k),参与控制和计算; 7).计算 和 ; 8). 计算修正输出层的权系数w(3)li(k); 9). 计算修正隐含层的权系数w(2)ij(k); 10). 置k=k+1,返回到“2)”。 ) 1( ky )(/ ) 1(kuky 2采用非线性预测模型的BP神经网络PID控制器 基于BP神经网络的PID控制算法可归纳如下: 1). 事先选定BP神经网络NN的结构,即选定输入层节点数M和隐含层节 点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0),选定学习速率和平滑因 子,k=1; 2). 采样得到r(k)

37、和y(k),计算e(k)=z(k)=r(k)-y(k); 3). 对r(i),y(i),u(i-1),e(i)进行归一化处理,作为NN的输入; 4). 前向计算NN的各层神经元的输入和输出,NN输出层的输出即为PID 控制器的三个可调参数KP(k),KI(k),KD(k); 5). 计算PID控制器的控制输出u(k),参与控制和计算; 6).前向计算NNM的各层神经元的输入和输出,NNM的输出为 , 计算修正隐含层和输出层的权系数; 7).计算 ; 8). 计算修正输出层的权系数w(3)li(k); 9). 计算修正隐含层的权系数w(2)ij(k); 10). 置k=k+1,返回到“2)”。

38、) 1( ky )(/ ) 1(kuky 单神经元自适应控制系统结构 学习算法 )2()1(2)()( )1()( )( )()()()1()( )()()()1()( )()()()1()( )(/)( )()()1()( 2 3 2 1 333 222 111 3 1 3 1 kekekekex kekex kex kxkukzkwkw kxkukzkwkw kxkukzkwkw kwkww kxkwKkuku D P I i iii i i i 式中, 系统对象: 仿真示例 )2(632. 0) 1(1 . 0)2(26. 0) 1(368. 0)(kukukykyky 系统输入: )4

39、sgn(sin(5 .0)(tkrin MATLAB程序 %Single Neural Adaptive Controller clear all; close all; x=0,0,0; xiteP=0.40; xiteI=0.35; xiteD=0.40; %Initilizing kp,ki and kd wkp_1=0.10; wki_1=0.10; wkd_1=0.10; %wkp_1=rand; %wki_1=rand; %wkd_1=rand; error_1=0; error_2=0; y_1=0;y_2=0;y_3=0; u_1=0;u_2=0;u_3=0; ts=0.001

40、; for k=1:1:1000 time(k)=k*ts; rin(k)=0.5*sign(sin(2*2*pi*k*ts); yout(k)=0.368*y_1+0.26*y_2+0.1*u_1+0.632*u_2; error(k)=rin(k)-yout(k); %Adjusting Weight Value by hebb learning algorithm M=4; if M=1 %No Supervised Heb learning algorithm wkp(k)=wkp_1+xiteP*u_1*x(1); %P wki(k)=wki_1+xiteI*u_1*x(2); %I

41、 wkd(k)=wkd_1+xiteD*u_1*x(3); %D K=0.06; elseif M=2 %Supervised Delta learning algorithm wkp(k)=wkp_1+xiteP*error(k)*u_1; %P wki(k)=wki_1+xiteI*error(k)*u_1; %I wkd(k)=wkd_1+xiteD*error(k)*u_1; %D K=0.12; elseif M=3 %Supervised Heb learning algorithm wkp(k)=wkp_1+xiteP*error(k)*u_1*x(1); %P wki(k)=w

42、ki_1+xiteI*error(k)*u_1*x(2); %I wkd(k)=wkd_1+xiteD*error(k)*u_1*x(3); %D K=0.12; elseif M=4 %Improved Heb learning algorithm wkp(k)=wkp_1+xiteP*error(k)*u_1*(2*error(k)-error_1); wki(k)=wki_1+xiteI*error(k)*u_1*(2*error(k)-error_1); wkd(k)=wkd_1+xiteD*error(k)*u_1*(2*error(k)-error_1); K=0.12; end

43、x(1)=error(k)-error_1; %P x(2)=error(k); %I x(3)=error(k)-2*error_1+error_2; %D wadd(k)=abs(wkp(k)+abs(wki(k)+abs(wkd(k); w11(k)=wkp(k)/wadd(k); w22(k)=wki(k)/wadd(k); w33(k)=wkd(k)/wadd(k); w=w11(k),w22(k),w33(k); u(k)=u_1+K*w*x; %Control law if u(k)10 u(k)=10; end if u(k)-10 u(k)=-10; end error_2=

44、error_1; error_1=error(k); u_3=u_2;u_2=u_1;u_1=u(k); y_3=y_2;y_2=y_1;y_1=yout(k); wkp_1=wkp(k); wkd_1=wkd(k); wki_1=wki(k); end figure(1); plot(time,rin,b,time,yout,r); xlabel(time(s);ylabel(rin,yout); figure(2); plot(time,error,r); xlabel(time(s);ylabel(error); figure(3); plot(time,u,r); xlabel(tim

45、e(s);ylabel(u); kkkkkkkk kkkkk uuyyguuyyf uuyyfy ,.),.,(,.),.,( ,.),.,( 11111 111 gfyu kk /)( 11 假设系统第k + 1 个采样时刻的期望输出值为d k+ 1, 则 gfdu kk /)( 11 变学习因子自适应神经网络控制系统 考虑到实际系统的制约, 对控制量u 加了限幅处理, N 1 为一BP 网络, g 为比例环节。如果f 对u 为非线性的, 则g 亦为BP 网络。 学习算法学习算法 为了对网络权值进行在线学习, 取输出偏差 并定义学习误差 _ 111 kkk yye _ 2 111 )( kk

46、k yyE 式中 为网络输出的对象输出预测值, yk+ 1 为对象实际输出值。则 _ 1k y ij k ij k k ij k w f e w E e w E 1 1 1 1 1 kk k ue g E 1 1 于是由梯度法得到权值调整规则为 ij k k ij k ij w f eww 1 1 1 kk kk uegg 1 1 如果P 含有纯滞后为T d = L T 的滞后环节时, kkkkkLk guuuyyfy ,.),.,( 1111 gfyu kLk /)( 11 相应的权值调整规则为 ij k k ij k ij w f eww 1 1 1 Lkk kk uegg 1 1 在实际应用中, 可以先估计一个滞后时间。运行时, 如果在第L + 1 个采样时刻检测到第一个非零的零 状态响应, 则可认为纯滞

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论