神经网络控制ppt课件_第1页
神经网络控制ppt课件_第2页
神经网络控制ppt课件_第3页
神经网络控制ppt课件_第4页
神经网络控制ppt课件_第5页
已阅读5页,还剩62页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、神经网络控制神经网络控制人工神经元网络模型与控制 引言 前向神经网络模型 动态神经网络模型 神经网络PID控制 小结第一节 引言 模糊控制处理了人类言语的描画和推理问题,为模拟人脑的感知推理等智能行为迈了一大步。但是在数据处置、自学习才干方面还有很大的差距。 人工神经网络就是模拟人脑细胞的分布式任务特点和自组织功能实现并行处置、自学习和非线性映射等才干。1943年,心思学家McCmloch和数学家Pitts协作提出里神经元数学模型MP;1944年,Hebb提出的改动神经元衔接强度的Hebb规那么;1957年,Rosenblatt引进感知概念;1976年,Grossberg基于生理和心思学的阅历

2、,提出了自顺应共振实际;1982年,美国加州工学院物理学家Hopfield提出了HNN模型;1986年,Rummelhart等PDF研讨小组提出了多层前向传播网络的BP学习算法。研讨神经元网络系统主要有三个方面的内容:神经元模型、神经网络构造、神经网络学习方法。从神经元模型来分有:线性处置单元、非线性处置单元;从网络构造来分有:前向网络、反响网络和自组织网络。神经元网络的特点:1非线性2分布处置3学习并行和自顺应4数据交融5适用于多变量系统6便于硬件实现人工神经网络前向网络反响网络自组织网络CMACMLPHopfieldRNNKohonenARTBoltzman Machine图4-1 神经网

3、络构造分类表示图 人脑大约包含1012个神经元,分成约1000种类型,每个神经元大约与102104个其他神经元相衔接,构成极为错综复杂而又灵敏多变的神经网络。每个神经元虽然都非常简单,但是如此大量的神经元之间、如此复杂的衔接却可以演化出丰富多彩的行为方式。同时,如此大量的神经元与外部感受器之间的多种多样的衔接方式也蕴含了变化莫测的反响方式。 从生物控制论的观念来看,神经元作为控制和信息处置的根本单元,具有以下一些重要的功能与特性: 时空整合功能 兴奋与抑制形状 脉冲与电位转换 神经纤维传导速度 突触延时和不应期 学习、遗忘和疲劳 图4-2 神经元构造模型X1X2XnWi1Wi2WinUiyiS

4、i神经元是生物神经系统的根本单元。神经元模型是生物神经元的笼统和模拟。神经元普通是多输入-三输出的非线性器件。图中 为神经元内部形状; 为阀值; 为输入信号,j=1,2,3,.n; 表示从单元 到单元 的衔接系数, 为外部输入信号。iuiixijwjuiuis)34()()()24()() 14(iiiiiiijjijiNethugyNetfusxwNet图4-2 神经元构造模型X1X2XnWi1Wi2WinUiyiSi假设, 即 ,常用的神经元非线性特性有四种:iiuug)()(iiNetfy 1、阀值型iNet2、分段线性型iliiliiiiiiNetNetfNetNetNetkNetNe

5、tNetNetfmax000)(iNetilNet0iNet3、Sigmoid函数型TNetiieNetf11)(iNet0001)(iiiNetNetNetf4、Tan函数型TNetTNetTNetTNetiiiiieeeeNetf)(二、神经网络的模型分类1、神经元层次模型 研讨由单个神经元的动态特性和自顺应特性;2、组合式模型由几种相互补充、相互协作的神经元组成,完成特定的义务; 3、网络层次模型由众多一样的神经元相互衔接而成的网络,研讨神经网络的整体性能;4、神经系统层次模型普通有多个神经网络构成,以模拟生物神经系统更复杂、更笼统的特性。典型的神经网络有:BP网、Hopfield网络、

6、CMAC小脑模型、ART自顺应共振实际、BAM双向联想记忆、SOM自组织网络、Blotzman机网络和Madaline网络等等根据结合方式分:1、前向网络神经元分层陈列,组成输入层、隐含层和输出层。每层只可以接受前一层神经元的输入。2、反响网络在输入层到输出层存在反响。3、相互结合型网络相互结合网络属于网络构造。恣意两个神经元之间能够有衔接。4、混合型网络层次形型网络和网状构造网络的一种结合。输入输出输入输出(a)(b)(c)(d)三、神经网络的学习算法学习的本质就是针对一组给定输入Xp使网络产生相应的期望的输出的过程。网络学习分两大类:1、有导师学习存在一个期望的网络输出。期望输出和实践输出

7、之间的间隔作为误差度量并用于调整权值。2、无导师学习没有直接的误差信息,需求建立一个间接的评价函数,以对网络的某种行为进展评价。学习规那么根据衔接权系数的改动方式分:1、相关学习根据衔接之间的激活程度改动权系数。2、纠错学习依赖关于输出节点的外部反响改动权系数。3、无导师学习学习表现为自动实现输入空间的检测和分类。第二节 前向神经网络模型 前向神经网络是由一层或者多层非线性处置单元组成的。相邻层之间经过突触权衔接起来。由于前一层的输出作为下一层的输入,因此,称此类网络构造为前向神经网络。一、单一人工神经元)(x1X1X2Xn01w2wnwy图4-11 单一人工神经元表示图)()(1010njj

8、jnjjjxwNetyxwNet1xnx1x2xnx1x2xnx11w12wnw11nw2nwnnwy图4-12 只含二次项的神经元构造表示图)()(11101110njnkkjjknjjjnjnkkjjknjjjxxwxwNetyxxwxwNet二、单层神经网络构造1x2xnx1y2yny图2-13 单层前向传播网络构造表示图jnjijijixwy1)(三、多层神经网络构造kx1kx2knixky1ky2kny01ijw2ijw(a)kx1kx2knix1ijwLijwky1ky2kny0(b)图4-14 多层前向传播网络构造表示图(a)含一个隐含层前向传播网络构造表示图(b)含L+1个隐含

9、层前向传播网络构造表示图00211, 3 , 2 , 1, 3 , 2 , 1njxwynjxwhjnjilijjhnijljlj)(1211211LLLLLLLLXWWWF四、多层传播网络学习算法前向传播网络本质上表示的是一种从输入空间输出空间的映射。)(XTY 网络的训练本质上是对突触权阵的调整,以满足当输入为Xp时其输出应为Tp.对于一组给定的权系数,网络对当前输入Xp的呼应为:突触权系数的调整是经过对样本p=1,2,3,.,N的误差目的到达极小的方法来实现的。)(ppXTY ),(pppYTdE 对于N个样本集,性能目的为:NpnipipiNppytEE1110)(对于具有n0个输出的

10、单元网络,每一个期望输出矢量Tp和实践的输出矢量Yp之间的误差函数可以用平方差和来表示,即012)(21njpipipytE 普通说,前向神经网络是经过期望输出与实践输出之间的误差平方的极小来进展权阵的学习和训练。通常一个周期一个周期进展训练,一个周期对一切的样本集,完成后下一个周期对此样本集进展反复训练,直到性能目的E满足要求为止。对于多层前向传播网络kx1kx2knix1ijwLijwky1ky2kny0(b)图4-14 多层前向传播网络构造表示图(b)含L+1个隐含层前向传播网络构造表示图设输入方式Xp,那么相应的隐含单元的输出为)(1111)1(jniipijipjxwo根据L层网络构

11、造可知,网络输出为:0)1(1, 2 , 1)()(1njowNetyLjLpiniLjlLLpjLpjL第r+1个隐含层的输入是第r个隐含层的输出,所以:1, 2 , 1 , 0)(11)(11)1(Lrowornlrjrplrjirrpj多层前向传播网络的权系数训练算法是利用著名的误差反向传播学系算法得到的BP算法012)(21njpipipytE由于:rjiprjiwEwrjirpjrpjprjipwNetNetEwEkrpirpkrjkrjirjirpjoowwwNet)1()1(rpjprpjNetE其中定义为广义误差那么)1( rpirpjrpjpoNetE)1( rpirpjrp

12、jpoNetE要使E安梯度下降,就必需按下式进展权值的调整)1( rpirpjrjiow式中:上标变量表示第r个隐含层,r=1,2,L; 为第r-1层第i个单元到第r层的第j单元的衔接系数; 为学习步长。rjiw由于假设r=L为输出单元层,那么:)()(LpjLpjpjLpjpjpjprpjpLpjNetytNetyyENetE)()()()(1111rpjrkrkjrpkkrpjrrpjrpkrpkprpjrpjrpjprpjNetwNetoNetNetENetooE假设 为输出单元层,那么:Lr BP学习算法步骤:给定P组样本X1,T1;X2,T2;,Xp,Tp)。其中Xi为ni维输入矢量

13、,T维n0维期望的输出矢量I=1,2,.,p。假设矢量y和0分别表示网络的输出层和隐含层的输出矢量。那么训练过程为:1、选 , 作为最大允许误差,并将权系数 ,初始化成某小的随机权矩阵。0maxELlWll,、21, 0, 1Ep2、训练开场,pppTTXo,)0(计算出各隐含层神经元的鼓励输出;计算各输出层神经的鼓励输出:按按1, 2 , 1 , 0)(11)(11)1(Lrowornlrjrplrjirrpj0)1(1, 2 , 1)()(1njowNetyLjLpiniLjlLLpjLpjL3、计算误差02, 2 , 1,2/)(nEytEkk4、按下式计算广义误差Lpj按下式计算广义误

14、差rpj)()(LpjLpjpjLpjpjpjprpjpLpjNetytNetyyENetE)()()()(1111rpjrkrkjrpkkrpjrrpjrpkrpkprpjrpjrpjprpjNetwNetoNetNetENetooE5、调整权阵系数rpjrjrpirpjrjiow )1(6、。,否则转转若0072, 1,ppPp7、0max2, 1, 0,转结束,否则若pEEE实践上,对训练过程有较大影响的有:权系数的初值、学习方式、鼓励函数、学习速率等1、权系数的初值 权系数通常初始化成小的初始值,尽能够覆盖整个权阵的空间域,防止出现初始阵系数一样的情况。2、学习方式 学习方式不同,训练

15、的效果也不同3、鼓励函数 鼓励函数的选择对训练有较大的影响。4、学习速率 普通来说,学习速率越快,收敛越快,但容易产生震荡;学习速率越小,收敛越慢。BP学习算法本质上是属于一次收敛的学习算法。所以BP算法不可防止存在部分极小问题,且学习速度很慢,在极点附近出现震荡景象,而且不可以平滑趋于最优解。为了减小这种景象,普通采用平滑的权值更新公式,即:) 1(0)(1kwkwrjirpirpjrji例3-1 如图3-15所示的多层前向传播神经网络构造。假设对于期望的输入 。网络权系数的初始值见图,试用BP算法训练此网络。这里神经元鼓励函数为 ,学习步长为TTTTttxx05. 095. 0 ,31 2

16、121xexf11)(1图3-15 神经网络构造图x1x211203-2-1o1o2110-21-23y1y2解:1、输入最大允许逼近误差值 和最大迭代学习次数 设初始迭代学习次数 2、计算当前输入形状下、当前网络的衔接权系数下的神经网络输出。maxiteafe0iteafe110223)2(1211202122112112211102112111111xxwxwxwnetxxwxwxwnet731. 011111192. 0111112211211eeoeeonetnet6572. 13)2(18808. 1201212202222122122212102212121121oowowowne

17、toowowownet8399. 0111323. 011222121netneteyey3、判别神经网络逼近误差要求或者迭代学习到最大允许值否?maxiterateiterateoryt假设上述不等式中有一个满足,那么退出学习.否那么进入4)。4、计算广义误差。 0938. 0)1 ()()()(1111211121yyytnetfyt1062. 0)1 ()()()(2222222222yyytnetfyt2811. 0)1 ()()1 (1122122211211121211oowwoowkkk04176. 0)1 ()()1 (2222222212212222212oowwoowkkk

18、5衔接权系数更新2811. 0111111xw8433. 0211112xw2811. 011110w04176. 0112121xw1253. 0212122xw04176. 012120w0112. 0121211ow0686. 0221212ow0938. 021210w01266. 0122221ow0776. 0222222ow1062. 022220w. 2 , 1; 2 , 1 , 0; 2 , 1)() 1(jilwiteratewiteratewljiljiljiiterate=iterate+1;继续迭代计算直至满足终止条件为止。例3-2 利用多层前向传播神经网络来逼近非线

19、性函数)cos1 (5 . 0 xy解:xxyy从图中可以看到,添加隐含层的数目并不一定意味着可以改善逼近精度第三节 动态神经网络模型前向传播网络的特点:1、构造简单、易于编程;2、是一种静态非线性映射,不注重非线性动态性能的研讨,缺乏丰富的动力学行为;反响型神经网络:具有丰富的非线性动力学特性,如稳定性、极限环、奇特吸引子混沌景象反响动力学神经网络系统具有以下特性:1、系统有假设干稳定形状,假设从某一初始形状开场运动,系统总可以进入某一稳定形状。将神经网络稳定形状当作记忆,实践上神经网络由任一初始形状向稳态的演化过程,本质上寻觅记忆的过程。稳定是神经网络的一个重要特性,能量函数是判别网络稳定

20、性的根本概念。2、系统的稳定形状可以经过改动相连单元的权值而产生。网络稳定性?定义4-1 神经网络从任一初始形状 X(0)开场运动,假设存在某一有限的时辰 ,从 以后神经网络的形状不再发生变化,即 ,那么称网络稳定。处于稳定时辰的网络形状叫稳定形状,又称定点吸引子。stst0),()(ttXttXss神经动力学系统具有以下一些共性:1、非常大的自在度 仿真系统的神经元数限于 。人脑的神经细胞个数2、非线性非线性是神经东西学系统的主要特征。任何由现行单元组成的神经网络都可以退化成一个等效的单层神经网络。3、耗费性耗费性指的是随时间的推移系统形状收敛于某一个流形域。4、节点方程微分方程或者差分方程

21、,不是简单的非线性方程。5101110动态神经网络的类型:1、带时滞的多层感知器网络2、回归神经网络3、Hopfield网络1、带时滞的多层感知器网络多层感知器网络抽头时滞环节X(k)X(k-1)X(k-n)X(k)y(k)图4-18 时滞的多层感知器网络2、回归神经网络多层感知器网络抽头时滞环节X(k) X(k-1)X(k-n)X(k)y(k)图4-19 带反响的时滞的多层感知器网络抽头时滞环节y(k-m)y(k-2)y(k-1)1z1、将时间作为一维信号同时参与到神经网络的输入端实现利用静态网络来逼近动态时滞的时间序列系统。)(,),1(),()(2nkxkxkxfky、)(,),2(),

22、1(),(,),1(),()(mkykykynkxkxkxfky3、Hopfield网络1982年和1984年Hopfield发表了两篇著名的文章:1、Neural network and physical systems with emergerent collective computation ability ;2、Neurons with graded response have collective computation properties like those of two state neurons。 第一次将能量函数引入到神经网络中,给出了稳定性的判据;利用模拟电子线路实现

23、了提出的模型,胜利用神经网络实现了4位A/D转换;用一组耦合的非线性微分方程来表示Hopfield网络;Hopfield网络在任何初始形状下都可以趋于稳定态;Hopfield网络稳定态是由神经元的衔接权数决议的;Hopfield网络主要奉献在于胜利实现了联想记忆和快速优化计算。我们主要讨论二值型Hopfield网络1、二值型Hopfield网络二值型Hopfield网络又称离散型的Hopfield网络(DHNN)只需一个神经元层次,每个处置单元有两个形状0、1或者-1、1,即抑制和兴奋,而整个网络由单一神经元组成。图3-20 二值型Hopfield网络构造123NNy3y2y1y11w21w3

24、3w13wNw122w12w23wNNw)() 1()()(1kNetfkykywkNetiiNjjijii二值型Hopfield网络节点方程式:K表示时间变量; 表示外部输入; 表示神经元输出表示神经元内部形状; 表示阀值函数。iiyiNet对于n个节点的离散Hopfield网络有个能够的形状。节点更新包括三种情况: 、 或者形状坚持 1001例4-3 假设一个3节点的离散Hopfield神经网络,知网络权值与阀值如下图,计算形状转移关系。 v10.10.00.0v2v3-知网络权值初值,圈内为阀值,线上为衔接系数解:设定初始形状为: ,可以依次选择节点V1、V2、V3,确

25、定其节点兴奋的条件及形状的转移。假设首选节点V1,鼓励函数为:000321yyy01 . 01 . 00)2 . 0(0)5 . 0()0()0(1111NjjjywNet可见,节点V1处于兴奋形状并且形状y1由0 1。网络形状由000 001,转移概率为1/3。000)6 . 0(0)5 . 0()0()0(1222NjjjywNet同理可得:000)6 . 0(0)2 . 0()0()0(1333NjjjywNet可见节点V1、V2的形状坚持不变。因此,由形状000不会转变到001和010。同理,可以计算出其他的形状之间的转移关系,见以下图所示。-0.6110001000100101111

26、011010-0.4-0.3-0.10.00.00.40.0易知,Hopfield神经网络的神经元形状要么在同一“高度上变化,要么从上向下转移能量从到达小的变化必然规律。由图可知,系统形状011是一个网络的稳定形状;恣意初始形状经过几次的形状更新后将到达此稳态。能量函数:ninijjiijijTTyywYWYYE11)(2121那么Hopfield神经网络中的形状变化导致能量函数E的下降,并且能量函数的极小值点与网络稳定形状由这严密的关系。定理4-1 离散Hopfield 神经网络的稳定形状与能量函数E在形状空间的部分极小形状是一一对应的。 第四节第四节 神经网络神经网络PID控制控制 虽然神

27、经网络控制技术有许多潜在的优势,但单纯运用神经网络的控制方法的研讨仍有待进一步开展。通常将人工神经网络技术与传统的控制实际或智能技术综合运用。神经网络在控制中的作用有以下几种: 1在传统的控制系统中用以动态系统建模,充任对象模型; 2在反响控制系统中直接充任控制器的作用; 3在传统控制系统中起优化计算作用; 4与其他智能控制方法如模糊逻辑、遗传算法、专家控制等相交融。 3.4.1 基于BP神经网络控制参数自学习PID控制 BP神经网络具有逼近恣意非线性函数的才干,而且构造和学习算法简单明确。经过神经网络本身的学习,可以找到某一最优控制律下的P,I,D参数。基于BP神经网络的PD控制系统构造如下

28、图,控制器由两个部分组成:经典的PID控制器:直接对被控对象进展闭环控制,并且KP,KI,KD三个参数为在线整定;神经网络NN:根据系统的运转形状,调理PID控制器的参数,以期到达某种性能目的的最优化。即使输出层神经元的输出形状对应于PID控制器的三个可调参数KP,KI,KD,经过神经网络的自学习、调整权系数,从而使其稳定形状对应于某种最优控制律下的PID控制器参数。 基于BP神经网络的PID控制算法可归纳如下: 1). 事先选定BP神经网络NN的构造,即选定输入层节点数M和隐含层节点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0),选定学习速率和平滑因子,k=1; 2). 采

29、样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k); 3). 对r(i),y(i),u(i-1),e(i)进展归一化处置,作为NN的输入; 4). 前向计算NN的各层神经元的输入和输出,NN输出层的输出即为PID控制器的三个可调参数KP(k),KI(k),KD(k); 5). 计算PID控制器的控制输出u(k),参与控制和计算; 6). 计算修正输出层的权系数w(3)li(k); 7). 计算修正隐含层的权系数w(2)ij(k); 8). 置k=k+1,前往到“2。 3.4.2 改良型BP神经网络控制参数自学习PID控制 将神经网络用于控制器的设计或直接学习计算控制器的输出控

30、制量,普通都要用到系统的预测输出值或其变化量来计算权系数的修正量。但实践上,系统的预测输出值是不易直接测得的,通常的做法是建立被控对象的预测数学模型,用该模型所计算的预测输出来取代预测处的实测值,以提高控制效果。1采用线性预测模型的BP神经网络PID控制器 采用线性预测模型的采用线性预测模型的BP神经网络神经网络PID控制系统算法归纳如下:控制系统算法归纳如下: 1). 事先选定事先选定BP神经网络神经网络NN的构造,即选定输入层节点数的构造,即选定输入层节点数M和隐含层节点数和隐含层节点数Q,并给出权系数的初值,并给出权系数的初值w(2)ij(0), w(3)li(0),选定学习速率,选定学

31、习速率和平滑因子和平滑因子,k=1; 2). 用线性系统辨识法估计出参数矢量用线性系统辨识法估计出参数矢量(k),从而构成一步,从而构成一步预告模型式;预告模型式; 3). 采样得到采样得到r(k)和和y(k),计算,计算e(k)=z(k)=r(k)-y(k); 4). 对对r(i),y(i),u(i-1),e(i)进展归一化处置,作为进展归一化处置,作为NN的输入;的输入; 5). 前向计算前向计算NN的各层神经元的输入和输出,的各层神经元的输入和输出,NN输出层的输出层的输出即为输出即为PID控制器的三个可调参数控制器的三个可调参数KP(k),KI(k),KD(k); 6). 计算计算PI

32、D控制器的控制输出控制器的控制输出u(k),参与控制和计算;,参与控制和计算; 7).计算计算 和和 ; 8). 计算修正输出层的权系数计算修正输出层的权系数w(3)li(k); 9). 计算修正隐含层的权系数计算修正隐含层的权系数w(2)ij(k); 10). 置置k=k+1,前往到,前往到“2。 ) 1( ky)(/ ) 1(kuky2采用非线性预测模型的BP神经网络PID控制器基于BP神经网络的PID控制算法可归纳如下: 1). 事先选定BP神经网络NN的构造,即选定输入层节点数M和隐含层节点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0),选定学习速率和平滑因子,k=1

33、; 2). 采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k); 3). 对r(i),y(i),u(i-1),e(i)进展归一化处置,作为NN的输入; 4). 前向计算NN的各层神经元的输入和输出,NN输出层的输出即为PID控制器的三个可调参数KP(k),KI(k),KD(k); 5). 计算PID控制器的控制输出u(k),参与控制和计算; 6).前向计算NNM的各层神经元的输入和输出,NNM的输出为 ,计算修正隐含层和输出层的权系数; 7).计算 ; 8). 计算修正输出层的权系数w(3)li(k); 9). 计算修正隐含层的权系数w(2)ij(k); 10). 置k=k

34、+1,前往到“2。) 1( ky)(/ ) 1(kuky单神经元自顺应控制系统构造学习算法)2()1(2)()()1()()()()()()1()()()()()1()()()()()1()()(/)()()()1()(23213332221113131kekekekexkekexkexkxkukzkwkwkxkukzkwkwkxkukzkwkwkwkwwkxkwKkukuDPIiiiiiii式中,系统对象:仿真例如)2(632. 0) 1(1 . 0)2(26. 0) 1(368. 0)(kukukykyky系统输入:)4sgn(sin(5 .0)(tkrinMATLAB程序%Single

35、Neural Adaptive Controllerclear all;close all;x=0,0,0;xiteP=0.40;xiteI=0.35;xiteD=0.40;%Initilizing kp,ki and kdwkp_1=0.10; wki_1=0.10; wkd_1=0.10; %wkp_1=rand; %wki_1=rand; %wkd_1=rand;error_1=0; error_2=0; y_1=0;y_2=0;y_3=0;u_1=0;u_2=0;u_3=0;ts=0.001;for k=1:1:1000 time(k)=k*ts; rin(k)=0.5*sign(si

36、n(2*2*pi*k*ts); yout(k)=0.368*y_1+0.26*y_2+0.1*u_1+0.632*u_2; error(k)=rin(k)-yout(k);%Adjusting Weight Value by hebb learning algorithmM=4;if M=1 %No Supervised Heb learning algorithm wkp(k)=wkp_1+xiteP*u_1*x(1); %P wki(k)=wki_1+xiteI*u_1*x(2); %I wkd(k)=wkd_1+xiteD*u_1*x(3); %D K=0.06; elseif M=2

37、%Supervised Delta learning algorithm wkp(k)=wkp_1+xiteP*error(k)*u_1; %P wki(k)=wki_1+xiteI*error(k)*u_1; %I wkd(k)=wkd_1+xiteD*error(k)*u_1; %DK=0.12; elseif M=3 %Supervised Heb learning algorithm wkp(k)=wkp_1+xiteP*error(k)*u_1*x(1); %P wki(k)=wki_1+xiteI*error(k)*u_1*x(2); %I wkd(k)=wkd_1+xiteD*e

38、rror(k)*u_1*x(3); %D K=0.12; elseif M=4 %Improved Heb learning algorithm wkp(k)=wkp_1+xiteP*error(k)*u_1*(2*error(k)-error_1); wki(k)=wki_1+xiteI*error(k)*u_1*(2*error(k)-error_1); wkd(k)=wkd_1+xiteD*error(k)*u_1*(2*error(k)-error_1); K=0.12; endx(1)=error(k)-error_1; %P x(2)=error(k); %I x(3)=error

39、(k)-2*error_1+error_2; %D wadd(k)=abs(wkp(k)+abs(wki(k)+abs(wkd(k); w11(k)=wkp(k)/wadd(k); w22(k)=wki(k)/wadd(k); w33(k)=wkd(k)/wadd(k); w=w11(k),w22(k),w33(k);u(k)=u_1+K*w*x; %Control lawif u(k)10 u(k)=10; endif u(k)-10 u(k)=-10;enderror_2=error_1;error_1=error(k); u_3=u_2;u_2=u_1;u_1=u(k);y_3=y_2;y_2=y_1;y_1=yout(k); wkp_1=wkp(k);wkd_1=

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论