06 第六章 神经网络控制技术2014_第1页
06 第六章 神经网络控制技术2014_第2页
06 第六章 神经网络控制技术2014_第3页
06 第六章 神经网络控制技术2014_第4页
06 第六章 神经网络控制技术2014_第5页
已阅读5页,还剩57页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、第六章,神经网络控制技术,6.1,神经网络基础,6.2,神经网络的结构和学习规则,6.3,典型前向网络,BP,网络,6.4,典型反馈网络,Hopfield,网络,6.5,应用神经网络产生模糊集的隶属函数,6.6,神经网络控制原理,6.7,神经网络在控制工程中的应用,6.8,单神经元控制的直流调速系统,2018/12/31,1,张秦艳,神经网络是由众多简单的神经元连接而成,的一个网络。是高度非线性动力学系统,可表达很多复杂的物理系统,神经网络的下列特性对控制是至关重要的,1,并行分布处理,2,非线性映射,3,通过训练进行学习,4,适应与集成,5,硬件实现,2018/12/31,2,张秦艳,6.1

2、,神经网络基础,生物神经元结构:由细胞体、树突和轴突组成,2018/12/31,3,张秦艳,轴突通过轴突末梢向其它神经元传出神经冲动,树突相当于细胞的输入端,它用于接受周围其它神经细,胞传入的神经冲动,神经冲动只能由前一级神经元的轴突末梢传向下一级神,经元的树突或细胞体,不能作反方向的传递,神经元具有两种常规工作状态:兴奋与抑制,即满足,0,1,律,当传入的神经冲动使细胞膜电位升高超过阈值时,细胞,进入兴奋状态,产生神经冲动并由轴突输出;当传入的神,经冲动使膜电位下降低于阈值时,细胞进入抑制状态,没,有神经冲动输出,2018/12/31,4,张秦艳,2018/12/31,5,张秦艳,矩阵形式,

3、W,t,BU,t,AY,t,V,式,中,N,N,ij,a,A,M,M,ik,b,B,T,N,v,v,V,1,T,N,y,y,Y,1,T,M,u,u,U,1,T,N,w,w,W,1,2018/12/31,6,张秦艳,1,加权加法器,加权加法器用来实现一个神经细胞对接收来自四面八,方信号的空间总和功能,即,i,M,k,k,ik,N,j,j,ij,i,w,t,u,b,t,y,a,t,v,1,1,式中,t,v,i,为空间总和后输出信号,i,w,为一常数,其作,用是在某些情况下控制神经元保持某一状态,在时域中,相应的线性动态系统的输入,t,v,i,和输出,t,x,i,的,关系分别为,T,t,v,t,x,

4、t,v,t,x,t,x,T,t,v,t,x,t,v,t,x,i,i,i,i,i,i,i,i,i,2018/12/31,7,张秦艳,2,线性动态系统的传递函数描述,神经元的输入信号来自其它神经元的各种神经冲动,这,种信号具有典型的脉冲特点,t,i,i,t,d,t,v,t,t,h,t,x,s,V,s,H,s,X,i,i,式中,s,H,通常取为,1,s,1,Ts,1,1,Ts,e,3,常用的非线性函数,经过加权加法器和线性动态系统进行时空整合的信,号,再经非线性函数后即为神经元的输出,即,非线性函数具有两个显著的特征,一是它的突变性,二是它的饱和性,i,i,x,g,y,i,x,2018/12/31,

5、8,张秦艳,6.2,神经网络的结构和学习规则,2018/12/31,9,张秦艳,神经网络结构分为两大类:层状结构和网状结构,层状结构的神经网络是由若干层组成,每层中有,一定数量的神经元,相邻层中神经元单向联接,一般,同层内的神经元不能联接,网状结构的神经网络中,任何两个神经元之间都,可能双向联接,下面介绍四种常见的网络结构,1,前向网络,前馈网络,2,反馈网络,3,相互结合型网络,4,混合型网络,前向网络,前馈网络,反馈网络,1,前向网络,前馈网络,前向网络通常包含许多层,含有输入层、隐层和输出层的三层网络,2,反馈网络,反馈网络从输出层到输入层有反馈,既可接收来自其它节点的反馈输,入,又可包

6、含输出引回到本身输入构成的自环反馈,2018/12/31,10,张秦艳,3,相互结合型网络,属于网状结构,构成网络中的各个神经元都可能相互双向,联接。若某一时刻从神经网络外部施加一个输入,各个神经元,一边相互作用,一边进行信息处理,直到使网络所有神经元的,活性度或输出值,收敛于某个平均值作为信息处理的结束,4,混,合,型网络,混合型网络联接方式介于前向网络和相互结合型网络之间,在同一层内有互联,目的是为了限制同层内神经元同时兴奋,或抑制的神经元数目,以完成特定的功能,2018/12/31,11,张秦艳,神经网络的学习,1,联想式学习,Hebb,规则,2,误差传播式学习,Delta,学习规则,3

7、,竞争式学习,2018/12/31,12,张秦艳,从神经元,j,u,到神经元,i,u,的连接强度,即权重变化,j,i,ij,y,a,w,其中,是学习率常数,0,t,a,f,t,y,j,j,j,神经元,i,u,的活性度,t,a,i,神经元,j,u,的活性度,t,a,j,2018/12/31,13,张秦艳,1,联想式学习,Hebb,规则,Hebb,学习规则可以描述为:如果神经网络中某一神经,元与另一直接与其相连的神经元同时处于兴奋状态,那么这,两个神经元间的连接强度应该加强,规则只适用于线性可分函数,不适用于多层网络,非线性可分函数,2018/12/31,14,张秦艳,t,y,t,y,y,d,t,

8、y,t,a,d,w,j,j,i,i,j,i,i,ij,其中,i,i,y,d,为期望输出与实际输出的差值,又称,误差修正规则,2,误差传播式学习,Delta,学习规则,2018/12/31,15,张秦艳,权值更新规则表示为,ij,j,ij,w,m,x,w,式中,学习因子,0,1,m,输入层状态为,1,的单元个数,注意,各单元初始权值的选取,是选其和为,1,的一组随机数,j,j,ij,j,x,w,s,竞争层中具有最高输入总和的单元被定为胜者,其输出,状态为,1,其它各单元输出状态为,0,3,竞争式学习,竞争式学习是属于无教师学习方式,基本竞争学习网络由两层组成。第一层为输入层,第二层,为竞争层,6

9、.3,典型前向网络,BP,网络,权值修正采用,学习规则,因此感知机的学习,算法为,j,n,i,i,ji,j,x,t,w,f,t,y,1,式中,t,y,j,t,时刻输出,i,x,输,入,向,量,的,一,个,分,量,t,w,ji,t,时刻第,i,个输入,的加权,j,阈值,f,阶跃函数,2018/12/31,16,张秦艳,1,感知机,基本感知机是一个两层网络,分为输入层和输出层,感知机的学习是典型的有教师学习,训练,训练要素有两个:训练样本和训练规则,输入状态,1,i,x,或,0,2018/12/31,17,张秦艳,i,j,j,ji,ji,x,t,y,d,t,w,t,w,1,式中,学习因子,在,0,

10、1,区间取值,j,d,期望输出,教师信号,1,0,1,0,0,1,1,t,y,d,t,y,d,t,y,d,t,y,d,j,j,j,j,j,j,j,j,j,BP,网络的基本处理单元,输入层单元除外,为非线,性输入输出关系,一般选用,S,型作用,函数,即,x,e,x,f,1,1,2018/12/31,18,张秦艳,2. BP,网络,1,BP,网络模型,通常所说的,BP,模型,即误差后向传播神经网络,分为,输入层、隐层和输出层,权值的修正量为,0,ij,ij,w,J,w,式中,学习步长,2018/12/31,19,张秦艳,BP,学习算法是通过反向学习过程使误差最小,因此选,择目标函数为,n,j,j,

11、j,y,d,J,1,2,2,1,即选择神经网络权值使期望输出,j,d,与实际输出,j,y,之差的,平方和最小,2,学习算法,设第,k,层第,i,个神经元输入的总和为,k,i,u,输出为,k,i,y,则各,变量之间的关系为,k,i,k,i,u,f,y,j,k,j,ij,k,i,y,w,u,1,m,k,2,1,2018/12/31,20,张秦艳,k,i,k,i,k,i,k,i,y,J,y,y,d,1,取,f,为,S,型函数,即,k,i,u,k,i,k,i,e,u,f,y,1,1,1,1,2,k,i,k,i,u,u,k,i,k,i,k,i,k,i,y,y,e,e,du,u,df,u,y,k,i,k,

12、i,1,k,j,k,i,ij,y,d,w,k,i,k,i,k,i,k,i,k,i,u,y,y,J,u,J,d,下面推导,BP,学习算法。先求,ij,J,w,即有,1,1,k,j,k,i,j,k,j,ij,ij,k,i,ij,k,i,k,i,ij,y,u,J,y,w,w,u,J,w,u,u,J,w,J,若,i,为隐单元层,k,有,l,k,l,li,l,k,i,k,l,k,l,k,i,d,w,y,u,u,J,y,J,1,1,1,则,l,k,l,li,k,i,k,i,k,i,d,w,y,y,d,1,1,2018/12/31,21,张秦艳,下面分为两种情况求,k,i,y,J,当,i,为输出层,m,层,

13、的神经元,即,m,k,m,i,k,i,y,y,由误差定义式得,i,m,i,m,i,k,i,d,y,y,J,y,J,则,i,m,i,m,i,m,i,m,i,d,y,y,y,d,1,综上所述,BP,学习算法可以归,纳为,1,1,1,1,k,l,l,li,k,i,k,i,k,i,i,m,i,m,i,m,i,m,i,k,j,k,i,ij,d,w,y,y,d,d,y,y,y,d,y,d,w,2018/12/31,22,张秦艳,3)BP,算法在逼近函数方面很成功,但也,存在一些问题,1,收敛速度问题,由于使用了梯度下降算法,其收敛速度,很慢,一种改进的方法是在权值调整公,式中加入惯性项,用以平滑权值变化,

14、惯性系数可以是定值,也可以随着学习,过程自适应改变,这样,可以提高算法的收敛速度和,改善动态性能(抑制寄生振荡,2018/12/31,张秦艳,23,1,0,1,ij,j,ij,ij,w,t,x,w,t,惯性系数,2,局部极小点问题,BP,网络含有大量连接权值,每个权值对,应一个维度,则整个网络就对应着一个,非常高维空间中的误差曲面。这个曲面,不仅有全局最小点,还有局部极小点,逃离局部及小点的常用思路是,在权值搜索过程中加入随机因素,这就催,生了随机神经网络的思想,2018/12/31,张秦艳,24,3,学习步长问题,学习因子太小,收敛很慢;太大,则可,能导致网络瘫痪和不稳定,即在极小点,附近震

15、荡,有些学者提出自适应步长,使得权值修,改量随着网络的训练而不断变化。基本,原则是在学习开始的时候步长较大,在,极小点附近时步长逐渐变小,2018/12/31,张秦艳,25,6.4,典型反馈网络,Hopfield,网,络,美国物理学家,Hopfield,提出离散型,Hopfield,神经网络和连续型,Hopfield,神,经网络,引入“计算能量函数”的概念,给出了网络稳定性判据,尤其是给出了,Hopfield,神经网络的电子电路实现,开,拓了神经网络用于联想记忆和优化计算,的新途径,2018/12/31,26,张秦艳,2018/12/31,张秦艳,27,x1 x2 x3 x4,y1,y2,y3

16、,y4,条件,w,ij,w,ji,w,ii,0,t,x,i,表示,t,时刻神经元所处的状态,0,1,0,1,s,g,n,1,t,H,t,H,t,H,t,x,i,i,i,i,n,i,t,x,w,t,H,i,n,j,j,ij,i,1,1,其中,ij,w,表示神经元,i,与,j,的连接强度,i,表示神经,元,i,的阈值,2018/12/31,28,张秦艳,当,Hopfield,网络处于稳定点时,每个神经元的,输出满足,1,i,i,y,t,y,t,离散型,Hopfield,神经网络,当神经元状态由,0,变为,1,时,能量函数,E,值的变化量,E,2,1,1,N,mj,j,m,j,j,m,E,E,E,w

17、,x,2018/12/31,29,张秦艳,考察第,m,个神经元的输出变化前后,能量函数,E,值的变化,设,m,x,0,的能量函数值为,1,E,则,N,m,i,i,i,i,N,i,j,j,j,i,ij,N,m,i,i,x,x,x,w,E,1,1,1,1,2,1,能量函数定义为,N,i,i,i,N,i,j,j,j,i,ij,N,i,x,x,x,w,E,1,1,1,2,1,其中,i,x,j,x,是各个神经元的输出,当,m,x,1,时的能量函数值为,2,E,则有,m,N,m,j,j,j,mj,N,m,i,i,i,i,N,i,j,j,j,i,ij,N,m,i,i,x,w,x,x,x,w,E,1,1,1,

18、1,2,2,1,结论:总有,0,这表明神经网络在运行过程中,能量将不断降低,最后趋于稳定的平衡状态,E,当神经元状态由,1,变为,0,时,能量函数值的变化量,E,为,m,N,m,j,j,j,mj,x,w,E,E,E,1,2,1,由于此时神经元的输出是由,1,变为,0,因此,0,1,m,N,m,j,j,j,mj,x,w,所以,E,0,2018/12/31,30,张秦艳,由于此时神经元的输出是由,0,变为,1,因此满足神经元兴,奋条件,0,1,m,N,m,j,j,j,mj,x,w,所以,E,0,连续型,Hopfield,网络,2018/12/31,31,张秦艳,式中,i,I,表示系统外部的输入,i

19、j,ij,R,w,1,模拟神经元之间互连的突触特性,i,u,f,放大器的非线性饱和特性,近似于,S,型函数,2018/12/31,32,张秦艳,o,i,u,u,i,i,e,u,f,v,2,1,1,n,i,2,1,连续型,Hopfield,神经网络动力学系统方程为,N,j,j,ij,i,i,i,i,i,v,w,I,dt,du,C,u,R,1,1,8-27,2018/12/31,33,张秦艳,连续型,Hopfield,神经网络的计算能量函数,t,E,定义为,i,n,i,i,n,j,j,i,ij,n,i,I,t,V,t,V,t,V,w,t,E,1,1,1,2,1,n,i,t,V,i,i,dv,v,f

20、,R,1,0,1,1,对称阵,ji,ij,w,w,1,i,f,v,u,为单调递增的连续函数,1,i,i,i,i,i,i,u,u,C,C,C,f,V,V,V,i,i,i,i,i,d,d,dV,dV,E,d,V,dt,d,dt,dt,d,由方程,8,27,可知,1,i,1,i,1,1,2,u,2,R,n,i,i,i,n,ij,j,i,j,i,dV,dE,t,E,dt,V,dt,E,w,V,t,I,V,其中,0,2,1,1,dt,dV,dV,V,df,C,dt,t,dE,i,i,i,n,i,i,Hopfield,网络中的问题,1,能量局部极小问题,加入随机扰动,可使网络有机会脱离,局部极小状态,2,

21、容量问题,对于一个,N,节点的离散,Hopfield,网络,所能存储的总记忆样本数约为,0.15N,个,如果存储的记忆模式多于此值,则错误,率大大上升,2018/12/31,张秦艳,34,6.5,应用神经网络产生模糊集的隶,属函数,R1,R2,2018/12/31,35,张秦艳,2018/12/31,36,张秦艳,取第一个数据点,1,x,0.05,2,x,0.02,作为网络的输入,使用,Sigmoid,函数,1,1,exp,i,i,O,x,w,式中,O,表示输出,i,x,输入,i,w,权值,阈值,2018/12/31,37,张秦艳,每个数据点的坐标值,1,x,和,2,x,用作输入值,神经,网络

22、的输出值为其隶属度值,第三层输出,3,1,3,2,3,3,1,0.569028,1,exp,0.507249,0.10,0.507999,0.20,0.502250,0.25,0.0,0.641740,0.658516,O,O,O,2018/12/31,38,张秦艳,2,2,1,0,5,0,7,9,9,9,1,e,x,p,0,0,5,0,4,0,0,2,0,6,0,0,0,O,2,3,1,0.502250,1,exp,0.05,0.10,0.02,0.2,0.0,O,1,第一次迭代,应用式,8-30,来计算神经网络的输出,置,的初,始值为,0,第二层输出,2,1,1,0,5,0,7,2,4,9

23、,1,e,x,p,0,0,5,0,5,0,0,2,0,2,0,0,0,O,现在,得出神经网络第一次迭代的最后误差,将此误差传播,到网络的其它节点,依据式,1,1,k,k,k,k,k,i,i,i,il,l,l,E,O,O,w,E,2018/12/31,39,张秦艳,2,计算误差,将神经网络的输出与期望输出比较,以计算,神经网络的最终误差,1,R,actual,O,O,E,4,1,4,1,4,1,0.666 334,1.0,0.333 666,2,R,actual,O,O,E,4,2,4,2,4,2,0.635 793,0.0,0.635 793,第四层输出,4,1,1,1,exp,0.56902

24、8,0.30,0.641740,0.35,0.658516,0.45,0.0,0.666334,O,4,2,1,0.635793,1,exp,0.569028,0.35,0.641740,0.25,0.658516,0.30,0.0,O,3,更新权值,1,1,k,k,il,k,l,k,il,k,il,x,E,old,w,new,w,式中,k,il,w,表示第,k,层第,i,个节点与第,1,k,层的第,l,节点之间的连,接权值,0.3,表示学习速率,l,k,l,E,表示第,1,k,层第,l,个节点,的误差,1,k,k,il,x,表示从第,k,层第,i,个节点到第,1,k,层第,l,个节点,的输入

25、,2018/12/31,40,张秦艳,接着,传递给第二层节点,0.003609,E,0.003390,E,0.002882,E,2,2,3,2,2,1,首先将误差传递给第三层节点,3,3,3,3,4,3,4,1,1,1,11,1,12,2,1,E,O,O,w,E,w,E,0.569028(1,0.569028)0.30,0.333 666)+0.35,0.635 793,0.030 024,3,3,3,3,4,3,4,2,2,2,21,1,22,2,1,E,O,O,w,E,w,E,0.009 694,3,3,3,3,4,3,4,3,3,3,31,1,32,2,1,E,O,O,w,E,w,E,0

26、.009 127,34,12,4,2,3,12,3,12,x,E,old,w,w,0.35 +0.3,0.635 793,0.569 028 = 0.458 535,34,22,4,2,3,22,3,22,x,E,old,w,w,0.25 +03,0.635 793,0.641 740 = 0.372 404,34,32,4,2,3,32,3,32,x,E,old,w,w,0.30 +0.3,0.635 793,0.658 516 = 0.425 604,2018/12/31,41,张秦艳,更新第三层与第四层相连的权值如下,34,11,4,1,3,11,3,11,x,E,old,w,w,0.3

27、+0.3,0.333 666,0.569 028 = 0.243 040,34,21,4,1,3,21,3,21,x,E,old,w,w,0.35+0.3,0.333 666,0.641740=0.285 762,34,31,4,1,3,31,3,31,x,E,old,w,w,0.45+0.3,0.333 666,0.658516=0.384 083,把输入数据点,1,x,0.05,2,x,0.02,再输入网络中进行,计算,再执行上述步骤,计算出误差,重复此过程直至误差,在允许范围之内,2018/12/31,42,张秦艳,再由这些权值求出第二层与第三层相连的权值以及第,一层与第二层相连的权值,

28、23,11,3,1,2,11,2,11,x,E,old,w,w,0.10+0.3,0.030 024,0.507 249 = 0.104 968,依次求出,2,33,2,23,2,13,2,32,2,22,2,12,2,31,2,21,w,w,w,w,w,w,w,w,和,1,23,1,13,1,22,1,12,1,21,1,11,w,w,w,w,w,w,这样,神经网络中所有权值都已更新,接着,再用下一个数据点训练网络,直至训练完,所有的数据点为止。然后用验证数据集中的数据点验,证神经网络的性能,6.6,神经网络控制原理,神经网络控制的基本思想,通过系统的实际输出,y,与期望输,出,d,y,之间

29、的误差来调整神经网络中的连接权值,即让神经,网络学习,直至误差趋于零的过程,就是神经网络模拟,1,g,的过程,它实际上是对被控对象的一种求逆过程,由,神经网络的学习算法实现这一求逆过程,d,y,f,g,y,d,y,f,u,2018/12/31,43,张秦艳,2018/12/31,44,张秦艳,神经网络在控制中的作用分为以下几种,在基于精确模型的各种控制结构中充当对象的模,型,在反馈控制系统中直接充当控制器,在传统控制系统中起优化计算作用,在与其它智能控制方法和优化算法的融合中,为,其提供非参数化对象模型、优化参数、推理模型及故,障诊断等,神经网络具有大规模并行处理,信息分布存储,连续时间的非线

30、性动力学特性,高度的容错性和鲁棒,性,自组织、自学习和实时处理等特点,因而神经网,络在控制系统中得到了广泛的应用,6.7,神经网络在控制工程中的应,用,定义,辨识就是在输入和输出数据的基础上,从一,组给定的模型中,确定一个与所测系统等价的模型,1,k,x,C,k,y,k,u,B,k,x,A,k,x,k,y,k,y,k,e,p,p,j,1,基于神经网络的系统辨识,2018/12/31,45,张秦艳,3,误差准则的选择原则,L,k,k,e,f,J,1,其中,2,k,e,k,e,f,k,y,k,y,k,e,p,p,它通常是模型参数的非线性函数。因此,在这种误差准,则意义下,辨识问题归结为非线性最优化

31、问题,2018/12/31,46,张秦艳,基本构成原则,1,模型的选择原则,模型只是在某种意义下实际,系统的一种近似描述,需选择在满足给定的误差准,则下逼近原系统的最简单模型,2,输入信号的选择原则,在辨识时间内系统的动,态过程必须被输入信号持续激励,反映在频谱上,要求输入信号的频谱必须足以覆盖系统的频谱,应,能使给定问题的辨识模型精度最高,设系统由下列非线性差分方程描述,1,1,1,m,t,u,t,u,n,t,y,t,y,f,t,y,p,p,p,选择神经网络的输入输出结构与建模对象的输入输出结构,相同,2018/12/31,47,张秦艳,1,前向模型辨识,神经网络模型与被建模的对象并联,建模

32、对象输出,与网络输出的差,预测误差,作为网络的训练信号,1,1,1,m,t,u,t,u,n,t,y,t,y,f,t,y,p,p,m,式中,f,是,f,的近似,表示神经网络的输入输出的非,线性关系,2018/12/31,48,张秦艳,假设神经网络经过一段时间的训练以后已经,较好地描述了被控对象,即,p,m,y,y,为了再进一步训练,网络输出本身也可以反馈,到网络输入,这样网络模型可以描述为,1,1,1,m,t,u,t,u,n,t,y,t,y,f,t,y,m,m,m,2018/12/31,张秦艳,49,2,反向模型辨识,若神经网络,C,位于对象,p,之前,网络模型的输出为,p,的输,入,C,为,p

33、,的逆模型,则应有,r,y,p,否则,学习算法根据,其偏差调整神经网络,C,的权值,使,r,y,p,2,神经网络控制,1,神经网络监督控制,2,神经网络直接逆控制,3,基于神经网络的自适应控制,4,神经网络的内模控制,2018/12/31,50,张秦艳,1,神经网络监督控制,NNC,控制器,对象,r(t,y(t,e(t,u,1,t,u,2,t,u(t,神经网络控制器通过向传统控制器的输出进行学习,在线调整自己,目标是使反馈误差,e(t,或,u,1,t,趋近于零,从,而使自己逐渐在控制作用中占主导地位,以便最终取消反,馈控制器的作用。当系统出现干扰时,反馈控制器仍然可,以重新起作用,2018/1

34、2/31,51,张秦艳,在图,a,中,NN1,和,NN2,具有完全相同的网络结构,逆模型,并采用相同的学习算法,即,NN1,和,NN2,的,连接权都沿,1,2,T,k,E,e,k,e,k,的负梯度方向进行修正,上述评,价函数也可采用其它更一般的加权形式,这时的结构方案,则如,b,所示,NN1,NN2,对象,r(t,y(t,e(t,u(t,u,N,t,NN1,评价函数,对象,r(t,y(t,e(t,u(t,a,b,2,神经网络直接逆控制,2018/12/31,52,张秦艳,3,基于神经网络的自适应控制,2018/12/31,53,张秦艳,1,神经网络模型参考自适应控制,a,直接模型参考控制:神经

35、网络控制器的作用是使被控对象与,参考模型输出之差,e,c,t)=y(t)-y,m,t,趋于,0,或,e,c,t,的二次型最小,b,间接模型参考控制:神经网络辨识器首先离线辨识被控对象,的正向模型,并可由,e,i,t,进行在线学习修正,2,神经网络自校正控制,a,神经网络直接自校正控制,该控制系统由一个常规,控制器和一个具有离线辨识能力的识别器组成,后者具,有很高的建模精度,NN1,NN2,对象,r(t,y(t,e(t,u(t,u,N,t,NN1,评价函数,对象,r(t,y(t,e(t,u(t,a,b,2018/12/31,54,张秦艳,b,神经网络间接自校正控制,假设被控对象,装置,为单变量非线性系统,1,k,u,k,y,g,k,y,f,k,y,式中,k,y,f,和,k,y,g,为非线性函数,2018/12/31,55,张秦艳,如果,k,y,f,和,k,y,g,是由神经网络离线辨识的,那么能够

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论