神经网络控制系统设计_第1页
神经网络控制系统设计_第2页
神经网络控制系统设计_第3页
神经网络控制系统设计_第4页
神经网络控制系统设计_第5页
已阅读5页,还剩81页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

神经网络控制系统设计第1页,课件共86页,创作于2023年2月111.1神经网络理论基础人工神经网络(ANN—ArtificialNeuralNetworks)或称联接机制(Connectionism),是源于人脑神经系统的一类模型,是模拟人类智能的一条重要途径,具有模拟人的部分形象思维的能力。它是由简单信息处理单元(人工神经元,简称神经元)互连组成的网络,能接受并处理信息,网络的信息处理由处理单元之间的相互作用来实现,它是通过把问题表达成处理单元之间的联接权来处理的。2第2页,课件共86页,创作于2023年2月11.1.1人工神经网络的特点人工神经网络(简称神经网络——NN)是由人工神经元(简称神经元)互连组成的网络,它是从微观结构和功能上对人脑的抽象、简化,是模拟人类智能的一条重要途径,反映了人脑功能的若干基本特征,如并行信息处理、学习、联想、模式分类、记忆等。神经网络对控制领域有吸引力的特征:(1)能逼近任意的非线性函数。(2)信息的并行分布式处理与存储。(3)可以多输入、多输出。3第3页,课件共86页,创作于2023年2月(4)便于用超大规模集成电路系统实现,或用现有的计算机技术实现。(5)能进行学习,以适应环境的变化。决定网络整体性能的三大要素:(1)神经元(信息处理单元)的特性。(2)神经元之间相互联接的形式——拓扑结构。(3)为适应环境而改善性能的学习规则。4第4页,课件共86页,创作于2023年2月11.1.2人工神经网络原理如同大脑一样,神经网络的基本单元也称为神经元或人工神经元或处理单元。可认为处理单元是一种类似的最基本的生物神经元,它能完成生物神经元最基本的三种处理过程:(1)评价输入信号,决定每个输入信号的强度。(2)计算所有输入信号的权重之和,并与处理单元的阈值进行比较。(3)决定处理单元的输出。5第5页,课件共86页,创作于2023年2月

阈值由传递函数来确定。传递函数一般是非线性的,有时也采用线性函数。但应该注意许多问题不能简单地用一条直线将其分成两类。将处理单元排成一列,形成一个处理单元层,若将几层连接在一起,接受输入的层称为输入层,给出输出信号的层称为输出层,其他层为中间层或隐含层,这些层在神经网络中类似于黑箱。如果前一层的每一个处理单元都与后一层中的每个处理单元相连,则这种网络称为全面连接的网络。否则为部分连接的网络。若没有一个处理单元的输出与本层或前一层的处理单元相连接,则这种网络称为正反馈网络;反之,若输出可直接返回同层或前一层处理单元的输入,则这种网络称为负反馈网络。具有闭环的负反馈网络又称为循环系统。6第6页,课件共86页,创作于2023年2月编制神经网络程序,主要是确定传递函数(即决定值的方程)、训练规划(即设置初始权重的规则及修改权重的方程)以及网络的结构(即处理单元数、层数及相互连接状况)。

在网络中,信息不像普通计算机储存在单一的内存区,而是储存在整个系统中,这种结构使网络更具有适应性,如果遗失某些处理单元,则仍可不丢失存在那儿的信息。这种储存信息的方式是新一代信息处理方式的代表。7第7页,课件共86页,创作于2023年2月11.1.3MP神经元模型与人工神经网络的构成早在1943年,McCulloch和Pitts就定义了一种简单的人工神经元模型,称为MP模型。其响应函数为阶跃函数,模型结构如图11.1所示。yx1x2xnw1w2wn早在1943年McCulloch

┇┇图11.1MP模型结构8第8页,课件共86页,创作于2023年2月设神经元的一组输入用向量表示为X=(x1,x2,…,xn)其相应权值为W=(w1,w2,…,wn)神经元的阈值为θ,输出为y,则其中9第9页,课件共86页,创作于2023年2月阶层型和全互连接型。如图11.2和图11.3所示:x1x2┇xny1y2yn┇图11.2阶层型人工神经网络结构图11.3全互连接型人工神经网络结构10第10页,课件共86页,创作于2023年2月11.1.4神经网络的学习方法1.基本的学习机理一个神经网络仅仅具有拓扑结构,还不能具有任何智能特性,必须有一套完整的学习、工作规则与之配合。其实,对于大脑神经网络来说,完成不同功能的网络区域都具有各自的学习规则,这些完整和巧妙的学习规则是大脑在进化学习阶段获得的。人工神经网络的学习规则,说到底就是网络连接权的调整规则。我们可以从日常生活中一个简单的例子了解网络连接权的调整机理。11第11页,课件共86页,创作于2023年2月

神经网络是由许多相互连接的处理单元组成的。每一个处理单元有许多输入量xi,而对每一个输入量都相应有一个相关联的权重wi。处理单元将经过权重的输入量xi·wi相加(权重和),而且计算出唯一的输出量yi。这个输出量是权重和的函数f。处理单元模型如图11.4所示。图中y1y2yn┇x1x2xnw1w2wnI|f┇┇图11.4处理单元模型12第12页,课件共86页,创作于2023年2月2.学习方式有两种不同的学习方式或训练方式,即有指导的训练和没有指导的训练。很明显,有指导的学习或训练需要“教师”,教师即是训练数据本身,不但包括有输入数据,还包括有在一定输入条件下的输出数据。网络根据训练数据的输入和输出来调节本身的权重,使网络的输出符合于实际的输出。没有指导的学习过程指训练数据只有输入而没有输出,网络必须根据一定的判断标准自行调整权重。

(1)有指导的学习;(2)没有指导的学习;13第13页,课件共86页,创作于2023年2月3.学习规则在神经网络中,使用各种学习规则,最有名的是Hebb规则,研究仍在继续,许多新的想法也在不断尝试。有些研究者将生物学习的模型作为主要研究方向,有一些在修改现有的学习规则,使其更接近自然界中的学习规律。但是在生物系统中,到底学习是如何发生的,目前知道得还不多,也不容易得到实验的证实。

(1)Hebb规则;(2)Delta规则;(3)梯度下降规则;(4)Kohonen学习规则;(5)后传播学习方法;14第14页,课件共86页,创作于2023年2月11.2神经网络的模型与算法11.2.1感知器(Perceptron)网络感知器是早期仿生学的研究成果,是罗森布拉特(Rosenblatt)首先提出的一种神经网络模型。早期的研究人员试图用感知器模拟人脑的感知特征,但后来发现感知器的学习能力有很大的局限性,以致曾经有人对它的感知能力和应用前景得出了十分悲观的结论。尽管如此,这种神经网络模型的出现对早期神经网络的研究,以及对后来许多神经网络模型的出现,产生了极大的影响。它仍然是一种很有用的神经网络模型。15第15页,课件共86页,创作于2023年2月感知器采用有教师的学习算法,即用来学习的样本模式的类别是已知的,而且各模式类的样本具有充分的代表性。当依次输入学习样本时,网络以迭代方式根据神经元的实际输出与期望输出的差别对权值进行修正,最终得到希望的权值。具体算法如下:第一步:设置初始权值wji(m)。通常,各权值的初始值设置为较小的非零随机数。第二步:输入新的模式。16第16页,课件共86页,创作于2023年2月第三步:计算神经元的实际输出。设第k次输入的模式为xk,与第j个神经元连接的权矢量为wi(k)=(wj1,wj2,…,wjn+1)T,则第j个神经元的实际输出为

式中f为双极值阶跃函数,且17第17页,课件共86页,创作于2023年2月第四步:修正权值。设bj为第j个神经元的期望输出,则权值按下式修正

第五步:转到第二步。当全部学习样本都能利用某一次迭代得到的权值正确分类时,学习过程结束。可以证明,当模式类线性可分时,上述算法在有限次选代后收敛。权矢量的修正量与输入模式xk成正比,比例因子为ρ[bj-yj(k)]。若ρ的取值太大,算法可能出现振荡,ρ的取值太小,收敛速度会很慢。

18第18页,课件共86页,创作于2023年2月11.2.2多阶层网络与误差逆传播算法感知器的发明,曾使神经网络的研究迈出了历史性的一步。但是正如前面所述,尽管感知器具有很出色的学习和记忆功能,可由于它只适用于线性模式的识别,因此对非线性模式的识别显得无能为力,甚至不能解决“异或”这样简单的非线性运算问题。误差逆传播学习算法,有时也将按这一学习算法进行训练的多阶层神经网络直接称为误差逆传播神经网络,简称BP算法。19第19页,课件共86页,创作于2023年2月1.误差逆传播神经网络(BP)的结构与学习规则典型的BP网络是三层前馈阶层网络,即:输入层、隐含层(也称中间层)和输出层。各层之间实行全连接,如图11.5所示:x1x2┇xny1y2yn┇输入层隐含层输出层图11.5典型BP网络模型结构20第20页,课件共86页,创作于2023年2月

BP网络的学习,由四个过程组成:BP网络的学习,由四个过程成:输入模式由输入层经隐含层向输出层的“模式顺传播”过程;网络的希望输出与网络实际输出之差的误差信号由输出层经隐含层向输入层逐层修正连接权的“误差逆传播”过程;由“模式顺传播”与“误差逆传播”的反复交替进行的网络“记忆训练”过程;网络趋向收敛即网络的全局误差趋向极小值的“学习收敛”过程。归结起来为,“模式顺传播”→“误差逆传播”→“记忆训练”→“学习收敛”过程。BP网络的学习方法也称为广义δ规则。21第21页,课件共86页,创作于2023年2月(1)模式的顺传播模式顺传播过程是由输入模式提供给网络的输入层开始的输入层各个单元对应于输入模式向量的各个元素。设输入模式向量为Xk=(x1,x2,…,xn),k=1,2,…,m,m为学习模式个数;输入层单元到隐含层单元的连接权为vhi,h=1,2,…,n,i=1,2,…,p;隐含层单元到输出层单元的连接权为wij,i=1,2,…,p,j=1,2,…,q。将Xk的值送到输入层单元,通过连接权矩阵V送到隐含层单元,产生隐含层单元新的激活值式中22第22页,课件共86页,创作于2023年2月按模式顺传播的思路,计算输出层各单元的输入、输出:式中wij为中间层至输出层连接权;ri为输出层单元阈值;f为S函数。至此,一个输入模式完成了一遍顺传播过程。23第23页,课件共86页,创作于2023年2月(2)误差的逆传播作为误差逆传播的第一步,是进行误差计算。误差逆传播过程是由输出层的误差从di向中间层的误差di传递的过程。①计算输出层单元的一般化误差式中为输出层单元j的希望输出。②计算隐含层单元对于每个di的误差上式相当于将输出层单元的误差反向传播到隐含层。24第24页,课件共86页,创作于2023年2月③调整隐含层到输出层的连接权式中λ为学习率,0<λ<1。④调整输入层到隐含层的连接权⑤调整输出层单元的阈值⑥调整隐含层单元的阈值25第25页,课件共86页,创作于2023年2月(3)训练过程所谓训练过程,是指反复学习的过程,也就是根据教师示教的希望输出与网络实际输出的误差调整连接权的过程。希望输出实际上是对输入模式分类的一种表示,是人为设定的,所以因人而异。随着“模式顺传播”与“误差逆传播”过程的反复进行,网络的实际输出逐渐向各自所对应的希望输出逼近。对于典型的BP网络,一组训练模式一般要经过数百次乃至几千次的学习过程,才能使网络收敛。26第26页,课件共86页,创作于2023年2月(4)收敛过程BP网络的收敛过程,很可能在遇到局部极小点便被“冻结”,而无法最终收敛于全局最小点,也就无法对学习模式准确记忆。导致BP网络这一缺陷的原因,是由于BP学习规则同Madaline算法类似,采用了按误差函数梯度下降的方向进行收敛,如图11.6所示。AB局部极小点局部极小点全部最小点图11.6误差函数梯度下降示意图27第27页,课件共86页,创作于2023年2月2.网络学习算法的改进

(1)引入动量项上述标准BP算法实质上是一种简单的最快速下降静态寻优算法,在修正w(k)时,只是按k时刻的负梯度方向进行修正,而没有考虑以前积累的经验,即以前时刻的梯度方向,从而常常使学习过程发生振荡,而收敛缓慢。为此,有人提出了如下的改进算法中w(k)既可表示单个的连接权系数,也可表示连接权向量(其元素为连接权系数);D(k)=-E/w(k)为k时刻的负梯度;D(k-1)为k-1时刻的负梯度;α>0为学习率;η为动量项因子,0≤η<1。28第28页,课件共86页,创作于2023年2月(2)变步长法一阶梯度法寻优收敛较慢的一个重要原因是α不好选择。选得太小,收敛太慢,若选得太大,则有可能修正得过头,导致振荡甚至发散。下面给出的这个变步长法即是针对这个问题而提出的。算法为这里w表示某个连接权系数。当需要引入动量项时,上述算法的第二项可修改如下:

29第29页,课件共86页,创作于2023年2月11.2.3Hopfield神经网络1.Hopfield网络的基本思想

Hopfield网络作为一种全连接型神经网络,曾经在人工神经网络研究发展历程中起过唤起希望、开辟研究新途径的作用。它用与阶层神经网络不同的结构特征和学习方法,模拟生物神经网络的记忆机理,获得了令人满意的结果。这一网络及学习算法最初是由美国物理学家J.J.Hopfield于1982年首先提出来的,故称为Hopfield网络。30第30页,课件共86页,创作于2023年2月2.Hopfield网络的结构与算法设网络有n个神经元,其中每个神经元只能取“1”或“0”两个状态,各个神经元的状态可用向量U表示:其中ui=1或0(i=1,2,…,n)。

Hopfield网络的各个神经元都是相互连接的,即每一个神经元都有自己的输出通过连接权送给所有其他神经元,同时每个神经元又都接收所有其他神经元传递过来的信息。31第31页,课件共86页,创作于2023年2月对于Hopfield网络已有定理证明,当网络满足以下两个条件时,Hopfield学习算法总是收敛的。

(1)网络的连接权矩阵无连接且具有对称性,即这一假设条件虽然不符合生物神经网络的实际情况(生物神经网络之间连接强度通常是不对称的),但是却与磁场中各磁旋的相互作用情况一致。

(2)网络中各神经元以非同步或串行方式,依据运行规则改变其状态,即各神经元随机选取方式,依据运行规则改变状态,且当某个神经元改变状态时,其他所有神经元保持原状态不变,这一点符合生物神经网络的情况。32第32页,课件共86页,创作于2023年2月3.网络计算能量函数与网络收敛从Hopfield网络工作运行规则可以看出,网络中某个神经元t时刻的输出状态,通过其他神经元间接地与自己的t-1时刻的输出状态发生联系。准确地说,它是一个多输人、多输出、带阈值的二态非线性动力学系统。在满足一定的参数条件下,某种“能量函数”的能量在网络运行过程中不断地降低,最后趋于稳定的平衡状态。设t时刻网络的状态用n

个神经元的输出向量U(t)表示为33第33页,课件共86页,创作于2023年2月而每个神经元只有“1”或“0”两种状态,所以n个神经元共有2n种状态。从几何学的角度看,这2n种状态正好对应一个n维超立方体的各个顶点。以n=3为例,一个立方体的八个顶点正好对应网络的八种状态。网络的能量函数可定义为网络状态的二次函数34第34页,课件共86页,创作于2023年2月所谓网络的收敛,就是指能量函数达到极小值。可以证明,按照Hopfield工作运行规则,改变网络状态,能量函数将单调减小。图11.7是Hopfield网络能量函数的示意图。能量状态0图11.7Hopfield网络能量函数示意图35第35页,课件共86页,创作于2023年2月4.联想记忆记忆是生物神经网络一个最基本也是最重要的功能。人具有很强的模式识别能力,其主要原因之一就是人具有联想记忆的能力。具体来说,人不仅能识别记忆中一个完整的模式,而且能根据记忆中模式的部分登记进行正确的识别和分类。这种特征使人的识别能力具有很强的容错性。正因为如此,许多研究人员对人的联想记忆特征进行了长期不懈的研究,并提出了一些模拟人脑联想记忆功能的神经网络模型。其中最重要的并对未来神经网络的发展产生了重大影响的是Hopfield提出的反馈形式的神经网络模型(HNN)。36第36页,课件共86页,创作于2023年2月

Hopfield网络是如何实现联想记忆的呢?前面曾经指出,Hopfield网络是一个非线性动力学系统,网络的“能量函数”存在着一个或多个极小点(或称为平衡点、平衡状态)。当某一时刻各神经元的状态确定之后,即网络的初始状态确定之后,网络的状态将按动力学方程,即Hopfield工作运行规则向能量递减的方向变化,最后接近或达到网络的平衡状态。这种实际上可观测的平衡状态又称为吸引子。实际上,吸引子可以是稳定的,也可以是不稳定的,可以是平衡点,也可以是极限环或混沌吸引子(奇异吸引子)。不随时间变化的吸引子称为稳定平衡点。37第37页,课件共86页,创作于2023年2月11.2.4局部递归型神经网络局部递归型神经网络可分为两种:内时延反馈型与外时延反馈型。1.内时延反馈型网络(1)网络结构和学习算法内时延反馈网络有输入、输出和隐层,隐层节点具有时延反馈,设网络外部输人时间序列u(t)、隐层输出o(t),网络输出y(t),则网络描述为38第38页,课件共86页,创作于2023年2月式中,1W、2W、HW分别为输入至隐层、隐层至输出层、隐层节点之间(包括节点自身)的联接权矩阵;f1、f2非线性作用函数。网络采用动态BP学习算法:①设网络的目标函数(为简单起见,网络为多输入单输出)为式中,yd、y分别为样本输出、网络输出。39第39页,课件共86页,创作于2023年2月②权调整算法隐层至输出联接权2W:式中隐层联接权HW40第40页,课件共86页,创作于2023年2月式中41第41页,课件共86页,创作于2023年2月输入至隐层联接权1W则可得动态BP学习算法,权实时调整为42第42页,课件共86页,创作于2023年2月式中(2)Elman网络Elman网络是典型的局部递归内时延反馈型神经网络,分基本型与改进型两种。①基本Elman网络基本Elman网络结构如图11.8所示,是单输入单独出之例,其特点是,除了输入、输出和隐层节点外,还有与隐层节点数相同的反馈节点,其输入是隐节点输出的一步延迟。43第43页,课件共86页,创作于2023年2月一般情况下考虑多输入多输出。设反馈层的输出为yc(t),网络在外部输入时间序列u(t)下的输出序列为y(t),则若将yc(t+1)用o(t)代入,则44第44页,课件共86页,创作于2023年2月u(t)y(t+1)o(t+1)yc(t+1)反馈层隐含层图11.8基本Elman网络45第45页,课件共86页,创作于2023年2月②改进型Elman网络改进型Elman网络结构如图11.9所示,与图11.8比较可见,反馈节点有增益为α的自反馈连接,该网络能模拟更高阶的动态系统。此时,反馈层的输出为46第46页,课件共86页,创作于2023年2月u(t)y(t+1)o(t+1)yc(t+1)反馈层隐含层图11.9改进型Elman网络47第47页,课件共86页,创作于2023年2月2.外时延反馈型网络外时延反馈网络又称输出时延反馈网,是由多层前馈网与输出时延反馈两部分组成,典型结构如图11.10所示。以单输入单输出网络为例,设网络的外部输入时间序列为u(t),输出序列为y(t),此时,多层前馈网的输入有两部分:u(t-1),u(t-2),…,u(t-m)与输出反馈y(t-1),y(t-2),…,y(t-n)。它们由按拍延迟线实现,z-1表示一步延迟。48第48页,课件共86页,创作于2023年2月u(t-1)u(t-m)y(t-n)y(t-1)y(t)u(t)图11.10外时延反馈型局部递归网络多层前馈网络z-1z-1z-1z-149第49页,课件共86页,创作于2023年2月网络用BP算法调整权值:在时刻t,多层前馈网的输入/输出样本对为网络的输出为目标函数为式中,τ=l,2,…,L,L为样本长度。50第50页,课件共86页,创作于2023年2月训练网络为用上面的式子进行训练网络,直到J≤ε,局部递归型网络用于非线性系统辨识与控制中。51第51页,课件共86页,创作于2023年2月11.3神经网络控制系统的设计神经网络用于控制,主要是为了解决复杂的非线性、不确定、不确知系统的控制问题。由于神经网络具有模拟人的部分智能的特性,主要是具有学习能力和自适应性,使神经网络控制能对变化的环境具有自适应性,且成为基本上不依赖于模型的一类控制。因此,神经网络控制已成为“智能控制”的一个新的分支。52第52页,课件共86页,创作于2023年2月1.直接逆动态控制直接逆动态控制,也称直接自校正控制,是前馈控制。神经控制器(NNC)与被控对象串联,NNC实现对象A的逆模型Â-1,且能在线调整,可见,此种控制结构,要求对象动态可逆。图11.11和图11.12为该控制结构的两种方案,其中,图11.11网络NNC与NN具有相同的结构和学习算法。由图可知,控制系统的传递函数为P-1P=1,实际上,输出y跟踪输入r的精度,取决于逆模型的精度。53第53页,课件共86页,创作于2023年2月uyr-NNC(Â-1)被控对象(A)NN(Â-1)图11.11神经直接逆动态控制1uyrNNC(Â-1)被控对象(A)评价函数图11.12神经直接逆动态控制254第54页,课件共86页,创作于2023年2月2.间接自校正控制间接自校正控制,一般称自校正控制,其结构如图11.13所示,由神经网络辨识器(NNI)对被控对象(A)进行在线辨识(Â),根据“确定性等价”原则,设计控制器参数,以达到有效控制的目的。uyr控制器设计辨识器(NNI)自校正控制器图11.13神经自校正控制被控对象(A)55第55页,课件共86页,创作于2023年2月3.模型参考自适应控制神经模型参考自适应控制有两种结构:直接型与间接型,如图11.14和图11.15所示。构造一个参考模型,使其输出为期望输出,控制的目的是使y跟踪yM。由于对象特性未知,因此,图11.15结构较好,神经网络NNI与NNC分别实现在线辨识器与控制器。-yMuyr-NNC被控对象(A)参考模型图11.14直接型神经模型参考自适应控制56第56页,课件共86页,创作于2023年2月yM---uyr参考模型辨识器(NNI)NNC图11.15间接型神经模型参考自适应控制被控对象(A)57第57页,课件共86页,创作于2023年2月4.PID控制

PID控制是最常用的一种控制方法,神经PID控制,结构如图11.16所示,有两个神经网络、分别为神经辨识器NNI(A-1)与神经控制器NNC(PID)。---uyrNNC(PID)被控对象(A)NNI图11.16神经PID控制58第58页,课件共86页,创作于2023年2月5.内模控制内模控制,即内部模型控制(IMC)都是一种很好的控制器设计方法,神经内模控制结构,如图11.17所示。神经辨识器NNI辨识对象A的模型Â(内部模型),神经控制器NNC实现对象的逆模型Â-1,滤波器是为了提高控制系统的鲁棒性。内模控制可通过被控对象与内部模型的输出误差来调整控制器的输出。--uyr滤波器NNI(Â)NNC(Â-1)图11.17神经内模控制被控对象(A)59第59页,课件共86页,创作于2023年2月6.前馈反馈控制前馈反馈控制结构,如图11.18所示,常规控制器(如PD控制)为反馈控制,神经控制器NNC为前馈控制,实现对象A的逆模型Â-1。该控制结构,起始时,由于误差e很大,常规控制器起主导作用,由于神经控制器NNC经训练(信号uc),调整其权值,使误差e→0,进而使uc→0。此时,神经控制器NNC起主导控制作用。由于常规控制器的存在,通过反馈,能起到有效抑制扰动的作用。euc+-uyrNNC(Â-1)被控对象(A)控制器图11.18神经前馈反馈控制60第60页,课件共86页,创作于2023年2月7.预测控制预测控制是一种基于模型的控制,其特点是,预测模型、滚动优化和反馈校正。已证明它对非线性系统的控制具有期望的稳定性。神经预测控制结构如图11.19所示,神经预测器NNP可在线调整,建立非线性被控对象的预测模型,既可由对象第k时刻的输入u(k)与输出y(k),预报控制系统未来的输出y(k+i),i>0,非线性优化器实现优化算法,使二次型性能指标极小,以得到相应的控制u(k)。--uyr滤波器NNP非线性优化器图11.19神经预测控制被控对象(A)61第61页,课件共86页,创作于2023年2月11.3.2神经自校正控制自校正控制是一种由辨识器将对象参数进行在线估计,用调节器(或控制器)实现参数的自动整定相结合的自适应控制技术,可用于结构已知而参数未知但恒定的随机系统,也可用于结构已知而参数缓慢时变的随机系统。但传统的自校正控制,是将被控对象用线性或线性化模型进行辨识,对于复杂的非线性系统的自校正控制,则难以实现,因此,具有一定的局限性。62第62页,课件共86页,创作于2023年2月1.神经自校正控制结构神经自校正控制结构如图11.20所示,它由两个回路组成:uyr控制器设计辨识器(NNI)自校正控制器图11.20神经自校正控制框图被控对象(A)63第63页,课件共86页,创作于2023年2月(1)自校正控制器与被控对象构成的反馈回路。(2)神经网络辨识器与控制器设计,以得到控制器的参数。可见辨识器与自校正控制器的在线设计,是自校正控制实现的关键。设被控对象为式中,u、y分别为对象的输入、输出;r为控制系统的输入;g[·]、φ[·]为非零函数。若g[·]、φ[·]已知,根据“确定性等价原则”,控制器的控制算法为此时,控制系统的输出y(k)能精确地跟踪输入r(k)。64第64页,课件共86页,创作于2023年2月若g[·]、φ[·]未知,则通过在线训练神经网络辨识器,使其逐渐逼近被控对象,此时,由辨识器的Ng[·]、Nφ[·]代替g[·]、φ[·],则控制器的输出为

式中,Ng[·]、Nφ[·]分别为组成辨识器的非线性动态神经网络。65第65页,课件共86页,创作于2023年2月2.神经网络辨识器为使问题简化,考虑如下一阶被控对象:神经网络辨识器如图11.21所示。66第66页,课件共86页,创作于2023年2月A(k+1)u(k)w0v0WVNg[·]Nφ[·]y(k)y(k)LLLHHHLLHHH图11.21神经网络辩识器67第67页,课件共86页,创作于2023年2月由两个三层非线性DNTT实现,网络输入{y(k),u(k)},输出为式中,W、V为两个网络的权系其中,p为隐层非线性节点数;w0=Ng[0,W];v0=Nφ[0,V]。68第68页,课件共86页,创作于2023年2月图中,L为线性节点;H为非线性节点,每一网络各为p个,所用非线性作用函数为则控制系统的输出为可见,只有当Ng[·]→g[·]与Nφ[·]→φ[·]时,才能使y(k)→r(k)。设准则函数为69第69页,课件共86页,创作于2023年2月神经网络辨识的训练过程,即权系的调整过程:用BP学习算法:70第70页,课件共86页,创作于2023年2月则式中,ηw>0和ηv>0,它们决定着神经网络辨识器收敛于被控对象的速度。71第71页,课件共86页,创作于2023年2月由以上所述,所描述的非线性被控对象的神经自校正控制系统如图11.22所示。NφA-Nguyr学习算法A(k+1)=Ng[y(k)]+Nφ[y(k)]u(k)u(k)=[r(k+1)-Ng[y(k)]]/Nφ[y(k)]图11.22神经自校正控制框图y(k+1)=g[y(k)]+φ[y(k)]u(k)72第72页,课件共86页,创作于2023年2月例11.1被控对象具有非线性时变特性,仿真模型为系统输入为作用于被控对象的扰动为73第73页,课件共86页,创作于2023年2月则神经网络辨识器的模型为选非线性作用函数为权值调整算法为74第74页,课件共86页,创作于2023年2月设隐层节点的输出o(k),输入至隐层、隐层至输出联接权分别为1W、2W,则有经反复设计,仿真检验,最终取:-0.03≤1wi(0),2wi(0)≤0.03的随机数,w0=0,η=0.5,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论