《神经网络控制》课件第6章_第1页
《神经网络控制》课件第6章_第2页
《神经网络控制》课件第6章_第3页
《神经网络控制》课件第6章_第4页
《神经网络控制》课件第6章_第5页
已阅读5页,还剩245页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第6章神经控制系统6.1神经控制系统概述6.2神经控制器的设计方法6.3神经辨识器的设计方法6.4PID神经控制系统6.5模型参考自适应神经控制系统6.6预测神经控制系统6.7自校正神经控制系统6.8内模神经控制系统6.9小脑模型神经控制系统6.10小结习题与思考题

6.1神经控制系统概述

把人工神经网络引进到自动控制领域,是神经网络学界和自动控制学界共同努力的结果,它反映了两个学科分支的共同心愿。神经网络学界急切希望找到自己的用武之地,自动控制领域迫切希望实现更高层面上的自动化。

把人工神经网络引进到自动控制领域,是因为无论从理论上还是实践上,都已经证明神经网络具有逼近任意连续有界非线性函数的能力。非线性系统本身具有明显的不确定

行为,即便是线性系统,为了改善网络的动态特性,也常常需要在线性前馈网络的隐层构造非线性单元,形成非线性前馈网络。6.1.1神经控制系统的基本结构

神经控制系统的全称是人工神经网络控制系统,其主要系统形式依旧是负反馈调节,系统的基本结构依旧划分成开环和闭环两类。它的一般结构如图6-1所示,图中的控制器、

辨识器和反馈环节均可以用神经网络构成。

人工神经网络使用二元逻辑,是一种数字网络,神经控制是一种数字控制,用数字量控制被控对象。神经网络控制系统是一种数字控制系统,它具有数字控制系统的一般特征。和一般的微机系统一样,它由硬件与软件两部分组成。图6-1人工神经网络控制系统的一般结构6.1.2神经网络在神经控制系统中的作用

神经控制给非线性系统带来一种新的控制方式。在神经网络进入自控领域之前,控制系统的设计分析方法是首先建立数学模型,用数学表达式描述系统,然后对相应的数学方程求解。古典控制理论形成了一整套利用拉氏变换求解微分方程的做法;现代控制理论则是状态方程和矩阵求解。如果数学模型不正确,描述系统的数学式子不能反映系统的真实面貌,与真实系统相差太大,设计结果就不能使用。这就是系统设计失败的原因。无论是古典控制系统,还是现代控制系统,控制器的设计都与被控制器的数学模型有直接的关系。神经网络从根本上改变了上述设计思路,因为它不需要被控制对象的数学模型。在控制系统中,神经网络是作为控制器或辨识器起作用的。

控制器具有智能行为的系统,称为智能控制系统。在智能控制系统中,有一类具有学习能力的系统,被称为学习控制系统。学习的过程是一个训练并带有将训练结果记忆的过程,人工神经网络控制系统就是一种学习控制系统。神经控制器与古典控制器和现代控制器相比,有优点也有缺点。优点是神经控制器的设计与被控制对象的数学模型无关,这是神经控制器的最大优点,也是神经网络能够在自动控制中立足的根本原因。缺点是神经网络需要在线或离线开展学习训练,并利用训练结果进行系统设计。这种训练在很大程度上依赖训练样本的准确性,而训练样本的选取依旧带有人为的因素。

神经辨识器用于辨识被控对象的非线性和不确定性。

不同的神经控制系统有不同的配置:有的仅仅只需要神经控制器;有的仅仅只需要神经辨识器,有的既需要神经控制器,又需要神经辨识器。不同的配置按照不同的对象要求设定。

6.2神经控制器的设计方法

神经控制器的设计大致可以分为两种类型,一类是与传统设计手法相结合;一类是完全脱离传统手法,另行一套。无论是哪一类,目前都未有固定的模式,很多问题都还在探讨之中。究其原因是因为神经控制还是一门新学科,在社会上并不普及,为数众多的人甚至连“神经控制”都还没有听说过,神经系统的研究还处于摸索探讨阶段,神经网络虽然

有了一些所谓的“理论”,但并不成熟,甚至连隐层节点的作用机理这一类简单的理论问题都没有搞清楚。而智能控制的“年龄”比神经网络还要年轻,现阶段的智能控制就没有理论。因此,神经控制器没有理论体系,更谈不上完善的理论体系,相应也就不存在系统化的设计方法。目前较为流行的神经控制器设计过程是:设计人员根据自己的经验选用神经网络、选择训练方法,确定是否需要供训练使用的导师信号,设计算法并编制程序,然后上机运行,得到仿真结果,根据结果决定是否需要进一步修改相关参数或修改网络体系。

从仿真到实际运行,还有很长一段路要走,需要解决的主要问题是仿真仅仅只是神经网络模型训练运行的结果,实际运行需要带动被控制对象,其工作环境远比实验室仿真环

境恶劣且复杂得多。由于神经控制器的设计与设计人员的素质、理解能力和经验有关,因此设计出来的产品都可以成为设计者的成果,这也是从事神经控制较容易出成果的原因之一。随着时间的推移,对设计结果的评价体系终会诞生,优劣将更加清晰。

简单综合起来,神经控制器的设计方法大体有如下几种:模型参考自适应方法、自校正方法、内模方法、常规控制方法、神经网络智能方法和神经网络优化设计方法。6.2.1模型参考自适应方法

模型参考自适应方法设计出来的神经控制器多用于被控制对象是线性对象,但也适合于被控制对象是非线性对象。两种不同对象对神经辨识器的要求不同。这种方式设计出的

系统基本结构如图6-2所示。从图中可以看到,神经网络的功能是控制器,但是它的训练信号却是参考模型信号与系统输出信号之间的差值:

e=z-y

由此可以确定神经控制器的训练目标为参考模型输出与被控对象输出的差值最小。图6-2模型参考自适应神经控制系统训练之前必须要先解决的问题是如何得到参考模型输出与被控对象输出,由于无法知道被控对象的数学模型,或者是引入神经控制的目的就是不用知道被控对象的数学模型,

因而对象的特性未知,给训练带来困难。解决办法是在被控对象的两边增加神经网络辨识器,通过辨识器具有的在线辨识功能获得被控对象的动态特性。线性被控对象和非线性被

控对象的系统辨识是不相同的,对比之下,非线性被控对象的系统辨识要困难得多。

6.2.2自校正方法

用自校正方法设计出来的神经控制系统既能用于线性对象,也能用于非线性对象。自校正神经控制系统的基本结构如图6-3所示。其中自校正控制器由人工神经网络构成,它的输入有两部分:一部分是偏差信号,一部分是辨识估计的输出。辨识估计器能正确估计被控对象的动态建模,在某种程度上,它是一个反馈部件。辨识估计器显然应当由神经网络构成。图6-3自校正神经控制系统自校正有直接控制和间接控制两类。自校正直接控制往往只需要一个自校正控制器,结构简单,常用于线性系统的实时控制。自校正直接控制器的设计方法有两种:有模型设计和无模型设计。在有模型设计中,通常在系统中加入白噪声信号,以获得较好的控制效果。辨识过程常常出现饱和,影响辨识结果及跟踪快慢。为了自动适应对快速变化的系统实时辨识,使用经过训练后的神经网络,能及时准确提取被控对象的参数,对干扰有较强的抵抗能力,对失误有较强的容错能力。自校正间接控制器着重解决非线性系统的动态建模。

用于线性对象的控制器常采用零极点配置进行设计,这是一种常规的自适应设计。用于非线性对象的控制器常采用I/O线性化或采用逆模型控制等设计。6.2.3内模方法

内模方法设计出来的内模神经控制系统主要用于非线性系统,内模神经控制器既要作用于被控对象,又要作用于被控对象的内部模型。内模神经控制系统结构如图6-4所示,其稳定的充分兼必要条件是控制器和被控对象都要稳定。系统中的控制器和被控对象的内部模型都由神经网络承担。图6-4内模神经控制系统6.2.4常规控制方法

常规控制方法使用古典控制理论、现代控制理论和智能控制中控制器的设计方法。这些方法较成熟,可以在设计过程中用神经网络取代设计出的控制器。取代不是简单的更换,而是确定神经网络的训练算法,做到快速衰减而又稳定。这一类系统比较多,有神经PID调节控制系统、神经预测控制系统和变结构控制系统等。图6-5~图6-7分别是这三种系统的结构示意图。图6-5神经PID调节控制系统图6-6神经预测控制系统图6-7变结构控制系统常规PID调节是古典控制理论中使用十分成熟且十分有效的工程控制方法。无论是古典控制理论、现代控制理论,还是智能控制,都离不开PID调节方式。对于结构明了、参

数固定不变或基本不变的线性定常系统,PID调节的控制功能发挥得淋漓尽致。PID调节器既可以用运算放大器等模拟芯片构成,也可以用数字电路构成,还可以用计算机构成。

算法简单,易于实现。对于一些在控制过程中存在不确定性、存在非线性、存在时变的被控对象,由于数学模型不明确,常规PID调节器往往难以奏效,不能保证系统稳定性。目前能够想到的解决

办法有两个,两个办法都离不开神经网络。一个是对被控对象使用系统辨识,PID调节器继续使用常规调节器,系统辨识由神经网络承担;另一个是使用神经PID调节器。在系统

中引入神经网络,相应需要学习训练。神经预测控制系统也是用于非线性、不确定性被控对象的系统,预测未来将要发生的事情,将来的事不可能今天就能确定下来。但是,如同今天是过去的继续一样,将来

是今天的继续。利用今天统计规律获得的知识能推导未来的发展趋势。例如江河湖堤的水文分析,未来一周或下个月的天气情况,十几、几十年后人口的出生状况、受教育状况、

就业状况等等。在预测中引入基于学习训练的神经网络,将不逊于基于模糊逻辑的专家系统,不逊于基于规则的人工智能。变结构控制系统中的神经网络需要面对变参数、变结构的被控对象,相应控制方案要复杂一些。在这种系统中,神经控制器和常规控制器并存,由于参数经常发生变化,神经网络的主要功能将是识别参数的变化,为常规控制器决策提供依据。在传统的模糊控制或人工智能中,跟踪参数变化主要使用条件转移语句,如类似于“IF…THEN…”或一些比较判别语句。这类语句本身并没有什么大的问题,问题是条件带有人为主观因素,因而存在较大的系统误差。神经网络在学习跟踪系统的参数变化时,时时注意到控制参数与系统结构之间的转换,在训练过程中记忆系统参数的内在联系,系统的初始化更加易于实施,效果更加明显,控制结果更加令人满意,系统的鲁棒性明显增强。系统内有一个样本生成环节,用于生成训练样本。由于参数随时变化,需要一个样本生成的参照系,参照系由神经网络承担。

变结构控制系统的不足之处是难于实施神经网络的在线训练。6.2.5神经网络智能方法

神经网络的学习功能是一种智能行为,它与其它智能学科有相同或相近的设计方式。将神经网络与模糊控制、人工智能、专家系统相结合,可构成各具特色的模糊神经控制、智能神经控制、专家神经系统等,它们形成了自己的设计方法。一种典型的模糊神经控制系统的基本结构如图6-8所示。图6-8模糊神经控制系统6.2.6神经网络优化设计方法

神经网络能够复现各种复杂的优化运算,是因为带隐层的三层网络能够以任意精度逼近任何非线性函数。网络能够完成的优化运算有最优化求解、矩阵求逆、Lyapunov方程求解、Riccati方程求解等。神经计算目前已经演变成一门学科分支。在最优化过程中设计神经算法的好处是更接近系统实际、迭代速度快、系统结构清晰简明,尤其是有连续量与离散量并存的系统。具体实例有使用Hopfield网络对广义预测系统中的矩阵求逆问题进行求解,对被控对象的数学模型进行在线辨识等等。

6.3神经辨识器的设计方法

系统辨识的基本任务就是寻求到满足一定条件的一个模型。由于“一组给定模型”是人为给出的,如果内部包括有与实际被控系统完全等价的模型,那么就完全用不着给出一组进行辨识。事实上不可能找到与被控系统完全等价的模型,只能选一个相近的模型。这样做当然也会带来一个问题,给出一组什么样的“给定模型”是至关重要的。如果给出的一组模型中,个个都与实际被控系统相差巨大,那么再好的神经辨识也无能为力。系统辨识的等价准则是识别模型接近被控系统的误差标准,在数学上为一个误差的泛函,用

J=‖e‖

表示,其中最常见的是L2范数。

神经辨识器的设计方法在于确定一个原则,选择一个模型,将所选模型的动态、静态特性与被控系统的动态、静态特性最大限度地拟合。图6-9所示是神经辨识系统的基本结构。图6-9神经辨识系统

6.4PID神经控制系统

PID控制是工业过程控制中使用历史最为久远、范围最为广泛的控制调节方式。PID控制器具有鲁棒性强、结构简单、易于实现、控制过程直观等优点,在控制系统中不可被其它控制方式替代。但是,对于那些在复杂生产环境下的被控对象,由于存在非线性、干扰、不确定性等问题,致使常规PID控制难以获得最佳调节参数。工业对象通常具有时变性,很难在全工作范围或长期工作时间内始终保持最优。为此,人们提出了一些改进办法,例如自适应PID控制等。但是,自适应控制主要用于线性情况。工业控制遇到的问题是非线性对象,用常规PID就难以达到目的。6.4.1PID神经控制系统框图

设被控对象的数学模型为

y(t)=f[y(t-1),y(t-2),…,y(t-n),u(t-1),u(t-2),…,u(t-m)]

该模型表示被控系统是一个单输入单输出的非线性系统,f

[·]用来表示非线性关系,是一个未知量;y(t)是系统的输出,阶次为n;u(t)是系统的输入,阶次为m。

为了将未知的f[·]辨识出来,在PID神经控制系统中,除了神经控制器NNC外,还需要神经辨识器NNI。由此组成的PID神经控制系统的结构框图如图6-10所示。图6-10PID神经控制系统从图6-10中可以看到,PID神经控制系统采用串-并联结构,PID神经控制器与被控对象串联连接,神经辨识器与被控对象并联连接。

神经辨识器NNI采用3层BP网络,接受两个输入,分别是u(t)和y(t)。将u(t)和y(t)合在一起用x(t)表示,写成

x(t)=[y(t-1),y(t-2),…,y(t-n),u(t-1),u(t-2),…,u(t-m)]

NNI的输入表达式x(t)表明网络输入层有n+m-1个神经元。网络隐层神经元个数n0≥n+m-1,输入输出关系为Oi(t)=g[neti(t)]式中,wij为权系数,θi

是阈值,g[·]是作用函数,且g(x)=(1-e-x)/(1+e-x)。

NNI仅有一个输出,分别送到两个比较环节,在与控制系统的输入r(t)和输出y(t)比较后,分别成为神经控制器和神经辨识器的学习算法信号。输出记为式中,z(t+1)是NNI的输出,vi是权系数,α是阈值,学习性能指标为当取Jm极小值时,权系数调整规律为Δvi(t)=αε(t+1)Oi(t)+βΔvi(t-1)Δγ(t)=αε(t+1)+βΔγ(t-1)Δwij(t)=αε(t+1)g′[net(t)]vi(t)xj(t)+βΔwij(t-1)Δθij(t)=αε(t+1)g′[net(t)]vi(t)+βΔθij(t-1)ε(t+1)=y(t+1)-z(t+1)g′(·)=0.5[1-g2(·)]Δu(t)=u(t)-u(t-1)式中,α、β分别是学习率和惯性系数,取值范围为(0,1)。6.4.2PID神经调节器的参数整定

PID神经调节器与常规线性系统的PID调节器具有完全相同的形式。本节选择一个带隐层的三层神经网络作PID调节器,讨论参数整定的方法。

当PID调节器的控制参数基于算法来完成调整时,选用的常常是梯度下降法。设三层网络调节器的输入为e(t),

e(t)-e(t-1),e(t)-2e(t-1)+e(t-2),

网络的I/O关系式可写出,调节器输出增量用

Δu(t)=f[e(t),e(t)-e(t-1),e(t)-2e(t-1)+e(t-2)]

描述,等式右边f[·]是非线性函数。相应地,

u(t)=u(t-1)+Δu(t)权系数的调整公式为

Δwij(t)=αε(t+1)+g′[net(t)]vi(t)xj(t)+βΔwij(t-1)

式中,α、β分别为学习修正率及惯性系数,ε是误差系数,g′[·]是作用函数。进一步有

ε(t+1)=r(t+1)-y(t+1)=e(t+1)

学习修正率α的取值直接影响到学习速度,为了加快收敛速度,一般都采用改变修正率的措施,变步长的方法如下:

(1)设计算性能指标为检查

J(t)<βJ(t-1)是否成立。如果成立,则表明在u(t)作用下,系统的跟踪误差大大减小,实现J(t)的目标也比较明显。学习修正率α的调整公式如下:如果α(t)增大,则表示学习强度增强,收敛加快。

(2)如果J(t)<βJ(t-1)不成立,应保持学习修正率α(t)不变。

(3)惯性系统β的取值小些有利于收敛,如取0.2<β<0.7用于快速系统;取0.6<β<0.99用于慢速调节。β值的选取不必非得始终一致,取得小有利于快速,取得大有利于慢速平缓,为使系统响应过程良好,可取β先大后小。

6.5模型参考自适应神经控制系统

反馈是保护系统稳定的一种有效措施。当控制对象参数发生变化或运行环境发生变化时,为了保证系统具备良好的动态性能,负反馈是一种有力的措施,由此产生了自适应控制策略。由于负反馈的存在,自适应才成为可能。如果被控对象属于线性系统或可将其线性处理的非线性系统,有两种不同的自适应控制方式可供选择:一种是参考自适应控制,另一种是自校正控制。前一种是本节叙述的内容,后一种在后面介绍。模型参考自适应系统方案由美国MIT的Witark教授在1958年提出。这种系统的基本结构由参考模型、反馈控制器、预处理环节等三部分组成,参考模型起前馈控制作用。

系统的基本框架图如图6-11所示。图6-11模型参考自适应系统基本结构6.5.1两种不同的自适应控制方式

模型参考自适应系统的基本结构来源于一般线性对象自适应系统。为了保证控制系统对给定值有良好的跟踪能力和抑制干扰能力,通常将控制器分成前馈控制和反馈控制两部

分。其中前馈控制按照期望输出的要求产生控制信号,便于获得良好的动态响应或针对扰动产生合适的补偿信号,用于良好的跟踪和较强的抑制干扰。反馈控制器是根据期望输出

与实际输出之间的差值产生控制信号,两者共同作用于被控对象。前馈控制器作参考模型使用,在经过预处理后,能达到预期的动态响应。反馈控制器的参数整定依赖于期望输出与实际输出之差。因此模型参考自适应系统的控制策略是:由

于实际输出与期望输出有差别,通过反馈控制的反馈调节,在参考模型的影响下,使实际输出不断地逼近期望输出,逼近的方法采用梯度下降法。

梯度下降法虽然能够调整控制器的参数,但却不能确切地保证系统稳定,因此在20世纪70年代又有人提出基于李雅普诺夫(Lyapunov)稳定性和基于波波夫(Popov)超稳定性的设计方法。模型参考自适应系统最初是为线性系统或可线性化的非线性系统设计的,当被控对象为非线性对象时,人们自然而然联想到参考模型使用神经网络,神经网络自适应控制器

应运而生,它是神经网络与自适应控制方式结合的产物。

神经网络自适应控制器的设计可以采用两种方法:一种是直接法,要点是按照期望输出与实际输出之差去调节控制器参数,直接进行控制;另一种是间接法,要点是通过系统

辨识获得被控对象的数学模型,再按照事先提出的控制设计指标设计控制器参数。神经网络自适应控制器同样需要学习训练。直接法设计的训练过程被称为特定学习,这是一种边控制边学习的方法,把控制器设计与控制满意程度紧密结合,神经网络加权值的调整依靠期望输出与实际输出之差来完成。这种训练有助于自动适应对象与环境的变化。

间接设计的训练过程被称为泛化学习,这是一种利用被控对象的输入输出数据样本对进行学习的方法,学习被控对象的逆模型或预报模型。控制器的训练与控制分开进行。训练阶段的训练方法是:随机产生一个控制信号加在被控制对象上,被控对象必然会产生一个输出信号,利用此控制信号和此输出信号来训练控制器,最终使控制器产生合适的控制

信号让被控对象的输出信号逼近期望输出。间接设计的神经网络自适应控制器存在一个问题:由于训练阶段不能保证被控对象的输出在允许的工作范围内,那么在控制阶段,被控对象的输出就有可能超出允许的工作范围,从而使控制出现失误。产生这种失误的原因只有一个,就是被控对象是动态因果系统导致神经网络自适应控制器难于等同它的逆系统。为了避免这种失误,通常设定被控对象的动态特性固定不变。如果被控对象的动态特性实际上变化明显,那么就不适合使用这种设计方法。

神经网络在模型参考自适应系统中作辨识器和控制器使用,相应地,按控制器的设计方法,也可以分成两种:一种是直接调整加权值的直接设计模型参考自适应系统;另一种是在线辨识间接设计控制器的间接设计模型参考自适应系统。6.5.2间接设计模型参考自适应神经控制系统

间接设计模型参考自适应神经系统由参考模型、神经网络辨识器、神经网络控制器、非线性被控对象等部件组成,其原理框图如图6-12所示。在这种系统中,使用了两个神经网络,一个用做辨识器,一个用做控制器。

神经网络辨识器的主要功能是利用截至目前为止的所有输入模式样本预报下一步对象的输出y(k+1),预报的准确程度由偏差e(k+1)来度量:

e(k+1)=y(k+1)-ys(k+1)图6-12间接设计模型参考自适应系统

1.逆模型设计

所谓逆模型参考自适应的含义在于:系统在输入控制信号u(k)的控制下,使得非线性被控对象的输出y(k)与参考模型的输出ys(k)之差限制在给定的范围之内,即式中,ε是一个事先随机产生的小的正数。这时,被控对象与参数模型有相同的输入模式样本。在间接设计模型参考自适应系统中,参考模型由神经网络生成。辨识选用二次指标准则:线性系统的控制器设计一般定义在李雅普诺夫(Lyapunov)稳定性或波波夫(Popov)稳定性层面上,为稳定而设置的负反馈成为控制器的主要结构。

用神经网络构成的控制器采用逆模型的方式实现控制,可以分成两种不同的情况:

第一种,显式逆模型控制,当神经控制器成功描述出系统动力学特征后,如果被控对象的输入控制信号是涵盖神经网络输出yq(k+1)的显式函数:

u(k)=f[y(k),y(k-1),…,u(k-1),…,u(k-n),yq(k+1)]

则神经控制器将直接参与系统的控制作用,完成神经显式逆模型控制。第二种,隐式逆模型控制,适用于系统输入u(k),不能用y(k),y(k-1),…,y(k-n),u(k-1),…等显函数表示出来,它们之间的关系只能用隐函数表示。在这种情况下,控制器可以在辨识器的基础上开展训练,训练结果只求显式关系清楚。控制器用于训练的性能指标取:式中,e为神经网络控制器的输入偏差信号;t是控制周期,表示神经控制器的参数每隔t步调整一次。控制周期与辨识周期相比通常前者小、后者大,这种设置来自于一些传统自适应控制的经验。控制周期短意味着控制作用频繁,辨识作用相对延缓,这样有利于接近被控对象的控制规律。但是,两个周期都不宜取过大的值,不宜拉大控制周期与辨识周期之间的差距,否则就有可能因被控对象不理睬而失控,使输出误差愈来愈大。

现用实例说明神经网络控制器的设计。设被控对象的真实模型为

y(k+1)=f[y(k),y(k-1)]+g[u(k)]对g[u(k)],可分成几种不同的情况。

1)g[u(k)]=u(k)

辨识神经网络选用4层前向网络,各层节点数为2×20×10×1,f[·]为被辨识对象,辨识模型为

yq(k+1)=N1[y(k),y(k-1)]+u(k)

式中,N1[·]是神经网络辨识器的输入。为了保证系统输入输出有界,辨识所用的信号是均匀分布在[-2,2]区间上的输入白噪声序列。同时,为保证系统的稳定性,选择参考模型为低阶线性模型,比如形式为

ym(k+1)=0.6ym(k)+0.2ym(k-1)+r(k)其中,r(k)是参考模型的参考输入量,控制输入u(k)能表示成y(k),y(k+1)的显函数,神经网络控制器就能在神经网络辨识器的基础上直接复制,相应的稳定性要求是

u(k)=-N1[y(k),y(k-1)]+0.6y(k)+0.2y(k-1)+r(k)

对应闭环系统的误差方程为

e(k+1)=0.6e(k)+0.2e(k)

由于,则系统渐近稳定。

2)g[u(k)]=u3(k)

当设计前f[·]和g[·]都未知时,可取辨识模型为

yb(k+1)=N1[y(k),y(k-1)]+Nb[u(k)]

理想控制信号选择成

u(k)=g-1{-N[y(k),y(k-1)]+0.6y(k)+0.2y(k-1)+r(k)}

神经控制器的设计需要考虑y(k),y(k-1)等状态的影响,可选择神经网络控制器的输入信号为

u(k)=Nc{-Nf[y(k),y(k-1)]+0.6y(k)+0.2y(k-1)+r(k)}

式中,Nf[·]是反馈网络的函数传递关系,r(k)是一个网络值,大小为选择r(k)的目的是为了满足

N1[Nc(r)]=r

的需要,这样可实现g[·]的近似逆。具体在进行训练时,选择u(k)为位于[-4,4]之间均匀分布的白噪声,好处是神经辨识器与神经反馈网络起作用的范围延伸到非线性范围,显得更加广泛,这时的辨识区间为[-2,2]。训练神经控制器,做到Nb[Nc(r)]=r,网络训练的方法既可以用常规BP算法,也可以用动态BP算法。

2.逆模型不存在时的设计

前面介绍了逆模型存在时的设计过程,当控制系统的逆模型不存在时,就不能使用上述方法。但可以把神经网络控制器的训练用两个输出信号之差来展开,设这个差值为e(t),两个输出信号分别为系统辨识模型的输出yb(t)和参考模型的输出yc(t):

e(t)=yb(t)-yc(t)

yb(t)既然是辨识模型的输出,那它就不是被控对象的输出y(t)。

有了误差e(t)作导师信号进行训练,还需要确定相应的训练准则,这里可选择式中,ε是一个事先给定的任意小正数。

逆模型不存在时的控制系统结构图如图6-13所示。

现举例说明。设系统模型为

y(k+1)=f[y(k)]+g[u(k)]

f[u(k)]=[u(k)+1]u(k)[u(k)-1]设参考模型为

yc(k+1)=0.6y(k)+r(k)系统输入为图6-13逆模型不存在时的系统结构图因本例中的y[u(k)]不可逆,训练用动态BP算法,取

a=0.25

神经控制器选用4层2×20×20×1结构,T=1,η=0.001,训练十万步后参考模型的输出yc将与网络输出yb达到一致。

a的作用是影响非线性范围及训练时间,a越大,非线性范围越大,训练时间将增加。在使用BP算法的过程中,为了加快训练速度,可以改用修正BP算法或用于辨识的非BP

算法。6.5.3直接设计模型参考自适应神经控制系统

直接设计模型参考自适应系统是在加快学习速度的要求下引入的,这种自适应方案可以省去“间接神经网络”,这样就少训练一个网络,节省一部分时间。需要说明的是:尽管少了一个神经网络,但并不表明这个网络是多余的,而是在直接设计模型参考自适应控制方案中,它用不需训练的功能电路代替。直接设计模型参考自适应系统的基本结构如图6-14所示。

直接自适应系统由神经控制器、非线性被控对象、线性参考模型和线性增益控制器等几部分组成,非线性被控对象的控制信号u(t)由三部分叠加而成:

u(t)=k1r(t)-kTxt(t)+un(t)图6-14直接设计模型参考自适应系统式中,k1是输入增益矩阵,r(t)是系统的输入,xp(t)是非线性被控对象的状态矢量,k是线性参考模型的状态反馈增益矩阵,un(t)是神经控制器的输出,且有

un(t)=f[tp(t),xm(t),r(t)]

式中,xm(t)是参考模型的状态向量。神经控制器的训练准则为

式中,yp(k)和y1(k)分别是非线性被控对象和线性参考模型的输出。使用的算法是基于梯度下降的BP算法。在利用误差e(k)对神经控制器的连接权进行训练时,需要使用修正

值,以满足误差在通道上传递的需要。如果被控对象的Jacobian阵已知,选择的连接权修正公式就为式中,η(k)是步长,其大小可根据梯度矢量的大小调整,调整的方向选择为加快收敛速度的方向。如果Jacobian阵未知,可选择如下两种方法修正连接权:一种是利用Jacobian阵的符号取代Jacobian阵,进行连接权系数反向传播修正;另一种是增加一个神经网络模拟被控

对象,相当于改用间接神经网络参考模型自适应调整,使用的神经网络仅仅当作一个信息通道,在这个通道上,误差信号由输出端反传到神经控制器。Jacobian阵虽然未知,但却

可以通过在线辨识获得。辨识过程如下:

设非线性系统的描述方程为yp(k+1)=f[yp(k),…,yp(k-n+1),u(k),…,u(k-m+1)]辨识用神经网络为三层感知器,结构为(n+m)×n×1,又设输入层输出层作用函数为线性函数,隐层作用函数取为双曲正切函数tanhx,相应神经网络输出为式中,fq(k)就是一个双曲正切函数:fq(k)中的各系数a、b均通过BP算法确定。由此得神经网络输出的增量为

式中,被控对象的Jacobian阵瞬时值可以求得使用S(k)估算对象的Jacobian阵时,虽然存在不精确的地方,但能反映符号与幅值的变化。要想精确估计,可使用如下跟踪模型:其中,S(k+1)是反映灵敏度的函数,αi、βj的计算公式不变。现举一个连续搅拌反应釜的实例说明。当采用直接设计模型参考自适应系统控制方案时,连续时间非线性微分方程组可表示反应釜的特性:式中,q是过程流量,Ca(t)是平衡浓度比,V是反应釜体积,T0是入口温度,T是加入的冷却剂温度。反应釜的工作原理是:两种化学性质不同的物质在釜内发生化学反应,生成浓度为Ca(t)的化合物,混合温度设为T(t)。如果化学反应是放热反应,相应反应速度必然减缓,为此应加入冷却剂降低温度、加快反应速度,允许加入的冷却剂温度发生变化,流量用q(t)表示。反应釜系统内还有一些物理参数,其常见值如表6-1所示。由于化学反应过程不是线性过程,非线性状态较为明显,这时如果控制器选用线性的PID调节器,明显不能满足控制要求,研究结果表明,非线性突出表现在设定点附近阻尼比变化显著,振荡激烈。

直接式反应釜自适应系统结构如图6-15所示。

考虑到在控制方案中使用了线性参考模型,选择的是线性比例调节,在神经控制器刚进入使用的初级阶段,仍然有比较好的控制效果。选择的控制规律用

q(t)=k[Cs(t)-Ca(t)]+f[Ca(t),T(t),Cs

(t)]+qr图6-15直接反应釜自适应系统结构式中,k是比例系数,Cs是给定值,Ca(t)是网络输出值,qr是稳定状态下稳态浓度对应的控制输入,f[·]是3×40×1的三层BP网络功能函数。

线性参考模型选用二阶标准模型,角频率ω=2.7rad/min,阻尼比ξ=1.0,传递函数为训练的目标函数为建模所用神经网络为6×10×1,网络输出方程为

Ca(k+1)=f[Ca(k),Ca(k-1),…,q(k),g(k-1),…]

反应釜系统神经控制器用估计Jacobian阵曲线,如图6-16所示。由图可见,在神经网络作用下,系统的高度非线性能很好地跟踪线性参考模型。图6-17是参考模型输出与实际输出相比较的情况。这时,设定点变化范围为0.08~0.12mol/L。图6-16神经网络估计Jacobian阵曲线图6-17CSTR在NNMRAC下的响应

6.6预测神经控制系统

预测神经控制系统的基本结构如图6-18所示。

预测神经系统由被控对象、控制器、预测器、滤波器等部件组成,系统的基本结构仍然是闭环负反馈调节结构。

被控对象既可以是线性系统,也可以是非线性系统。线性系统的预测控制相对简单,已经解决;非线性系统的预测控制还存在较多的困难。

控制器的功能针对不同的被控对象而异。对线性系统,它是一般的常规调节器,设置的目的是维护系统的稳定;对非线性系统,它是一个优化器,即实行最优化控制。图6-18预测神经控制系统预测器用于提供输出的预报值,它必须能够模拟或描述被控对象的动态行为。

滤波器是一个反馈部件,它把误差信号

e1(t)=y(t)-x(t)

经滤波后作负反馈信号。6.6.1预测控制的基本特征

预测控制是一种基于模型的控制方式,最早源于20世纪70年代末期,是一种较为新型的计算机控制算法。这种算法有三个特征:

建立预测模型、实现滚动优化和反馈校正预测。

1.建立预测模型

在系统中建立预测模型,就是要较为精确地描述系统的动态过程,按照系统的输入/输出当前值,预测系统的走向或输出未来值。

对系统的输出进行预测,首要条件是知道系统的结构及其数学描述。对于线性系统,可以充分利用其数学模型和状态空间模型,利用系统的阶跃响应和脉冲响应,使用叠加原理等手段,预测系统的未来输出。

对于非线性系统,也必须充分利用其数学模型及其描述,利用对非线性方程的求解来推断预测未来。由于非线性系统的数学模型难于确定,非线性系统的结构经常不能用常规方法描述,导致非线性系统的预测困难较大。目前,解决非线性系统预测控制的方法有两个:一个是在允许的误差范围内将非线性系统线性化;另一个是使用神经网络作预测器,因为神经网络通过辨识手段,能很好复现非线性过程。神经网络预测器的功能是在控制信号u(t)和系统输出y(t)的作用下,为系统提供输出预测值x(t+j/t)(j=N,N+1,…,P),其中N为最小输出预测区间,P为最大输出预测区间。

2.实现滚动优化

实现滚动优化必须要求选择性能指标函数。在神经网络预测控制中选择的性能指标函数为式中,ed(t)是未来误差,其值等于未来时刻的期望值yd(t)与未来时刻的预测值x(t)之差:

ed(t+j)=yd(t+j)-y(t+j)M是控制范围,又称为控制长度,表示未来控制量的考虑范围;Δu是控制量u(t)的变化值;r是加权系数,表示控制量变化率Δu的重要程度。上式中未来时刻的预测值x(t+j)是由神经预测器提供的。如果神经预测器提供的预测值有足够的精度,那么只需要未来时刻期望值yd(t)为已知,从指标函数J(N,P,M)就能获得未来控制量Δu(t)。

对于控制长度M,在每个采样点,能算出未来范围的控制量所具有的时间长度。

所谓滚动优化是指:每一步的控制只能算出当前的控制量u(t),控制过程是一步一步向前推进的过程。在下一t时刻,重新计算出来的控制量必然不同于此前的控制量,因

此必须重新优化。

3.反馈校正预测

引进负反馈的目的是为了提高预测的稳定性,反馈信号为被控对象的输出y(t)与神经网络预测量输出x(t)之差:

e1(t)=y(t)-x(t)

式中,y(t)和x(t)都是当前实际输出值。6.6.2神经网络预测算法

第一步,获取未来期望输出序列值yd(t+j)(j=N,N+1,…,P);

第二步,从神经网络预测器获取预测输出x(t+j/t);

第三步,以上一步的误差为基础,修正可能的误差:第四步,计算未来误差:第五步,将性能指标极小化,获得控制的最优序列u(t+j)(j=0,1,2,…,M);第六步,将第一控制量u(t)作用于系统,返回第一步。6.6.3单神经元预测器

能够作预测器的神经网络有单神经元、多层前向网络、

辐射基函数网络和Hopfield神经网络等。

利用自适应单神经元APE能够对系统的输出完成预测,连接权调整的公式为

wi(t+1)=wi(t)+λie(t)pi(t)

式中,λi是学习步长;wi(t)是t时刻连接权;e(t)是t+1时刻实际输出值与预测值之差:

e(t)=y(t+1)-ym1(t+1)

式中,y(t+1)和ym1(t+1)分别是t+1时刻预测器的期望值和预测值。其中预测值可表示成

式中,k是连接权加权系数;pi(t)是第i次预测长度;n是次数,设n=3,取三个状态x1(t)、x2(t)、x3(t)分别为

p1(t)=ym1(t)

p2(t)=u(t)

p3(t)=1

在预测控制算法中常采取单值预测控制,以减少计算量并节省内存容量。单值预测控制只预测以后的某一步输出,例如第i步输出yi(t+j),此时能做出的输出值预报为

Yd(t+j)=ym(t+j)+[y(t)-ym(t)]上式中j为预报的步长,y(t)是系统的实际输出,[y(t)-ym(t)]是对输出预测值的反馈校正信号。

考虑到预测控制仅用当前步作控制用,预测步数与控制步数之差决定了控制效果,因而控制步数可以选择为1,表示成

u(t+i)=u(t)

式中,i的取值为[1,j-1]。第j步输出为

ym(t+j)=w1ym(t)+w2u(t)+w3

式中,w1、w2、w3反映了各项的权重,它们的大小为

w1=w1(t+j-1)w2(t+j-2)…w1(t+1)w1(t)

w2=w1(t-1)w2(t)+w1(t+1)w2(t+1)+…

+w1(t+j-1)w2(t+j-2)+w2(t+j-1)

w3=w1(t+1)w3(t)+w1(t+2)w3(t+1)+…

+w1(t+j-1)w3(t+j-2)+w3(t+j-1)

若控制作用求解前,单神经元已训练结束,进入稳态,则有

wi(t)=wi

i=1,2,3

有ym(t+j)=(w1*)pym(t)+[(j-1)w*1+1]w*2u(t)+[(j-1)w*1+1]

w*3控制器的设计考虑如下:用Sp表示期望设定值,跟踪的参考轨迹采用指数型柔化形式:

yr(t+j)=ay(t)+(1-a)Sp

式中,yr(t+j)为在t时刻计算的t+j时刻的输出参考轨迹;a是柔化系数,一般是一个小于1的正数。

当预测控制器用单神经元构成时,其作用函数选用S型函数,学习算法的优化目标函数选择为输入输出关系式为式中,f(·)为K为神经元比例系数。连接权修正公式为

vi(t+1)=vi(t)+ηi(yr(t+j)-yc(t+j))xi(t)式中,ηi是学习步长;u(t)是控制器输出且有u(t)∈[-k,k];xi(t)是输入状态,分别有

x1(t)=y1(t+j)-yc(t+j)

x2(t)=x1(t)-x1(t-1)

x3(t)=yr(t+j)将wi(t)=w*i用于单神经元的学习算法时,设目标函数为能让Em达到极小,因为本式等价于连接权的增量

Δwi(t)=wi(t+1)-wi(t)=λie(t)Pi(t)可见wi(t)的修正方向沿Em关于wi(t)的负梯度进行,显然当wi(t)=w*i时,Em能达到极小,由此,

minEm=0

按照同样的证明方法,能够证明优化目标函数选择为时,只要设vi(t)=v*i,也能使Ec取极小值,且有

minEc=0单神经元预测控制器所采用的算法中,其收敛性与系统的稳定性是等价的,只要学习步长小,误差就能沿梯度方向下降,最终趋向极小值0,从而保证了系统的稳定。6.6.4多层前向网络预测器

使用多层前向网络组成预测器时,通常利用阶跃响应数据,采用动态矩阵控制方法进行。本节介绍使用三层前向网络预测未来时刻的输出。

设系统阶跃预测模型为{ai}(i=1,2,…),则线性系统预测控制器为

ΔUM(k)=(ATQA+R)-1ATQ[Yd(t)-YP0(t)]

式中,Q,R是性能指标

J=‖Yd(t)-YPM(t)‖Q+‖ΔUM‖R

的加权矩阵;A是动态矩阵,元素为ai:Yd(t)是跟踪期望矢量;YP0(t)是零输入预测矢量;YPM(t)是跟踪预测矢量;P和M分别是预测长度和控制长度。设三层前向网络的输入层有M个神经元,输出层有P个神经元,隐层有NH个神经元。为方便计,常选择NH≥M。网络输入矢量设为

ΔUM(t)=[Δu(t,t),Δu(t+1,t),…,Δu(t+M-1,t)]T设控制器为

F=(ATQA+R)-1ATQ其输入采用误差矢量

E(t)=Yd(t)-YP0(t)

输出就是控制增量矢量ΔUM(t)。ΔUM(t)用来改善控制性能,方法是改变u(t),修正u(t)成为前M个时刻u(t,t-i+1)的信息加权平均值,用式子表示成式中,di为加权系数,通常取值为

d1=1>d2>d3>…>dM改进BP算法的方法有以下几点:

(1)先对BP网络离线训练再投入系统运行,减少在线学习机会。

(2)在控制算法中引入中断,用中断服务程序完成预测控制,BP算法放入主程序。这样仅需调整中断服务程序,主程序无需过多修改。

(3)在多个采样周期内完成一次学习,学习结束后再调整加权值。

举例说明,设

y(t)=1.2y(t-1)-0.36y(t-2)+0.1u(t)+0.2u(t-1)选P=10,M=5,N=1,Q=1,R=0.11,校正系数hi=1(i=1~10),di=e1-i(i=1~5)。

由此预测的系统响应如图6-19所示,图中曲线1为仅加u(t)的原始算法,曲线2为改进算法。图6-19预测的系统响应6.6.5辐射基函数网络预测器

辐射基函数网络简称RBP网络。与BP网络一样,RBP网络也是一种多层前向网络。与BP网络不同的是,RBP采用的作用函数是辐射基函数,其特点是输出对参数存在局部线性,因此网络训练优化可以避开非线性,不存在局部极小,学习速度远快于BP算法。

RBP网络的拓扑结构能在训练过程中确定。

设网络的输入有n个,输出有m个,能实现的映射为式中,Φ(·)为辐射基函数;‖·‖为欧氏范数;X∈Rn;

Λ0∈Rm,为常偏置矢量;Λj∈Rm(j=1,2,…,M);Cj∈Rn(j=1,2,…,M),为辐射基函数中心;M为选定的中心个数。

Λ=[λmj]T

j=0,1,2,…,M

则用三层网络能实现f1(x),输入层、输出层的作用函数选用线性函数,隐层作用函数选用

Φ(v)=v2logvRBP的连接权在线调节用最小二乘形式:式中,d(t)为期望输出,Qi为参数,Pi(t)为回归因子,e(t)为误差。如果e(t)和Pi(t)不相关,则可用标准RLS算法在线调整神经网络的连接权。RLS算法为:

λ(t+1)=λ(t)+Δλ(t)使用PID形式的修正式以提高算法收敛性:式中,KP为比例系数,KI为积分系数,KD为微分系数。6.6.6Hopfield网络预测器

考虑被控对象为SISO线性系统,脉冲响应为{hi},基于脉冲响应的数学模型为

ym(t+1)=g1u(t)+g2u(t-1)+…+gNu(t-N+1)

=Gm(Z-1)u(t)

相应算法如下:基于Gm(Z)的多步输出预测为

yp(t+j)=ym(t+j)+hje(t)

式中,{yp(t)}是预测输出序列;hj是误差修正系数;e(t)=y(t)-ym(t),是预测误差;j=1,2,…,P;P是预测长度。性能指标函数取为式中,M为控制时域长度;λj为加权系数;yr(t+j)为输入参考信号;N为模型长度,常取P=M=N。将yp(t+j)表达式代入到J中,整理可得

J=J1+J2+J3+J4+J5+J6+J7式中,其中,xij,wij,mi,qi,ri,y(t+i),λ均为中间变量。在t时刻,J2,J5,J6三项均为确定项。因而使J为最小等价于以下式为最小:Hopfield网络的计算能量函数为对比J和E的表达式,可知u(t+i-1)与第i个神经元的输出vi相对应。Tij和Ii分别是加权值及偏流,它们分别为

其中,i=1,2,…,N;当i=N时,mi=0。

Hopfield网络可由选择加权值Tij和偏置Ii来实现,这时它的输入偏置是系统输出预测值yi(t+i)的滤波值,输出是控制量u(t+i-1),其中i=1,2,…,N。以线性系统为例,系统为

(1+0.5z-1)y(t)=(0.5+0.2z-1)u(t-2)+ξ(t)使用上述方法构成控制器,取λ=0.5,hi=1,y(t)是辐值为1的方波,ξ(t)是方差0.001的随机白噪声,仿真结果令人满意。

6.7自校正神经控制系统

自校正控制(Self-TuningControl)简称STC,主要用在两种场合:

(1)被控对象是线性系统但不确定,且存在随机干扰噪声;

(2)被控对象是非线性系统。6.7.1自校正神经控制系统的基本结构

自校正控制系统有两种基本结构:直接型和间接型。

1.直接型自校正控制(DSTC)

DSTC是一种开环控制,其结构如图6-20所示。

神经控制器位于前馈通道上,设被控对象的传递函数为p(z),神经控制的功能是实现构成被控对象的逆模型。这种方式要求神经控制器能在线调整,因此收敛速度较快的一些神经网络才有资格作神经控制器。

被控对象既可以是线性结构,也允许非线性结构,但是一定要求其动态可逆,不可逆的对象不适于使用DSTC。图6-20直接型自校正控制结构图神经逆模型辨识器的功能是实现被控对象p(z)的d阶逆模型(设被控对象是一种非线性系统,有d≥1阶时延且可逆)。在一般的意义上,神经逆模型辨识器与神经控制器具有相同的结构与学习算法,逆模型的精确程度直接决定了系统给定值r制约系统输出值y的精度。

控制信号与辨识器输出之差成为控制器及辨识器的训练信号。

由于使用开环,系统不能有效制止或排除干扰信号。

2.间接型自校正控制(ISTC)

ISTC是一种闭环控制,其结构如图6-21所示。

间接自校正控制经常简称为自校正控制,这是因为在自校正控制中基本上不使用开环控制,仅使用闭环控制。

从结构上看,ISTC有三个特征:

(1)具有负反馈调节的所有系统特征,包括控制器参数的设定及稳定性判断。

(2)在结构上存在两个反馈回路。一个是系统输出y的反馈,神经控制器的偏差输入e(t)为

e(t)=r(t)-y(t)图6-21间接型自校正控制结构图另一个是控制器、辨识器的反馈。控制器的功能是实现参数的自动整定,辨识器的功能是将被控对象的参数进行在线估计。通过辨识与控制器设计,可以获得控制器的参数。

(3)通过辨识器对被控对象的参数在线估计,以及控制器对系统参数的自动整定,实现自适应控制。

自校正控制能够实现的关键问题是如何在线设计辨识器与控制器。6.7.2神经自校正控制算法

现考虑在工程上常见的一类SISO仿射非线性离散系统作为被控对象:

y(k+1)=f0(·)+g0(·)u(k)

式中,

f0(·)=f[y(k),y(k-1),…,y(k-n+1)]

g0(·)=g[u(k-d),…,u(k-d-m+1)]

且m≤n,在不包括原点的区域中有界;u是被控对象的输入;y是被控对象的输出;f0(·)和g0(·)均是非零光滑函数;

d是系统的相对阶次。

1.d=1时

当设相对阶次d=1时,控制器的控制算法为式中,r(k)是期望跟踪的参数信号,即期望输出。从上式可以得知,若f

0

(·)和g0(·)已知,则可计算出控制量u(k);如果f0(·)和g0(·)未知,则需要两个神经网络Nf(·)和Ng(·)分别逼近f0(·)和g0(·):

Nf(·)→f0(·)

Ng(·)→g0(·)方法是通过辨识器在线训练实现。由此控制算法变为式中,Nf(·)和Ng(·)是两个非线性动态神经网络辨识器。

2.d>1时

当设相对阶次d>1时,控制器的控制算法初步选择为但这种选择存在两个问题:

(1)控制量u(t)依赖系统未来的输入和输出,在具体操作中难于实现;

(2)采用对消的方法易使系统变得不稳定。为解决这些问题,首先将系统的输入/输出形式

y(k+1)=f0(·)+g0(·)u(k)改变成状态空间形式:

xn(k+1)=f0[x(k)]+g0[x(k)]xn+m+1(k)

然后借助“零动态响应”研究收敛性。

首先选择状态变量

xi(k)=y(k-n+i)i=1,2,…,n

xn+i(k)=u(k-m-d+i)i=1,2,…,m+d-1

得状态空间式:

xi(k+1)=xi+1(k)i=1,2,…,n-1

xn(k+1)=f0[x(k)]+g0[x(k)]xn+m+1(k)

xn+i(k+1)=xn+i+1(k)i=1,2,…,m+d-2

xn+m+d-1(k)=u(k)

y(k)=xm(k)当d=1时,上面第2个式子可表示成

xn(k+1)=f0[x(k)]+g0[x(k)]u(k)

当d>1时,因系统的未来输出能用状态矢量x(k)的分量表示,且有

xn(k+1)=y(k+1)

系统算法能改写成

式中,Z(k)是状态变换的一种形式,F[·]、G[·]是Z(k)的无限可微函数。6.7.3神经网络逼近

如果非线性被控对象的结构信息n、m、d均已知,但函数关系F[·]、G[·]未知,这时可用两个多层前向神经网络来逼近未知的非线性关系。

1.学习方法与误差

被控对象以输入/输出形式表示成:

y(k+d)=fd-1[x(k)]+gd-1[x(k)]u(k)

当d=1时有

y(k+1)=f0[·]+g0[·]u(k)两个中的每一个多层前向网络选用三层,f0[·]和g0[·]的隐层分别设有p和q个神经元,逼近用的神经网络起辨识作用。辨识器的输入为[x(k),u(k)],输出为式中,w(k)、v(k)是两个网络的连接权系:w(k)=[w0,w1(k),w2(k),…,w2p(k)]v(k)=[v0,v1(k),v2(k),…,v2p(k)]它们的网络逼近结构如图6-22所示。图6-22神经网络逼近结构考虑到d≥1,两个神经网络Nf和Ng能够以任意精度逼近fd-1[x(k)]和gd-1[x(k)],此时设r(k)为系统给定输入,学习算法为在自校正系统结构图中,控制量u(k)同时施加在被控对象及神经网络辨识器上,神经网络的学习方法依靠网络输出与被控对象输出的差值来进行,如图6-23所示。图6-23神经网络的学习方法学习用的误差定义成:

e*(k+1)=y*(k+1)-y(k+1)

式中,y(k+1)=fd-1[x(k-d+1)]+gd-1[x(k-d+1)]u(k-d+1)

2.修正学习算法

θ=[w,v]T

则参数修正规则为:式中,若定义一个死区函数D(e):

d0是死区宽度,为一个小于1的小正数。由此可得修正的学习算法:

3.仿真实例

设被控对象有非线性时变特征,仿真模型为用两个神经网络对系统建模,其中是2×4×4×1的四层前向网络,是单神经元单层网,模型为在实现闭环控制前,选择位于u(k)∈[-2.2,2.2]之间的随机信号,神经网络的训练选用标准BP算法,误差信号e(k+1)=y(k+1)-y*(k+1)对网络训练10000次后,e(k)降至0.05以内。测试次数过大,e(k)并无多大改进。

仿真步骤如下:

(1)预先对神经网络训练20000次,此时的参数θ(k)记为θ(20000)。

(2)将大小为Δ的扰动加到w(20000)和(20000)上,扰动后系统初始输出-2.0,对参考信号r(k)实行跟踪,取r(k)=1.5sin(πk/50)。

(3)运行6000次,检测闭环系统跟踪误差是否收敛。

(4)继续运行8000次,进一步观测闭环系统跟踪误差的收敛性能。

(5)取MATLAB14位小数的精度,观测网络参数是否有变化,如果有,则没有收敛;只有网络参数无变化,才表明跟踪误差已收敛到死区内。

仿真结果如表6-2所示,讨论如下。

(1)当Δ=0时,如果d0不能增加到0.075,即便无扰动,误差也不能收敛到0。

(2)当d0维持0.075不变,逐渐增加Δ,结果是只有当Δ<0.088时,跟踪误差才收敛。

(3)当Δ超过了0.088时,必须相应增加d0。

从上面的讨论可以看到,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论