神经网络控制_第1页
神经网络控制_第2页
神经网络控制_第3页
神经网络控制_第4页
神经网络控制_第5页
已阅读5页,还剩153页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第六章神经网络控制

对象神经网络(neuralnetworks,NN)

生物神经网络(naturalneuralnetwork,NNN):由中枢神经系统(脑和脊髓)及周围神经系统(感觉神经、运动神经等)所构成的错综复杂的神经网络,其中最重要的是脑神经系统。人工神经网络(artificialneuralnetworks,ANN):模拟人脑神经系统的结构和功能,运用大量简单处理单元经广泛连接而组成的人工网络系统。神经网络方法:隐式的知识表示方法人工神经网络:由许多处理单元,又称神经元,按照一定的拓扑结构相互连接而成的一种具有并行计算能力的网络系统。

特点:神经网络系统以大规模模拟并行处理为主,而不以串行离散数学符号处理为基础;神经网络系统具有较强的鲁棒性和容错性,能够进行联想、概括、类比和推广,任何局部的损伤不会影响整体结果;神经网络系统具有较强的自学习能力,系统可以通过不断的学习,不断地补充和完善自己的知识,这是传统的人工智能专家系统所没有的能力。人工神经网络的定义神经网络的基本特征与功能结构特征:并行式处理分布式存储容错性能力特征:自学习自组织自适应性

神经网络的基本特征与功能联想记忆功能非线性映射功能

神经网络的基本特征与功能分类与识别功能

神经网络的基本特征与功能优化计算功能

神经网络的基本特征与功能知识处理功能

神经网络的基本特征与功能发展历史

探索时期(开始于20世纪40年代):

1943年,麦克劳(W.S.McCullocn)和匹茨(W.A.Pitts)首次提出一个神经网络模型——M-P模型。

1949年,赫布(D.O.Hebb)提出改变神经元连接强度的Hebb学习规则。发展历史1958年,罗森布拉特(F.Rosenblatt)提出感知器模型(perceptron)。

1959年,威德罗(B.Widrow)等提出自适应线性元件(adaline)网络,通过训练后可用于抵消通信中的回波和噪声。1960年,他和M.Hoff提出LMS(LeastMeanSquare最小方差)算法的学习规则。

第一次热潮时期:20世纪50年代末-20世纪60年代初

发展历史1969年,明斯基(M.Minsky)等在《Perceptron》中对感知器功能得出悲观结论。

1972年,T.Kohonen和J.Anderson分别提出能完成记忆的新型神经网络。

1976年,S.Grossberg在自组织神经网络方面的研究十分活跃。

低潮时期:20世纪60年代末-20世纪70年代

发展历史

第二次热潮时期:20世纪80年代至今

1982年-1986年,霍普菲尔德(J.J.Hopfield)陆续提出离散的和连续的全互连神经网络模型,并成功求解旅行商问题(TSP)。

1986年,鲁姆尔哈特(Rumelhart)和麦克劳(McCellan)等在《ParallelDistributedProcessing》中提出反向传播学习算法(B-P算法)。

1987年6月,首届国际神经网络学术会议在美国圣地亚哥召开,成立了国际神经网络学会(INNS)。

神经网络控制的研究领域

基于神经网络的系统辨识神经网络控制器神经网络与其他算法(模糊逻辑、专家系统、遗传算法等)相结合优化计算

人类大脑大约包含有1.41011个神经元,每个神经元与大约103~105个其它神经元相连接,构成一个极为庞大而复杂的网络,即生物神经网络。生物神经元及其信息处理

神经生理学和神经解剖学的研究结果表明,神经元(Neuron)是脑组织的基本单元,是人脑信息处理系统的最小单元。生物神经元及其信息处理

生物神经元在结构上由细胞体(Cellbody)

树突(Dendrite)

轴突(Axon)

突触(Synapse)

四部分组成。用来完成神经元间信息的接收、传递和处理。生物神经元及其信息处理信息转换发生在突触上(输入)(输出)

神经冲动生物神经元及其信息处理生物神经元的信息处理机理信息的产生

神经元间信息的产生、传递和处理是一种电化学活动。

神经元状态:静息兴奋抑制

膜电位:极化去极化超极化生物神经元的信息处理机理生物神经元的信息处理机理信息的整合空间整合:同一时刻产生的刺激所引起的膜电位变化,大致等于各单独刺激引起的膜电位变化的代数和。时间整合:各输入脉冲抵达神经元的时间先后不一样。总的突触后膜电位为一段时间内的累积。生物神经网络

由多个生物神经元以确定方式和拓扑结构相互连接即形成生物神经网络。

生物神经网络的功能不是单个神经元信息处理功能的简单叠加。

神经元之间的突触连接方式和连接强度不同并且具有可塑性,这使神经网络在宏观呈现出千变万化的复杂的信息处理能力。人工神经元是生物神经元的数学抽象人工神经元神经元通过信息传递进行工作,它们产生或接收由输出所组成的信息。McCulloch-Pitts模型(1943年)输入输出w2w1w3wnwn-1...x1x2x3…xn-1xny人工神经元McCulloch-Pitts神经元的非线性概念:y是神经元的输出,x是输入矢量,w是突触的权重矢量。如:sigmoid神经元Gaussian神经元人工神经网络输入输出人工神经网络包含有许多个人工神经元,这些人工神经元连接在一起构成一种特殊的网络结构。神经网络的目标是将输入转化为有意义的输出。MP模型

MP神经元模型其他形式的作用函数(a)β=1(b)β=22.阶跃函数

神经网络的数理模型基本运算可归结为四种:积与和权值学习阈值处理非线性函数处理神经网络的工作方式两个阶段组成:学习期:神经元间的联接权值,可由学习规则进行调整,以使目标(准则)函数达最小。工作期:联接权值不变,由网络的输入,得到相应的输出。知识表达神经网络是一个储存经验知识并能够有效运用的系统;神经网络的主要任务是对世界(或环境)中所内含的某种模式进行学习;知识包含两种信息:一种是已知状态,代表我们已经知道的事实,被称之为先验知识;另一种是观测(或测量),即通过某种感知手段所探知的环境信息,这些观测知识通常是包含着噪声或干扰的。神经网络的设计过程首先,要根据先验知识来选择一个适当的神经网络结构,然后用部分实例通过某种算法来训练网络。这个过程被称为学习过程。其次,没有用过的实例被用来对已经训练好的网络的进行测试,试验其性能。这个过程称之为测试(或泛化)过程。学习过程前页提到的学习过程很重要,它说明学习要包含以下顺序事件:

1.神经网络被环境所激励;

2.环境激励的结果是使神经网络发生变化;

3.由于变化对于其内在的结构的作用,使得神经网络以一种新的方式对环境进行响应。神经网络的不同分类

按性能:连续型与离散型确定型与随机型静态与动态网络按联接方式:前馈(前向)型与反馈型

按逼近特性:全局逼近型与局部逼近型按学习方式:有导师的学习(监督学习)无导师的学习(无监督学习)再励学习(强化学习)它们都是模拟人适应环境的学习过程的一种机器学习模型,因此,具有学习能力的系统,称:学习系统(学习机)5. 按工作方式:同步与异步前馈型(前向型)

反馈型

(Hopfield神经网络)同步(并行)方式:任一时刻神经网络中所有神经元同时调整状态。异步(串行)方式:任一时刻只有一个神经元调整状态,而其它神经元的状态保持不变。有导师的学习(监督学习)

在学习过程中,网络根据实际输出与期望输出的比较,进行联接权系的调整,将期望输出称为导师信号。 导师信号是评价学习的标准(见图)。期望输出实际输出学习机输入NN比较有导师的学习(监督学习)有导师学习的特点:1、有外部教师;2、有错误纠正机制。常用的方法有:1、最小二乘法(LMS);2、反向传播算法(BP)。运行方式:1、离线;2、在线。无导师的学习

(无监督、或称自组织)

无导师信号提供给网络,网络能根据其特有的结构和学习规则,进行联接权系的调整,此时,网络的学习评价标准隐含于其内部(见图)。实际输出学习机输入NN自我比较无导师的学习

(无监督、或称自组织)无导师学习的特点:1、没有外部教师或监督机制;2、使用竞争学习方式;3、数据内部所具有的特性(苹果和梨子)。再励学习(强化学习)

把学习看为试探评价过程,学习机选择一动作作用于环境,环境的状态改变,并产生再励信号反馈至学习机,学习机依据再励信号与环境当前的状态,再选择下一动作作用于环境,选择的原则是使受到奖励的可能性增大(见图)。状态输入NN1NN2

学习机输出---动作

环境re学习——修改权重对于神经网络来说,学习的过程就是修改其连接突触的权重wkj的过程。令wkj为n时刻的突触权重,则n时刻权重的调整值wkj是突触权重wkj(n)与一个修正值之和:通常,wkj(0)可以随机设置。误差调整学习神经元k在n时刻的输出误差为:误差之和为:瞬时值:实际响应期望响应统计期望调整

——学习率,>0这个学习过程就类似于一个闭环反馈过程。学习过程的稳定性取决于学习率的选择:小的学习率可以使得系统收敛于一个稳定的解;大的学习率可以加速学习的过程。误差调整学习Hebbian学习这是所有学习规则中最有名的一个,是神经心理学家Heb(1949)提出的:这个强调的是输入输出信号之间的联系。它对神经元的修改强调输入激励下大的输出信号。竞争学习对神经元k来说,输入样本x的网络输出必须是最大,才能成为赢家。获胜神经元得到全部的输出值,也被称为“winner-takes-all”规则。Boltzmann学习应用随机学习算法(Boltzmann分布),HintonandSejnowski,1986提出“模拟退火算法”。神经元组成一个回归结构,以二进位方法进行运作。这个机制由一个能量函数来描述这里,si

是神经元i的状态。

ij表示该机制不允许神经元自反馈。该机制运作如下:在学习过程中的某步,随机选择一个神经元,比如神经元j;计算在温度T的前提下,神经元j

从状态sj

转到-sj

的概率 这里,Ei

是能量变换;T是伪温度,不是物理学意义上的温度。Boltzmann学习感知器

单层感知器单层感知器感知器的功能w1jx1+w2jx2-Tj=0

学习算法步骤

学习算法步骤

根据某样本训练时,均方差随训练次数的收敛情况例子:

例子:与非门逻辑

与非门属于线性可分问题。以下方程可以将超平面分为两个决定域:x1x1y

001011101110x1x2y=-3/2w1=-1w2=-1-x2x1Classe1Classe2单层感知器特点

用于两类模式分类时,相当于在高维样本空间中,用一个超平面将两类样本分开。已证明:若输入的两类模式是线性可分集合(指存在一个超平面能将其分开),则算法一定收敛。局限性:若输入模式为线性不可分集合,网络的学习算法不收敛,不能进行正确分类。【例】线性可分集合

(a)

分类器结构

å

2w

1w

q-=0w

y

10=u

21uu

1u

2u

(b)

平面上两类模式分界线

平面上两类模式分类

(2)三维空间上的两类模式,见表。

2u

1u

q-=0w

10=u

y

1w

3w

2w

å

321uuu

三维空间上的两类模式分类

(3)可引伸到n>3维空间上的线性可分集合,一定可找到一超平面,将输入模式分为两类。由n输入/单输出的单层感知器实现。【例】

线性不可分集合。

二维平面上的两类模式——异或(XOR)问题,见表。二维平面中不存在一条直线,将输入模式分为两类,此输入模式称线性不可分集合,见图。可见:单层感知器不能解决异或问题。

uu12

y

00

0

01

1

10

1

11

0

异或问题

2u

1u

多层感知器

W2

W1

y

2z

21uu

1z

三层感知器结构

三层感知器解决异或(XOR)问题

W2

W1

y

2z

21uu

1z

三层感知器结构

模式空间分两类

1u

2u

三层感知器可识别任一凸多边形或无界的凸区域。

更多层感知器网络,可识别更为复杂的图形。

多层前馈网络与BP学习算法

多层前馈网络的反向传播(BP)学习算法,简称BP算法,是有导师的学习,它是梯度下降法在多层前馈网中的应用。网络结构见图,u、y是网络的输入、输出向量,神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(图中是单隐层),前层至后层节点通过权联接。由于用BP学习算法,所以常称BP神经网络。

BP学习算法已知网络的输入/输出样本,即导师信号。BP学习算法由正向传播和反向传播组成:正向传播是输入信号从输入层经隐层,传向输出层,若输出层得到了期望的输出,则学习算法结束;否则,转至反向传播。反向传播是将误差(样本输出与网络输出之差)按原联接通路反向计算,由梯度下降法调整各层节点的权值和阈值,使误差减小。正向传播反向传播BP神经网络正向传播计算正向计算输出(Sigmoid函数)S型函数这里,输出的函数形式为:容易求得,多层感知器的权值学习给定一个网络,设定隐层单元数和连接的结构;用梯度下降法最小化网络输出值与目标值的平方误差。误差准则将网络误差E定义为所有网络单元输出误差的总和: 这里,d

是训练样本,k

为输出单元。反向传播计算每个训练样本对都是形式,这里x

是网络输入矢量,t是网络的期望输出矢量。网络其它参数如下:h

是学习率;nin

是输入层单元数;nhidden

是隐层单元数;nout是输出层单元数。网络结构如图:反向传播的推导按照梯度下降法,对每个训练样本d,权值wji

由Dwji进行修改这里Ed

是训练样本d的总误差outputs是网络输出单元集合反向传播的推导xjiwjiUnitiUnit

j对于单个神经元来说:反向传播的推导通过求偏导可得:权值调整可分以下两种情况:由输出单元或隐层单元所确定第一种:输出单元权值调整第一种:输出单元权值调整第一种:输出单元权值调整这样,权值的调整量为:第二种:隐单元权值调整第二种:隐单元权值调整式中,不能直接计算,要通过其它间接量计算,即第二种:隐单元权值调整显然,对于隐含层单元来说,权值调整量为学习算法步骤:

正向传播正向传播

(3)计算网络的目标函数J设Ep为在第p组样本输入时,网络的目标函数网络的总目标函数:作为对网络学习状况的评价。(4)若则算法结束;否则,转(5)。

反向传播

(5)反向传播计算由输出层按梯度下降法反向计算,逐层调整权值若i为输出节点,即i=k若i不是输出节点,即BP学习算法的程序框图1.特点BP网络:多层前向网络(输入层、隐层、输出层)。连接权值:通过Delta学习算法进行修正。神经元传输函数:S形函数。学习算法:正向传播、反向传播。层与层的连接是单向的,信息的传播是双向的。2.BP网络的主要优缺点

很好的逼近特性。具有较强的泛化能力。具有较好的容错性。

优点

收敛速度慢。局部极值。难以确定隐层和隐层结点的数目。

缺点有关的几个问题

(5)改进的BP算法梯度下降法的不足,是BP算法收敛速度慢的原因,有改进的BP算法克服其不足,如:

)()(1tJtJ

训练样本

t

测试数据

泛化能力示意图

(7)泛化能力泛化能力(综合能力、概括能力):用较少的样本进行训练,使网络能在给定的区域内达到要求的精度。没有泛化能力的网络无使用价值。BP网络,泛化能力与样本、结构、初始权值等有关。为得到较好的泛化能力,除了要有训练样本集外,还需测试集。从图可见,随着训练次数的增加,训练集的J(t)减少,测试集的J1(t)可能不减小或增大,说明泛化能力减弱。因此,测试集J1的极小点所对应的训练权值,是网络具有较好的泛化能力的权值。

J

全局极小点

局部极小点

局部与全局极小点

BP网络训练实例BP神经网络在模式识别中的应用

模式识别研究用计算机模拟生物、人的感知,对模式信息,如图像、文字、语音等,进行识别和分类。传统人工智能的研究部分地显示了人脑的归纳、推理等智能。但是,对于人类底层的智能,如视觉、听觉、触觉等方面,现代计算机系统的信息处理能力还不如一个幼儿园的孩子。神经网络模型模拟了人脑神经系统的特点:处理单元的广泛连接;并行分布式信息储存、处理;自适应学习能力等。神经网络模式识别方法具有较强的容错能力、自适应学习能力、并行信息处理能力。

输入输出样本:测试数据:例

设计一个三层BP网络对数字0至9进行分类。

每个数字用97的网格表示,灰色像素代表0,黑色像素代表1。将每个网格表示为0,1的长位串。位映射由左上角开始向下直到网格的整个一列,然后重复其他列。

选择BP网络结构为63-6-9。97个输入结点,对应上述网格的映射。9个输出结点对应10种分类。使用的学习步长为0.3。训练600个周期,如果输出结点的值大于0.9,则取为ON,如果输出结点的值小于0.1,则取为OFF。

测试结果表明:除了8以外,所有被测的数字都能够被正确地识别。对于数字8,神经网络的第6个结点的输出值为0.53,第8个结点的输出值为0.41,表明第8个样本是模糊的,可能是数字6,也可能是数字8,但也不完全确信是两者之一。

当训练成功后,对如图所示测试数据进行测试。测试数据都有一个或者多个位丢失。神经网络控制一、神经网络控制的优越性神经网络具有以下特性——冗余性、容错性、本质的非线性、自组织、自学习、自适应;神经网络应用的领域——最优化、模式识别、信号处理、图形图像处理。控制理论发展过程:经典控制理论、状态空间、动态规划、最优控制、智能控制。许多难确定的非线性系统和控制精度的要求很高,需要新的控制系统具有自适应的能力、良好的鲁棒性和实时性、计算简单、柔性结构和自组织并行离散分布处理等智能信息处理的能力。——产生了神经网络控制系统。神经网络控制的优越性神经网络控制的优越性主要表现为:1、神经网络可以处理那些难以用模型或者规则描述的过程或系统,例如人骑自行车;2、神经网络采用并行分布式信息处理方式,具有很强的容错性。3、神经网络是本质的非线性系统。4、神经网络具有很强的信息综合能力。可以同时处理不同类型的信息,具有很好的互补性与冗余性。利用神经网络,人们可以有效进行信息的融合来达到运动学、动力模型和环境模型间的有机结合。5、神经网络的硬件实现非常方便。大规模集成电路技术的发展为神经网络硬件的实现提供了技术手段。神经网络控制器的类型1、神经网络监督控制器神经网络控制器的类型神经网络控制器实际上是一个前馈控制器,它建立的是被控对象的逆模型。神经网络控制器通过对传统控制器的输出进行学习,在线调整网络的权值,使反馈控制输入趋近于零,从而使神经网络控制器逐渐在控制作用中占据主导地位,最终取消反馈控制器的作用。一旦系统出现干扰,反馈控制器重新起作用。这种前馈加反馈的监督控制方法,不仅可以确保控制系统的稳定性和鲁棒性,而且可有效地提高系统的精度和自适应能力。神经网络控制器的类型2、神经网络直接逆控制器神经网络直接逆控制就是将被控对象的神经网络逆模型直接与被控对象串联起来,以便使期望输出与对象实际输出之间的传递函数为1。则将此网络作为前馈控制器后,被控对象的输出为期望输出。显然,神经网络直接逆控制的可用性在相当程度上取决于逆模型的准确精度。由于缺乏反馈,简单连接的直接逆控制缺乏鲁棒性。为此,一般应使其具有在线学习能力,即作为逆模型的神经网络连接权能够在线调整。神经网络控制器的类型

下图为神经网络直接逆控制的两种结构方案。在图(a)中,NN1和NN2为具有完全相同的网络结构,并采用相同的学习算法,分别实现对象的逆。在图(b)中,神经网络NN通过评价函数进行学习,实现对象的逆控制。

神经网络控制器的类型(a)

神经网络控制器的类型(b)

神经网络控制器的类型3、自适应网络控制器

与传统自适应控制相同,神经网络自适应控制也分为神经网络自校正控制和神经网络模型参考自适应控制两种。自校正控制根据对系统正向或逆模型的结果调节控制器内部参数,使系统满足给定的指标,而在模型参考自适应控制中,闭环控制系统的期望性能由一个稳定的参考模型来描述。

神经网络控制器的类型1)神经网络自校正控制

神经网络自校正控制分为直接自校正控制和间接自校正控制。间接自校正控制使用常规控制器,神经网络估计器需要较高的建模精度。直接自校正控制同时使用神经网络控制器和神经网络估计器。1、神经网络直接自校正控制

在本质上同神经网络直接逆控制,其结构如图所示。神经网络控制器的类型其结构如图所示。假设被控对象为如下单变量仿射非线性系统:

若利用神经网络对非线性函数和进行逼近,得到和,则控制器为:其中为时刻的期望输出值。神经网络控制器的类型神经网络间接自校正控制神经网络控制器的类型2)神经网络模型参考自适应控制分为直接模型参考自适应控制和间接模型参考自适应控制两种。1、直接模型参考自适应控制

如下图所示。神经网络控制器的作用是使被控对象与参考模型输出之差为最小。但该方法需要知道对象的信息。

神经网络控制器的类型神经网络直接模型参考自适应控制神经网络控制器的类型2、间接模型参考自适应控制如下图所示。神经网络辨识器NNI向神经网络控制器NNC提供对象的信息,用于控制器NNC的学习。神经网络控制器的类型

神经网络间接模型参考自适应控制

神经网络控制器的类型4、神经内模控制器经典的内模控制将被控系统的正向模型和逆模型直接加入反馈回路,系统的正向模型作为被控对象的近似模型与实际对象并联,两者输出之差被用作反馈信号,该反馈信号又经过前向通道的滤波器及控制器进行处理。控制器直接与系统的逆有关,通过引入滤波器来提高系统的鲁棒性。神经网络控制器的类型

神经网络内模控制

神经网络控制器的类型5.神经网络预测控制

预测控制又称为基于模型的控制,是70年代后期发展起来的新型计算机控制方法,该方法的特征是预测模型、滚动优化和反馈校正。神经网络预测控制的结构如下图所示,神经网络预测器建立了非线性被控对象的预测模型,并可在线进行学习修正。利用此预测模型,通过设计优化性能指标,利用非线性优化器可求出优化的控制作用。神经网络控制器的类型神经网络预测控制神经网络控制器的类型6.神经网络自适应评判分类器

神经网络自适应评判控制通常由两个网络组成,如图所示。自适应评判网络通过不断的奖励、惩罚等再励学习,使自己逐渐成为一个合格的“教师”,学习完成后,根据系统目前的状态和外部激励反馈信号产生一个内部再励信号,以对目前的控制效果作出评价。控制选择网络相当于一个在内部再励信号指导下进行学习的多层前馈神经网络控制器,该网络在进行学习后,根据编码后的系统状态,在允许控制集中选择下一步的控制作用。神经网络控制器的类型神经网络自适应评判控制

神经网络控制器的类型7.神经网络混合控制

该控制方法是集成人工智能各分支的优点,由神经网络技术与模糊控制、专家系统等相结合而形成的一种具有很强学习能力的智能控制系统。由神经网络和模糊控制相结合构成模糊神经网络,由神经网络和专家系统相结合构成神经网络专家系统。神经网络混合控制可使控制系统同时具有学习、推理和决策能力。

神经网络控制实例1、单神经元PID控制构成单元神经元自适应PID控制器结构图如图所示。图中转换器的输入为设定值y(t)及输出y(k),转换器的输出为神经元学习控制所需要的状态量X1,X2,X3。神经元PID控制器的输出为:神经网络控制实例上式中,K为神经元比例系数。由PID的增量式,令:ωi(i=1,2,3)就反应了PID三个参数的大小。正是由于权值能够进行自适应调整,故可大大提高系统的鲁棒性能。而这种单神经元自适应控制器的学习功能就是通过改变权系数大小来实现的.一般地,在单神经元控制器中引入输出误差平方的二次型性能指标,按指标修改控制器地加权系数,可以使得性能指标趋于最小,从而实现自适应PID地最优控制。利用具有自学习和自适应能力的单神经元来构成单神经元自适应PID控制器,不但结构简单、学习算法物理意义明确、计算量小,且能适应环境变化,具有较强的鲁棒性。神经网络控制实例2、BP神经网络PID控制器

构成基于BP神经网络的PID控制系统结构如下图所示。BP神经网络的学习过程可分为前向网络计算和反向误差传播——连接加权系数修正两个部分,这两个部分是相连续反复进行的。直至误差满足要求。不论学习过程是否已经结束,只要在网络的输入节点加入输入信号,则这些信号将一层一层向前传播;通过每一层时要根据当时的连接加权系数和节点的活化函数与阈值进行相应计算,所得的输出再继续向下一层传送。这个前向网络计算过程,既是网络学习过程的一部分,也是将来网络的工作模式。在学习过程结束之前,如果前向网络计算的输出和期望输出之间存在误差,则转入反向传播,将误差沿着原来的连接通路回送,作为修改加权系数的依据,目标使使误差减小。神经网络控制实例将Kp、Ki、Kd视为依赖于系统运行状态的可调系数时,则:

u(k)=f[u(k-1),Kp,Ki,Kd,e(k),e(k-1),e(k-2)]式中,f(·)是与Kp,Ki,Kd,u(k-1),e(k)相关的非线性函数。可利用BP神经网络NN通过训练和学习来找到这样一个最佳控制规律。

神经网络控制实例此时神经网络控制器实际是一个前馈控制器,它建立的是被控对象的逆向模型。由图容易看出,神经网络控制器通过向传统控制器的输出进行学习,在线调整自己,目标是使反馈误差趋近于零,从而使自己逐渐在控制作用中占据主导地位,以便最终取消反馈控制器的作用。但是以PID构成的反馈控制器一直存在,一旦系统出现干扰等,反馈控制器马上可以重新起作用。因此,采用这种前馈加反馈的智能控制方法,不仅可确保控制系统的稳定性和鲁棒性,而且可有效地提高系统的精度和自适应能力。神经网络控制器的设计一、神经网络直接逆模型控制法直接逆模型控制法是直观的一种神经网络控制器的实现方法,其基本思想是假设被控系统可逆,通过离线建模过程得到逆模型网络,然后用这一逆网络模型去直接控制被控对象。神经网络对象直接逆控制的训练结构示意图对于上面的单输入单输出的系统:y为系统的输出变量;u为系统的输入变量;n为系统的阶数;m为输入信号滞后阶;f为任意的线性或非线性函数。假设上式系统可逆,则存在函数g,满足:对于该关系式,若能够用一个多层前向传播神经网络来实现,则网络的输入输出关系为:

为神经网络的输出,表示训练完成后神经网络产生的控制作用;为神经网络的输入输出关系式,用来逼近被控系统的逆模型函数g;X为神经网络的输入矢量,这样的网络共有n+m+1个输入节点、1个输出节点。上面的动力学模型用某个神经网络来逼近,则直接逆模型控制法的目的在于产生一个期望的控制量使得在此控制作用下系统的输出维期望的输出。用系统期望的输出值代替神经网络输入矢量X中的,产生期望的控制量u。即神经网络对象直接逆控制的训练结构示意图定义其训练精度的误差函数为:利用BP学习算法求出逆模型动力学逆模型训练完成后,可以用直接的逆模型控制法去控制被控对象。当神经网络得到充分的训练后,由于与基本相等,在控制结构中可以用代替,如图所示:神经网络对象直接网络逆模型控制的结构示意图直接网络逆模型控制法不进行在线的学习。这种控制器的控制精度取决于逆动力学模型的精度,并且系统的参数发生变化的时候无法进行自适应的调节。该系统有很大的局限性,为了改善控制系统的性能,外加一个常规的反馈控制。直接网络控制设计法由于直接逆模型控制法缺乏学习机制,而且控制器设计中没有考虑到系统本身的输入输出状态,所以,一旦系统运行的环境、参数发生改变时,这类控制器无法适应。人们就采用了直接网络控制法,它在神经网络的输入端引入了系统的状态信号,并将学习机制实时在线用于网络控制器的调整和改善。通过输入、输出信号的馈入,大大提高了系统的自适应能力。神经网络控制器Nc非线性系统直接神经网络控制结构图缺点:这种方法学要系统的Jacobian矩阵dy/du。一般采用的方法有:摄动法、符号函数法、前向神经网络仿真模型法、多网络自学习控制法。直接网络控制设计法神经网络系统辨识系统辨识在工业方面的应用,归结为以下几方面。(1)控制系统的分析和设计。由辨识所得对象模型,用于分析控制系统作为改进的依据;也可用于控制系统的设计。(2)在实时控制系统中,系统辨识器作为对象的模型,由其调整控制器参数,获得较好的控制效果。(3)有的控制结构,用系统的逆模型作控制器,故需建立逆模型,并对其进行辨识。(4)预测、预报。在模型结构确定情况下,建立时变模型,预测其参数,以实现系统参数的预测、预报。(5)监视系统运行状态,进行故障诊断。由系统运行的状态信息,推测系统特性的变化,判断运行是否正常,若有故障,则判断故障位置、状况等。系统辨识基本原理

系统辨识的原理就是通过调整辨识模型的结构来使e最小。在神经网络系统辨识中,神经网络用作辨识模型,将对象的输入输出状态u,y看作神经网络的训练样本数据,以J=1/2e2作为网络训练的目标,则通过用一定的训练算法来训练网络,使J足够小,就可以达到辨识对象模型的目的。系统辨识基本原理

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论