版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、人工神经元网络控制论第1页,共153页,2022年,5月20日,20点17分,星期日2/1533.1 引言3.2 前向神经网络模型3.6 神经网络控制基础3.7 非线性动态系统的神经网络辨识3.8 神经网络控制的学习机制3.9 神经网络控制器的设计3.3 动态神经网络模型 3.10 单一神经元控制法目录第2页,共153页,2022年,5月20日,20点17分,星期日3/1533.1 引言 人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能,且能实现并行处理、自学习和非线性映射等能力的一种系统模型。 第3页,共153页,2022年,5月20日,20点17分,星期日4/153发展历史 194
2、3年,心理学家McCulloch和数学家Pitts合作提出形式神经元数学模型(MP),揭开了神经科学理论的新时代。 1944年Hebb提出了改变神经元连接强度的Hebb规则。 1957年Rosenblatt首次引进了感知器概念(Perceptron)。 1976年,Grossberg提出了自适应共振理论。 1982年,美国加州工学院物理学家Hopfield提出了HNN模型,他引入了“计算能量函数”的概念,给出了网络的稳定性判据。 1986年,Rumelhart等PDP研究小组提出了多层前向传播网络的BP学习算法。第4页,共153页,2022年,5月20日,20点17分,星期日5/153主要内容
3、第5页,共153页,2022年,5月20日,20点17分,星期日6/1533.1.1 神经元模型3.1.2 神经网络的模型分类3.1.3 神经网络的学习算法 3.1.4 神经网络的泛化能力 3.1 引言第6页,共153页,2022年,5月20日,20点17分,星期日7/1533.1.1 神经元模型 神经元模型是生物神经元的抽象和模拟。可看作多输入/单输出的非线性器件 。xi 输入信号,j=1,2,n; wij 表示从单元uj 到单元ui 的 连接权值;si 外部输入信号;ui 神经元的内部状态;i 阈值; yi 神经元的输出信号; 通常假设yi=f(Neti),而激励函数f有4种类型。第7页,
4、共153页,2022年,5月20日,20点17分,星期日8/153激励函数类型 阈值型 分段线性型第8页,共153页,2022年,5月20日,20点17分,星期日9/153激励函数类型 Sigmoid 函数型 Tan函数型 第9页,共153页,2022年,5月20日,20点17分,星期日10/1533.1.1 神经元模型3.1.2 神经网络的模型分类3.1.3 神经网络的学习算法 3.1.4 神经网络的泛化能力 3.1 引言第10页,共153页,2022年,5月20日,20点17分,星期日11/1533.1.2 神经网络的模型分类前向网络反馈网络(c)相互结合型网络(d)混合型网络第11页,共
5、153页,2022年,5月20日,20点17分,星期日12/1533.1.1 神经元模型3.1.2 神经网络的模型分类3.1.3 神经网络的学习算法 3.1.4 神经网络的泛化能力 3.1 引言第12页,共153页,2022年,5月20日,20点17分,星期日13/1533.1.3 神经网络的学习算法 有导师学习无导师学习 有导师学习:直接利用误差信息 无导师学习:建立间接的评价函数第13页,共153页,2022年,5月20日,20点17分,星期日14/153学习规则第14页,共153页,2022年,5月20日,20点17分,星期日15/153 仅仅根据连接间的激活水平改变权系数。它常用于自联
6、想网络 。 最常见的学习算法是Hebb规则。若第i个与第j个神经元同时处于兴奋状态,它们之间的连接应加强,即 表示神经元j到神经元i的连接权值,表示学习步长,Oj表示神经元j的输出,yi表示神经元i的输出。相关学习第15页,共153页,2022年,5月20日,20点17分,星期日16/153纠错学习 有导师学习方法 ,依赖关于输出节点的外部反馈改变权系数。它常用于感知器网络、多层前向传播网络和Boltzmann机网络。其学习的方法是梯度下降法。 最常见的学习算法有规则、模拟退火学习规则。 Delta规则。定义指标函数 连接权阵的更新规则为第16页,共153页,2022年,5月20日,20点17
7、分,星期日17/153无导师学习 学习表现为自适应实现输入空间的检测规则。它常用于ART、Kohonen自组织网络。 在这类学习规则中,关键不在于实际节点的输出怎样与外部的期望输出相一致,而在于调整参数以反映观察事件的分布。 例如Winner-Take-All 学习规则 。基本思想是,假设输出层有no个输出神经元,且当输入为x时,第m个神经元的输出值最大,则称此神经元为胜者,并将与此胜者神经元相连的权系数进行更新。其更新公式为第17页,共153页,2022年,5月20日,20点17分,星期日18/1533.1.1 神经元模型3.1.2 神经网络的模型分类3.1.3 神经网络的学习算法 3.1.
8、4 神经网络的泛化能力 3.1 引言第18页,共153页,2022年,5月20日,20点17分,星期日19/1533.1.4 神经网络的泛化能力 当输入矢量与样本输入矢量存在差异时,其神经网络的输出同样能够准确地呈现出应有的输出。这种能力就称为神经网络的泛化能力。 在有导师指导下的学习中,泛化能力可以定义为训练误差和测试误差之差。 与输入矢量的个数、网络的节点数、权值和训练样本集数目之间存在密切的关系。 第19页,共153页,2022年,5月20日,20点17分,星期日20/1533.1 引言3.2 前向神经网络模型3.6 神经网络控制基础3.7 非线性动态系统的神经网络辨识3.8 神经网络控
9、制的学习机制3.9 神经网络控制器的设计3.3 动态神经网络模型 3.10 单一神经元控制法目录第20页,共153页,2022年,5月20日,20点17分,星期日21/1533.2.1 网络结构 3.2.2 多层传播网络的BP学习算法3.2.3 快速的BP改进算法3.2 前向神经网络模型第21页,共153页,2022年,5月20日,20点17分,星期日22/1533.2.1 网络结构 单一神经元123第22页,共153页,2022年,5月20日,20点17分,星期日23/153单一神经元 w0 为阈值, wj 决定第j个输入的突触权系数。第23页,共153页,2022年,5月20日,20点17
10、分,星期日24/153单层神经网络结构 x0=1阈值未画出第24页,共153页,2022年,5月20日,20点17分,星期日25/153多层神经网络结构 以单隐含层网络为例:Oj为隐含层的激励第25页,共153页,2022年,5月20日,20点17分,星期日26/1533.2.1 网络结构 3.2.2 多层传播网络的BP学习算法3.2.3 快速的BP改进算法3.2 前向神经网络模型第26页,共153页,2022年,5月20日,20点17分,星期日27/1533.2.2 多层传播网络的BP学习算法 有导师学习的基本思想 单层网络的学习算法 多层前向网络学习算法第27页,共153页,2022年,5
11、月20日,20点17分,星期日28/153 性能指标为 ()是一个正定的、可微的凸函数 ,常取 1. 有导师学习的基本思想 神经网络可以通过对合适样本集来进行训练。网络的训练实质上是根据对所有样本的误差指标Ep达到极小的方法来实现突触权阵的调整,以满足当输入为Xp时其输出为Tp 。第28页,共153页,2022年,5月20日,20点17分,星期日29/153 激励函数为线性函数时,可通过最小二乘法来 学习。 激励函数为非线性函数时,可采用Delta规则,即梯度法,有2. 单层网络的学习算法 是学习因子 第29页,共153页,2022年,5月20日,20点17分,星期日30/1533. 多层前向
12、网络的学习算法 网络模型 第1个隐含层: 第r1个隐含层: 输出层第30页,共153页,2022年,5月20日,20点17分,星期日31/153 采用梯度法: 其中: 定义广义误差 : 可得:BP学习算法第31页,共153页,2022年,5月20日,20点17分,星期日32/153 输出层时,有: 隐含层时,有:反向误差传播第32页,共153页,2022年,5月20日,20点17分,星期日33/153 假设对于输入 期望的输出网络权系数的初始值见图。试用BP算法训练此网络(只给出一步迭代学习过程)。这里,取神经元激励函数: ,学习步长为 。例3-1 第33页,共153页,2022年,5月20日
13、,20点17分,星期日34/153当前输出第34页,共153页,2022年,5月20日,20点17分,星期日35/153计算广义误差 第35页,共153页,2022年,5月20日,20点17分,星期日36/153连接权系数更新 第36页,共153页,2022年,5月20日,20点17分,星期日37/153学习流程第37页,共153页,2022年,5月20日,20点17分,星期日38/153(1) 初始化 设置学习因子0。较大时,收敛快,但易振荡。较小时,反之。 最大容许误差Emax。用于判断学习是否结束。 随机赋网络初始权值。一般选择比较小的随机数。 第38页,共153页,2022年,5月20
14、日,20点17分,星期日39/153 增量型学习:保证最近样本的逼近精度,速度快。 累积型学习:保证所有样本的学习精度,速度慢。(2) 学习方式第39页,共153页,2022年,5月20日,20点17分,星期日40/153 激励函数如用Sigmoid函数,应增大斜率,减少饱和的情况,来提高训练速度。 调节学习因子:学习速率越大,收敛越快,但容易产生振荡;而学习速率越小,收敛越慢。 增加Momentum项 (3) 学习速率第40页,共153页,2022年,5月20日,20点17分,星期日41/153 目标函数:例3-2:非线性函数逼近第41页,共153页,2022年,5月20日,20点17分,星
15、期日42/153学习设置 采用传统的BP学习算法激励函数都为Sigmoid函数。初始权系数阵由(0,1)之间的随机数组成。学习步长 = 0.09。 学习样本取20点,即: 校验样本取30点,即:第42页,共153页,2022年,5月20日,20点17分,星期日43/153两种MLP模型的学习效果第43页,共153页,2022年,5月20日,20点17分,星期日44/1533.2.1 网络结构 3.2.2 多层传播网络的BP学习算法3.2.3 快速的BP改进算法3.2 前向神经网络模型第44页,共153页,2022年,5月20日,20点17分,星期日45/153 Fahlman在1988年首先提
16、出 当问题满足以下条件时:误差表面呈抛物面、极值点附近凹面向上;某一权系数的梯度变化与其它权系数变化无关。 可采取如下的更新公式1. 快速BP算法第45页,共153页,2022年,5月20日,20点17分,星期日46/1532. 共轭梯度学习算法 共轭梯度学习算法具有坚实的理论基础。 特点:使用目标函数的二阶导数信息,可以明显改善优化算法的收敛速度。 不计算Hessian矩阵的逆,而是利用共轭梯度来间接地构成Hessian矩阵的逆矩阵值。第46页,共153页,2022年,5月20日,20点17分,星期日47/1533.1 引言3.2 前向神经网络模型3.6 神经网络控制基础3.7 非线性动态系
17、统的神经网络辨识3.8 神经网络控制的学习机制3.9 神经网络控制器的设计3.3 动态神经网络模型 3.10 单一神经元控制法目录第47页,共153页,2022年,5月20日,20点17分,星期日48/153动态神经网络带时滞的多层感知器网络 Hopfield网络 回归神经网络 3.3 动态神经网络模型第48页,共153页,2022年,5月20日,20点17分,星期日49/1533.3.1 带时滞的多层感知器网络 有两种实现:无输出反馈 有输出反馈 第49页,共153页,2022年,5月20日,20点17分,星期日50/153带时滞的多层感知器网络1 图3-20 时滞神经网络结构第50页,共1
18、53页,2022年,5月20日,20点17分,星期日51/153带时滞的多层感知器网络2 图3-21 带反馈时滞神经网络结构第51页,共153页,2022年,5月20日,20点17分,星期日52/1533.3.2 Hopfield神经网络 具有相互连接的反馈型神经网络模型 将其定义的“能量函数”概念引入到神经网络研究中,给出了网络的稳定性判据。 用模拟电子线路实现了所提出的模型,并成功地用神经网络方法实现了4位A/D转换。 第52页,共153页,2022年,5月20日,20点17分,星期日53/153类型12第53页,共153页,2022年,5月20日,20点17分,星期日54/153 全连接
19、单层网络 神经元模型1. 二值型的Hopfield网络yi取值通常为0和1或-1和1 第54页,共153页,2022年,5月20日,20点17分,星期日55/153例3-4:状态转移关系 假设一个3节点的离散Hopfield神经网络,已知网络权值与阈值如图3-23(a)所示。 采取随机异步更新策略,计算状态转移关系。V1兴奋:V2和V3状态保持不变。初始状态第55页,共153页,2022年,5月20日,20点17分,星期日56/153状态转移图第56页,共153页,2022年,5月20日,20点17分,星期日57/153 能量函数 能量井 :能量极小状态(与网络的稳定状态一一对应) 用途:联想
20、记忆、优化动力学特征:能量井第57页,共153页,2022年,5月20日,20点17分,星期日58/153能量井设计 能量井的分布是由连接权值决定的。一是根据求解问题的要求直接计算出所需要的连接权值。这种方法为静态产生方法,一旦权值确定下来就不再改变;二是通过提供一种学习机制来训练网络,使其能够自动调整连接权值,产生期望的能量井。这种方法为动态产生方法。第58页,共153页,2022年,5月20日,20点17分,星期日59/153如下图3节点DHNN模型为例,要求设计的能量井为状态y1y2y3=010和111。权值和阈值可在-1,1区间取值,确定网络权值和阈值。 (1)权值的静态设计方法:例3
21、-6 第59页,共153页,2022年,5月20日,20点17分,星期日60/153解 对于状态A,y1y2y3=010,当系统处于稳态时,有 W12+10 W23+30 W12+ W23+20 W23+ W13+30 第60页,共153页,2022年,5月20日,20点17分,星期日61/153特解 W12=0.5, W13=0.4, W23=0.1, 1=-0.7, 2=0.2, 3=-0.4. 对于任何一个初始状态,最终都将达到所期望的稳态A或B。 W12=-0.5, W13=0.5, W23=0.4, 1=0.1, 2=0.2, 3=-0.7. 出现了假能量井100 W12+10W23
22、+30 W12+ W23+20 W23+ W13+30第61页,共153页,2022年,5月20日,20点17分,星期日62/153 Hebb学习规则(主要方法)学习规则(2)基于学习规则的设计方法第62页,共153页,2022年,5月20日,20点17分,星期日63/153 原则为:若i与j两个神经元同时处于兴奋状态,则它们之间的连接应加强,即:Hebb学习规则 第63页,共153页,2022年,5月20日,20点17分,星期日64/153对于一给定的需记忆的样本向量t1,t2,.,tN ,如果初始权值为0,tk的状态值为+1或-1,则其连接权系数的学习可以利用“外积规则”,即:标量形式:活
23、跃值为1或0时 :外积规则 第64页,共153页,2022年,5月20日,20点17分,星期日65/1532. 网络的稳定性 定理3-2: 令S=(W,)代表神经网络,W为一对称矩阵。则有:如果S工作在串行模式,W的对角元素非负(包括对角元为0的情况),则网络总是收敛于稳定状态。(即在状态空间没有极限环存在);如果S工作在并行模式时,网络总是收敛于稳定状态或Hamming距离小于2的极限环。第65页,共153页,2022年,5月20日,20点17分,星期日66/153证明 定义能量函数为: 将E(k+1)在Y(k)展开Talyor级数,有: 其中, 第66页,共153页,2022年,5月20日
24、,20点17分,星期日67/153证明 不失一般性,假设阈值函数f()为符号函数sgn(),则 其中:第67页,共153页,2022年,5月20日,20点17分,星期日68/153证明 显然 在串行工作方式下, 第68页,共153页,2022年,5月20日,20点17分,星期日69/153例3-7: 假设神经元的阈值矢量=0,网络输出只取两值0,1。要求Hopfield网络记忆如下稳定状态, t1=(1 0 1 0)T。设采取并行更新,并对以下三种初始状态下的网络行为作出评价。y1(0)=(1 0 0 1)T, y2(0)=(1 0 0 0)T,y3(0)=(0 0 0 1)T。 第69页,共
25、153页,2022年,5月20日,20点17分,星期日70/153步骤1:权值设计 根据 得第70页,共153页,2022年,5月20日,20点17分,星期日71/153步骤2:稳定性分析 对于y1(0)有:1,0,0,1T 0,0,0,0T 0,0,0,0T,因此 y1=0,0,0,0T,是一个稳定态。 对于y2(0)有:1,0,0,0T 0,0,1,0T 1,0,0,0T,所以初始状态2不属于此Hopfield网络记忆范围。无法实现联想。 对于y3(0)有:0,0,0,1T 0,1,0,0T 0,0,0,1T,也不属于此Hopfield区的记忆范围。第71页,共153页,2022年,5月2
26、0日,20点17分,星期日72/1533. 应用:联想记忆功能 必须具备两个基本条件:能够收敛于稳定状态,利用此稳态来记忆样本信息;具有回忆能力,能够从某一局部输入信息回忆起与其相关的其它记忆,或者由某一残缺的信息回忆起比较完整的记忆。第72页,共153页,2022年,5月20日,20点17分,星期日73/153举例:数字识别X=x1,x2,.,xNT 、X-1,1N ,N=1012=120 第73页,共153页,2022年,5月20日,20点17分,星期日74/153存在的问题 假能量井现象 并非任何一组样本经训练都可构成一组稳定的状态。 给定一个偏离样本的初始状态,最终不一定收敛到与其Ha
27、mming距离最近的标准样本状态。 各样本之间的Hamming距离分布对联想记忆功能的正确实现有重要影响。若样本之间相互正交(dH=N/2)效果最好。反之,若样本特征相近则易出现错误识别。 样本数M越小,联想记忆功能出现的错误的可能性越小。仿真研究表明,取M=0.15N时,联想的正确率较高。第74页,共153页,2022年,5月20日,20点17分,星期日75/153与二值型的Hopfield网络模型具有相同的拓扑结构 神经元的状态oj满足 : N为网络中神经元的个数; oj 为神经元j的状态; cj 为常数且大于0; Rj 为正数; xj 为外部输入; yi 为神经元i的输出,满足 yi=f
28、(oi) 。4. 连续型的Hopfield网络 第75页,共153页,2022年,5月20日,20点17分,星期日76/153 引入一个能量函数E: 定理3-3:若f-1 为单调递增且连续, ,则沿系统轨道有:且当且仅当 时,稳定性第76页,共153页,2022年,5月20日,20点17分,星期日77/153 因为 且当 时,证明第77页,共153页,2022年,5月20日,20点17分,星期日78/153旅行商最优路径问题(Travelling Salesman Problem, 简称TSP) 5. 优化问题的应用:TSP问题第78页,共153页,2022年,5月20日,20点17分,星期日
29、79/153 设计如下能量函数:式中 A、B、C、D均为正常数。第一项表示当且仅当每一城市行只包含一个“1” 时取极小值0;第二项表示当且仅当每一旅行位置只包含一个“1” 时取极小值0;第三项表示当且仅当置换矩阵中“1” 之和为n时取极小值0;第四项表示路径长度信息,它随着路径长度的减小而减小。能量函数第79页,共153页,2022年,5月20日,20点17分,星期日80/153 f呈硬限幅特性 ,则有 其中化作标准型第80页,共153页,2022年,5月20日,20点17分,星期日81/153网络模型第81页,共153页,2022年,5月20日,20点17分,星期日82/153算例 A=B=
30、D=500, C=200, RakCak=1, O0=0.02 微分方程的初值选为: Oak=O00+Oak 其中: O00为常数项,满足在t=0时, 以利于收敛; Oak是扰动项,其取值范围为: -0.1O0Oak0.1O0 第82页,共153页,2022年,5月20日,20点17分,星期日83/153优化结果第83页,共153页,2022年,5月20日,20点17分,星期日84/1533.3.3 回归(Recurrent)神经网络 与Hopfield神经网络非常相似。 保留了部分前向传播网络的特性又具备部分Hopfield网络的动态联想记忆能力。 Pineda在1987年首先将传统的BP学
31、习算法引入到回归神经网络中来,并提出回归反向传播算法。 第84页,共153页,2022年,5月20日,20点17分,星期日85/153 神经元模型: 其中:离散型回归神经网络(DTRNN)N是神经网络的输出节点数,M是输入矢量X的维数 第85页,共153页,2022年,5月20日,20点17分,星期日86/153网络结构第86页,共153页,2022年,5月20日,20点17分,星期日87/153 展成多层前向网络学习方法1第87页,共153页,2022年,5月20日,20点17分,星期日88/153 迭代学习算法 梯度下降法实现学习方法2第88页,共153页,2022年,5月20日,20点1
32、7分,星期日89/153 权系数矩阵W初始化,置k=1; 取下一组训练样本集,置所有状态为零,所有 迭代: 流程第89页,共153页,2022年,5月20日,20点17分,星期日90/1533.1 引言3.2 前向神经网络模型3.6 神经网络控制基础3.7 非线性动态系统的神经网络辨识3.8 神经网络控制的学习机制3.9 神经网络控制器的设计3.3 动态神经网络模型 3.10 单一神经元控制法目录第90页,共153页,2022年,5月20日,20点17分,星期日91/1533.6.1 引言 神经网络控制的优越性 神经网络控制器的分类 神经网络的逼近能力 对象第91页,共153页,2022年,5
33、月20日,20点17分,星期日92/153神经网络控制的优越性 1神经网络可以处理那些难以用模型或规则描述的过程或系统2神经网络采用并行分布式信息处理,具有很强的容错性。 3神经网络是本质的非线性系统4很强的信息综合能力5神经网络的硬件实现愈趋方便第92页,共153页,2022年,5月20日,20点17分,星期日93/153神经网络控制器的分类 逆控制器 自适应网络控制器 前馈控制结构 自适应评价网络* 混合控制系统 * 神经网络控制器 导师指导下的控制器 第93页,共153页,2022年,5月20日,20点17分,星期日94/153(1) 导师指导下的控制器 网络的训练只涉及静态过程,缺乏在
34、线学习机制。第94页,共153页,2022年,5月20日,20点17分,星期日95/153(2) 逆控制器 网络训练 的目的就是为了逼近系统的逆动力学模型。系统的逆动力学模型不可逆时,不能用。第95页,共153页,2022年,5月20日,20点17分,星期日96/153 模型参考自适应网络控制器 (3) 自适应网络控制器 第96页,共153页,2022年,5月20日,20点17分,星期日97/153(4) 前馈控制结构 控制器设计的主要困难是如何找到一种有效的学习方法实现对系统模型未知条件下网络控制的在线学习。 第97页,共153页,2022年,5月20日,20点17分,星期日98/1533.
35、6.2 神经网络的逼近能力 相关结论:含一个隐层以上的多层前向传播神经网络不仅可以以任意精度逼近连续函数本身,还可以逼近函数的导数项。 第98页,共153页,2022年,5月20日,20点17分,星期日99/1533.1 引言3.2 前向神经网络模型3.6 神经网络控制基础3.7 非线性动态系统的神经网络辨识3.8 神经网络控制的学习机制3.9 神经网络控制器的设计3.3 动态神经网络模型 3.10 单一神经元控制法目录第99页,共153页,2022年,5月20日,20点17分,星期日100/1533.7.1 辨识基础3.7.2 神经网络辨识模型的结构 3.7.3 非线性动态系统的神经网络辨识
36、3.7 非线性动态系统的神经网络辨识第100页,共153页,2022年,5月20日,20点17分,星期日101/153 L.A.Zadeh曾经下过这样的定义:“辨识是在输入和输出数据的基础上,从一组给定的模型中,确定一个与所测系统等价的模型”。 使用非线性系统的输入输出数据来训练神经网络可认为是非线性函数的逼近问题。 多层前向传播网络能够逼近任意L2非线性函数。 3.7.1 辨识基础第101页,共153页,2022年,5月20日,20点17分,星期日102/153 模型的选择 输入信号的选择 误差准则的选择 三大要素第102页,共153页,2022年,5月20日,20点17分,星期日103/1
37、533.7.1 辨识基础3.7.2 神经网络辨识模型的结构 3.7.3 非线性动态系统的神经网络辨识3.7 非线性动态系统的神经网络辨识第103页,共153页,2022年,5月20日,20点17分,星期日104/1533.7.2 神经网络辨识模型的结构 逆模型法 前向建模法第104页,共153页,2022年,5月20日,20点17分,星期日105/153 所谓前向建模法是利用神经网络来逼近非线性系统的前向动力学模型。前向建模法 TDLTapped Delay Line(按拍延迟线)第105页,共153页,2022年,5月20日,20点17分,星期日106/153 直接法:逆模型法第106页,共
38、153页,2022年,5月20日,20点17分,星期日107/153 存在的问题学习过程不一定是目标最优的。 一旦非线性系统对应关系不是一对一的,所建立的逆模型可能不准确。 克服方法存在的问题?第107页,共153页,2022年,5月20日,20点17分,星期日108/1533.7.1 辨识基础3.7.2 神经网络辨识模型的结构 3.7.3 非线性动态系统的神经网络辨识3.7 非线性动态系统的神经网络辨识第108页,共153页,2022年,5月20日,20点17分,星期日109/153 并行结构:利用辨识模型的输出,收敛性差。 串行结构:利用系统的实际输出,收敛性好。根据可分离性和线性性,有4
39、种结构。辨识的两种结构第109页,共153页,2022年,5月20日,20点17分,星期日110/153含线性部分的辨识问题(模型1、2) 模型1 模型2第110页,共153页,2022年,5月20日,20点17分,星期日111/153线性部分的参数已知 模型1: 模型2:第111页,共153页,2022年,5月20日,20点17分,星期日112/153线性部分的参数未知 模型的辨识问题简单地归结为带时滞的多层感知器网络模型的学习和线性系统的参数估计问题。第112页,共153页,2022年,5月20日,20点17分,星期日113/153 最小二乘法 其中 初始条件完全未知时,可取线性部分学习方
40、法第113页,共153页,2022年,5月20日,20点17分,星期日114/153 BP学习非线性部分学习方法第114页,共153页,2022年,5月20日,20点17分,星期日115/153例38 考虑以下模型: y(k+1)=ay(k)+by(k-1)+g(u) 其中a=0.3, b=0.6,g(u)=u3+0.3u2-0.4u 。 试辨识该系统第115页,共153页,2022年,5月20日,20点17分,星期日116/153 线性部分,采用递推最小二乘学习法 非线性部分采用前向传播多层神经网络来逼近。选择神经网络结构为解第116页,共153页,2022年,5月20日,20点17分,星期
41、日117/153 校验输入信号 :辨识效果第117页,共153页,2022年,5月20日,20点17分,星期日118/153非线性可分离系统(模型3)第118页,共153页,2022年,5月20日,20点17分,星期日119/153BP学习第119页,共153页,2022年,5月20日,20点17分,星期日120/153 考虑如下非线性离散系统: 求:采用双模型法解决该系统的辨识问题。例3- 9第120页,共153页,2022年,5月20日,20点17分,星期日121/153 单一模型网络: 两模型网络均为:两种方法的学习曲线第121页,共153页,2022年,5月20日,20点17分,星期日
42、122/153两模型法的辨识效果第122页,共153页,2022年,5月20日,20点17分,星期日123/1533.1 引言3.2 前向神经网络模型3.6 神经网络控制基础3.7 非线性动态系统的神经网络辨识3.8 神经网络控制的学习机制3.9 神经网络控制器的设计3.3 动态神经网络模型 3.10 单一神经元控制法目录第123页,共153页,2022年,5月20日,20点17分,星期日124/1533.8 神经网络控制的学习机制 神经元控制器的目的在于如何设计一个有效的神经元网络去完成代替传统控制器的作用,使得系统的输出跟随系统的期望输出。为了达到这个目的,神经网络的学习方法就是寻找一种有
43、效的途径进行网络连接权阵或网络结构的修改,从而使得网络控制器输出的控制信号能够保证系统输出跟随系统的期望输出。 第124页,共153页,2022年,5月20日,20点17分,星期日125/153分类 3.8.1 监督式学习离线学习法在线学习法反馈误差学习法多网络学习法 3.8.2 增强式学习第125页,共153页,2022年,5月20日,20点17分,星期日126/1531. 离线学习法适合静态环境第126页,共153页,2022年,5月20日,20点17分,星期日127/1532. 在线学习法适合模型已知的动态环境第127页,共153页,2022年,5月20日,20点17分,星期日128/1
44、53 采用最速下降法 学习方法假设系统的Jacobian矩阵已知性能指标函数:第128页,共153页,2022年,5月20日,20点17分,星期日129/1533. 反馈误差学习法适用于非线性系统线性绝对占优条件下的网络学习第129页,共153页,2022年,5月20日,20点17分,星期日130/1534. 多神经网络学习法1 前向建模多网络控制 第130页,共153页,2022年,5月20日,20点17分,星期日131/153多神经网络学习法2 逆模型建模的多网络控制结构图 第131页,共153页,2022年,5月20日,20点17分,星期日132/1533.8.2 增强式学习 利用当前控
45、制是否成功来决定下一次控制该如何走的学习方式。 修正的办法是对某一成功的行为进行鼓励,而对不成功的行为进行惩罚。 用神经网络来实现时, 则可在权值空间进行调整。第132页,共153页,2022年,5月20日,20点17分,星期日133/1533.1 引言3.2 前向神经网络模型3.6 神经网络控制基础3.7 非线性动态系统的神经网络辨识3.8 神经网络控制的学习机制3.9 神经网络控制器的设计3.3 动态神经网络模型 3.10 单一神经元控制法目录第133页,共153页,2022年,5月20日,20点17分,星期日134/1533.9.1 直接逆模型控制法 3.9.2 直接网络控制法 3.9.3 多网络自学习控制法 3.9 神经网络控制器的设计第134页,共153页,2022年,5月20日,20点17分,星期日135/1533.9.1 直接逆模型控制法 训练结构示意图 第135页,共153页,2022年,5月20日,20点17分,星期日136/153直接逆模型控制的结构示意图 运行于静态参数环境第136页,共153页,2022年,5月20日,20点17分,星期日137/1533.9.1 直接逆模型控制法 3.9.2 直接网络控制法 3.9.3 多网络自学习控制法 3.9 神经网络控制器的设计第137页,共153页,2022
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025版罗马柱装饰工程总承包合同4篇
- 二零二五版在建工程抵押担保合同模板3篇
- 2025版个人汽车转让及二手车交易平台合作与售后服务合同4篇
- 2025年度落水管施工工程保险与理赔合同4篇
- 二零二五年度健康医疗大数据安全保障合作协议4篇
- 二零二五版股权回购项目担保及投资决策合同3篇
- 2025年食用菌种植基地与销售渠道联盟合同2篇
- 二零二五年度广告公司广告活动策划合同3篇
- 2025年高速公路车辆运输通行费结算协议范本4篇
- 2024版消防系统维保合同范本
- 劳务协议范本模板
- 人教版(2024)数学七年级上册期末测试卷(含答案)
- 2024年国家保密培训
- 2024年公务员职务任命书3篇
- CFM56-3发动机构造课件
- 会议读书交流分享汇报课件-《杀死一只知更鸟》
- 2025届抚州市高一上数学期末综合测试试题含解析
- 公司印章管理登记使用台账表
- 砖厂承包合同签订转让合同
- 思政课国内外研究现状分析
- 2023年公务员多省联考《申论》题(广西B卷)
评论
0/150
提交评论