智能控制基础-神经网络_第1页
智能控制基础-神经网络_第2页
智能控制基础-神经网络_第3页
智能控制基础-神经网络_第4页
智能控制基础-神经网络_第5页
已阅读5页,还剩166页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1第4章

神经网络控制智能控制基础第4章

神经网络控制神经网络理论基础4-1前馈神经网络4-2反馈神经网络4-3神经网络控制4-4本章小结4-52第6章

神经网络控制智能控制基础教学重点1.人工神网络模型2.神经网络的特点和分类神经网络的学习方式和学习算法前馈神经网络的结构和学习算法反馈神经网络的结构和学习算法神经网络PID控制教学难点神经网络的学习算法以及神经网络PID控制。第4章

神经网络控制3第6章

神经网络控制基础智能控制

4.1神经网络理论基础人工神经网络(Artificial

Neural

Networks,ANNs),简称为神经网络(NNs)或称作连接模型(ConnectionistModel),以对大脑的生理角度的研究成果为基础,对动物或自然神经网络若干基本特性进行抽象和模拟。通俗地讲,神经网络是对生物神经系统功能的模拟而非结构的模拟。国际著名的神经网络研究专家Hecht—Nielsen给人工神经网络下的定义是:“人工神经网络是由人工建立的以有向图为拓扑结构的动态系统,通过对连续或断续的输入作状态响应而进行信息处理。”4第6章

神经网络控制基础智能控制

4.1.1

神经网络原理生物神经元结构人脑作为人类意识和思维的特殊器官,具有着复杂的高度完善的结构。现代科学证明,人的脑主要由两类细胞组成:神经细胞和神经胶质细胞。神经细胞,又称神经元,是脑神经组织的结构和功能单位。神经元由胞体和突起构成。神经胶质细胞分布在神经元之间,没有传导冲动的功能,对神经元起着保护、营养、支持等作用。5第6章

神经网络控制基础生物神经元结构人脑大约包含了1000亿个神经元,每个神经元分别与1000个其它神经元相互连接,形成精细复杂又灵活多变的神经网络,人类复杂的生理活动、语言、记忆、情感等等都要由这些神经元一一掌控。人脑具有四个固有特性:并行多层分布处理的工作模式;神经系统的可塑性和自组织性;神经系统的系统性;信息分布式记忆智能控制

4.1.1

神经网络原理识别层整体特征层特征成组层局部特征层输入图像6第6章

神经网络控制基础神经元的基本结构包括细胞体(Soma)、树突(Dendrites)和轴突(Axon)三部分。细胞体是神经元的代谢中心,胞体的大小差异很大。一般神经元表面许多短而呈树状分枝的突起称为树突,是接受周围神经元传入的输入信号部分,并将冲动传向胞体。

从细胞体延伸出来的一条长长的呈细索状而分枝少的突起称为轴突,末端常有分支,称轴突末梢。轴突将冲动从胞体通过轴突末梢传向其它神经元。

轴突与下一个神经元的树突相接触的部分称为突触(Synapse),它是不同神经元之间的连接平台,一般来讲,一个神经元的轴突与其它神经元之间可以有几百至几万个突触。智能控制

4.1.1

神经网络原理7第6章

神经网络控制基础神经元是神经系统结构和功能基本单位,典型的神经元结构图4-1所示。图4-1

神经元结构智能控制

4.1.1

神经网络原理8第6章

神经网络控制基础光感受器细胞将光波所携带的自然图像信息转变成神经元电信息双极细胞对自然图像信息进行空间和时间上的整合神经节细胞以动作电位方式,将信息通过细胞轴突所形成的视神经纤维向外侧膝状体传递。改变突触释放的递质量,信息向双极细胞和水平细胞传递突触囊泡受体K+Na+K+视网膜的信息处理机制智能控制

4.1.1

神经网络原理9第6章

神经网络控制基础MP神经元模型生物神经元结构人工神经元结构神经元作为神经网络信息处理的基本单位,模拟生物神经元传递信息所具有的多输入、单输出非线性特性。1943年McCulloch和Pitts提出了MP神经元模型。MP神经元模型模拟了生物神经元的基本结构和信息处理机制。智能控制

4.1.1

神经网络原理10第6章

神经网络控制基础

i iX

i

1y

f

(

X

)w

x

MP神经元模型生物神经元结构输入输出关系:n

1 ,X

0

0 ,X

0y

f

(

X

)

智能控制

4.1.1

神经网络原理从其它神经元传来的输入信号;从其它神经元到该神经元的连接权值;为该神经元激活阈值;为神经元输出;ixiw

yf

(

)

为输出变换函数,一般为非线性函数,也可以称为激励函数、响应函数等。11第6章

神经网络控制基础

,

X

0

0 ,

X

0y

f

(

X

)

1智能控制

4.1.1

神经网络原理MP神经元模型的激发函数如图(b)所示。MP神经元模型将每一个神经元看作二进制阈值元件,其输出为“0”或“1”,分别表示“抑制”或“兴奋”两种状态,输出为(b)

激励函数12第6章

神经网络控制基础MP神经元模型真实的模拟了生物神经元吗?每个神经元都是一个多输入单输出的信息处理单元(模拟)神经元输入分兴奋性输入和抑制性输入两种类型(模拟)神经元具有空间整合特性和阈值特性(模拟)时间整合作用(未模拟)突触传递的不应期(未模拟)智能控制

4.1.1

神经网络原理13第6章

神经网络控制基础MP神经元模型真实的模拟了生物神经元吗?最新进展:2017年3月9日,UCLA

的JasonMoore在Science的文章表明:神经元中树突产生的响应是胞体产生响应的近10倍;执行的是模拟和数字的混合计算;这为构建新的神经元模型提供了生物学启发。智能控制

4.1.1

神经网络原理14第6章

神经网络控制基础是否存在其他神经元模型模拟生物神经元?Dropout神经元模型允许神经元具有

p

的概率与下一层神经元相连。MP神经元模型带Dropout的神经元模型智能控制

4.1.1

神经网络原理15第6章

神经网络控制基础

a

X

aX

a

1,

1,f

(

X

)

kX

,1

e

aX1f(X)

a

0(1)(2)智能控制

4.1.1

神经网络原理常用的激励函数如图4-3所示:(1)饱和型函数X

a(2)Sigmoid函数图4-3

常用的几种激励函数16第6章

神经网络控制基础)

2X

2f(X)

exp(

1

e

aXf(X)

1

e

aXa

0(3)(4)智能控制

4.1.1

神经网络原理常用的激励函数如图4-3所示:(3)双曲正切函数(4)高斯函数图4-3

常用的几种激励函数17第6章

神经网络控制基础常用的激励函数还包括哪些?ReLU函数:深度神经网络采用的激励函数1、计算简单,不涉及指数运算

;2、无梯度损失;3、输入小于0的所有神经元的输出为0,促进了网络的稀疏性,使得网络更加的简单。智能控制

4.1.1

神经网络原理18第6章

神经网络控制基础如果不用激励函数会怎样?如果不用激励函数,输出是输入的线性函数。y

f

(

X

)nX

wixi

i

1智能控制

4.1.1

神经网络原理19第6章

神经网络控制基础神经网络加拿大McMaster大学的Simon

Haykin教授认为“神经网络是由简单的信息处理单元组成的巨量并行处理、平行计算和分布式存储的处理器,具有存储经验知识并利用有用知识处理问题的功能,可以把神经网络看成是一个自适应系统。”这个定义包含了几层含义:神经网络是对大脑的一种描述,可以看成一个数学模型或一种数值算法,可以用电子线路或计算机程序来模拟实现;神经网络的每个基本组成单元—神经元的特性非常简单,神经元之间高度互连实现并行处理而表现出的群体特性是非常复杂,甚至是混沌的;利用神经网络通过学习过程可以从周围环境获取知识,中间神经元的连接强度(权值)用来表示存贮的知识。智能控制

4.1.1

神经网络原理20第6章

神经网络控制基础神经网络的结构按照神经元连接方式可分成前馈网络和反馈网络。(1)前馈网络(Feed-forward

Networks)智能控制

4.1.2

神经网络的结构和特点图4-4单层前馈网络图4-5多层前馈网络2281第6章

神经网络控制基础智能控制

4.1.2

神经网络的结构和特点多层前馈网络一般分为输入层、隐含层(或称中间层,可以有若干层)和输出层。网络从输入层到输出层通过单向连接流通,只有前后相邻两层之间神经元是相互全连接,从上一层接收信号输送给下一层神经元,同层的神经元之间没有连接,各神经元之间也没有反馈。前馈网络是一种静态的非线性映射,大部分前馈网络都是学习网络,比较适用于模式识别、分类和预测评价问题。22第6章

神经网络控制基础典型的多层前馈网络有:多层感知器(MLP)误差反向传播网络(BP)径向基函数神经网络(RBF)学习向量量化网络(LVQ)卷积神经网络(CNN)智能控制

4.1.2

神经网络的结构和特点23第6章

神经网络控制基础(2)反馈(递归)网络(Recurrent

Networks)智能控制

4.1.2

神经网络的结构和特点图4-6反馈网络24第6章

神经网络控制基础智能控制

4.1.2

神经网络的结构和特点反馈网络和前馈网络的区别主要在于神经元输出至少有一条反馈回路,信号可以正向或反向流通。反馈网络由于有反馈回路的存在,对神经网络的学习能力和决策都产生很大影响,需要一定的时间才能达到稳定。典型的反馈型网络有:Hopfield网络Boltzmann机网络Kohonen网络25第6章

神经网络控制基础人工神经网络具有以下突出的优点:神经网络可以充分逼近任意复杂的非线性函数。神经网络具有分布式信息存贮特点,有很强的鲁棒性和容错性。神经网络具有巨量信息并行处理和大规模平行计算能力。神经网络具有自组织、自学习功能,是自适应组织系统。智能控制

4.1.2

神经网络的结构和特点26第6章

神经网络控制基础神经网络的研究主要包括:神经网络基本理论研究神经网络模型的研究神经网络应用研究神经网络及其融合应用技术智能控制

4.1.2

神经网络的结构和特点27第6章

神经网络控制基础智能控制

4.1.3

神经网络学习1.学习方式“学习”是指在外界环境激励作用下,神经网络的连接权值不断调整适应的过程。神经网络最显著的特点是具有从周围环境中学习,并通过学习改进其行为的能力。这种行为改进方式是和学习算法密切相关。学习算法是指一系列事先定义好的解决学习问题的规则,它决定了如何调整神经网络连接权值的方式。在神经网络设计中学习算法是和网络模型选择相对应的,学习算法不是唯一的,其数量难以统计,它们有各自的适应范围和优缺点。28第6章

神经网络控制基础第6章

神经网络控制29智能控制

4.1.3

神经网络学习神经网络的学习方式按照有无导师指导可以分成有教师学习和无教师学习。(1)有教师学习(Learning

with

ateacher)设计训练过程由教师指导,提供一系列的期望输入-输出作为训练样本。通过期望输出与实际输出之间的误差不断地调整网络连接强度,直到达到满意的输入-输出关系为止。例如采用误差反向传播学习算法(BP)算法。图4-7有教师学习结构基础智能控制

4.1.3

神经网络学习(2)无教师学习(Learning

without

ateacher)与有教师学习过程中由教师提供期望或目标输出信号相对应,无教师学习没有目标输出。无教师学习可以分成无监督学习(Unsupervised

Learning)和增强学习(Reinforcement

Learning)方式。无监督学习方式在训练过程中没有期望输出信息和评价机制,神经网络根据所提供输入数据集,自动地调整适应连接权值,按照输入数据统计规律把相似特征输入模式自动分类。无监督学习方式通常采用竞争式学习规则,常用的无监督学习算法包括自适应谐振理论(ART)和Kohonen算法等。30第6章

神经网络控制基础图4-9

增强学习结构智能控制

4.1.3

神经网络学习遗D(3)增强学习(Reinforcement

Learning)增强学习方式采用一个评价函数实现给定输入对应神经网络输出趋向评价,获得策略的改进,它是一种以环境的反馈为输入的适应环境的机器学习方法,其在线学习和自适应学习的特点使其成为解决策略寻优问题有力的工具。增强学习算法主要有传算法、免疫算法和NA软计算等。31第6章

神经网络控制基础智能控制

4.1.3

神经网络学习2.学习算法学习算法涉及最优化理论、计算方法和信号处理等领域,除了一些基本的算法之外,还可以结合具体问题对经典算法作些改进或者从其它领域借鉴,例如遗传算法、模拟退火算法、扰动算法和粒子群算法(Particle

Swarm

Optimization)等。神经网络的学习算法在神经网络研究占着非常重要的地位,直接关乎神经网络的学习、自适应和非线性拟合等能力。下面介绍几种神经网络中常用的学习规则:32第6章

神经网络控制基础第6章

神经网络控制智能控制

4.1.3

神经网络学习信号为

Nkk k2k

1 k

1e2

(n)122NE

1

(d (n)

y

(n))

ek(n)

dk(n)

yk

(n)其中

dk

(n)

为目标期望输出,yk

(n) 为网络的实际输出。目标函数常用均方误差表示,定义为(1)误差修正规则(Error-Correction

Learning)误差修正规则也称为Delta学习规则,是有教师学习。输入x(n)是从隐层传过来的其它神经元的输出f

(

)为激励函数,定义神经元k在时刻n的误差误差修正学习的目的是如何调整权值使目标函数达到最小,将输出神经元的实际输出在统计意义上最逼近于期望输出。33图4-10

Delta学习规则示意图基础常用梯度下降法来求解,沿着E的负梯度方向求解对权值的极小。针对某一个权值 的目标函数:数学表达式为定义函数wkj智能控制

4.1.3

神经网络学习2 21 12 2k kk ky (n))

e

(n)E

(d (n)

kjkj

w

w (n)

(

Ek )k k jkj

k

kj

k

k k

e (n)

f

(Wx(n))

x (n)

w

y

w

E

E

y其中,

(0

1)为学习速率或步长,

=ek(n)f

(Wk

x(n))则网络权值的调整量为:

wkj(n)

ek(n)

f

(Wkx(n))

xj(n)=

xj

(n)n+1时刻网络权值修正量为:wkj

(n

1)

wkj

(n)

wkj

(n)34第6章

神经网络控制基础智能控制

4.1.3

神经网络学习(2)Hebb学习规则(Hebbian

Learning)1949年心理学家D.

O.

Hebb在《行为组织》一书中提出该算法,是最早的神经网络学习规则,为神经网络的学习算法奠定了基础。他认为,如果一个突触两侧的神经元同时被激活,则它们之间的连接强度增强,否则连接强度减弱。按照Hebb假设,网络权值

wkj

n时刻的调整量形式:

wkj(n)

yk(n)

xj

(n)该式是表明当两侧神经元同步(激活或抑制)时,网络连接权值得到加强。Hebb学习规则是一种无教师学习方式,不需要提供任何与目标输出相关的信息,只是根据神经元的激活水平调整连接权值,也称作相关学习

。35第6章

神经网络控制基础智能控制

4.1.3

神经网络学习(3)竞争学习(Competitive

Learning)竞争学习是无教师学习方式,在竞争学习时神经网络中输出神经元互相竞争,获胜者被激活,并且可以修改与其相关的连接权值或阈值。竞争神经网络一般由输入层和竞争层构成。竞争学习的基本思想是输出层神经元对输入模式的响应进行竞争,在某一时刻只能有一个输出神经元被激活,这个特点使得竞争学习非常适用于发现输入模式的统计特征,并自动地对输入模式进行分类。36第6章

神经网络控制基础iij(神经元k为竞争获胜)(神经元k为竞争失败)0

w (k)

(x

wij

)j iij(神经元k为竞争获胜)(神经元k为竞争失败)0

w (k)

y (x

wij

)iij(神经元k为竞争获胜)(神经元k为竞争失败)0

w (k)

(x

wij

)

/

xi智能控制

4.1.3

神经网络学习最常用的竞争学习规则有以下三种形式:Kohonen规则:Instar规则:Outstar规则:37第6章

神经网络控制基础第6章

神经网络控制智能控制

4.2前馈神经网络前馈型神经网络中的神经元按层排列,网络从输入层到输出层是单向连接,只有前后相邻两层之间神经元实现相互连接,从上一层接收信号输送给下一层神经元,同层的神经元之间没有连接,各神经元之间也没有反馈。这是前馈网络和反馈网络主要的区别。典型的前馈网络有:A感知器(MLP)误差反向传播网络(BP)BC径向基函数神经网络(RBF)38智能控制基础第6章

神经网络控制4.2.1

感知器(Perceptron)1957年美国学者F.Rosenblett提出了用于模式分类的感知器模型。按照神经网络的拓扑结构可以分成单层感知器和多层感知器网络。1.单层感知器m

wijxis

ji

1

j其输入、输出数学表达式为:y

j

f(s

j

) (j

1,2,

n)以称为激励函数、响应函数等。i

1,2

,

n是从其它神经元传来的输入信号;表示从其它神经元到该神经元的连接权值;为该神经元激活阈值;为神经元输出;为输出变换函数,一般为非线性函数,也可xiwij

jyf

(

)图4-11

单层感知器39智能控制基础第6章

神经网络控制感知器的学习算法设有p个训练样本,给定第k

个样本输入向量为

Xk,期望输出为

Yk ,学习规则如下:赋较小随机初值;计算输出层单元期望输出

yjk 与实际输出

yj之间的误差:将连接权值

wij和输出单元阈值

ijm对第k个训练样本

(Xk,Yk

)(k=1,2,…,p

)计算网络实际输出为:y

j

f

(

wij

xi

j

)i

1jjek

yk

yj4.2.1

感知器40智能控制基础第6章

神经网络控制输出层神经元

j

的连接权值wij和阈值

j

的修正公式:

w

e

k

x

kij j i

e

kj

ji

1,2,

m j

1,2,

nj

1,2,

n选取另一个训练样本,重复上述步骤直至对一切样本误差趋于零或小于给定误差限,学习过程结束。e(k k=1,2,

p)j4.2.1

感知器41智能控制基础第6章

神经网络控制输入为两维

,输出为一维向量

y ,根据逻辑“或”的原理,4个训练样本为1 2X

(x

,

x )T

0

{X1

0

,y1

0}

1

{X

2

0

,

y

2

1}

0

{X3

1

,y3

1}

1

{X

4

1

,

y

4

1}4.2.1

感知器例4-1

:单一神经元感知器解决简单的逻辑“或”问题,感知器结构如图4-12。图4-12

单神经元感知器42智能控制基础第6章

神经网络控制;。图4-13

逻辑“或”输入模式分布输出模式按照其输出值可以分两类:输出

y

为0的一类,用“o”表示;输出y

为1的一类,用“+”表示。此四种输入模式可以分布在二维空间中,如图4-13所示,其分界线2当 s

0

时,输出模式当 s

0

时,输出模式y

1y

04.2.1

感知器s

wi

xi

=w1

x1

w2

x2

i

1为一直线。43智能控制基础第6章

神经网络控制4.2.1

感知器2. 多层感知器(

MP

神经网络)单层感知器只能解决线性可分的模式分类问题,不能解决简单的“异或”问题。如果想达到任意模式分类问题,需要构建一个多层感知器模型。图4-14三层感知器网络结构其输入、输出数学表达式为:ms

j

f

(

wij

xi

j

)i

1第一隐层:第二隐层:jgi

f(

wjtsj

t

)第三层(输出层):iv g

)y

f

(k

ik

i

k44智能控制基础第6章

神经网络控制说明:用上述神经网络训练时,隐含层的权值和阈值是由初始化函数随机给定的,在训练过程中是不能调整的,我们只能调整输出层的网络权值和阈值,有时候可能会由于隐含层的随机输出值不恰当而引起网络无解的情况。那么我们可以重新运行程序获得初始化隐含层的权值和阈值。4.2.1

感知器45智能控制基础第6章

神经网络控制3.

单层感知器和多层感知器的比较单层感知器具有对线性可分的输入模式自动分类的功能。多层感知器具有对任意输入模式进行分类的功能。如果隐含层的节点可任意设置,且隐含层用S型激励函数,双层感知器结构可以一致逼近任意的连续函数。4.2.1

感知器46智能控制基础第6章

神经网络控制4.2.2 BP神经网络1985年,Rumelhart和McClelland及其PDP研究小组成员在研究并行分布信息处理的基础上提出了多层前馈网络的BP理论以及误差的反向传播学习算法(ErrorBack

Propagation

Algorithm),简称BP算法

。将BP学习算法应用于多层前馈神经网络称之为BP网络

。47智能控制基础第6章

神经网络控制4.2.2 BP神经网络1.

BP神经网络模型BP网络是应用最广泛(约占整个神经网络80-90%)、通用性最好的神经网络模型,能用于分类、模式识别和函数逼近(近似或数学建模)。它是一种模拟人脑信息处理方法的大规模并行处理的自学习、自组织和自适应的非线性模拟系统。图4-17

三层BP网络结构48智能控制基础第6章

神经网络控制BP网络通常包含一个或多个隐含层,隐层中的神经元一般均采用S型函数作为激励函数,输出层神经元可以根据实际情况选择线性激励函数,则整个网络的输出可以取任意值;输出层神经元如果同样选择S型函数作为激励函数,则整个网络的输出就限定在一个较小的范围内。BP神经网络的输入与输出关系是一个高度非线性映射关系,如果输入结点数为m,输出结点数为n,则网络是从m维欧氏空间到n维欧氏空间的映射。4.2.2 BP神经网络49智能控制基础第6章

神经网络控制的连接权值;为第二隐层神经元的阈值;为输出神经元的阈值。ms

j

f

(

wij

xi

j

)i

1gt

f

(

wjt

s

j

t

)jyk

f(

vtkgt

k)iwij为到第一隐层s

j

jwjigt

到输出层 的连接权值;

tvtk

为为第一隐层神经元的阈值;为

s

j

到第二隐层

gt

的连接权值;yk

k4.2.2 BP神经网络BP网络模型表达式:第一隐层:第二隐层:第三层(输出层):50智能控制基础第6章

神经网络控制1

ef(X)

1 ,a

0

aXf(

X)

ax,a

01

e1

e

ax4.2.2 BP神经网络S型激励函数(a)Sigmoid函数(b)S型正切函数f(X)

X线性激励函数51智能控制基础第6章

神经网络控制(即实际输出逐渐逼近希望输出)而结束学习过程,这种学习规则就是上节课讲到的Delta(

)学习规则。BP学习算法实际包含了两类信号不同方向的传播过程,一类是施加输入信号由输入层经隐层到输出层,产生输出响应的“输入模式正向传播”过程;另一类是希望输出与实际输出之间的误差信号由输出层返回隐层和输入层,反向逐层修正连接权值和神经元输出阈值的“误差逆传播”过程。“输入模式正向传播”和“误差逆传播”过程反复交替进行网络训练,最终达到网络的全局误差向极小值收敛4.2.2 BP神经网络BP学习算法属于有教师监督的学习方式,按照减小希望输出与实际输出误差的方向,从输出层向隐含层逐层修正网络的权值和阈值,直至回到输入层,如此反复直到误差达到最小,因此得名“误差反向传播算法”。52智能控制基础第6章

神经网络控制设有P

个训练样本,当给定第

p

个样本输入向量为p)T1 2 mX

(

x ,

x ,

x期望输出1 2nY

p

(Y

,Y

,

Y

)第一隐层的神经元输出向量第二隐层的神经元输出向量S

pGk

(s

,

s ,

s )T1 2 a

(g1

,

g2

,

gb

)T网络输入神经元个数为

m ;

网络输出神经元个数为

n ;第一隐层的神经元个数为

a

;第二隐层的神经元个数为

b

;4.2.2 BP神经网络53智能控制基础第6章

神经网络控制,

m;j

1,

2,

a)输入

xi

到第一隐层

s

j

的连接权值为

wij

(i

1,

2第一隐层神经元的阈值为

js

j

到第二隐层

gt的连接权值为

w

jt

(

j

1,

2, a;t

1,

2, ,b)第二隐层神经元的阈值为

gt

到输出层yk

的连接权值为

vtk

(t

1,

2, b;k

1,

2, ,

n);t输出神经元的阈值为

k激励函数为

f

(

)4.2.2 BP神经网络54智能控制基础第6章

神经网络控制输入模式正向传播过程第一隐层:

mj

ij ijij iji

1i

1w

x

1+ems

f(

w

x

)=

1 (

j

1,

2, a)

a

jt j tjt j t1

ej=1j=1w s

ag

f

(

w s

)=

1 (t

1,

2,第二隐层:

tbyk

f

(

vtk

gt

k

)t=1(k

1,

2,第三层(输出层):4.2.2 BP神经网络(4-24)b)(4-25)n)(4-26)55智能控制基础第6章

神经网络控制误差的逆传播过程误差的逆传播就是按照误差信号原连接通路反向修正各层的连接权值和阈值,使得误差信号减小到希望的值。设第

p

个训练样本得出的网络期望输出与实际输出的偏差为ke

p

(Yp

y

p)k k(k

1,

2,

n)取神经元输出的均方差为第

p

个训练样本输入时网络的目标函数:221 1nk k knE

p

[ep]2

(Yp

yp

)2k

1 k

14.2.2 BP神经网络(4-27)(4-28)56智能控制基础第6章

神经网络控制对于所有训练样本,网络的目标函数——全局误差为

pk kP nkP P nE

pE

p

1k

1p 2

p

1k

1

p

1(Y

yp

)212[e

]

12选择 f

(

)

为S型激励函数,应用梯度下降法反向调整各层的权值和阈值,沿着

E

的负梯度方向求解目标函数极小值时的权值。4.2.2 BP神经网络(4-29)57智能控制基础第6章

神经网络控制BP网络各层权值的修正量为tktk

v

E

p

E

P

p

1

vtk(n)

v

jtjt

w

E

p

E

P

p

1

w

jt(n)

wijijij

w

E

p

w

E

P

p

1

w (n)

4.2.2 BP神经网络(4-30)(4-31)(4-32)58智能控制基础第6章

神经网络控制下面按照误差逆向传播顺序逐层讨论修正规律。k tk t knetp

v gt

1

令根据公式(4-26)~(4-29)代入式(4-30)推导第二隐层至输出层的连接权值修正量为Ptktk

v

E

pp

1

v (n)

tk k k

P

y

p

net

p

vk k

E

p

y

p

net

p=

p

1ptpkkp p

P

f (net )

gy )(

1)

(Yk

p

1=-

p

tpkp

ek

f (net )

gP

p

1=

为学习速率,通常取值0~1之间。4.2.2 BP神经网络(4-34)b bkk tk ty

f

(

v gt=1

)(4-33)59智能控制基础第6章

神经网络控制令pkpkpk

=e

f

(net

)

为输出层各单元的一般化误差,则式(6-29)化简为tkPp

kptp

1

g

v (n)

4.2.2 BP神经网络(4-35)(4-36)60智能控制基础第6章

神经网络控制a

wjt

s

jpnettj=1

t令将公式(4-25)、(4-27)~

(4-29)、(4-34)~

(4-36)代入式(4-31),推导出第一隐层至第二隐层的连接权值修正量为:jtp

1

Ep

wjt(n)

wP

P npkkt tjt(Yp

1k

1

yp

net

p

g

p

net

p

y

p

)(

1)

k k t t

net

p

g

p

net

p

w

k=-

pP n(Y

y

p

)

f

(net

p

)

v

f

'

(net

p

)

s

pt j

k

k

k

tkp

1k

1=

4.2.2 BP神经网络(4-37)(4-38)61智能控制基础第6章

神经网络控制tnpp

f'(netp

)(Y

y

p)

f

(net

p

)

vt

k k k tkk

1

=tnp

f'(netp

)

k tkk

1=

v令为第二隐层各单元的一般化误差,则式(4-38)化简为jtPp

tpjp

1

g

w (n)

4.2.2 BP神经网络(4-39)(4-40)62智能控制基础第6章

神经网络控制令mj ij i ji

1netp

w x

将公式(4-24)、(4-27)~(4-29)、(4-34)~

(4-41)代入式(4-32),推导输入层至第一隐层的连接权值修正量为P

ijij

w

E

pp

1

w (n)

t jtkP n bkpk

net

p

wj ij

s

p

net

p

j j

net

p

g

p

net

p

s

p

y

p

net

p

g

p

net

p

p

1k

1t

1

y

p

)(

1)

k k t t (Y=-

jtttkp(Y

y

p)

f

(net

p)

vk k

f'(netp)

wP n b

k

p

1

k

1 t

1=

4.2.2 BP神经网络(4-41)

f

'

(net

p)

x

pj j(4-42)atjt jjt j tt1

e

1

j=1j=1w s

ag

f

(

w s

)=bkk tk tt=1y

f

(

v g

)63智能控制基础第6章

神经网络控制令第一隐层各单元的一般化误差为jjtttkn bpk k kpj

f'(netp

)

f'(netp)

w(Y

y

p)

f

(net

p)

v

k

1

t

1=

jt jbp

tt

1

w

f'(netp

)=则(4-40)化简为Pp pi

jijp

1

x

w (n)

4.2.2 BP神经网络(4-43)(4-44)64智能控制基础第6章

神经网络控制同理,阈值修正量为Pk

pkp

1

(n)

Pp

ttp

1

(n)

Pj

p

jp

1

(n)

4.2.2 BP神经网络(4-45)(4-46)(4-47)65智能控制基础第6章

神经网络控制BP学习算法及该算法具体编程步骤

:初始化;提供训练样本

;输入模式正向传播过程计算

;误差的逆传播过程计算;各层网络权值和阈值的修正计算;返回提供训练样本步骤重新计算直到全局误差

E

,或者达到最大学习次数结束学习;4.2.2 BP神经网络66智能控制基础第6章

神经网络控制4.2.2 BP神经网络BP网络特点:通过调整BP神经网络中的连接权值和阈值以及网络的规模(包括输入、输出节点数和隐层节点数)可以实现非线性分类等问题,并且可以以任意精度逼近任意非线性函数,所以BP神经网络广泛应用于非线性建模、函数逼近和模式识别等方面。67智能控制基础第6章

神经网络控制4.2.2 BP神经网络3.BP学习算法的缺陷在实际应用中需要注意网络结构和相关参数对训练速度、网络收敛性和泛化能力等问题的影响。(1)BP网络结构的选取及相关参数对训练的影响在BP网络设计中最为关键的是隐节点的个数,因为它关系到计算收敛的快慢和计算的复杂度。68智能控制基础第6章

神经网络控制4-3:要逼近函数

,讨论隐层节点固定时BP网络随着

n

取值的增加函数逼近的情况。假设选取隐层节点为3的1-3-1

双层BP网络结构,隐层的激励函数为双曲正切函数,输出层为线性激励函数。g(x)

cos(n

x)(

1

x

1)(a)(b)

(c)(d)图4-18 用1-3-1BP网络逼近余弦函数(a)n=1(b)n=2(c)n=4

(d)n=84.2.2 BP神经网络69智能控制基础第6章

神经网络控制区间内存在更多的余弦波,逼近函数更加复杂,如果隐层节点数固定,这很难达到复杂函数的逼近(比如=4,8时)。下面我们讨论当加时逼近余弦函数的情况。从图中可以看出,随着

n 值的增加,在

1

x

1固定(

n

=4),隐层节点数增n(a)(b) (c)(d)图6-30

增加隐层节点数的BP网络余弦逼近(a)1-2-1网络 (b)

1-4-1网络 (c)1-6-1网络 (d)

1-8-1网络6.2.2 BP神经网络70智能控制基础第6章

神经网络控制一般为固定值,取值范围为在BP算法中,学习速率

0

1

,学习率的大小对收敛速度和训练结果也具有一定的影响。如果学习率太小,收敛性容易得到保证,但学习速度太慢;学习率太大,学习速度快,但可能导致振荡或发散。4.2.2 BP神经网络另外,在BP算法中网络的初始权值和阈值的选取对网络的训练也有一定的影响,一般网络的初始权值和阈值是随机生成的,不同的初始值可能会导致在训练过程中陷入局部极小,造成学习失败。因此对于结构相同的神经网络在训练中一定要经过多次运行,确认网络是否能够实现要求的功能,避免因初值选取不当而造成的训练失败。71智能控制基础第6章

神经网络控制4.2.2 BP神经网络(2)BP网络的收敛性虽然我们在前面讲到BP网络可以模拟任意复杂的非线性函数,但是由于BP算法采用梯度下降法逐渐减小误差,有可能落入局部极小点,使算法不收敛,而达不到全局误差的最小点。因此,当BP网络收敛时,在不确定是否达到最优解的情况下,最好多试几个不同的初始值以确保收敛到“全局最小极点”。72智能控制基础第6章

神经网络控制4.2.2 BP神经网络(3)泛化能力经过训练的BP网络,对于不是样本集中的输入也能给出合适的输出,这种性质称为泛化(Generalization)功能。泛化能力是与网络的结构,即隐层数和隐层的节点数有关。为了尽可能避免训练出现的“过拟合”现象,保证足够高的网络性能和泛化能力,确定隐节点数的最基本的原则是:在满足精度要求的前提下取尽可能紧凑的结构,即尽可能少的隐节点数。73智能控制基础第6章

神经网络控制4.2.2 BP神经网络研究表明,隐层节点数不仅与输入和输出的节点数有关,还与所解决问题的复杂度和激励函数的形式以及样本数据的特性有关。若隐层节点数太少,网络可能根本不能训练或者网络性能很差;若是隐节点数太多,虽然可使网络的系统误差减小,但一方面使网络训练时间延长,另一方面,训练容易陷入局部极小点而得不到最优点,也是训练时出现过拟合的内在原因。74智能控制基础第6章

神经网络控制4.2.2 BP神经网络4.几种改进的BP学习算法加入动量项校正算法;自适应学习速率调整算法;动量-自适应学习速率法;调整激励函数法。75智能控制基础第6章

神经网络控制4.2.2 BP神经网络加入动量项校正算法附加动量项就是使网络在修正其权值和阈值时,不仅考虑误差在梯度上的作用,而且在每一次权值或阈值的变化上按一定比例加上前一次学习时的修正量。加入动量因子的网络连接权值的修正公式为:

v (n)

tkv (n

1)tkptP

p

kp

1

g +

76智能控制基础第6章

神经网络控制4.2.2 BP神经网络自适应学习速率调整算法学习速率的选取是否合适直接影响网络的收敛速度,我们希望网络的权值或阈值调整过程中学习速率可以根据网络误差曲面上的不同区域的曲率变化自适应地调整。一般在网络学习初期,学习速率可选择大一些,加快学习速度;接近最小点时,学习速率要选择小一些,避免出现振荡难以收敛;处在误差曲面的平坦区域,学习速率太小则迭代系数增加;处在误差曲面剧烈变化区域,学习速率过大容易跳过较好的极小值点或全局最小点。77智能控制基础第6章

神经网络控制4.2.2 BP神经网络动量-自适应学习速率法把附加动量项算法和自适应学习速率算法结合起来发展起来的改进附加动量项校正算法,使两者直接共同作用于权值的调整。附加动量项能使权值的调整趋于平滑稳定,可以找到更优的解,而自适应学习速率可以缩短训练时间。78智能控制基础第6章

神经网络控制

x

1

e1f

(x)

a

4.2.2 BP神经网络式中,

a为偏移参数,θ 为阈值,

为陡度因子;显然,此函数比S函数具有更丰富的非线性表达能力。调整激励函数法在传统的BP网络中,通过神经元之间的连接来存储信息(可调),模拟细胞体功能的激励函数则是固定的。这使得网络的训练过程简化成只对各层神经元连接权值和阈值进行调整,这制约了网络的非线性映射能力。我们将节点的激励函数修改为:79智能控制基础第6章

神经网络控制4.2.2 BP神经网络当然还可以将上述BP改进算法相结合,或者引入其它的智能技术与BP算法融合,例如遗传算法和DNA软计算等,吸收各自的优点形成综合的学习算法。近年来,遗传算法等全局随机优化方法受到人们的关注,并应用于神经网络的优化中,取得了很好的效果。80智能控制基础第6章

神经网络控制1

Introduction① The

ECG

contains

P

wave、QRS

wave、T

wave、ST

segment

et.al.② STsegmentisthemostimportantdiagnosticparametertoidentifymyocardialinfarctionandother

cardiacdiseases.③ Inclinicaldiagnoses,theshapesofSTsegmentareclassifiedintoseventypes:normal,horizontaldepression,down-slopingdepression,convexdepression,

up-slopingdepression,convexdownwardselevation,andconvexupwards

elevation.BP网络的应用81智能控制基础第6章

神经网络控制“o”representsRpeak

position2ExtractionofSTsegment

charactersBytakingadvantagesofthemultipleresolutionabilityofwavelet

transform,theR-waveandSTsegment’sfiducialpointsareextractedatdifferent

waveletscales."*"represents

Tpeak

position"Δ"representsthe

Twavestarting

position"+"represents

Swave

positionSTsegmentisthesegmentbetweentheleft"Δ"andtheright

"Δ"."Δ"

representstheJ

pointBP网络的应用82智能控制基础第6章

神经网络控制3EstablishmentofBPnetworkappliedtotheidentification

oftheshapesofST

segments

AftertheextractionoftheSTsegmentsusingabovemethods,normalizationoftheSTsegmentsareconducted.30pointsarethenevenlyextractedfromthenormalizedST

segments.InordertoidentifytheshapesofSTsegments,a

threelayer30×61×7BPneuralnetworkis

established.Theactivationfunctionofthehiddenlayeristhehyperbolictangentfunction.Theactivationfunctionoftheoutputlayeristhelogarithmfunctionandtheoutputvalueofthenetworkisbetween0and

1.BP网络的应用83智能控制基础第6章

神经网络控制ThestructureofBP

networkθ1

θ1θ1θ1θ1θ1θ1θ1q1q2WijWkj

O1

O2

qk

Ok

θ1

The30pointsextractedfromthe

normalizedSTsegmentsareregardedasthe

inputs.61nodesareselectedasthenodesofthehiddenlayer

bycomprehensivelyconsideringthecalculationcomplexityandidentification

accuracy.θ1θ17nodesareselectedas

thenodesoftheoutput

layer.BP网络的应用84智能控制基础第6章

神经网络控制Thecurvesofroot-mean-squareerrorinthetraining

process010 203040506070809010010-310-2-110100100

EpochsTraining-BlueGoal-BlackPerformanceis0.100985,Goalis

0.01local

minimumThegoalof

theBPtrainingis0.01.ThecirclenumberoftheBPtrainingprocessis

100.BP网络的应用85智能控制基础第6章

神经网络控制InitialzationselectionSetinitialweights

andbiasofthe

BPBP

TestingBP

trainingSatisfy

theendconditionNoYesCrossoverMutationFitnesscalculationEndDecodingGAcomputationStart4OptimizationoftheBPneuralnetworkusing

GAalgorithmInordertosolvetheexistingproblemsoftheBPneuralnetwork,aGAoptimization

methodinspiredfromthebiologicalGAis

applied.BP网络的应用86智能控制基础第6章

神经网络控制Thecurvesofroot-mean-squareerrorinthetraining

process0102030405060708090100-31010-2-110010100

EpochsTraining-Blue

Goal-BlackPerformanceis0.0173734,Goalis

0.01Thenumberoftheevolutionepochis100.Themutationrateis0.3%.ThegoaloftheBPtrainingis0.01.ThecirclenumberoftheBPtrainingprocess

is100.BP网络的应用87智能控制基础第6章

神经网络控制5OptimizationoftheBP

neuralnetworkusingDNA

algorithmInordertosolvetheexistingproblemsoftheBPneuralnetwork,aDNAoptimizationmethod

inspiredfromthebiologicalDNAisapplied.DNAalgorithmisbased

onthesimulationofbiologicalinformation

inheritance.Itconductsinformationsearch,collectionandassemblinginthewhole

spacewithoutbeinglimitedtothelocal

minimumInitialzationGroupSetinitialweights

andbiasofthe

BPBP

TestingBP

trainingSatisfy

theendconditionNoYesCrossoverMutationInversionFitnesscalculationEndDecodingDNAcomputationStartBP网络的应用88智能控制基础第6章

神经网络控制6 Experiment

Results(1)Thenumberofchromosomesis40.Thenumberoftheevolutionepochis100.Themutationrateis0.3%.Thegoal

oftheBPtrainingis0.01.ThecirclenumberoftheBPtrainingprocessis100.BP网络的应用(2)Thecurvesof

root-mean-squareerrorinthe

trainingprocess0246810121410-3-21010-110014

EpochsTraining-Blue

Goal-BlackPerformanceis0.00974595,Goalis

0.0189智能控制基础第6章

神经网络控制ModelDNA-BPGA-BPBPUltimate

Performance0.0100.0430.101Training

Steps17100100ItovercomestheshortcomingsofBPnetworkintermsofthelocalminimum,slowconvergenceandtheshortcomingsofGA-BPin

termsofitslimitationinalgorithmcodingandevolution

ways.(3)Theultimateperformanceofthe

trainingof the

BPBP网络的应用90智能控制基础第6章

神经网络控制(4)Theresults

ofthe

experimentsThe

DNA-BPalgorithmissuperiortotheGA-BPandBPalgorithmsboth

inaccuracyandthespeedofconvergence.BP网络的应用Accuracy

rateShapesof

STSegmentDNA-BPGA-BPBPNormal97%80%63%horizontaldepression93%83%67%down-slopingdepression90%83%70%up-slopingdepression87%77%67%convexdepression90%83%53%convex

upwardselevation90%77%60%convex

downwardselevation9187%80%53%智能控制基础第6章

神经网络控制4.2.3 RBF神经网络RBF神经网络又称径向基函数(Radial

BasisFunction)神经网络,20世纪80年代末期首先在求解多实变量插值问题时将RBF引入神经网络设计,从而构成一类新颖的前向网络——径向基函数神经网络。1. RBF网络的结构图4-21

RBF网络的结构92智能控制基础第6章

神经网络控制性映射;输出层 对隐含层的输出实行线性加权组合,ykf:Rm

Rn4.2.3 RBF神经网络一般的RBF神经网络由一个隐含层和一个输出层组成,其结构与一般前向网络相似,同层的神经元之间没有连接,相邻两层的神经元完全连接。隐层节点通过选取的激励函数实

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论