第七章:人工神经网络课件_第1页
第七章:人工神经网络课件_第2页
第七章:人工神经网络课件_第3页
第七章:人工神经网络课件_第4页
第七章:人工神经网络课件_第5页
已阅读5页,还剩64页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第七章:人工神经网络7.1人工神经元及人工神经网络模型7.2前向神经网络7.3反馈神经网络7.4自组织竞争神经网络模型7.5基于人工神经网络的数据挖掘本章小结2003-11-11高等教育出版社人工神经网络简介人工神经网络(ArtificialNeuralNetwork,简称ANN)是指由简单计算单元组成的广泛并行互联的网络,能够模拟生物神经系统的结构和功能。组成神经网络的单个神经元的结构简单,功能有限,但是,由大量神经元构成的网络系统可以实现强大的功能。人工神经网络在模式识别、计算机视觉、智能控制、信号处理、语音识别、知识处理、机器学习、数据挖掘等领域有着广泛的应用前景。

2003-11-12高等教育出版社历史事件最早的形式化神经元数学模型是M-P模型,由美国心理学家McCulloch和数理逻辑学家Pitts合作,于1943年提出。

1949年,心理学家Hebb提出Hebb学习规则。

1958年,计算机科学家Rosenblatt提出感知器(Perceptron)的概念,掀起人工神经网络研究的第一次高潮。

1982年,美国加州工学院的生物物理学家Hopfield提出Hopfield网络模型,这标志着神经网络研究高潮的再次兴起。

2003-11-13高等教育出版社第七章:人工神经网络7.1人工神经元及人工神经网络模型7.2前向神经网络7.3反馈神经网络7.4自组织竞争神经网络模型7.5基于人工神经网络的数据挖掘本章小结2003-11-14高等教育出版社M-P模型M-P模型如图所示,

2003-11-15高等教育出版社M-P模型(续)其中,Ii{-1,1}表示输入,Y{-1,1}表示输出,权值Wi{-1,1}表示输入的连接强度,正数权值表示兴奋性输入,负数权值表示抑制性输入。θ表示神经元兴奋时的阈值,当神经元输入的加权和大于θ时,神经元处于兴奋状态。神经元输出通过下式计算,其中,sgn为符号函数

2003-11-16高等教育出版社人工神经元的形式化描述

人工神经元的数学模型如图所示

2003-11-17高等教育出版社人工神经元的形式化描述(续)其中ui为第i个神经元的内部状态,θi为神经元阈值,xj为输入信号,wji表示从第j个神经元到第i个神经元连接的权值。si表示第i个神经元的外部输入信号,上述假设可描述为:

2003-11-18高等教育出版社常用的神经元状态转移函数阶跃函数

准线形函数

Sigmoid函数

双曲正切函数f(x)=th

(x)

2003-11-19高等教育出版社状态转移函数图像2003-11-110高等教育出版社人工神经网络的学习方式

死记式学习:网络连接权值根据特殊记忆模式设计而成,其值不变。在网络输入相关模式时,唤起对记忆模式的回忆,对输入模式进行相应处理。

有监督学习:网络将实际输出和教师指定的输出加以比较,得到在一定范数意义下的误差,由误差函数决定连接权值的调整,目的是使误差函数达到最小值。

无监督学习:网络的学习是自我调整的过程,不存在教师示教来指示网络输出是否正确。

有监督与无监督的混合学习:混合学习过程首先采用无监督学习抽取输入模式的特征,然后利用有监督学习方式对其进行处理,形成输入输出的某种映射。

2003-11-111高等教育出版社第七章:人工神经网络7.1人工神经元及人工神经网络模型7.2前向神经网络7.3反馈神经网络7.4自组织竞争神经网络模型7.5基于人工神经网络的数据挖掘本章小结2003-11-112高等教育出版社感知器

感知器(Perceptron)是由美国学者Rosenblatt于1957年提出的一个具有单层计算单元的神经网络。单层感知器神经网络如图所示,其中,输入向量为X=(X1,X2,…,

Xn

),输出向量为Y=(Y1,Y2,…,

Ym

)。最简单的感知器仅有一个神经元。

2003-11-113高等教育出版社感知器(续)感知器的输入向量为XRn。权值向量为WRn,可以通过学习训练调整W。单元的输出为Y{-1,1}。其中,

若令Wn+1=θ,Xn+1=-1,则有:

2003-11-114高等教育出版社单层感知器的学习算法

初始化权值和阈值:用较小的随机非零值初始化Wi(0)。其中,Wi(t)(1≤i≤n)为t时刻第i个输入的权值,Wn+1(t)为t时刻的阈值。

输入样本:X=(X1,X2,…,

Xn,T),T称为教师信号(即期望输出)。

计算网络的实际输出:

修正权值:Wi(t+1)=Wi(t)+η(T–Y(t))Xi

,i=(1,2,…,n,n+1)其中,η(0,1)为学习率,用于控制修正速度。

转到步骤(2)重复执行,直到W对一切样本均稳定不变为止。

2003-11-115高等教育出版社多层前向神经网络多层前向神经网络有一个输入层、一个输出层和若干个隐层。输入样本送入输入层后,传递给第一隐层。第一隐层节点对输入信号求加权和后,利用转移函数进行处理。第一隐层的输出传递给下一隐层,各个隐层依次类推,最后一个隐层的输出作为输出层的输入,输出层给出输入样本的网络预测。有两个隐层的前向神经网络如图所示:2003-11-116高等教育出版社BP算法的提出1985年,Rumelhart、Hinton和Williams给出了前向神经网络学习训练的误差后向传播算法(BackPropagation,简称BP算法),成功地解决了多层网络中隐含层神经元连接权值的学习问题。

基本的BP算法采用有监督学习方式,基于梯度下降算法,极小化误差函数。其主要思想是将学习过程分为信号正向传播过程和误差后向传播过程两个阶段。

2003-11-117高等教育出版社相关概念

设(Xp,

Tp)表示输入样本,p{1,2,…,N},N为输入样本的个数。W表示网络权向量。

误差函数:E(W)=g(f(W,

Xp,

Tp)),E称为误差(测度)函数。用误差函数来判别网络的实际输出向量Yp与教师信号向量Tp的误差。常采用二乘误差函数加以判别(m为输出向量的维数):

2003-11-118高等教育出版社相关概念

映射:对于给定的一组数据(Xp,

Tp),神经网络通过一组特定的权值W,实现一定精度的映射。训练目的是希望得到的权值能产生最小的误差和最好的精度。从XpRn到YpRm的映射记为:

f:

XpRnYpRm

误差曲面:若隐层与输出层间的权值数目记为m·n2,对于给定的训练样本(Xp,

Tp),网络权向量W(W1,W2,…,Wm·n2),通过误差函数E(W)计算出来的映射误差可描述为m·n2+1空间的一个曲面,称为误差曲面。不同的E(W)对应不同的误差曲面形状。

2003-11-119高等教育出版社相关概念

网络学习:是指按照某种学习规则选取新的W’,使E(W’)≤E(W),即使E(W)对应的误差曲面上的点总是向山下移动,最终移到最深的谷底(全局最小)。若曲面有多个谷底,移动的过程可能陷入局部极小。

移动步长:也称学习率,步长较小时移动轨迹较慢且平滑,易陷入局部极小;步长较大时移动速度快,可能跳过局部极小,也可能跳过全局最小点,易产生振荡。一般情况下,开始时取较大步长,后期取较小步长。

2003-11-120高等教育出版社相关概念

梯度下降算法:如果移动是在误差曲面最陡的方向,或梯度下降的方向上进行,这样下山的速度快,称作最速梯度下降法。

2003-11-121高等教育出版社BP算法权值的修正量BP算法基于梯度下降算法。在梯度下降算法中,权值的修正量正比于误差函数E(W)对W的负梯度,即:

W(t+1)=W(t)+ΔW(t)2003-11-122高等教育出版社BP算法权值修正公式的推导设有N个学习样本(Xp,

Tp),p{1,2,…,N},对于某个Xp,网络输出为Yp,节点i的输出为Oip,神经元节点i和j的连接权值为Wij,节点j的输入加权和为:

误差函数使用二乘误差函数:其中,

2003-11-123高等教育出版社BP算法权值修正公式的推导(续)根据netjp定义及求偏导数的链式规则有:令,上式改写为:

2003-11-124高等教育出版社BP算法权值修正公式的推导(续)为计算,由于使用链式规则有:

2003-11-125高等教育出版社BP算法权值修正公式的推导(续)若j是输出节点,则Ojp=Yjp,从而有:若j不是输出节点,则有:其中

2003-11-126高等教育出版社BP算法权值修正公式的推导(续)从而有:

2003-11-127高等教育出版社BP算法权值修正公式的推导(续)通过以上讨论,梯度下降算法对权值的修正为:

2003-11-128高等教育出版社三层前向神经网络考虑一个三层的前向神经网络,设输入层节点数为n1,中间层节点数为n2,输出层节点数为m。设为输入层节点i的输出;为中间层节点j的输出;为输出层节点k的输出;Tk为输出层节点k对应的教师信号;Wij为节点i和节点j间的连接权值;Wjk为节点j和节点k间的连接权值;θj为中间层节点j的阈值;θk为输出层节点k的阈值。

2003-11-129高等教育出版社三层前向神经网络(续)节点转移函数取为Sigmoid函数:

Sigmoid函数是单调递增函数,且处处可导,其导数为:误差函数取为二乘误差函数:

2003-11-130高等教育出版社三层前向神经网络BP算法(1)设定学习次数初值t=0;用小的随机数初始化网络权值和阈值,Wij(t)[-1,1],Wjk(t)[-1,1],θj(t)[-1,1],θk(t)[-1,1]。

(2)输入一个学习样本(Xp,

Tp),其中p{1,2,…,N}、N为样本数,XpRn,TpRm

(3)计算隐层各节点的输出值:

2003-11-131高等教育出版社三层前向神经网络BP算法(续)(4)计算输出层各节点的输出:

(5)计算输出层节点和隐层节点之间连接权值的修正量:

2003-11-132高等教育出版社三层前向神经网络BP算法(续)(6)计算隐层节点和输入层节点间连接权值修正量:

j{1,2,…,n2}

(7)利用下式修正输出层节点k和隐层节点j的连接权值Wkj,修正输出层节点k的阈值。其中δk为(5)中求出的误差修正量。

2003-11-133高等教育出版社三层前向神经网络BP算法(续)(8)利用下式修正隐层节点j和输入层节点i的连接权值Wji,修正隐层节点j的阈值。其中δj为(6)中求出的误差修正量。

(9)如果未取完全部学习样本,则返回步骤(2)。

(10)计算误差函数E,并判断E是否小于规定的误差上限,如果E小于误差上限,或学习达到学习次数限制,则算法结束;否则更新学习次数t=t+1,返回步骤(2)。

2003-11-134高等教育出版社三层前向神经网络BP算法(续)步骤(2)至(4)为信号前向传播计算,步骤(5)至(8)为误差后向传播计算。

上述BP算法采用逐次修正法,即针对每个输入样本进行一次权值和阈值的修正,而一括修正法对每个输入样本计算修正量,对权值修正量逐次累加,但不马上进行权值和阈值修正,当全部学习样本学习结束后,才修正权值和阈值。

另一种修正方法是Memond法,该方法在修正权值向量和阈值向量时,考虑前一次的修正量。

2003-11-135高等教育出版社径向基函数神经网络径向基函数(RadialBasisFunction,简称RBF)神经网络是一种三层前向神经网络。RBF神经网络只有一个隐层,隐层单元的转移函数采用径向基函数,以对输入层的激励产生局部化响应,即仅当输入落在输入空间中某一指定的小范围内时,隐层单元才会作出有意义的非零响应。输出节点对各隐层单元的输出求加权和。输入单元和隐层单元的连接权值固定为1,只有隐层单元和输出单元的连接权值可调。

RBF训练速度快,具有很好的通用性。2003-11-136高等教育出版社第七章:人工神经网络7.1人工神经元及人工神经网络模型7.2前向神经网络7.3反馈神经网络7.4自组织竞争神经网络模型7.5基于人工神经网络的数据挖掘本章小结2003-11-137高等教育出版社Hopfield神经网络Hopfield神经网络是典型的反馈神经网络。Hopfield神经网络的提出标志着人工神经网络的研究进入新的兴盛期。

Hopfield提出人工神经网络的能量函数概念,使得对网络的运行稳定性判断有了可靠且简单的依据。

Hopfield网络的一个显著优点就是易于通过电子电路实现。

2003-11-138高等教育出版社单层全反馈神经网络如图所示。每个节点的输出都和其他节点的输入相连,输入输出关系为:

2003-11-139高等教育出版社状态空间由n个节点组成的反馈网络,在任意时刻t的状态向量为X=(x1,x2,…,

xn),XRn,输出向量为Y=(y1,y2,…,

yn),YRn。t时刻网络的状态可以通过X(t)和Y(t)表示。由Y(t)可以求得下一时刻的X(t+1),X(t+1)又对应新的输出Y(t+1),网络不断地反馈演化过程,使状态向量X(t)随时间变化。状态的变化过程可以用n维空间的一条轨迹描述。从初始状态X(t0)出发,X(t0+Δt)→X(t0+2Δt)→…→X(t0+mΔt)→…,这些点确定的轨迹是演化过程中所有可能状态的集合,称之为状态空间。

2003-11-140高等教育出版社网络的状态轨迹对于不同的权值Wij和输入Ii(i,j=1,2,…,n),网络的状态轨迹可能有如下几种情况:经过一段时间t(t>0)后,状态轨迹不再延伸,停留在X(t0+t)状态,这时称网络收敛到稳定点或平衡点。稳定点可分为:

渐近稳定点;不稳定的平衡点;网络的解;网络的伪稳定点

轨迹为环状,称为极限环。

如果X(t)的轨迹在某个确定的范围内变化,但既不重复又不能停下来,状态变化为无穷多个,轨迹不发散到无穷远,这种现象称为混沌(Chaos)。

如果X(t)的轨迹随时间一直延伸到无穷远,此时状态发散,系统的输出也发散。

2003-11-141高等教育出版社离散型Hopfield神经网络

离散型Hopfield神经网络(DiscreteHopfieldNeuralNetwork,简记为DHNN)的结构是一个单层结构的全反馈网络,

DHNN有n个节点,W是一个n×n的对称零对角权值矩阵,θ为n维阈值向量。每个节点可处于两个可能的状态之一,即1或-1。假设各节点的外加输入Ii=0,i=1,2,…,n。令Xi

(t)表示t时刻节点i的状态,则节点i的下一个状态由下面的算式决定:

2003-11-142高等教育出版社离散型Hopfield神经网络(续)其中,网络的状态向量为X(t){1,-1}n,且wii

=0,i=1,2,…,n。

2003-11-143高等教育出版社离散型Hopfield神经网络的工作方式

网络的工作方式分为串行(异步)工作方式和并行(同步)工作方式。

串行(异步)工作方式:任一时刻t,只有某一个节点i(随机地或确定性地选择)变化,而其余n–1个节点的状态保持不变,即:

2003-11-144高等教育出版社网络的工作方式(续)并行(同步)工作方式:任一时刻t,所有的节点都改变状态,即:

2003-11-145高等教育出版社离散型Hopfield神经网络的稳定性

若网络从一个初态X(t0)出发,经过一个有限时刻t,网络的状态不再发生变化,即:

X(t0+t+t0)=X(t0+t)t0>0则称网络是稳定的,这时所有的节点输出不再变化,网络稳定在某一状态。

2003-11-146高等教育出版社离散型Hopfield网络的能量函数

能量函数用来衡量网络的稳定性。若每步迭代的E≤0,则网络能量逐渐减少,网络将逐渐趋于稳定点。能量函数的单调下降,表明状态的变化是从远离吸引子到逐渐接近吸引子,从而使网络达到稳定。

2003-11-147高等教育出版社网络的稳定性定理7.1当网络工作在串行方式下时,若满足wij=wji

,wii=0,i、j=1,2,…,n,则能量函数单调下降,网络必定收敛。

定理7.2当网络工作在串行方式下时,若满足wij=wji

,wii>0,i、j=1,2,…,n,则能量函数单调下降,且网络必收敛。

定理7.3当网络工作在并行方式下时,若满足wij=wji,则网络或者收敛于一个稳定点,或者收敛于极限环为2的一个周期解。

2003-11-148高等教育出版社网络权值的调整离散型Hopfield使用Hebb规则来调整网络的权值,实现网络学习。网络待记忆的学习样本有N个,Xp,p=1,2,…,N,XpRn,其每个分量为Xip,i=1,2,…,n,利用已知需要存储的样本来设计n个节点间的连接权值,如节点i和j间的连接权值为:

2003-11-149高等教育出版社网络权值的调整(续)其中,α为一个正常数,初始化时wij=0,每输入一个样本,就在权值上加修正量,wij=wij+αXiKXjK,当XiK和XjK同时兴奋或同时抑制时,αXiKXjK>0,当XiK和XjK一个兴奋一个抑制时,αXiKXjK<0。用Hebb规则修正权值可以满足wij=wji的条件,从而使网络在串行工作方式时保证收敛;在并行工作时系统或收敛,或出现极限环为2的振荡。2003-11-150高等教育出版社连续型Hopfield神经网络

2003-11-151高等教育出版社连续型Hopfield神经网络(续)若定义网络中第i个节点的输入为ui,输出为vi,那么输入输出的关系为:

其中,n为网络的节点数,状态转移函数为Sigmoid型函数,一般取f(x)=1/(1+e-λx)或者f(x)=th(λx)。

2003-11-152高等教育出版社连续型Hopfield神经网络的数学模型连续型Hopfield神经网络的数学模型可以用形如下式的n个非线性方程组来描述。其中,vi是运算放大器i的输出电压,并且vi=f(ui)。

2003-11-153高等教育出版社能量函数连续型Hopfield神经网络的能量函数E定义为:

2003-11-154高等教育出版社网络的稳定性定理7.4

假定神经元转移函数为f(·),存在反函数f-1(·),并且是单调连续递增函数,同时网络结构对称,即Tij=Tji,Tii=0,那么沿系统的运行轨迹有dE/dt≤0;当且仅当dvi/dt=0时,dE/dt=0,i,j{1,2,…,n}。

由定理可知,随时间t的变化,网络状态不断改变,网络能量逐渐降低。当且仅当网络中所有节点的状态不再变化时,网络达到能量极小点,也就是说,网络的稳定点就是使得能量函数取到极小的点。

2003-11-155高等教育出版社Boltzmann机1984年由Hinton等人借助统计物理学的概念和方法,提出了Boltzmann机模型。在节点的状态变化中引入了概率和隐节点,并用模拟退火算法(SimulatedAnnealing,简称SA)进行学习。

模拟退火算法(SA)的特点是通用性强和可达全局最小,在系统能量减小的总体趋势过程中,允许偶尔向能量增加的方向搜索,以避开局部极小,从而达到全局最优状态。

2003-11-156高等教育出版社第七章:人工神经网络7.1人工神经元及人工神经网络模型7.2前向神经网络7.3反馈神经网络7.4自组织竞争神经网络模型7.5基于人工神经网络的数据挖掘本章小结2003-11-157高等教育出版社自组织特征映射神经网络1981年,芬兰学者Kohonen提出自组织特征映射(Self-OrganizingFeatureMap,简称SOM)神经网络模型。Kohonen认为,神经网络在接受外界输入模式时,会分成不同区域,各区域对输入模式有不同的响应特性,而且这一过程可以自动完成。

2003-11-158高等教育出版社网络结构自组织映射网络结构如图所示

2003-11-159高等教育出版社Nj区域输出层各个节点对输入模式的响应竞争通过侧抑制来实现。对于获胜的节点j,在其周围Nj区域内的节点在不同程度上得到兴奋,而在Nj区域以外的节点都被抑制,这个区域Nj可以是正方形也可以是六角形,如图所示。

2003-11-160高等教育出版社对于任意一个输出节点j有:

定义Nj

(t)为训练过程中获胜节点的邻域,表示t时刻以节点Nj为中心的某一邻域内的所有节点,随着训练过程的进行,Nj

(t)的半径逐渐缩小。不但要对获胜节点Nj调整权值,也要对其周围节点调整权值。保证对于某一类输入模式,获胜节点作出最大的响应,而相邻节点作出较大的响应。相邻的节点表征特征相近的输入模式。

2003-11-161高等教育出版社自组织映射网络的学习算法

用小的随机数初始化连接权值:

t=0,0<Wij<1,i{1,2,…,n},j{1,2,…,m}对网络输入一个样本模式:

XP=(X1,X2,…,Xn)计算Xp与各个输出节点间的权值向量W的距离:选择有最小距离的节点N*j作为竞争获胜节点,表征输入模式:

j{1

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论