




已阅读5页,还剩86页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
第三章,前馈神经网络模型,前馈神经网络:由一层或多层非线性处理单元组成。相邻层之间通过突触权阵连接起来。由于前一层的输出作为下一层的输入,因此此类神经网络为前向神经网络。在前向神经网络结构中输入输出之间包含着一层或多层隐含层。前向神经网络可以看成是一种一组输入模式到一组输出模式的系统变换,这种变换通过对某一给定的输入样本相应的输出样本集的训练而得到,为了实现这一行为,网络的权系数在某种学习规则下进行自适应学习,也就是有导师指导学习。,内容提要,感知器多层感知器自适应线性元模型BP算法,第一节,感知器,线性阈值单元,线性阈值单元是前向网络(又称前馈网络)中最基本的计算单元,它具有n个输入(x1,x2,xn),一个输出y,n个连接权值(w1,w2,wn),且,感知器简介,1958年,美国心理学家FrankRosenblatt提出一种具有单层计算单元的神经网络,称为Perceptron,即感知器。感知器是模拟人的视觉接受环境信息,并由神经冲动进行信息传递的层次型神经网络。感知器研究中首次提出了自组织、自学习的思想,而且对所能解决的问题存在着收敛算法,并能从数学上严格证明,因而对神经网络研究起了重要推动作用。感知器的结构与功能都非常简单,以至于在解决实际问题时很少采用,但由于它在神经网络研究中具有重要意义,是研究其它网络的基础,而且较易学习和理解,适合于作为学习神经网络的起点。,感知器模型结构,感知器的模型结构如图所示。感知器是指只有一层处理单元的感知器,如果包括输入层在内,应为两层。图中输入层也称为感知层,有n个神经元节点,这些节点只负责引入外部信息,自身无信息处理能力,每个节点接收一个输入信号,n个输入信号构成输入列向量X。输出层也称为处理层,有m个神经元节点,每个节点均具有信息处理能力,m个节点向外部输出处理信息,构成输出列向量O。两层之间的连接权值用权值列向量Wj表示,m个权向量构成单层感知器的权值矩阵W。3个列向量分别表示为:,感知器模型结构,j=1,2,m,感知器模型结构,感知器的功能,一个最简单的单计算节点感知器具有分类功能。其分类原理是将分类知识存储于感知器的权向量(包含了阈值)中,由权向量确定的分类判决界面将输入模式分为两类。,感知器的功能,(1)设输入向量X=(x1,x2)T,输出:,则由方程w1jx1+w2jx2-Tj=0确定了二维平面上的一条分界线。,感知器的功能,w1jx1+w2jx2Tj=0w1jx1=Tj-w2jx2x1=(Tj-w2jx2)/w1j=-(w2j/w1j)x2+Tj/w1j=ax2+c,感知器的功能,(2)设输入向量X=(x1,x2,x3)T,输出:,则由方程w1jx1+w2jx2+w3jTj=0确定了三维空间上的一个分界平面。,感知器的功能,w1jx1+w2jx2+w3jx3Tj=0 x1=ax2+bx3+c,感知器的功能,(3)设输入向量X=(x1,x2,,xn)T,则由方程w1jx1+w2jx2+wnjTj=0(3.6)确定了n维空间上的一个分界平面。,例一用感知器实现逻辑“与”功能,例一用感知器实现逻辑“与”功能,感知器结构,wix1+w2x2-T=00.5x1+0.5x2-0.75=0,例二用感知器实现逻辑“或”功能,例二用感知器实现逻辑“或”功能,感知器结构,wix1+w2x2-T=0 x1+x2-0.5=0,思考,分界线的方程是什么?感知器的模型如何表示?数学表达式?,感知器的局限性,Rosenblatt已经证明,如果两类模式在分布空间中可以找到一个超平面将它们分开,那么感知器的学习过程就一定会收敛。否则判定边界就会振荡不休,永远不会稳定,这也正是单层感知器所无法克服的缺陷,所以它连最简单的异或(XOR)问题也解决不了。,感知器的局限性,关键问题就是求,感知器的学习,式中,当实际输出与期望值相同时,权值不需要调整。感知器学习规则代表一种有导师学习。,感知器的学习规则,感知器学习规则的训练步骤:,(1)对各权值w0j(0),w1j(0),wnj(0),j=1,2,m(m为计算层的节点数)赋予较小的非零随机数;,(2)输入样本对Xp,dp,其中Xp=(-1,x1p,x2p,xnp),dp为期望的输出向量(教师信号),上标p代表样本对的模式序号,设样本集中的样本总数为P,则p=1,2,P;,感知器的学习规则,(3)计算各节点的实际输出ojp(t)=sgnWjT(t)Xp,j=1,2,.,m;,(4)调整各节点对应的权值,Wj(t+1)=Wj(t)+djp-ojp(t)Xp,j=1,2,m,其中为学习率,用于控制调整速度,太大会影响训练的稳定性,太小则使训练的收敛速度变慢,一般取01;,(5)返回到步骤(2)输入下一对样本,周而复始直到对所有样本,感知器的实际输出与期望输出相等。,感知器的学习规则的训练步骤,1.初始化:权值初始化为一个较小的随机非零值。2.将一模式送入输入神经元,并给出理想输出值。3.计算神经网络模型的实际输出:4.调节权值:5.转2,直到这次迭代完所给定的所有输入样本。6.计算结束判据。条件符合,结束;否则转2。,感知器的学习,设初始权向量W(0)=(0.5,1,-1,0)T,=0.1。注意,输入向量中第一个分量x0恒等于-1,权向量中第一个分量为阈值,试根据以上学习规则训练该感知器。,感知器的学习,解:第一步输入X1,得WT(0)X1=(0.5,1,-1,0)(-1,1,-2,0)T=2.5o1(0)=sgn(2.5)=1,W(1)=W(0)+d1-o1(0)X1=(0.5,1,-1,0)T+0.1(-1-1)(-1,1,-2,0)T=(0.7,0.8,-0.6,0)T,感知器的学习,第二步输入X2,得WT(1)X2=(0.7,0.8,-0.6,0)(-1,0,1.5,-0.5)T=-1.6o2(1)=sgn(-1.6)=-1,W(2)=W(1)+d2-o2(1)X2=(0.7,0.8,-0.6,0)T+0.1-1-(-1)(-1,0,1.5,-0.5)T=(0.7,0.8,-0.6,0)T,由于d2=o2(1),所以W(2)=W(1)。,感知器的学习,第三步输入X3,得WT(2)X3=(0.7,0.8,-0.6,0)(-1,-1,1,0.5)T=-2.1O3(2)=sgn(-2.1=-1,W(3)=W(2)+d3-o3(2)X3=(0.7,0.8,-0.6,0)T+0.11-(-1)(-1,-1,1,0.5)T=(0.5,0.6,-0.4,0.1)T,第四步返回到第一步,继续训练直到dp-op=0,p=1,2,3。,第二节,多层感知器,多层感知器简介,多层感知器(MultilayerPerceptron)是一种在输入层与输出层之间含有一层或多层隐含神经元的具有正向传播机制的神经网络模型。多层感知器克服了单层感知器的许多局限,单层感知器只能实现线性可分问题和简单布尔函数,多层感知器可以实现线性不可分问题和任意布尔函数。,多层感知器的结构,多层感知器的分类能力,一个单层感知器构成一个半平面判定区域,一个两层感知器可以构成任意无边界的空间区域,这些判定区域有的是凸多边形,有的是无边界的凹区域。凸区域是多层感知器中第一层各个神经元所构成的半平面判定区域(即判定区域)相交而成。,多层感知器性能等价问题,第一层中的神经元就像一单层感知器,所形成的凸区域的边数最多和第一层神经元个数一样多。一个三层感知机能够形成任意复杂的判定区域,也能把那些相互渗透的区域分开。,例子一,1、用单层感知器实现简单逻辑运算。(1)(与)等价于,即(2)(或)等价于,即(3)(非)等价于,即,例子二,2、用两层感知器实现异或运算。,例子三,试用单个感知器神经元完成下列分类,写出其训练迭代过程,画出最终的分类示意图。,第三节,自适应线性元模型,自适应线性元件于1961年由美国的Widrow教授提出。适用于信号处理中的自适应滤波、预测和模式识别。,自适应线性元模型结构,自适应线性元模型数学描述,输入该模型是一自适应阈值逻辑单元。图中x0,x1k,x2k,xnk为该自适应线性元在t时刻的外部输入,用向量表示为:Xk(x0,x1k,x2k,xnk)T这个向量称为自适应线性元的输入信号向量或输入模式向量。,自适应线性元模型数学描述,连接权值与输入向量Xk相对应有一权值向量:Wk=(w0k,w1k,w2k,wnk)T其中Wk每一元素与输入向量Xk中的每一元素相对应。w0k为基权,称为门限权,它用来调整自适应线性元的阈值。,自适应线性元模型数学描述,输出模拟输出二值输出,自适应线性元模型数学描述,理想输出在图中的自适应线性元中有一特殊的输入dk,即理想输出。该输出是用来将理想响应信号送入自适应线性元中,在自适应线性元中通过比较yk和理想响应dk,并将差值送入最小均方差(LMS)学习算法机制中来调整权向量Wk,使得yk和所期望的输出dk相一致。,LMS学习过程(图示),与单层感知器的差别在于:输出分为模拟和数字两个部分。数字部分与感知器单元完全相同,可进行线性分割模拟部分是作为误差调节之用,对单个Adaline,其误差为模拟输出和要求响应输出差。,LMS学习过程(文字说明),样本数i=0,连接权值随机初始化一个较小的不等于0的值;提交第i个学习样本;计算神经网络的输出;计算实际输出和理想输出的误差;按照权值修改规则修改神经网络权值;i+;i=N?;否,转2。计算学习结束判据;学习结束否?达到要求学习结束,否则转1。,LMS学习算法权值修改规则,其中:为当前的误差(即理想输出与模拟实际输出之间的差值),称为学习速度(LearningRate)。,ADALINE学习算法实质分析,的取值,的选择决定了学习算法收敛的稳定性和收敛的速度。稳定性要求:02。但是过大可能会修正过度,一个比较好的选择范围是:0.11,LMS算法的几何解释,ADALINE模型计算能力分析,若ADALINE输入为二值,它可以完成一定的逻辑功能。若有n个输入,即则有2n个可能的输入模式。在一般的逻辑实现中,依照所期望的输出响应,可以将个输入模式划分成和两类。每一个自适应线性元模型可以完成某一种逻辑功能,因而我们也可以把自适应线性元看成是一逻辑部件。,ADALINE模型计算能力分析,每个自适应线性元的功能也主要由各个权值所确定。每个自适应线性元只能实现逻辑空间上的线性划分。,ADALINE模型学习过程举例,网络模型,x1=1.2,x2=2.7,x0=1,w1=0.344,w2=1.1,w0=1,d=2.3,y=4.57,E=-2.27,w0=0.870,w1=0.5,w2=0.749,y=3.305,E=-1.05,ADALINE模型的学习曲线,结束判据总体误差降低到某个预设的极小值;迭代了一定的次数。,第四节,BP模型,感知器神经网络的学习规则和最小均方差(LMS)学习算法只能训练单层神经网络,而单层神经网络只能解决线性可分的分类问题。多层神经网络可以用于非线性分类问题。但需要寻找训练多层网络的学习算法。BP算法-适于多层网络的学习算法。BP网络广泛应用于函数逼近、模式识别/分类、数据压缩等。80%90%的人工神经网络采用BP网络或者它的变化形式,它也是前馈网络的核心部分,体现了人工神经网络最精华的部分。,BP神经元与其他神经元类似,不同的是BP神经元的传输函数为非线性函数,常用的有S型函数。BP网络的信息从输入层流向输出层,是一种多层前馈神经网络。,BP网络的学习,在确定了BP网络的结构以后,要通过输入和输出样本集对网络进行训练,亦即对网络的阈值和权值进行学习和修正,以使网络实现给定的输入输出映射关系。BP网络学习分两个阶段:第一个阶段是输入已知学习样本,通过设置的网络结构和前一次迭代的权值和阈值,从网络的第一层向后计算各神经元的输出第二个阶段是对权和阈值进行修改,从最后一层向前计算各权值和阈值对总误差的影响(梯度),据此对各权值和阈值进行修改。以上两个过程反复交替,直到达到收敛为止。,由于误差逐层往回传递,以修正层与层之间的权值和阈值,所以称该算法为误差反向传播算法,这种误差反传学习算法可以推广到有若干个中间层的多层网络,因此该多层网络常称之为BP网络。,BP学习算法概述,BP算法的基本过程初始化阶段前馈阶段权值调整阶段学习精度计算学习结束判断,BP学习算法描述(初始化阶段),对所有神经元的阈值及连接权值取一个较小的非零随机值。设一个较小的数作为学习期望达到的最终学习精度。该值作为学习过程的结束判断条件。,BP学习算法描述(前馈阶段),给定输入样本和理想输出。对p层的神经元i,按下式计算p层中神经元i的活跃值,也即输出到p+1层的输出值。,BP学习算法描述(权值调整阶段),利用下面公式,从输出层开始向输入层方向进行权值调整:,权值调整中的误差项求解,输出层误差项求解隐含层误差项求解,实际输出理想输出,BP学习算法描述(权值调整),实际输出理想输出,输出层误差项求解隐含层误差项求解,神经元阈值的修改,若把层p中神经元的阈值看成是层p-1中神经元到某一个附加的常数输入联接权值,也可以按照类似的方法进行该神经元阈值的修改。,实际输出理想输出,BP学习算法描述(计算累计误差),按下式计算当前学习样本的误差:,实际输出理想输出,BP学习算法描述(结束条件判断),在当前迭代周期内,样本学习完否?没有学习完,转前馈阶段;计算所有样本的累积误差:判E否?是,学习过程结束,否则转前馈阶段。,BP算法存在的问题,(1)从数学上看它是一个非线性优化问题,这就不可避免地存在有局部极小问题;(2)学习算法的收敛速度很慢,通常要几千步迭代或更多;(3)网络运行还是单向传播,没有反馈。目前的这种模型并不是一个非线性动力系统,而只是一个非线性映射;(4)网络的隐节点个数选取尚无理论上的指导,而是根据经验选取的;(5)对新加入的样本要影响到已经学完的样本,刻画每个输入样本的特征的数目也要求必须相同。,BP算法的改进-变步长,在BP算法中步长是不变的,这是因为E是一个十分复杂的非线性函数,很难通过最优求极小的方法得到步长,同时如果每一步都要求计算输出,则计算量变得很大。推荐一种步长调整的方法,如下,步长调整方法:先设一初始步长,若一次迭代后误差函数E增大,则将步长乘以小于1的常数,沿原方向重新计算下一个迭代点,若一次迭代后误差函数E减小,则将步长乘一个大于1的常数,这样既不增加太多的计算量,又使步长得到合理的调整。,另外,有加入动量项的改进方法,有加入因子的改进算法。,BP网络的设计考虑-输入输出层,1、输入输出层的设计输入输出的维数完全根据使用者的要求来设计,若BP网络用作分类器,其类别数为m个,那么输出一般取m个神经元,其训练样本集中的x属于第j类,要求输出为即第j个输出为1,其他输出为0。,输入的神经单元可以根据需要求解的问题和数据表示的方式而定如果输入的是电压波形,那么输入单元可根据电压波形的采样数值和采样点数来决定输入单元的维数,也可以用一个单元输入,但输入样本为采样的时间序列。若输入为图像,则输入单元可以为图像像素,也可为图像处理后的图像特征。即问题确定,输入输出单元层数确定。,BP网络的设计考虑-隐层,1989年,Robert证明了:对于任何在闭区间内的一个连续的函数都可以用一个隐层的BP网络来逼近,因而一个三层的BP网络可以完成任意的n维到m维的映射。,BP网络的设计考虑-隐单元数的选择,隐单元数的选择是一个复杂的问题,没有很好的解析式表示,可以说隐单元数与问题的要求,输入输出单元的多少都有直接关系。对BP网络,若隐单元数太少,可能不能训练出来,或网络不强壮,不能识别以前没有看到的样本,容错性差,但隐单元数太多又使学习
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年部门工作方案演讲稿
- 护理新生儿评估与处理
- 2025年新员工入职培训方案
- 单位食堂2025年度工作方案
- 高中班主任工作方案2025年
- 2025年度工作方案书
- 酒业知识培训课件
- 幼儿园课程案例:认识时钟
- 山西艺术职业学院《情报检索4》2023-2024学年第一学期期末试卷
- 海南体育职业技术学院《艺用人体解剖》2023-2024学年第二学期期末试卷
- 部编人教版二年级道德与法治下册同步练习(全册)
- 第九讲 全面依法治国PPT习概论2023优化版教学课件
- 7.4.2 超几何分布 课件(26张)
- 苏教版小学数学三年级下册期中测试卷(3套含答案)
- 毕业设计(论文)-ZJ-600型罗茨真空泵设计
- 2022-2023学年湖北省武汉市重点中学5G联合体高一(下)期中英语试卷及参考答案
- 生产异常处理流程图来料工艺及制程
- 有机朗肯循环(ORC)中低温余热发电与工业余热利用
- 抗菌药物临床应用指导原则(2023年版)
- 语文课程标准解读及实践:五下第二单元课本剧《猴王出世》剧本
- 2023年南通市特殊教育岗位教师招聘考试笔试题库及答案解析
评论
0/150
提交评论