模式识别试验_第1页
模式识别试验_第2页
模式识别试验_第3页
模式识别试验_第4页
模式识别试验_第5页
已阅读5页,还剩8页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

实验报告姓名:学号:院系: 电子与信息工程学院 课程名称: 模式识别 实验名称: 神经网络用于模式识别 同组人: 实验成绩:总成绩:教师评语教师签字:哈尔滨工业大学实验报告1实验目的.掌握人工神经网络的基本结构与原理,理解神经网络在模式识别中的应用;.学会使用多输入多输出结构,构造三层神经网络并对给定的样本进行分类;.分析学习效率丑,惯性系数a,总的迭代次数N,训练控制误差£,初始化权值以及隐层节点数对网络性能的影响;.采用批处理BP重复算法进行分类,结果与三层神经网络进行对比。2原理人工神经网络人工神经网络(ArtificialNeuralNetwork,即ANN),是20世纪80年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activationfunction)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。人工神经元图1生物神经元神经元是大脑处理信息的基本单元,以细胞体为主体,由许多向周围延伸的不规则树枝状纤维构成的神经细胞,其形状很像一棵枯树的枝干。它主要由细胞体、树突、轴突和突触(Synapse,又称神经键)组成。胞体:是神经细胞的本体(可看成系统);

哈尔滨工业大学实验报告树突:长度较短,接受自其他神经元的信号(输入);轴突:它用以输出信号;突触:它是一个神经元与另一个神经元相联系的部位,是一个神经元轴突的端部将信号(兴奋)传递给下一个神经元的树突或胞体;对树突的突触多为兴奋性的,使下一个神经元兴奋;而对胞体的突触多为抑制性,其作用是阻止下一个神经元兴奋。一个神经元有两种状态:兴奋和抑制。平时处于抑制状态的神经元,其树突和胞体接收其他神经元经由突触传来的兴奋电位;多个输入在神经元中以代数和的方式叠加;如果输入兴奋总量超过某个阈值,神经元就会被激发进入兴奋状态,发出输出脉冲,并由轴突的突触传递给其他神经元。神经元被触发之后有一个不应期,在此期间内不能被触发,然后阈值逐渐下降,恢复兴奋性。图2图2人工神经元输入,.:相当于其他神经元的输出;权值①「相当于突触的连接强度;f:是一个非线性函数,如阈值函数或Sigmoid函数。神经元的动作:net=Z3x.,i=1当f为阈值函数时,其输出为:J当f为阈值函数时,其输出为:J=sgn2n3x-0,也可写为:j=sgn(WtX)或:J=f(WtX)。其中:6=-30,k.,i1JI=1W=(3,3,3,…,3,>,X=(1,x,x,…,x选取不同的输出函数f选取不同的输出函数fj的取值范围也不同。若:f(x)=若:f(x)=sgn(x)J11-1则je{-1,1}或,若:f(xT0(x>0)(x<0),则je{0,1}某些算法要求f可微,此时通常选用Sigmoid函数:f(x)=th(x)=—2—-1,则je(-1,1)

1+e-2x哈尔滨工业大学实验报告或:fG)=-1-,则y式0,1)。1+e-xSigmoid函数的特性:(1)非线性,单调性;(2)无限次可微;(3)当权值很大时可近似阈值函数,当权值很小时可近似线性函数。神经元的学习算法一Hebb学习规则如果神经元,接收来自另一神经元:.的输出,则当这两个神经元同时兴奋时,从「到匕的权值①j就得到加强。具体到前述的神经元模型,可以将Hebb规则表现为如下的算法:A3二叩yx

i i式中A3,是对第i个权值的修正量,丑是控制学习速度的系数。太大会影响训练的稳定性,太小则使训练的收敛速度变慢,一般取0<n<1。人工神经网络首先要以一定的学习准则进行学习,然后才能工作。基本特征人工神经网络是由大量处理单元互联组成的非线性、自适应信息处理系统。它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经网络处理、记忆信息的方式进行信息处理。人工神经网络具有四个基本特征:图3典型的神经网络结构.非线性:非线性关系是自然界的普遍特性。大脑的智慧就是一种非线性现象。人工神经元处于激活或抑制二种不同的状态,这种行为在数学上表现为一种非线性关系。具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量。.非局限性:一个神经网络通常由多个神经元广泛连接而成。一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定。通过单元之间的大量连接模拟大脑的非局限性。联想记忆是非局限性的典型例子。.非常定性:人工神经网络具有自适应、自组织、自学习能力。神经网络不但哈尔滨工业大学实验报告处理的信息可以有各种变化,而且在处理信息的同时,非线性动力系统本身也在不断变化。经常采用迭代过程描写动力系统的演化过程。.非凸性:一个系统的演化方向,在一定条件下将取决于某个特定的状态函数。例如能量函数,它的极值相应于系统比较稳定的状态。非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。人工神经网络中,神经元处理单元可表示不同的对象,例如特征、字母、概念,或者一些有意义的抽象模式。网络中处理单元的类型分为三类:输入单元、输出单元和隐单元。输入单元接受外部世界的信号与数据;输出单元实现系统处理结果的输出;隐单元是处在输入和输出单元之间,不能由系统外部观察的单元。神经元间的连接权值反映了单元间的连接强度,信息的表示和处理体现在网络处理单元的连接关系中。人工神经网络是一种非程序化、适应性、大脑风格的信息处理,其本质是通过网络的变换和动力学行为得到一种并行分布式的信息处理功能,并在不同程度和层次上模仿人脑神经系统的信息处理功能。它是涉及神经科学、思维科学、人工智能、计算机科学等多个领域的交叉学科。人工神经网络是并行分布式系统,采用了与传统人工智能和信息处理技术完全不同的机理,克服了传统的基于逻辑符号的人工智能在处理直觉、非结构化信息方面的缺陷,具有自适应、自组织和实时学习的特点。2.2前馈神经网络前馈神经网络(用于监督学习)网络的神经元接受前一级输入,并输出到下一级,无反馈。节点分为两类:输入节点与计算单元。每个计算单元可有任意个输入,但只有一个输出,而输出可藕合到任意多个其他节点的输入。前馈网络通常分为不同的层,第,层的输入只与第,•1层的输出相联。输入节点为第一层。输入和输出节点由于可与外界相连,称为可见层,而其他的中间层则称为隐层。输入节点4输入节点4哈尔滨工业大学实验报告感知器也称双层神经网络、单计算层感知器。.输入层,也称为感知层。每个节点接收一个输入信号,几个输入信号构成输入列向量X。.具有计算单元的输出层。有加个神经元节点,均有信息处理能力,加个节点向外部输出信息,构成输出列向量0。.两层之间的连接权值。用权值列向量、•表示,m个权向量构成单层感知器的权值矩阵w。图5感知器模型示意图感知器用于模式识别,输入X:样本的特征向量。输出0:每个节点输出为:0.=sgn,et-0.)=sgn输出向量0可以用来表示类别属性。三层前馈网络及MLP三层前馈网络由输入层、中间层和输出层构成。有两个计算层,也称三层感知器。能够求解非线性问题。三层或三层以上的前馈网络通常又被叫做多层感知器(Multi-LayerPerceptron.简称MLP)。由三部分组成:.一组感知单元组成输入层;.一层或多层计算节点的隐藏层;.一层计算节点的输出层。MLP的表示:输入节点数-第1隐层节点数-第2隐层节点数-…,-输出节点数。如图6,可表示为:4-4-3网络。哈尔滨工业大学实验报告图6三层前馈网络人工神经元可实现与非门,任何逻辑函数都可以由与非门组成。任何逻辑函数都可用一个三层(只有两层计算单元)的前馈网络实现。当神经元的输出函数为Sigmoid函数时,上述结论可以推广到连续的非线性函数。在很宽松的条件下,三层前馈网络可以逼近任意的多元非线性函数,突破了二层前馈网络线性可分的限制。感知器,决策域:平面;双层计算单元,决策域:凸区域。三层计算单元,决策域:任意形状。三层网络可以应付任何问题,但对于较复杂的问题,更多层的网络有可能获得更精简的结果。输入层:由特征向量构成,输入单元数是特征维数。输出层:由类别构成,输出单元数目可以是类数。隐层单元数:单元数目如何确定则缺乏有效的方法。问题越复杂,需要的隐层单元越多;隐层单元越多越容易收敛。但会增加计算量,而且会产生“过学习”效果,使对未出现过的样本的推广能力变差。隐层单元数难以确定时,可以先选较多单元数,待学习完成后,再逐步删除一些隐层单元。若性能明显变坏,则恢复原状,逐个测试各隐层单元的贡献,把不必要的删去。反向传播算法(BP算法)三层前馈网络的适用范围大大超过二层前馈网络,但学习算法较为复杂,主要困难是中间的隐层不直接与外界连接,无法直接计算其误差。BP算法(Back-Propogation)可解决这一问题。主要思想:从后向前(反向)逐层传播输出层的误差,以间接算出隐层误差。算法分为两个阶段:第一阶段(正向过程):输入信息从输入层经隐层逐层计算各单元的输出值;第二阶段(反向传播过程):输出误差逐层向前算出隐层各单元的误差,并用此误差修正前层权值。在反向传播算法中通常采用梯度法修正权值,为此要求输出函数可微,通常采用Sigmoid函数作为输出函数。.第一阶段(正向过程)哈尔滨工业大学实验报告图7某层某单元Oj考虑如图所示的某层的某单元Oj,当输入样本某个样本时,则:net=EwOO=f(net)i若输出函数是Sigmoid函数,则:O".第二阶段(反向传播过程)对于输出层,O是实际输出,与理想输出y的误差:E=1E(y-O尸j j 2jjj局部梯度:5=上jdnetj权值对误差的影响:CE=JEWj=5Odwdnetdw jjij jij负梯度修正权值:Awj=-n5 ,“:步长修正算法:w(k+1)=w(k)+Aw(k)实际计算时,为了加快收敛速度;一般要加上前次权值修正量,称为惯性量:Aw(k)=-n5O2Aw(k—1),a:惯性系数。若节点j是输出单元,则输出量可得到:y1二Oae aeey'5= = j—=—(y—O)f'(net)janet ay'anet jjjjjj若节点j不是输出单元,则:s ae yaeanetaoy5= =- k j—="5wf(net)janet anetaOanet kijjjkkj jk若输出函数是Sigmoid函数:O=f(net)=--1—;

j j 1+e—netjf'(net)=O(1—O)哈尔滨工业大学实验报告输出单元:5.=—6—O)O(1-O)非输出单元:5=±5wO(1-O)=O(1-O)Zbw。k kBP算法解决了隐层权值修正问题。可以用于三层或更多层的前馈网络。但也存在问题:可能陷入局部极小点,不能达到全局收敛。初始权值不能设为0或都相同(此时,各隐层单元无差异,运算不能正常进行)。初始权值对收敛有影响。解决办法:用较小的随机数做初始权值。不收敛时,改变权值,试算。3实验内容采用多输入多输出型结构,构造三层神经网络,训练它用来将表中的三类样本分开。.给出训练结束时的各网络的各节点权值。给出网络迭代终止时实际的迭代次数及总误差和错误率。设隐层节点数为4,学习效率^=0.1,惯性系数a=0.0;训练控制总的迭代次数N=100000;训练控制误差:£=0.3。在采用0-1内均匀分布随机数初始化所有权值。.分析学习效率n,惯性系数a;总的迭代次数N;训练控制误差£、初始化权值以及隐层节点数对网络性能的影响。要求绘出学习曲线----训练误差与迭代次数的关系曲线。并将得到的网络对训练样本分类,给出错误率。.采用批处理BP算法重复1。比较两者结果。表1神经网络用于模式识别数据(X1、X2、X3是样本的特征)样本第一类第二类第三类X1X2X3X1X2X3X1X2X311.582.32-5.80.210.03-2.21-1.541.170.6420.671.58-4.780.370.28-1.85.413.45-1.3331.041.01-3.630.181.220.161.550.992.694-1.492.18-3.39-0.240.93-1.011.863.191.515-0.411.21-4.73-1.180.39-0.391.681.79-0.8761.393.162.870.740.96-1.163.51-0.22-1.3971.201.40-1.89-0.381.94-0.481.40-0.440.928-0.921.44-3.220.020.72-0.170.440.831.9790.451.33-4.380.441.31-0.140.250.68-0.9910-0.760.84-1.960.461.490.68-0.66-0.450.08

哈尔滨工业大学实验报告4实验结果及分析随机初始化权值逐个样本修正结果实验结果随机初始化权值,逐个样本修正,训练3556次,得到权值矩阵:—0.7594-1.56081.795210.91650.0028'7.8215和>和w=<’6.8315-8.5879-11.56824.5022、w=<-4.80675.46226.2036-10.5184)11.2849-1.78420.02262-4.00611.18052.23956.76767.1673-5.49132.5446总误差为0.3121。分类结果如表2所示:表2随机初始化权值逐个样本分类结果样本12345678910分类1111131111样本11121314151617181920分类2222222222样本21222324252627282930分类2333333323由分类结果可知,在样本6、21和29分类错误。:0.1。8所示:图8随机初始化权值逐个样本修正学习曲线如率密一4学习曲线如8所示:图8随机初始化权值逐个样本修正学习曲线如率密一4哈尔滨工业大学实验报告结果分析训练误差与迭代次数的关系曲线,称为学习曲线。学习曲线可以看出收敛速率及收敛情况。由学习曲线可以看出,随着迭代次数的增加,训练误差逐渐减小。并且在初始迭代时,训练误差的下降速度较快,随着迭代次数的增加,训练误差的下降速度逐渐减慢直至收敛。n影响收敛性影响,不同的问题其最佳值相差很大,通常可在0.1〜0.3之间试探,复杂的问题用较大的值。a影响收敛速度,在很多应用中其值可在0.9〜1之间选择(比如0.95),a>1时,不收敛;也可不用惯性项(即a=0)。随机初始化权值成批样本修正结果实验结果随机初始化权值,成批样本修正,训练100000次,得到权值矩阵:「-0.6638-4.19910.25411W=1W=1X103X<10.77831.0709-3.80950.2508卜-2.9

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论