神经计算课件_第1页
神经计算课件_第2页
神经计算课件_第3页
神经计算课件_第4页
神经计算课件_第5页
已阅读5页,还剩47页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、1 1 人工神经网络基础 2 感知器 3 bp神经网络2 人工神经网络是人脑及其活动的一个理论化的数学模型,它由大量的处理单元通过适当的方式互连构成,是一个大规模的非线性自适应系统。 是一个并行、分布处理结构,它由处理单元及称为连接的无向信号通道互连而成。34 1)学习能力 2)普化能力 3)信息的分布存放 4)适用性5可以根据所在的环境取改变它的行为。也就是说,人工神经网络可以接受用户提交的样本集合,依照系统给定的算法,不断修正用来确定系数行为的神经元之间的连接强度,而且在网络的基本构成确定之后,这种改变是根据其接受的样本集合自然进行的。在学习过程中,人工神经网络不断从所接受的样本集合中提取

2、该集合所蕴含的基本内容,并将其以神经元之间的连接权重的形式存放于系统中。对于不同的人工神经网络模型来说,有不同的学习/训练算法,有事,同种结构的网络拥有不同的算法,以适应不同的应用要求。对一个网络模型来说,其学习/训练算法是非常重要的。6 由于其运算的不精确性,人工神经网络在被训练后,对输入的微小变化是不反应的。与事物的两面性相对应,虽然在要求高精度计算时,这种不精确性是一个缺陷,但是,有些场合又可以利用这一点获取系统的良好性能。例如,可以使这种不精确性表现成“去噪声,容残缺”的能力,而这对模式识别有时恰好是非常重要的。7 人工神经网络擅长于处理适用形象思维的问题。主要包括两个方面: 1)对大

3、量的数据进行分类,并且只有较少的几种情况。 2)必须学习一个复杂的非线性映射。8计算功能计算功能ann模型代表模型代表数学近似映射,如模式识别,分类,函数逼近bp cpn rbf elamn概率密度函数估计som cpn从二进制数据基中提取相关信息bsb(脑中盒模型)形成拓扑连续及统计意义上的同构映射som,kohonen最近相邻模式分类bp,bm(玻尔兹曼机),cpn, hopfield,bam,art, kohonen数据聚类art最优化 bm hopfield9 基本构成 激活函数 m-p模型1011神经元在获得网络输入后,它应该给出适当的输出。按照生物神经元的特性,每个神经元有一个阈值

4、,当该神经元所获得的输入信号的累积效果超过阈值时,它就处于激发态;否则,应该处于抑制态。为了使系统有更宽的适用面,希望人工神经元有一个更一般的变换函数,用来执行对该神经元所获得的网络输入的变换,这就是激活函数,也可以称之为激励函数、活化函数,用f表示:式中,o是该神经元的输出。由此式可以看出,此函数同时也用来将神经元的输出进行放大处理或限制在一个适当的范围内。典型的激活函数有线性函数、非线性斜面函数、阶跃函数和s形函数等4种。()of net121314 单级网 多级网 循环网151617 人工神经网络最具有吸引力的特点是其学习能力。 人工神经网络的学习过程就是对它的训练过程。所谓训练,就是在

5、将由样本向量构成的样本集合(简称为样本集、训练集)输入到人工神经网络的过程中,按照一定的方式去调整神经元之间的连接权,使得网络能将样本集的内涵以连接权矩阵的方式存储起来,从而使得在网络接受输入时,可以给出适当的输出。 从学习的形式来看,一种是有导师学习,另一种是无导师学习,后者较为低级。181920 感知器是最早被设计并被实现的人工神经网络。 学习算法 线性不可分问题2122 离散单输出感知器训练算法 离散多输出感知器训练算法 连续多输出感知器训练算法23242526 rumelhart,mcclelland于1985年提出了bp网络的误差反向后传bp(back propagation)学习算

6、法 bp算法基本原理利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计。 david rumelhart j. mcclelland 27 三层bp网络1x2x1nx1y2y2ny1z2z3nz123n1t2tihwhjw- - -隐含层输出层输入层3nt28 激活函数必须处处可导 一般都使用s型函数 使用s型激活函数时bp网络输入与输出关系输入输出1122.nnnetx wx wx w1f()1enetynet29 输出的导数2f ()111 e(1 e)(1)-netnetnetyy根据根据s s型激活函数

7、的图形可知型激活函数的图形可知, ,对神经网络进行训练,应该将对神经网络进行训练,应该将netnet的值尽的值尽量控制在收敛比较快的范围内量控制在收敛比较快的范围内 30 学习的过程: 神经网络在外界输入样本的刺激下不断改变网络的连接权值,以使网络的输出不断地接近期望的输出。 学习的本质: 对各连接权值的动态调整 学习规则: 权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则。31 学习的类型:有导师学习 核心思想:将输出误差以某种形式通过隐层向输入层逐层反传 学习的过程:信号的正向传播 误差的反向传播将误差分摊给各层的所有将误差分摊给各层的所有单元各层单元的误单元各

8、层单元的误差信号差信号修正各单元权修正各单元权值值32 正向传播:输入样本输入层各隐层输出层 判断是否转入反向传播阶段:若输出层的实际输出与期望的输出(教师信号)不符 误差反传误差以某种形式在各层表示修正各层单元的权值 网络输出的误差减少到可接受的程度进行到预先设定的学习次数为止33 网络结构输入层有n个神经元,隐含层有p个神经元, 输出层有q个神经元 变量定义输入向量; 隐含层输入向量; 隐含层输出向量; 输出层输入向量; 输出层输出向量; 期望输出向量; 12,nxxxx12,phihihihi12,pho hohoho12,qyiyiyiyi12,qyoyoyoyo12,qdddod34

9、 输入层与中间层的连接权值: 隐含层与输出层的连接权值: 隐含层各神经元的阈值: 输出层各神经元的阈值: 样本数据个数: 激活函数: 误差函数:ihwf( ) howhb1,2,kmob211( )( )2qoooedkyo k35 第一步,网络初始化 给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值 和最大学习次数m。 第二步,随机选取第 个输入样本及对应期望输出 k12( )( ),( ),( )nkx kx kx kx12( )( ),( ),( )qkd kdkdkod36 第三步,计算隐含层各神经元的输入和输出1( )( )1,2,nhihihihik

10、w x kbhp( )f( )1,2,hhho khi khp1( )( )1,2,pohohohyi kw ho kboq( )f( )1,2,ooyo kyi koq37 第四步,利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数 。 ohoohoeeyiwyiw( )( )( )phohoohhhohow ho kbyi kho kww211( ( )( )2( ( )( )( )( ( )( )f( )( )qooooooooooood kyo ked kyo k yo kyiyid kyo kyi kk( )ok38( )( )oohhoohoeeyik ho kwy

11、iw 1( )( )( )( )( )hihhihnihihhiiihiheehikwhikww x kbhikx kwwp第五步,利用隐含层到输出层的连接权第五步,利用隐含层到输出层的连接权值、输出层的值、输出层的 和隐含层的输出计算误和隐含层的输出计算误差函数对隐含层各神经元的偏导数差函数对隐含层各神经元的偏导数 。 ( )hk( )ok3921212111( )( ) )( )2( )( )( )1( )f( ) )( )2( )( )1( )f( ) )( )2( )( )qoohohhhqoohohhqpohohohohhhd kyo keho khi kho khi kd kyi

12、kho kho khi kd kw ho kbho kho khi k11( )( )( )f ( )( )( )f ( )( )qhooohoohqohohhoho kd kyo kyi kwhi kk whi kk 40 第六步,利用输出层各神经元的 和隐含层各神经元的输出来修正连接权值 。 1( )( )( )( )( )hoohhonnhohoohewkk ho kwwwk ho k ( )ok( )howk41 第七步,利用隐含层各神经元的 和输入层各神经元的输入修正连接权。 ( )hk1( )( )( ) ( )( )( ) ( )hihhiihhihnnihihhieehi kw

13、 kk x kwhi kwwwk x k42 第八步,计算全局误差 第九步,判断网络误差是否满足要求。当误差达到预设精度或学习次数大于设定的最大次数,则结束算法。否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学习。 2111( )( )2qmookoedky km43 bp算法直观解释情况一直观表达 当误差对权值的偏导数大于零时,权值调整量为负,实际输出大于期望输出,权值向减少方向调整,使得实际输出与期望输出的差减少。whohoewe0,此时,此时who044 bp算法直解释情况二直观表达 当误差对权值的偏导数小于零时,权值调整量为正,实际输出少于期望输出,权值向增大方向调

14、整,使得实际输出与期望输出的差减少。hoewe0who45 matlab中bp神经网络的重要函数和基本功能 函函 数数 名名功功 能能newff()生成一个前馈生成一个前馈bp网络网络tansig()双曲正切双曲正切s型型(tan-sigmoid)传输函数传输函数logsig()对数对数s型型(log-sigmoid)传输函数传输函数traingd()梯度下降梯度下降bp训练函数训练函数46 matlab中bp神经网络的重要函数和基本功能 newff() 功能 建立一个前向bp网络 格式 net = newff(pr,s1 s2.sn1,tf1 tf2.tfn1,btf,blf,pf) 说明

15、net为创建的新bp神经网络;pr为网络输入取向量取值范围的矩阵;s1 s2snl表示网络隐含层和输出层神经元的个数;tfl tf2tfn1表示网络隐含层和输出层的传输函数,默认为tansig;btf表示网络的训练函数,默认为trainlm;blf表示网络的权值学习函数,默认为learngdm;pf表示性能数,默认为mse。 47 matlab中bp神经网络的重要函数和基本功能 tansig() 功能 正切sigmoid激活函数 格式 a = tansig(n) 说明 双曲正切sigmoid函数把神经元的输入范围从(-,+)映射到(-1,1)。它是可导函数,适用于bp训练的神经元。 logsi

16、g() 功能 对数sigmoid激活函数 格式 a = logsig(n) 说明对数sigmoid函数把神经元的输入范围从(-,+)映射到(0,1)。它是可导函数,适用于bp训练的神经元。48例2-3,下表为某药品的销售情况,现构建一个如下的三层bp神经网络对药品的销售进行预测:输入层有三个结点,隐含层结点数为5,隐含层的激活函数为tansig;输出层结点数为1个,输出层的激活函数为logsig,并利用此网络对药品的销售量进行预测,预测方法采用滚动预测方式,即用前三个月的销售量来预测第四个月的销售量,如用1、2、3月的销售量为输入预测第4个月的销售量,用2、3、4月的销售量为输入预测第5个月的

17、销售量.如此反复直至满足预测精度要求为止。 月份月份123456销量销量205623952600229816341600月份月份789101112销量销量18731478190015002046155649%以每三个月的销售量经归一化处理后作为输入p=0.51520.81731.0000 ; 0.81731.00000.7308; 1.00000.73080.1390; 0.73080.13900.1087; 0.13900.10870.3520; 0.10870.35200.0000;%以第四个月的销售量归一化处理后作为目标向量t=0.7308 0.1390 0.1087 0.3520 0.

18、0000 0.3761;%创建一个bp神经网络,每一个输入向量的取值范围为0 ,1,隐含层有5个神经%元,输出层有一个神经元,隐含层的激活函数为tansig,输出层的激活函数为%logsig,训练函数为梯度下降函数,即2.3.2节中所描述的标准学习算法net=newff(0 1;0 1;0 1,5,1,tansig,logsig,traingd);net.trainparam.epochs=15000;net.trainparam.goal=0.01;%设置学习速率为0.1lp.lr=0.1;net=train(net,p,t); 50 bp网络应用于药品预测对比图由对比图可以看出预测效果与实际存在一定误差,此误差可以通过增加运行步数和提高预设误差精度业进一步缩小51 非线性映射能力能学习和存贮大量输入能学习和存贮大量输入-输出模式映射关系,而无需事输出模式映射关系,而无需事先了解描述这种映射关系的数学方程。只要能提供足先了解描述这种映射关系的数学方程。只要能提供足够多的样本模式对供网络进行学习训练,它便能完成够多的样本模式对供网络进行学习训练,它便能完成由由n维输入空间到维

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论