版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、2.人工神经网络人工神经网络 Artificial Neural Networks2.1 人工神经网络的提出人工神经网络的提出 人工神经网络(人工神经网络(ANN),是对人类大脑系统的一),是对人类大脑系统的一阶特性的一种描述。简单地讲,它是一个阶特性的一种描述。简单地讲,它是一个数学模数学模型型,可以用,可以用电子线路电子线路来实现,也可以用来实现,也可以用计算机程计算机程序序来模拟,是人工智能研究的一种方法。来模拟,是人工智能研究的一种方法。 人工智能人工智能:研究如何使类似计算机这样的设备去:研究如何使类似计算机这样的设备去模拟人类认识客观事物和运用知识解决问题的能模拟人类认识客观事物和
2、运用知识解决问题的能力。力。2.2 人工神经网络的特点人工神经网络的特点 大规模的复杂系统,有大量可供调节的参数;大规模的复杂系统,有大量可供调节的参数; 高度并行的处理机制,具有高速运算的能力;高度并行的处理机制,具有高速运算的能力; 高度分散的存储方式,具有全息联想的特征;高度分散的存储方式,具有全息联想的特征; 高度灵活可变的拓扑结构,具有很强的适应能力;高度灵活可变的拓扑结构,具有很强的适应能力;高度冗余的组织方式,具有很好的坚韧性;高度冗余的组织方式,具有很好的坚韧性; 高度的非线性运算,通过训练和学习来获得网络高度的非线性运算,通过训练和学习来获得网络的权值与结构,具有很强的自学习
3、能力和对环境的权值与结构,具有很强的自学习能力和对环境的适应能力;的适应能力; 高度的集体协同计算,模拟处理与数字处理并存。高度的集体协同计算,模拟处理与数字处理并存。2.3 人工神经元人工神经元 神经元神经元是构成神经网络的最基本单元。是构成神经网络的最基本单元。 1943年,神经生理学家McCulloch(麦克洛奇)和数学家Pitts(皮兹)定义了神经元模型M-P模型(世界第一个神世界第一个神经计算模型经计算模型)。 f:阶跃函数 输入向量: 权值向量:阈值: 输出: 其中: 称为激活函数 )(21nxxxX,)(21nwwwW,niiixwfy1)(0001)(xxxf 激活函数激活函数
4、执行对该神经元所获得的网络输入执行对该神经元所获得的网络输入的变换,也可以称为激励函数、活化函数、响应的变换,也可以称为激励函数、活化函数、响应函数、作用函数等函数、作用函数等。 MP 神经元模型是人工神经元模型的基础,神经元模型是人工神经元模型的基础,也是神经网络理论的基础。在神经元模型中,激也是神经网络理论的基础。在神经元模型中,激活函数除了单位阶跃函数之外,还有其它形式。活函数除了单位阶跃函数之外,还有其它形式。不同的作用函数,可构成不同的神经元模型。不同的作用函数,可构成不同的神经元模型。(1)对称型)对称型Sigmoid函数函数 xxeexf11)(0,11)(xxeexf或或(2)
5、非对称型)非对称型Sigmoid函数函数xexf11)(或或0,11)(xexf(3)对称型阶跃函数函数)对称型阶跃函数函数0,10,1)(xxxf采用阶跃作用函数的神经元,称为阈值逻辑单元。采用阶跃作用函数的神经元,称为阈值逻辑单元。 (4)线性函数)线性函数 1 1)线性作用函数:输出等于输入,即)线性作用函数:输出等于输入,即 xxfy)(2 2)饱和线性作用函数)饱和线性作用函数 110010)(xxxxxfy3 3)对称饱和线性作用函数)对称饱和线性作用函数 111111)(xxxxxfy(5)高斯函数)高斯函数 )(22)(xexf反映出高斯函数的宽度反映出高斯函数的宽度 2.4人
6、工神经网络的典型结构人工神经网络的典型结构 目前,神经网络模型的种类比较多,已有近目前,神经网络模型的种类比较多,已有近4040余余种神经网络模型,其中典型的有种神经网络模型,其中典型的有BPBP网络网络、HopfieldHopfield网络网络。 根据神经元的拓扑结构形式不同,神经网络已有根据神经元的拓扑结构形式不同,神经网络已有十余种不用的连接方式,其中十余种不用的连接方式,其中前馈型网络前馈型网络和和反馈反馈型网络型网络是最典型的两种结构。是最典型的两种结构。(1 1)前馈型神经网络)前馈型神经网络 神经元分层排列,顺序连接。由输入层施加输入信息,神经元分层排列,顺序连接。由输入层施加输
7、入信息,通过中间各层,加权后传递到输出层后输出。每层的神通过中间各层,加权后传递到输出层后输出。每层的神经元只接受前一层神经元的输入,各神经元之间不存在经元只接受前一层神经元的输入,各神经元之间不存在反馈。反馈。(2 2)反馈型神经网络)反馈型神经网络 网络的输出信号通过与输入连接而返回到输入端,从而网络的输出信号通过与输入连接而返回到输入端,从而形成一个回路。因此每一时刻网络输出不仅取决于当前形成一个回路。因此每一时刻网络输出不仅取决于当前的输入,而且还取决于上一时刻的输出。的输入,而且还取决于上一时刻的输出。2.5 人工神经网络的学习人工神经网络的学习 人工神经网络最具有吸引力的特点是它的
8、学习能人工神经网络最具有吸引力的特点是它的学习能力。力。1962年,年,Rosenblatt给出了人工神经网络著给出了人工神经网络著名的学习定理:人工神经网络可以学会它可以表名的学习定理:人工神经网络可以学会它可以表达的任何东西。达的任何东西。(2)神经网络的学习规则神经网络的学习规则 联想式学习联想式学习 Hebb学习规则学习规则 误差纠正式学习误差纠正式学习Delta ()学习规则学习规则 (1)神经网络的学习方式神经网络的学习方式n有导师(监督)学习方式有导师(监督)学习方式n无导师(监督)学习方式无导师(监督)学习方式 人工神经网络连接权的确定通常有两种方法 根据具体要求,直接计算 通
9、过学习得到的,大多数人工神经网络都采用这种方法 n学习是改变各神经元连接权值的有效方法,也是体现人工神经网络智能特性最主要的标志。离开了学习,神经网络就失去了其自适应、自组织能力学习方法是人工神经网络研究中的核心问题学习方法是人工神经网络研究中的核心问题1 1)有导师学习方式)有导师学习方式特点:特点:不能保证得到全局最优解不能保证得到全局最优解要求大量训练样本,收敛速度慢要求大量训练样本,收敛速度慢对样本的表示次序变化比较敏感对样本的表示次序变化比较敏感 神经网络根据神经网络根据实际输出与期望输出的偏差实际输出与期望输出的偏差,按照一定的,按照一定的准则调整各神经元连接的权系数。期望输出又称
10、为导师信准则调整各神经元连接的权系数。期望输出又称为导师信号,是评价学习的标准。号,是评价学习的标准。(1 1)神经网络的学习方式)神经网络的学习方式 无导师信号提供给网络,神经网络仅仅根据其输入无导师信号提供给网络,神经网络仅仅根据其输入调整连接权系数和阈值,此时,网络的学习评价标准隐调整连接权系数和阈值,此时,网络的学习评价标准隐含于内部。这种学习方式主要完成聚类操作。含于内部。这种学习方式主要完成聚类操作。 2 2)无导师学习方式)无导师学习方式n心理学家心理学家Hebb根据生理学中的条件反射机理,于根据生理学中的条件反射机理,于1949年年提出的神经元连接强度变化的规则:提出的神经元连
11、接强度变化的规则:q如果两个神经元同时兴奋如果两个神经元同时兴奋(即同时被激活即同时被激活),则它们之,则它们之间的突触连接加强间的突触连接加强 。q根据该假设定义的权值调整方法称为根据该假设定义的权值调整方法称为Hebb学习规则,学习规则,可归纳为:当神经元可归纳为:当神经元i和神经元和神经元j同时处于兴奋状态时,同时处于兴奋状态时,两者之间的连接强度应增强。两者之间的连接强度应增强。1 1)联想式学习)联想式学习 Hebb Hebb学习规则学习规则Hebb学习规则是人工神经网络学习的基本规则,几乎所学习规则是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作有神经网络的学习规
12、则都可以看作Hebb学习规则的变形学习规则的变形(2 2)神经网络的学习规则)神经网络的学习规则2 2)纠错式学习)纠错式学习 Delta() Delta()学习规则学习规则 首先我们考虑一个简单的情况:设某神经网络的输首先我们考虑一个简单的情况:设某神经网络的输出层中只有一个神经元出层中只有一个神经元i,给该神经网络加上输入,这样,给该神经网络加上输入,这样就产生了输出就产生了输出yi(n),称该输出为,称该输出为实际输出实际输出。 对于所加上的输入,我们期望该神经网络的输出为对于所加上的输入,我们期望该神经网络的输出为d(n),称为称为期望输出期望输出或或目标输出目标输出(样本对里面包含输
13、入和(样本对里面包含输入和期望输出)。实际输出与期望输出之间存在着误差,用期望输出)。实际输出与期望输出之间存在着误差,用e(n)表示:表示:( )= ( )- ( )ie nd n y n 现在要调整权值,使误差信号现在要调整权值,使误差信号e(n)减小到一个范围。减小到一个范围。为此,可设定代价函数或性能指数为此,可设定代价函数或性能指数E(n):21( )=( )2E ne n 反复调整连接权值使代价函数达到最小或者使系统达反复调整连接权值使代价函数达到最小或者使系统达到一个稳定状态(即连接权值稳定不变),就完成了该学到一个稳定状态(即连接权值稳定不变),就完成了该学习过程。习过程。 该
14、学习过程成为纠错学习,或该学习过程成为纠错学习,或Delta学习规则。学习规则。 wij 表示神经元表示神经元xi到到xj学的连接权值,在学习步骤为学的连接权值,在学习步骤为n时时对突触权值的调整为:对突触权值的调整为:( )=( )( )ijjw ne n x n学习速学习速率参数率参数则则(1)=( )+( )ijijijw nw nw n2.6 BP网络网络 误差反向传播网络误差反向传播网络(Error Back-Propagation Network,BP网络)是网络)是Rumelhart等人于等人于1985年提年提出的,是一种按误差逆传播算法训练的多层前馈出的,是一种按误差逆传播算法
15、训练的多层前馈型网络,是目前应用最广泛的神经网络模型。型网络,是目前应用最广泛的神经网络模型。BP网络主要用于:(1)函数逼近:用输入矢量和相应的输出矢量训练网络逼近某个函数;(2)模式识别:用一个特定的输出矢量将它与输入矢量联系起来;(3)分类:把输入矢量以所定义的合适的方法进行分类;(4)数据压缩:减少输出矢量维数以便于传输或存储。 在人工神经网络的实际工程应用中,特别在自动控制领域中,大多数神经网络模型是采用BP网络或它的变化形式,它也是前向网络的核心部分,体现了人工神经网络最精华的部分。BP网络的结构网络的结构输入向量、输出向量的维数、网络隐含层的层数和输入向量、输出向量的维数、网络隐
16、含层的层数和各个隐含层神经元个数的决定。各个隐含层神经元个数的决定。实验:增加隐藏层的层数和隐藏层神经元个数不一实验:增加隐藏层的层数和隐藏层神经元个数不一定总能够提高网络精度和表达能力。定总能够提高网络精度和表达能力。BPBP网一般都选用三层网络。网一般都选用三层网络。BP网络学习流程图网络学习流程图计算过程计算过程(1)正向传播输出过程)正向传播输出过程 设BP网络的输入层有n个节点,隐含层有q个节点,输出层有m个节点;输入层与隐含层之间的权值为 ,隐含层与输出层之间的权值为 ;隐含层单元的阈值为 ,输出层单元的阈值为 ;隐含层和输出层的激活函数为S型函数。则隐含层节点的输出为:输出层节点
17、的输出为:ijwjkvjk1()njijijizfw x1,2,jq1()qkjkjkjyfv z1,2,km通过上两式,可计算出一个输入模式的传播过程。(2)反向传播调整过程)反向传播调整过程1)误差函数定义输入P个学习样本:第p个样本输入到网络后得到输出采用平方型误差函数,于是得到第p个样本的误差 :式中, 为期望输出。对于P个样本,全局误差为:12,Px xxpky1,2,kmpE211()2mpppkkkEtypkt21111()2PPmpppkkppkEEty2)输出层权值和阈值的变化采用累计误差BP算法调整 ,使全局误差E变小,即 为学习速率jkvjkjkEvv 输出层各神经元的权
18、值调整公式为:输出层各神经元的阈值调整公式为:11()()PmpppjkkkkjpkvtyfSz11()()PmpppkkkkpktyfS3)隐含层权值和阈值的变化采用累计误差BP算法调整 ,使全局误差E变小,即 为学习速率ij隐含层各神经元的权值调整公式为:隐含层各神经元的阈值调整公式为:ijijEww 11()()()PmppppijkkkjkjipkwtyfSvfSx11()()()PmppppjkkkjkjpktyfSv fS(3)循环记忆训练)循环记忆训练为使网络的输出误差趋于极小值,对于BP网络输入的每一组训练模式,一般要经过数百次甚至上万次的循环记忆训练,才能使网络记住这一模式。
19、这种循环记忆训练实际上就是反复前两步的正向传播输出过程和反向传播调整过程。(4)学习结果的判别)学习结果的判别当每次循环记忆训练结束后,都要进行学习结果的判别。判别的目的主要是检查输出误差是否已经小到允许的程度。如果小到了允许的程度,就可以结束整个学习过程,否则还要进行循环训练。学习或者说训练的过程是网络全局误差趋向于极小值的过程。 2.7 BP网络网络的改进的改进 (1)BP网络的不足网络的不足1 1)需要较长的训练时间需要较长的训练时间对于一些复杂的问题,BP算法可能要进行几小时甚至更长时间的训练,这主要是由学习速率太小所造成的,可采用变化的学习速率或自适应的学习速率来加以改进。2)不能完
20、全训练)不能完全训练在网络的训练过程中,当其权值调得过大,可能使得所有的或大部分神经元的加权总和偏大,这使得激活函数的输入工作在S型转移函数的饱和区,导致梯度变化率非常小,从而使得对网络权值的调节过程几乎停顿下来,通常为了避免这种现象的发生,一是选取较小的初始权值,二是采用较小的学习速率,这势必增加网络的训练时间。3)容易陷入局部极小值)容易陷入局部极小值BP算法采用的是梯度下降法,训练是从某一起始点沿误差函数的斜面逐渐达到误差的最小值。对于复杂的网络,其误差函数为多维空间的曲面,因而在训练过程中可能陷入某一小谷区,而这一小谷区产生的是一个局部极小值。由此点向各方向变化均使误差增加,以致于使训
21、练无法逃出这一局部极小值。4)结构不确定性)结构不确定性网络隐含层的层数及单元数的选取无理论上的指导,而是根据经验确定的,因此网络的设计有时不是最佳的。(2)常用改进方法)常用改进方法1)自适应学习速率法)自适应学习速率法( )(1)( )(1)( )(1)( )( )(1)( )incdecktE tE ttktE tE ttE tE t学习率增量因子1inck学习率减量因子01deck2)附加动量法)附加动量法附加动量法是在梯度下降法的基础上引入动量系数。(1)( )(1)Ew tw tw网络学习的过程就是修改权值的过程,该算法是以前一次的修正结果来影响本次修正量,当前一次的修正量过大时,
22、式中第二项的符号将与前一次修正量的符号相反,从而使本次的修正量减小,起到减小振荡的作用;当前一次的修正量过小时,式中第二项的符号将与前一次修正量的符号相同,从而使本次的修正量增大,起到加速修正的作用。可见,附加动量法总是力图使同一梯度方向上的修正量增加。这种方法加速了收敛速度,并在一定程度上减小了陷入局部极小点的概率。3)自适应学习速率动量)自适应学习速率动量BP法法该算法是将自适应学习速率法和附加动量法相结合,在网络训练过程中,不但使学习速率根据局部误差曲面做出不断调整,而且利用动量项使同一梯度方向上权值的修正量增加,起到加速修正的作用。其学习速率和附加动量的调节公式分别为:( )(1)(
23、)(1)( )(1)( )( )(1)( )incdecktE tE ttktE tE ttE tE t(1)( )(1)Ew tw tw4)基于误差自动调节修正因子的自适应学习速率法)基于误差自动调节修正因子的自适应学习速率法 ( )( ) ( )01( )( ) ( )0 ( )0 incdeckaE ttE ttkbE ttE ttE t 5)弹性)弹性BP算法算法(1)(1)( ( )w tw tsign g t _w incw decw tksign g tw tksign g tw t ( )(1)( )E tE tg tww6)LM优化法优化法7)同伦)同伦BP算法算法l19821982年年, ,美国加州工学院美国加州工学院J.HopfieldJ.Hopfield提出了可用作联提出了可用作联想存储器和优化计算的反馈网络想存储器和优化计算的反馈网络, ,这个网络称为这个网络称为HopfieldHopfield神经网络神经网络(HNN)(HNN)模型模型, ,也称也称HopfieldHopfield模型模型. .HNNHNN是
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 上海市静安区2025届高三一模语文试卷
- 2025年度个人自建厂房产权交易合同范本4篇
- 2025个人退伙经营合同(物流配送行业专用)4篇
- 2025年度钢构建筑绿色施工监理合同
- 2025-2030全球铁基超塑形状记忆合金行业调研及趋势分析报告
- 2025-2030全球输注穿刺耗材行业调研及趋势分析报告
- 2025年全球及中国高纯度氢氧化钴行业头部企业市场占有率及排名调研报告
- 2025年度钢管及配件进出口代理合同范本2篇
- 2025年个人二手车买卖协议示范文本2篇
- 2025版教育培训机构推广服务合同模板3篇
- 道路沥青工程施工方案
- 2025年度正规离婚协议书电子版下载服务
- 《田口方法的导入》课件
- 春节后安全生产开工第一课
- 内陆养殖与水产品市场营销策略考核试卷
- 电力电缆工程施工组织设计
- 2024年重庆市中考数学试题B卷含答案
- 医生给病人免责协议书(2篇)
- 票据业务居间合同模板
- 承包钢板水泥库合同范本(2篇)
- 颈椎骨折的护理常规课件
评论
0/150
提交评论