人工神经网络基础知识_第1页
人工神经网络基础知识_第2页
人工神经网络基础知识_第3页
人工神经网络基础知识_第4页
人工神经网络基础知识_第5页
已阅读5页,还剩58页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、2 人工神经网络根底知识 2.1人工神经网络的生物学根底 人的智能来自于大脑,大脑是由大量的神经细胞或神经元组成的。每个神经元可以看作为一个小的处理单元,这些神经元按照某种方式互相连接起来,构成了大脑内部的生物神经元网络,他们中各神经元之间连接的强弱,按照外部的鼓励信号作自适应变化,而每个神经元又随着接收到的多个鼓励信号的综合大小呈现兴奋或抑制状态。据现在的了解,大脑的学习过程就是神经元之间连接强度随外部鼓励信息做自适应变化的过程,大脑处理信息的结果确由神经元的状态表现出来。显然,神经元是信息处理系统的最小单元。虽然神经元的类型有很多种,但其根本结构相似。第一页,共六十三页。神经元是大脑处理信

2、息的根本单元人脑约由101l-1012个神经元组成,其中,每个神经元约与104-105个神经元通过突触联接,形成极为错纵复杂而且又灵活多变的神经网络神经元以细胞体为主体,由许多向周围延伸的不规那么树枝状纤维构成的神经细胞,其形状很像一棵枯树的枝干主要由细胞体、树突、轴突和突触(Synapse,又称神经键)组成 一、生物神经元第二页,共六十三页。 生物神经元网络结构 树突是树状的神经纤维接收网络,它将电信号传送到细胞体细胞体对这些输入信号进行整合并进行阈值处理轴突是单根长纤维,它把细胞体的输出信号导向其他神经元一个神经细胞的轴突和另一个神经细胞树突的结合点称为突触 神经元的排列和突触的强度(由复

3、杂的化学过程决定)确立了神经网络的功能。 第三页,共六十三页。生物学研究说明一些神经结构是与生俱来的,而其他局部那么是在学习的过程中形成的。在学习的过程中,可能会产生一些新的连接,也可能会使以前的一些连接消失。这个过程在生命早期最为显著。第四页,共六十三页。二、突触的信息处理生物神经元传递信息的过程为多输入、单输出;神经元各组成局部的功能来看,信息的处理与传递主要发生在突触附近;当神经元细胞体通过轴突传到突触前膜的脉冲幅度到达一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质;突触有两种类型,兴奋性突触和抑制性突触。前者产生正突触后电位,后者产生负突触后电位。抑制性-神经

4、元虽然接收到其他神经元传递的信息,但没有向外传递信息,该神经元称“抑制性的;兴奋性-当一个神经元的树突接收的兴奋信息累计超过阈值,该神经元被激活并传递出信息给其他神经元。第五页,共六十三页。三、信息传递功能与特点 具有时空整合能力时间整合各输入脉冲抵达神经元的先后时间不同,一个脉冲引起的突触后电位很小,但随着时间延续,另有脉冲到达,总的突触后电位就增大。空间整合在同一时刻产生的刺激所引起的膜电位变化,大致等于各单独刺激引起的膜电位变化的代数和。这种累加求和称空间整合。不可逆性,脉冲只从突触前传到突触后,不逆向传递 神经纤维传导的速度,即脉冲沿神经纤维传递的速度,在1150ms之间 信息传递时延

5、和不应期,一般为0.3lms可塑性,突触传递信息的强度是可变的,即具有学习功能 存在学习、遗忘或疲劳饱和效应对应突触传递作用增强、减弱和饱和第六页,共六十三页。2、生物神经系统的六个根本特征:1神经元及其联接;2神经元之间的联接强度决定信号传递的强弱;3神经元之间的联接强度是可以随训练改变的;4信号可以是起刺激作用的,也可以是起抑制作用的;5一个神经元接受的信号的累积效果断定该神经元的状态;6) 每个神经元可以有一个“阈值。第七页,共六十三页。2.人工神经元模型人工神经网络是在现代神经生物学研究根底上提出的模拟生物过程以反映人脑某些特性的计算结构。它不是人脑神经系统的真实描写,而只是它的某种抽

6、象、简化和模拟。根据前面对生物神经网络的研究可知,神经元及其突触是神经网络的根本器件。因此,模拟生物神经网络应首先模拟生物神经元。在人工神经网络中,神经元常被称为“处理单元。有时从网络的观点出发常把它称为“节点。人工神经元是对生物神经元的一种形式化描述,它对生物神经元的信息处理过程进行抽象,并用数学语言予以描述;对生物神经元的结构和功能进行模拟,并用模型图予以表达。 第八页,共六十三页。目前人们提出的神经元模型已有很多,其中最早提出且影响最大的,是1943年心理学家McCulloch和数学家WPitts在分析总结神经元根本特性的根底上首先提出的MP模型。该模型经过不断改进后,形成目前广泛应用的

7、形式神经元模型。关于神经元的信息处理机制,该模型在简化的根底上提出以下6点约定进行描述:1每个神经元都是一个多输入单输出的信息处理单元;2突触分兴奋性和抑制性两种类型;3神经元具有空间整合特性和阈值特性;4神经元输入输出间有固定的时滞,主要取决于突触延搁;5忽略时间整合作用和不应期;6神经元本身是非时变的,即其突触时延和突触强度均为常数。第九页,共六十三页。MP模型:称为作用函数或激发函数第十页,共六十三页。 MP模型 作用函数 求和操作第十一页,共六十三页。 MP模型 f(x)是作用函数(Activation Function),也称激发函数。MP神经元模型中的作用函数为单位阶跃函数: 其表

8、达式为:第十二页,共六十三页。激发函数的根本作用控制输入对输出的激活作用对输入、输出进行函数转换将可能无限域的输入变换成指定的有限范围内的输出 可知当神经元i的输入信号加权和超过阈值时,输出为“1,即“兴奋状态;反之输出为“0,是“抑制状态。 MP模型第十三页,共六十三页。例、实现逻辑函数“与门AND gate运算。1 真,0假第十四页,共六十三页。第十五页,共六十三页。人工神经元的数学模型描述: 第j个神经元,接受多个其它神经元i在t时刻的输入xi(t),引起神经元j的信息输出为yj(t):式中 wij神经元i到j的突触连接系数,即加权值; j神经元j的阈值; ij输入、输出间的突触时延;

9、f()神经元转移激活函数.为简单起见,将上式中的突触时延取为单位时间,那么 式中 netjj单元激活值;netj=第十六页,共六十三页。其它各单元对第j个单元的输入,通过加权,按某种运算把输入信号的综合作用整合起来,给出它们的总效果称净输入。净输入整合表达应有多种方式,人们探索到的人脑空间整合方式近似为线性求和。即单元净输入表为 为简便起见,省去式中t,而且常用向量表示 式中 均为列向量:假设令 第十七页,共六十三页。至此,人工神经元数学模型可简化为看到,人工神经元模型较全面表现了前述点约定:单输入多输出显见;用突触的正负表达突触的“兴奋与抑制;净输入关系net和阈值,表现了空间整合特性和阈值

10、特性;y(t+1)与x(t)之间的单位时差表现了突触延搁“;没有考虑时间整合和不应期;权系数与时间无关,表达了神经元的非时变“。第十八页,共六十三页。2.3人工神经元转移函数 神经元的各种不同数学模型的主要区别在于采用了不同的转移函数,从而使神经元具有不同的信息处理特性。而神经元的信息处理特性、网络拓补结构和网络学习方式是决定人工神经网络整体性能的三大要素, 因此转移函数的研究具有重要意义。神经元的转移函数反映了神经元输出与其激活状态之间的关系,目前提出了多种,最常用的转移函数有以下几种形式。1 阈值型转移函数 阈值型转移函数采用单位阶跃函数,也称硬限幅函数,用下式定义: 第十九页,共六十三页

11、。具有这一作用方式的神经元称为阈值型神经元,这是神经元模型中最简单的一种,经典的MP模型就属于此类。硬限幅函数也可采用符号函数,如图,用下式定义第二十页,共六十三页。2 非线性转移函数常用的是单极性sigmoid函数,简称S函数,函数本身及其导数都连续,处理上十分方便,变化范围是01,如下图,用下式定义第二十一页,共六十三页。有时也采用双极性S型函数双曲正切函数tanh(x),其变化范围是-11,如下图。其表达式为第二十二页,共六十三页。3、线性函数 (1)线性作用函数:输出等于输入,即 (2)饱和线性作用函数 (3)对称饱和线性作用函数 第二十三页,共六十三页。4 概率型转移函数 采用概率型

12、转移函数的神经元模型其输入与输出之间的关系是不确定的,需要用一个随机函数来描述输出状态的概率。如,设神经元输出为1的概率为式中 T称温度参数。采用这种转移函数的神经元输出状态分布的典型代表是Boltzmann 机。第二十四页,共六十三页。5、高斯函数 反映出高斯函数的宽度 还有许多转移函数的数学模型,不一一介绍。 第二十五页,共六十三页。2.4人工神经网络模型 大量神经元组成庞大的神经网络,才能实现对复杂信息的处理与存储,并表现出各种优越的特性。神经网络的强大功能与其大规模并行互连、非线性处理以及互连结构的可塑性密切相关。因此必须按一定规那么将神经元连接成神经网络,并使网络中各神经元的连接权按

13、一定规那么变化。生物神经网络由数以亿计的生物神经元连接而成,而人工神经网络限于物理实现的困难和为了计算简便,是由相对少量的神经元按一定规律构成的网络。人工神经元网络要显示出人脑的某些的根本特征:(1)分布存储和容错性(2)大规模并行处理(3)自学习、自组织和自适应(4)大量神经元群体行为,表现出复杂非线性系统特性 第二十六页,共六十三页。人们对网络模型做了大量研究,目前人工神经网络的模型很多,已有近百种,可以按照不同的方法进行分类。按网络性能可分-连续性和离散性、确定性和随机性网络;按学习方式可分-有导师和无导师 学习方式网络。常见的分类方法-按网络连接的拓扑结构分类和按网络内部 的信息流向分

14、类。 如按网络内部的信息流向分类:前馈(向)型网络和反响型网络.2.4.1网络拓扑结构类型 网络拓扑结构的不同表现为神经元之间连接方式的不同。根据神经元之间的连接方式,可将神经网络结构分为层次型结构和互连型结构两大类。第二十七页,共六十三页。层次型结构 层次型结构的神经网络将神经元按功能分成假设干层,如输入层、中间层也称为隐层和输出层,各层顺序相连,如图 所示。 输入层各神经元负责接受来自外界的输入信息,并传递给中间各隐层神经元;隐层是神经网络的内部信息处理层,负责信息变换,根据信息变换能力的需要,隐层可设计为一层或多层; 最后一个隐层传递到输出层各神经元的信息经进一步处理后即完成一次从输入到

15、输出的信息处理,由输出层向外界如执行机构或显示设备输出信息处理结果。第二十八页,共六十三页。层次型网络结构有3种典型的结构形式。1单纯层次型网络结构神经元分层排列,各层神经元接受前一层输入并输出到下一层,层内神经元自身以及神经元之间不存在连接通路。单纯层次型网络结构第二十九页,共六十三页。2层内有互连的层次型网络结构这种结构的特点是在同一层内引入神经元间的侧向作用,使得能同时激活的神经元个数可控,以实现各层神经元的自组织。第三十页,共六十三页。3输出层到输入层有连接的层次型网络结构输出层到输入层有连接路径,其输入层神经元既可接受输入,也具有信息处理功能。 第三十一页,共六十三页。互连型结构 对

16、于互连型网络结构,网络中任意两个节点之间都可能存在连接路径,因此可以根据网络中节点的互连程度将互连型网络结构细分为全互连型网络、局部互连型网络、稀疏连接型网络3种情况。 1全互连型网络每个节点均与所有其他节点连接。第三十二页,共六十三页。2局部互连型网络 3稀疏连接型网络节点只与少数相距较远的节点相连。每个节点只与其邻近的节点有连接。第三十三页,共六十三页。2.4.2网络信息流向类型 从神经网络内部信息传递方向来分,可分为两种类型:前馈型网络和反响型网络。1 前馈型网络 单纯前馈型网络的结构特点前述的分层网络完全相同,前馈是因网络信息处理的方向是从输入层到各隐层再到输出层逐层进行而得名。从信息

17、处理能力看,网络中的节点可分两种:一种是输入节点,只负责从外界引入信息后向前传递给第一隐层;另一种是具有处理能力的节点,包括各隐层和输出层节点。前馈型网络中一层的输出是下一层的输人,信息的处理具有逐层传递进行的方向性,一般不存在反响环路。因此这类网络很容易串联起来建立多层前馈网络。第三十四页,共六十三页。前馈(向)网络特点:(1)层次关系清楚每个神经元只与前一层神经元相连;隐层可多层.(2)反响关系根本前馈网络无反响关系;隐层自身互联,形成同层神经元之间横向抑制机制,大多自组织竞争型网络都采用此种;输出到输入层有反响.对复杂图形的顺序选择和识别字符需要此类网络;(3)属有导师学习型网络(输出值

18、-教师信号-误差-实现权值自适应)(4)属于非线性映射网络第三十五页,共六十三页。当提到具有单层计算神经元的网络时,指的应是一个两层前馈网络输入层和输出层,当提到具有单隐层的网络时,指的应是一个三层前馈网络输入层、隐层和输出层。2 反响型网络反响网络是指其信息流向的特点。在反响网络中所有节点都具有信息处理功能,而且每个节点既可以从外界接受输入,同时又可以向外界输出。一般来说:互连型网络结构 属于反响型网络第三十六页,共六十三页。上面介绍的分类方法、结构形式和信息流向只是对目前常见的网络结构的概括和抽象。实际应用的神经网络可能同时兼有其中一种或几种形式。例如,从连接形式看,层次型网络中可能出现局

19、部的互连;从信息流向看,前馈网络中可能出现局部反响。综合来看,前述的网络模型可分别称为:前馈层次型、前馈层内互连型、输入输出有反响的前馈层次型反响全互连型和反响局部互连型。反响网络特点:(1)反响关系 全互联网络;局部互联网络.(2)属于无导师学习网络(3)属于非线性动力学系统网络第三十七页,共六十三页。前馈层次型前馈层内互连型输入输出有反响的前馈层次型反响全互连型反响局部互连型神经网络的拓扑结构是决定神经网络特性的第二大要素。第三十八页,共六十三页。神经网络的开发工作分两个阶段:学习阶段(期):也称自适应期或设计期,通过学习样本或其他方法训练权矩阵;工作阶段(期):各连接权成熟(不再改变),

20、求解实际问题,单元状态变迁,以求到达稳态解.第三十九页,共六十三页。人工神经网络连接权确实定通常有两种方法根据具体要求,直接计算,如Hopfield网络作优化计算通过学习得到的。大多数人工神经网络都采用这种方法 学习是改变各神经元连接权值的有效方法,也是表达人工神经网络智能特性最主要的标志。离开了学习,神经网络就失去了诱人的自适应、自组织能力学习方法是人工神经网络研究中的核心问题2.5人工神经网络的学习 第四十页,共六十三页。 人类具有学习能力,人类的知识和智慧是在不断的学习与实践中逐渐形成和开展起来的。学习可定义为:“根据与环境的相互作用而发生的行为改变,其结果导致对外界刺激产生反响的新模式

21、的建立。 学习过程离不开训练,学习过程就是一种经过训练而使个体在行为上产生较为持久改变的过程.例如,游泳等体育技能的学习需要反复的训练才能提高,数学等理论知识的掌握需要通过大量的习题进行练习.一般来说,学习效果随着训练量的增加而提高,这就是学习的进步. 网络的运行一般分为学习训练和工作两个阶段。学习的目的是为了从训练数据中提取隐含的知识和规律,并存储于网络中供工作阶段使用。 第四十一页,共六十三页。 学习的神经机制,涉及神经元如何分布、处理和存储信息等。这样的问题单用行为研究是不能答复的,必须把研究深入到细胞和分子水平。每一种心理功能,如记忆与思想,均归因于神经细胞组群的活动。大脑中,功能性的

22、神经元连接、突触的形成是关键,医学研究说明:神经元之间的突触联系,其根本局部是先天就有的,但其他局部是由于学习过程中频繁地给予刺激而成长起来的。突触的形成、稳定与修饰等均与刺激有关,随外界给予的刺激性质不同,能形成和改变神经元的突触联系。 神经网络的全体连接权值可用一个矩阵W表示,其整体内容反映了神经网络对于所解决问题的知识存储,神经网络能够通过对样本的学习训练,不断改变网络的连接权值以及拓扑结构,以使网络的输出不断地接近期望输出。这一过程称为神经网络的学习或训练,其本质是对可变权值的动态调整。第四十二页,共六十三页。 把修正权值的算法称为学习规那么学习算法等。对单个处理单元,无论采用哪种学习

23、规那么进行调整,其算法都十分简单。但当大量处理单元集体进行权值调整时,网络就呈现出“智能特性,其中有意义的信息就分布地存储在调整后的权值矩阵W中。 神经网络具有学习功能是其最主要的特征之一,各种学习算法的研究在ANN理论与实践开展过程中起着重要作用. 人工神经网络的学习和计算机的机器学习有类似的分类,一类有导师学习(从例子中学习),一类无导师学习,还有一类为死记式学习。在ANN中,学习规那么是修正权的一个算法,以获得满意的系统性能。 现有的学习规那么大体上可分为以下几类: 第四十三页,共六十三页。1有导师学习规那么(纠错规那么) 依赖关于输出节点的外部反响来改变权系数,使实际结点的输出与外部的

24、期望输出相一致,即有导师学习规那么。从方法上看,基于或等效于梯度下降方法,通过在局部最大改善的方向上,按照小步逐次进行修正,力图到达表示函数功能问题的全局解,但不能保证得到全局最优解,同时还要求有大量的训练样本,因而收敛速度变慢。此外,这种规那么对样本的表示次序变化比较敏感。 2无导师学习规那么 学习表现为自适应于输入空间的检测规那么。该规那么的关键在于调整参数以反映观察事件的分布,即是将事件空间分类成输入活动区域,并有选择地对这些区域响应。3死记式学习(相关规那么) 仅根据连接之间的激活水平改变权系数。常用于自联想网络,执行特殊记忆状态的死记式学习。第四十四页,共六十三页。现在将要分别介绍常

25、用的、根本的学习规那么。 可以认为,一个神经元是一个自适应单元,其权值可以根据它所接受的输入信号、它的输出信号以及对应的监督信号进行调整。日本著名神经网络学者Amari于1990年提出一种神经网络权值调整的通用学习规那么,该规那么的图解表示见以下图。图中的神经元j是神经网络中的某个节点,其输入用向量X表示,该输入可以来自网络外部,也可以来自其他神经元的输出。 第四十五页,共六十三页。 第i个输入与神经元j的连接权情用wij表示,连接到神经元j的全部权值构成了权向量Wj。应当注意的是,该神经元的阈值,对应的输入分量x0恒为-1。图中,rr(Wj,X,dj)称学习信号,该信号通常是W和X的函数,而

26、在有导师学习时,它也是教师信号dj的函数。通用学习规那么可表达为:权向量Wj在t时刻的调整量Wjt与 t时刻的输入向量Xt和学习信号 r的乘积成正比。用数学式表示为 Wjt=rWjt,X(t),dj(t)Xt 第四十六页,共六十三页。Wjt=rWjt,X(t),dj(t)Xt式中,为正数,称为学习常数,其值决定了学习速率,也称学习率。基于离散时间调整时,下一时刻的权向量应为 Wj(t十1)=WjtrWjt,X(t),dj(t)Xt 不同的学习规那么对r(Wj,X,dj)有不同的定义,从而形成各种各样的神经网络学习规那么。下面对常用学习规那么作一简要介绍。第四十七页,共六十三页。在Hebbian

27、学习规那么中,学习信号简单地等于神经元的输出 权向量的调整公式为 权向量中,每个分量的调整由下式确定 = = i=0,1,,n上式说明,权值调整量与输入输出的乘积成正比。显然,经常出现的输入模式将对权向量有最大的影响。 251 Hebbian学习现那么 1949年,心理学家DOHebb最早提出关于神经网络学习机理的“突触修正 假设。该假设指出,当神经元的突触前膜电位与后膜电位同时为正时,突触传导增强,当前膜电位与后膜电位正负相反时,突触传导减弱,也就是说,当神经元i与神经元j同时处于兴奋状态时,两者之间的连接强度应增强。(实质上就是条件反射学说,后来得到了神经细胞学说的证明)根据该假设定义的权

28、值调整方法,称为Hebbian学习规那么。 第四十八页,共六十三页。此外,要求权值初始化,即在学习开始前t=0,先对Wj(0)赋予零附近的小随机数。 Hebbian学习规那么代表一种纯前馈、无导师学习。该规那么在各种神经网络模型中起着重要的作用。 下面用一个简单的例子来说明具有简单网络的二进制和连续激活函数的Hebb学习情况。例 能看出有4输入单输出神经元网络,其阈值为0,学习率=1,3个输入样本向量和初始权向量分别为X1=1 2 1.5 0T,X2=1 -0.5 -2 -1.5T,X3=0 1 -1 1.5T,W(0)=1 -1 0 0.5T,试按Hebb规那么进行网络训练。解 假设神经元采

29、用双极性硬限幅函数,即f(net)=sgn(net).学习过程如下步骤:(1)输入第一个样本X1,计算净输入net1,调整权向量为W1net1=W(0)TX1=1 -1 0 0.51 -2 1.5 0T=3W(1)=W(0)+sgn(net1)X1=W(0)+X1=1 -1 0 0.5T+1 -2 1.5 0T=2 -3 1.5 0.5T第四十九页,共六十三页。(2)输入第二个样本X2,计算净输入net2,调整权向量为W2 net2=W(1)TX2=2 -3 1.5 0.51 -0.5 -2 -1.5T=-0.25W(2)=W(1)+sgn(net2)X2 =W(1)-X2 =2 -3 1.5

30、 0.5T-1 -0.5 -2 -1.5T =1 -2.5 3.5 2T(3) 输入第三个样本X3,计算净输入net3,调整权向量W(3)net3=W(2)TX3 =1 -2.5 3.5 20 1 -1 1.5T =-3W(3)=W(2)+sgn(net3)X3 =W(2)-X3 =1 -2.5 3.5 2T-0 1 -1 1.5T =1 -3.5 4.5 0.5T可见,当转移函数为符号函数且=1时,H学习规那么的权值调整将简化为权向量加或减输入向量。第五十页,共六十三页。下面看一下转移函数为双极性连续函数 时,此例权值调整情况:(1) net1=W(0)TX1=1 -1 0 0.51 -2

31、1.5 0T=3 y1=f(net1)= W(1)=W(0)+y1X1=1.905 -2.81 1.357 0.5T(2) net2=W(1)TX2=-0.154 y2=f(net2)= W(2)=W(1)+y2X2=1.828 -2.772 1.512 0.616T(3) net3=W(2)TX3=-3.36 y3=f(net3)= W(3)=W(2)+y3X3=1.828 -3.70 2.44 -0.785T比较两种权值调整结果看出,在两种转移函数下的权值调整方向是一致的,但是,采用连续转移函数时,权值的调整力度相对减弱。第五十一页,共六十三页。2。5。2感知器学习规那么 感知器Perce

32、ptron是美国学者Rosenblatt 于1958年提出来的,实际上它是一个具有单层计算单元的神经元网络。他指出,感知器可以学会它能表示的任何事情,这个结论曾使不少人企图用感知器模仿人的视网膜来识别图像的某些特征。对于感知器的学习规那么,学习信号是通过神经元的期望输出和实际输出响应之间的差来决定。因而,学习信号等于 r=dj-yj 1 WjTX0式中 yj为实际输出,yj=sgnWjTX= -1 WjTX0即感知器采用的是符号转移函数;dj为所期望的输出响应。因此,权值的调整公式为 Wj=(dj-sgn(WjTX)X wij=(dj-sgn(WjTX)xi i=1,2,n 第五十二页,共六十

33、三页。请注意,这个规那么仅对二进制神经元响应是可以应用的,而且上式表达了属于双极二进制情况下的规那么。在这种规那么下,当且仅当yj是不正确情况,权重得到调节。 感知器学习规那么属于有导师学习规那么,权重可以在任何值上初始化。 感知器理论是研究其他神经网络的根底,感知器学习规那么对于神经网络的有导师学习有极为重要的意义。第五十三页,共六十三页。2.5.3 (Delta)学习规那么 学习规那么又称最小均方规那么LMS。它利用目标激活值与所得的激活值之差进行学习。其方法是:调整联系强度,使这个差减小。 学习规那么唯一适用于单极性和双极性Sigmoid型转移函数以及在有导师训练模式中定义的连续激活函数

34、。学习信号定义如下:式中 是对于 计算得激活函数 的导数。那么,权值调整公式为 = i=0,1,2.n 第五十四页,共六十三页。 该学习规那么可由实际输出值yj和期望输出值dj之间最小平方误差的条件推导出来。定义神经元实际输出与期望输出间的平方误差为 式中,误差E是权向量Wj函数。欲使误差E最小,Wj应与误差的负梯度成正比,即 =- (Wj沿E的负梯度方向变化) # 式中,比例系数是一个正常数, 为误差梯度. =-代入#式得权值调整计算式 = 第五十五页,共六十三页。式子 得到证明。 对于这种训练方法,权可以在任何值上得到初始化。 1986年McClelland和Rumelhart将规那么引入

35、作为神经元网络的训练。这个规那么并行于离散感知器学习规那么,它亦可称作为连续感知器训练规那么。学习规那么能够被推广用于多层网络。例 设有3输入单输出网络,将阈值含于权向量内,即学习率 -1 1 -2 0T , -1 0 1.5 -0.5T , -1 -1 1 0.5T 0.5 1 -1 0T, 试按规那么进行网络学习.第五十六页,共六十三页。解:设转移函数为双极性连续函数那么 或第一步 输入样本X1,计算净输入net1及权向量W(1)net1=W(0)TX1 =2.50.526 0.974 -0.948 0T第二步 计算输入样本X2 .计算净输入net2及权向量W(2)net2=W(1)TX2 =-1.948第五十七页,共六十三页。0.531 0.974 -0.956 0.002T第三步因为每步中0.505 0.947 -0.929 0.016T,所以每步权值均得到修正,这种方法常要求小的值.第五十八页,共六十三页。2。5。4 WidrowHoff学习规那么 1962年WidrowHo

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论