神经网络完整版本_第1页
神经网络完整版本_第2页
神经网络完整版本_第3页
神经网络完整版本_第4页
神经网络完整版本_第5页
已阅读5页,还剩35页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1第二章

Introductionof

ArtificialNeuralNetwork

2一、概述ANN是由大量简单的处理单元(神经元,neurons)互联而成的并行分布式系统。它不是人脑的真实描述,是对人脑简单的抽象和模拟,反映人脑的基本特征。ANN建立在神经科学、数学、物理学、计算机科学学科研究的基础上,是一种新的计算机制和模型它可以解决一些传统算法或传统计算机所难于解决的问题。ANN可以用电子线路来实现,也可以用计算机程序来模拟。3

二、人工神经网络的特点大规模并行分布处理

大量简单的处理单元连接起来,形成大规模并行分布系统,不是简单的以网络拓扑的空间来代替时间复杂性神经网络本质上是大规模非线性动力学系统;其计算本质上可表示为系统状态映射或变换。原理上ANN可以充分逼近任意复杂的非线性关系4人工神经网络的特点神经网络的存储和计算合二为一,浑然一体。很强的鲁棒性和容错性:对不完全信息的处理处理系统本身的不完全性自学习,自适应

ANN通过卓越的学习能力和过程,从环境中获取知识和经验,因此有很强的自适应能力,这是ANN最重要的特点。

Non-algorithmic;non-programming;对比数字计算机的离散计算和精确计算,神经计算是模拟计算,不精确计算,善于联想,形象思维、类比、直觉等计算——右脑功能5人工神经网络的特点存储与映射

1、RAM方式(RandomAccessMemory)

–随机访问方式是将地址映射到数据。

2、CAM方式(ContentAddressableMemory)

–内容寻址方式是将数据映射到存储器地址。

3、AM方式(AssociativeMemory)

–联想存储方式是将数据映射到数据。

后两种方式是人工神经网络的工作方式。

•在学习/训练期间,人工神经网络以CAM方式工作→权矩阵,又被称为网络的长期存储器(LongTermMemory,LTM)。

•网络在正常工作阶段是以AM方式工作的;神经元的状态表示的模式为短期存储(ShortTermMemory,STM)6四、fromBNNtoANNBNN人类大脑皮层大约有100亿个神经元BiologicalNeuralSystemsNeuronswitchingtime:>secs

(Computertakessecs)

Numberofneuronsinthehumanbrain:~Connections(synapses)perneuron:~HighdegreeofparallelcomputationDistributedrepresentations7biologicalneuronaxonDendriteofanotherneyronsynapse树突(Dentrite):输入端轴突(Axon):信息传导,其端部的神经末梢(terminals)为输出端axonterminalDendritenucleuscellbodyfromBNNtoANN8fromBNNtoANN

突触(Synapse):

轴突(输出)和树突(输入)接口通过此突触,一个神经元的输出神经脉冲信号传输到另一个神经元每个细胞有

∽个突触9fromBNNtoANN突触间隙处进行量子化学或电化学反映,实现D/A转换电脉冲→神经化学物质→膜电位变化兴奋型和抑制型(excitatoryorinhibitory)

---有膜电位阈值决定可塑性:突触的信息传输特性是可变的,即可强可弱,可正可负

---学习记忆的基础

时空整合性时间整合:不同时间的神经刺激冲动在同一突触上整合空间整合:同一时间中不同突触处膜电位整合

延时和不应期:遗忘和疲劳

相邻的两次冲动之间需要一个时间间隔,其间,不传递神经冲动10fromBNNtoANN

生物神经元是一个多输入,单输出的信息处理单元,单输出可以被分枝为多个并行输出(具有相同输出值),以便输入到多个其它神经元。每个神经元仅进行局部的信息处理:

对所有输入信号用synapse加权求和用激励函数对加权和进行处理并输出

Modelingbiologicalneuron11fromBNNtoANN

ArtificialNeuralNetwork12

InputvaluesweightsSummingfunctionBias(threshhold)θActivationfunctionuOutputyx1x2xmw2wmw1f(u)input/output:

Binary{0,1}Bipolar{-1,1}ContinuousfromBNNtoANNArtificialNeuronModel13fromBNNtoANN

InputvaluesweightsSummingfunctionActivationfunctionuOutputyx1x2xmw2wmw1f(u)

Bias可以等效为一个权,对应一个外加的固定输入w0X0=-1w0=θ14

Step(threshold)function

StepfunctionSignfunctionActivationfunctionsforunitsu+1-1

Signfunction

+10fromBNNtoANN15SigmoidfunctionS-shapedContinuousandeverywheredifferentiableRotationallysymmetricaboutsomepointAsymptoticallyapproachsaturationpointsuf(u)+1HyperbolictangentFunction+1-1反映了不应期的饱和特性改变α可改变函数斜率,即改变激励特性,这对收敛性有一定影响fromBNNtoANN16GaussianfunctionBell-shaped(radialbasis)Continuousf(u)asymptoticallyapproaches0(orsomeconstant)when|u|islargeSinglemaximum(whenu=

)Example:

GaussianfunctionfromBNNtoANN

17Stochastic

functionwhereTispseudotemparature

T0,reducedtodeterministicformWithprobabilityP(u)Withprobability1-P(u)fromBNNtoANN18

五、DimensionsofaNeuralNetwork一个神经网络的性能主要取决于以下三方面neuronmodel:神经网络的信息处理单元architecture:一组单元和连接拓扑learningalgorithm:用训练样本来调整权重,使得神经网络能学会解决问题的知识和经验神经网络分类:连续型和离散型;确定型和随机型前馈型(feedforwardnetwork)和反馈型(recurrentnetwork);有教师学习(supervisedlearning)和无教师学习(unsupervisedlearning)一阶线性关联网络和高阶非线性关联网络19DimensionsofaNeuralNetwork

NeuralNetworkArchitectures

前馈网络(FeedforwardNetworks)

神经元分层组织,信息流从输入层到输出层,每一层的神经元只接受前一层神经元的输入。

Inputnodes:receiveinputfromtheenvironmentOutputnodes:sendsignalstotheenvironmentHiddennodes:nodirectinteractiontotheenvironment

SinglelayerMultiplelayer20DimensionsofaNeuralNetworkLinksareunidirectional,andtherearenocycles,i.e.,thenetworkisadirectedacyclicgraph(DAG).Unitsarearrangedinlayers,andeachunitislinkedonlytounitsinthenextlayer.Thereisnointernalstateotherthantheweights从学习的观点来看,前馈网络是一种强有力的学习系统,其结构简单而易于编程;从系统的观点看,前馈网络是一静态非线性映射,通过简单非线性处理单元的复合映射,可获得复杂的非线性处理能力。但从计算的观点看,缺乏丰富的动力学行为。大部分前馈网络的分类能力和模式识别能力一般都强于反馈网络,典型的前馈网络有感知器网络、BP网络等。特点:21DimensionsofaNeuralNetwork反馈网络(RecurrentNetworks):atleastonefeedbackloopwithorwithouthiddenlayerRecurrentnetworkwithhiddenlayerRecurrentnetworkwithouthiddenlayer22DimensionsofaNeuralNetwork连接可形成任意拓扑形态.有复杂的动力学行为有系统内部状态系统可呈不稳定、振荡或混沌状态一般对称连接

(wij=wji)可时延训练较难更有生理基础特点反馈神经网络是一种反馈动力学系统,它需要工作一段时间才能达到稳定。Hopfield神经网络是反馈网络中最简单且应用广泛的模型,它具有联想记忆(Content一AddressibleMemory,CAM)的功能,如果将Lyapunov函数定义为寻优函数,Hopfie1d神经网络还可以用来解决快速寻优问题。23DimensionsofaNeuralNetworkModularnetsConsistsofseveralmodules,eachofwhichisaneuralnetforaparticularsub-problemSparseconnectionsbetweenmodules24Class1SubnetworkClass2SubnetworkClass3SubnetworkIIntegrateSubnetworkModulesLinkstobegrownLinkswithvaluespreservedFinalTrainingPhaseFinalNetwork25SelectionofanappropriatearchitectureLearningisaprocessbywhichthefreeparameters(linksorweights)ofaneuralnetworkareadaptedthroughaprocessofstimulationbytheenvironmentinwhichthenetworkisembedded.Thetypeofthelearningisdeterminedbythemannerinwhichtheparameterchangestakeplace.TheprocessofadjustingtheweightsisreferredtoasaLearningAlgorithm.六、NeuralNetworkLearning

学习是体现人工神经网络智能特性的主要标志,离开了学习算法,人工神经网络就失去了自适应、自组织和自学习的能力。26NeuralNetworkLearning

学习类型有教师学习(Supervisedlearning)Networkisprovidedwithasetofexamplesofpropernetworkbehavior(inputs/targets)需要一组训练样本。更确切地讲是一组样本对,每个样本对包含输入和对应的期望输出,即教师信号。27Theteacherhasknowledgeoftheenvironment六、NeuralNetworkLearning28Determineweights(learningknowledge)

评估六、NeuralNetworkLearning基于评估值调整权重值29无教师学习(Unsupervisedlearning)

不需要或者不知道教师信号:输入模式进人网络后,网络按照一预先设定的规则(如竞争规则)自动调整权值,神经网络必须在训练中找到输入样本的相互关系,并对输入形成内部表示NN(权矩阵)评估教师信号输出输入NN(权矩阵)输入评估输出六、NeuralNetworkLearning有教师学习无教师学习30强化学习技术是从控制理论、统计学、心理学等相关学科发展而来,最早可以追溯到巴甫洛夫的条件反射实验。人类通常从与外界环境的交互中学习。所谓强化(reinforcement)学习是指从环境状态到行为映射的学习,以使系统行为从环境中获得的累积奖励值最大。在强化学习中,我们设计算法来把外界环境转化为最大化奖励量的方式的动作。我们并没有直接告诉主体要做什么或者要采取哪个动作,而是主体通过看哪个动作得到了最多的奖励来自己发现。主体的动作的影响不只是立即得到的奖励,而且还影响接下来的动作和最终的奖励。强化学习(Reinforcementlearning)介于上述两者之间的一种学习方式。六、NeuralNetworkLearning31主体i:inputr:rewards:statea:action状态sisi+1ri+1奖励ri环境动作

aia0a1a2s0s1s2s3六、NeuralNetworkLearning32

Absenceofateacher,Networkisonlyprovidedwithagrade,orscore(payoff),whichindicatesnetworkperformanceLearnactiontomaximizepayoffNotmuchinformationinapayoffsignalPayoffisoftendelayedSuccessfullyappliedtoscheduling,control,gameplayingReinforcementlearningiscloselyrelatedtodynamicprogramming.Reinforcementlearning:六、NeuralNetworkLearning3334LearningRulesError-correctionlearning<-optimumfilteringHebbianlearning<-neurobiologicalCompetitivelearning<-neurobiologicalBoltzmannlearning<-statisticalmechanics六、NeuralNetworkLearning35①Hebbianlearning

rule(相关学习):

在某个模式中,如果一个权两边的神经元同时激活,权将增强,以稳定该模式。如异步激活,则权减弱或消失。第n步学习时:Localmechanism(spatiotemporalcontiguity)Time-dependentmechanismConjunctionalorcorrelationalmechanismUnsupervisedlearningrule六、NeuralNetworkLearning36

②Error-CorrectionLearningrule

(delta(δ)ruleorWidrow-Hoffrule)ij

神经元i的实际输出为

其教师信号为

实际输出与期望输出之间的误差:-

设代价函数(误差函数):反复调整权重,使代价函数为最小学习过程中,基于误差反复调整权重,使得实际输出逐渐接近期望输出,即误差逐渐变小六、NeuralNetworkLearningsupervisedlearning37③Competitiv

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论