版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
人工神经网络的基本模型现在是1页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系2第二章人工神经网络的基本模型人工神经元的基本模型几种典型的激活函数人工神经网络的学习算法概述人工神经网络的基本拓扑结构现在是2页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系3
生物神经元结构
(1)细胞体:细胞核、细胞质和细胞膜。(2)树突:胞体短而多分枝的突起。相当于神经元的输入端。(3)轴突:胞体上最长枝的突起,也称神经纤维。端部有很多神经末稍传出神经冲动。(4)突触:神经元间的连接接口,每个神经元约有1万~10万个突触。神经元通过其轴突的神经末稍,经突触与另一神经元的树突联接,实现信息的传递。由于突触的信息传递特性是可变的,形成了神经元间联接的柔性,称为结构的可塑性。(5)细胞膜电位:神经细胞在受到电的、化学的、机械的刺激后,能产生兴奋与抑制。2.1人工神经元的基本模型第二章人工神经网络的基本模型现在是3页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系4
生物神经元结构2.1人工神经元的基本模型第二章人工神经网络的基本模型现在是4页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系5
生物神经元功能(1)兴奋与抑制:当传入神经元冲动,经整和使细胞膜电位升高,超过动作电位的阈值时,为兴奋状态,产生神经冲动,由轴突经神经末稍传出。当传入神经元的冲动,经整和,使细胞膜电位降低,低于阈值时,为抑制状态,不产生神经冲动。(2)学习与遗忘:由于神经元结构的可塑性,突触的传递作用可增强与减弱,因此,神经元具有学习与遗忘的功能。2.1人工神经元的基本模型第二章人工神经网络的基本模型现在是5页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系62.1人工神经元的基本模型第二章人工神经网络的基本模型
人工神经元的六个基本特征:1)神经元及其联接;2)神经元之间的联接强度决定信号传递的强弱;3)神经元之间的联接强度是可以随训练改变的;4)信号可以是起刺激作用,也可以是起抑制作用;5)一个神经元接受的信号的累积效果决定该神经元的状态;6)每个神经元可以有一个“阈值”。神经元是构成神经网络的最基本单元(构件)。人工神经元模型应具有生物神经元的六个基本特性。现在是6页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系7图2.1MP神经元模型(a)2.1人工神经元的基本模型第二章人工神经网络的基本模型
神经元i的输入yj输出yi
描述:设则每一神经元的输出,或‘0’或‘1’,‘0’表示’抑制’,‘1’表示‘兴奋’:
基本MP模型现在是7页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系8f(x):作用(激发)函数——是一种阶跃函数。从神经元的结构示意图上可见:当输入yj的加权和大于域值时,神经元的输出yi
=1,即神经元处于“兴奋状态”;反之,当输入yj的加权和大于域值时,神经元的输出yi=0,即神经元处于“抑制状态”在基本MP模型中取整数。2.1人工神经元的基本模型第二章人工神经网络的基本模型现在是8页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系9人工神经元模拟生物神经元的一阶特性。输入:Y=(y0,y1,y2,…,yn)联接权:W=(w0,w1,w2,…,wn)T网络输入:
netj=∑wjiyi向量形式:
netj=WYynwn∑y1w1y2w2neti=WY…MP模型的另一种形式令,则MP神经元模型可以表示为:2.1人工神经元的基本模型第二章人工神经网络的基本模型现在是9页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系102.1人工神经元的基本模型第二章人工神经网络的基本模型M-P模型从哪些方面刻画了自然神经元?前面已介绍过生物(自然)神经元具有如下特点:两态工作:即工作于兴奋或抑制两种状态;阈值作用:即超过某一阈值则神经元兴奋;多输入单输出特性;空间叠加性;可塑性联接:即突触部分的联接强度可以调节。虽然M-P模型无法实现生物神经元的空间、时间的交叉叠加性,但其它生物神经元功能都具备。现在是10页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系11M-P模型在人工神经网络中的地位首先M-P模型是所有人工神经元中第一个被建立起来的,它在多个方面都显示出生物神经元所具有的基本特性。其次,目前其它形式的人工神经元已有很多,但大多数都是在M-P模型的基础上经过不同的修正,改进变换而发展起来。因此M-P人工神经元是整个人工神经网的基础。2.1人工神经元的基本模型第二章人工神经网络的基本模型现在是11页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系122.1人工神经元的基本模型第二章人工神经网络的基本模型对M-P人工神经元进行改进的主要方式有如下几个方面:神经元的内部改造:对人工神经元取不同的非线性函数;对输入和输出做不同的限制:离散的(某些离散点)和连续的(整个实数域)。神经网络的结构上的改造:人工神经元之间的联接形式不同。算法的改进:在人工神经网络权值和阈值取求的方法上不同。其它形式的改造。现在是12页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系13
激活函数——执行对该神经元所获得的网络输入的变换,也常称为激励函数、活化函数:o=f(net)线性函数(LinerFunction)
f(net)=k*net+c
netooc2.2几种典型的激活函数(ActivationFunction)
第二章人工神经网络的基本模型现在是13页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系142、非线性斜面函数(RampFunction)
γ ifnet≥θf(net)=k*netif|net|<θ -γ ifnet≤-θ
γ>0为一常数,被称为饱和值,为该神经元的最大输出。
γ-γθ
-θ
net
o
2.2几种典型的激活函数(ActivationFunction)
第二章人工神经网络的基本模型现在是14页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系15
β ifnet>θf(net)= -γ ifnet≤θβγθ均为非负实数,θ为阈值。二值形式:
1 ifnet>θf(net)= 0 ifnet≤θ双极形式:
1 ifnet>θf(net)= -1 ifnet≤θβ
-γθonet02.2几种典型的激活函数(ActivationFunction)
第二章人工神经网络的基本模型阈值函数(ThresholdFunction)阶跃函数现在是15页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系162.2几种典型的激活函数(ActivationFunction)
第二章人工神经网络的基本模型
其他形式的作用函数:不同的作用函数,可构成不同的神经元模型。
非对称型Sigmoid函数:简称S型作用函数,是可微的,用下式表示:如图(a)和(b)
fxex()=+-11
或
fxex()=+-11b
b>0现在是16页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系17第二章人工神经网络的基本模型对称型Sigmoid函数
是可微的,用下式表示:如图(a)和(b)
fxeexx()=-+--11
或
fxeexx()=-+--11bb
,
b>0或
fxeeeexxxx()=-+--bbbb
,
b>0现在是17页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系18对称型阶跃函数第二章人工神经网络的基本模型现在是18页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系19第二章人工神经网络的基本模型高斯函数:是可微的,分一维和高维,用下式表示:如图(a)和(b)现在是19页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系20神经元演示
非线性作用函数(激发函数)2.2几种典型的激活函数(ActivationFunction)
第二章人工神经网络的基本模型现在是20页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系21非线性作用函数1非对称型Sigmoid函数现在是21页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系22非线性作用函数2对称型Sigmoid函数现在是22页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系23非线性作用函数3
非对称型阶跃函数现在是23页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系24非线性作用函数4
对称型阶跃函数现在是24页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系25非线性作用函数现在是25页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系26非线性作用函数5高斯RBF(一维)现在是26页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系27非线性作用函数5高斯RBF(二维)现在是27页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系28非线性作用函数5高斯RBF(二维)现在是28页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系29非线性作用函数6B样条函数(0次)现在是29页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系30非线性作用函数6B样条函数(1次)现在是30页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系31非线性作用函数现在是31页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系322.3人工神经网络的学习算法概述第二章人工神经网络的基本模型学习过程就是调整权值的过程。1、竞争学习2、有监督学习3、无监督学习4、Hebb和Delta学习5、有、无监督混合学习6、随即自适应学习模拟退火7、模糊学习等等几种常见类型学习算法:现在是32页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系33对于竞争学习规则,有三个基本元素:1.一个神经元集合,这些神经元除了一些随机分布的突触权值之外是完全相同的,并且由于突触权值的不同而对一个给定的输入模式集合由不同的响应。2.在每个神经元的强度上给定一个极限。3.一个机制,它允许神经元为响应一个给定输入子集的权利而竞争,从而使得每次只有一个输出神经元或者每组只有一个神经元是激活的(即,“开”).竞争获胜神经元被叫做胜者通吃(winner-takes-all)神经元。2.3人工神经网络的学习算法概述第二章人工神经网络的基本模型竞争学习现在是33页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系342.3人工神经网络的学习算法概述第二章人工神经网络的基本模型竞争学习按照标准的竞争学习规则,作用于突触权值wkj的改变量wkj定义为获胜神经元k的输出信号yk被置为1;竞争失败的所有神经元的输出信号被置为0。我们有:现在是34页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系352.3人工神经网络的学习算法概述第二章人工神经网络的基本模型有教师学习(称为监督学习)
神经网络的参数可以综合训练向量和反馈回的误差信号进行适当调整。
现在是35页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系362.3人工神经网络的学习算法概述第二章人工神经网络的基本模型
如果我们能给定一个设计好的算法来使成本费用最小,而且有足够的输入/输出的数据集,那么有指导的学习系统往往可以较好地完成诸如模式分类,函数逼近之类的任务。有教师学习(称为监督学习)
误差信号可以定义为:神经网络实际输出与预期响应之差。这种调节可以逐步而又不断反复地进行,其最终目的就是要让神经网络模拟老师——学习样本;从统计的角度来看,这种模拟是最优的。现在是36页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系372.3人工神经网络的学习算法概述第二章人工神经网络的基本模型
无教师学习模式中没有老师来监视学习过程的。即神经网络没有任何带标号的例子可以学习参考。这学习模式又分2类:无教师学习(称为无监督学习)加强学习/神经动态规划现在是37页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系382.3人工神经网络的学习算法概述第二章人工神经网络的基本模型无教师学习(称为无监督学习)无监督学习
在无监督或自组织学习系统中,不再有外在的老师或者评价来监督学习的过程。提供独立于任务的表示质量的度量,要求网络学习该度量而且参数将根据这个度量来逐步优化网络。为了实际地使用无监督系统,我们可能会使用竞争性学习规则。现在是38页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系392.3人工神经网络的学习算法概述第二章人工神经网络的基本模型学习任务模式联想
存储阶段回忆阶段模式联想xy输入向量输出向量模式联想输入输出关系图现在是39页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系402.3人工神经网络的学习算法概述第二章人工神经网络的基本模型学习任务模式识别
模式识别将收到的模式或信号置以一个预先定义好的分类号。识别机设计成一个采用监督学习算法的多层前馈网络。特征抽取的非监督网络分类的监督网络12:r
输入模式x特征向量y模式分类的经典分类方法图解.
m维观察空间
g维特征空间
r维决策空间
现在是40页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系412.3人工神经网络的学习算法概述第二章人工神经网络的基本模型其中向量x是输入,向量d为输出。向量值函数假定为未知。为了弥补函数未知的知识缺乏,我们假定有如下确定的训练样本集合:考虑下面的一个非线性输入输出映射函数关系式:
T={(xi,,di)}i=1N
对于所有的是一个很小的正数.其中d=f(x)学习任务——函数逼近
逼近问题其实是一个很完整的监督学习网络系统。其中xi是输入向量,而di是期望的反馈向量。反之,完全可以将监督学习网络系统看成是一个函数逼近问题。现在是41页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系422.3人工神经网络的学习算法概述第二章人工神经网络的基本模型学习任务——函数逼近
神经网络的函数逼近问题实际上也是逼近一个未知输入输出映射函数问题:
系统识别模块图现在是42页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系432.3人工神经网络的学习算法概述第二章人工神经网络的基本模型学习任务——函数逼近
逆模式系统图
现在是43页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系44
Hebb学习规则
按照生物学的条件反射原理,Hebb构造了一种简单的神经网络权值调整原则:若第i
与第j个神经元同时处于兴奋状态,则它们间的联接应加强。即:
Dwyyijij=a,a>0这和“条件反射”学说一致,并已得到证实。
Hebb
学习规则的相关假设,是许多学习规则的基础。2.3人工神经网络的学习算法概述第二章人工神经网络的基本模型现在是44页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化系45
Delta学习规则(误差校正规则如梯度方法、BP算法)
Widrow和Hoff的写法:
Wij(t+1)=Wij(t)+α(yj-aj(t))neti(t)
也可以写成:
Wij(t+1)=Wij(t)+Wij(t)Wij(t)=αδjneti(t)δj=yj-aj(t)Grossberg的写法为:
Wij(t)=αai(t)(netj(t)-Wij(t))更一般的Delta规则为:
Wij(t)=g(ai(t),yj,netj(t),Wij(t))其中:ai(t)是网络目标输出;yj是网络计算输出;
netj(t)网络内部叠加信号;Wij(t)网络权值。现在是45页\一共有51页\编辑于星期三2006-5-9北京科技大学自动化
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2024年债权转让合同:某金融机构与债权转让方之间的债权转让协议
- 2024年商业店铺装修合同样本
- 2024年办公楼租赁合同格式下载
- 城市绿化工程合同范本
- 校园供水管道紫外线固化修复方案
- 微山湖生态旅游项目策划方案
- 艺术生高考文化课复习方案
- 城市交通改造施工方案
- 商场消防逃生演习方案
- 营养餐食材配送与管理方案
- 2022年度食品安全负责人考试题库(含答案)
- 教师近3年任教学科学生学业水平和综合素质
- 企业法律合规与外部监管的内外因素分析
- 2024抖音运营计划书
- 2022年版煤矿安全规程
- 九年级数学上册 期中考试卷(湘教版)
- 冷弯机行业市场研究报告
- 牛津英语四年级上册4A-M2-Unit-3-The-lion-and-the-mouse优秀信息化教案附反思
- 山东省青岛市胶州市2023-2024学年八年级上学期期中英语试卷
- 5000字长篇表白情书
- 第三单元“阅读策略”(主题阅读) 六年级语文上册阅读理解(统编版)
评论
0/150
提交评论