有监督的学习_第1页
有监督的学习_第2页
有监督的学习_第3页
有监督的学习_第4页
有监督的学习_第5页
已阅读5页,还剩40页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

有监督的学习第1页,共45页,2023年,2月20日,星期五突触动力学Ⅱ:有监督的学习本章内容:一、预备知识二、有监督的函数估计三、监督学习就是有效的训练四、已知类隶属度的监督学习五、感知器、MLS和BP算法第2页,共45页,2023年,2月20日,星期五一、预备知识(1)1、生物神经元模型神经元是脑组织的基本单元,人脑是由大约140多亿个神经元组成的巨系统。神经元的结构如下图所示:第3页,共45页,2023年,2月20日,星期五一、预备知识(2)2、神经元的突触:突触是两个细胞之间连接的基本单元,每个细胞约有个突触。突触主要有两种连接方式:一是一个神经细胞的轴突与另一个神经细胞的树突发生接触;二是一个神经细胞的轴突与另一个神经细胞的胞体接触。第4页,共45页,2023年,2月20日,星期五一、预备知识(3)突触有两种类型:兴奋型和抑制型。突触的界面具有脉冲/电位信号转换功能,它能将沿神经纤维传递的等幅、恒宽、编码的离散脉冲信号,转换为细胞膜可以处理的连续电位信号。第5页,共45页,2023年,2月20日,星期五一、预备知识(4)3、突触动力学:突触能够传递神经冲动。树突从四方收集由其它神经细胞传来的信息,信息流由树突出发,经过细胞体,然后由轴突输出。信息传递在突触处主要是发生化学和电的变化,从而对神经细胞产生一个兴奋或抑制的动力。第6页,共45页,2023年,2月20日,星期五一、预备知识(5)4、人工神经网络的分类:人工神经网络的分类有多种方法,但通常采用如下分类:按网络结构分为:前馈网络和反馈网络;按学习方式分为:监督学习和非监督学习,也叫有导师学习和无导师学习。本章主要论述前馈网络的监督学习算法。

第7页,共45页,2023年,2月20日,星期五一、预备知识(6)5、什么是学习?

学习就是对信息进行编码,其目的就是通过向有限个例子(训练样本)的学习来找到隐藏在例子背后(即产生这些例子)的规律(如函数形式)。当样本数据改变系统参数时,系统会对这些改变进行自适应或自组织的学习,在神经网络中表现为突触的改变。按突触修正假说,神经网络在拓扑结构固定时,其学习归结为连接权的变化。所以,对固定拓扑的神经网络,学习就是求权值,即突触矩阵。第8页,共45页,2023年,2月20日,星期五一、预备知识(7)6、什么是监督?监督就是对每一个输入Xi,都假定我们已经知道它的期望输出Yi,这个Yi可以理解为监督信号,也叫“教师信号”。对每一个输入Xi及其对其估计的期望输出Yi,就构成了一个训练样本。第9页,共45页,2023年,2月20日,星期五一、预备知识(8)7、学习的种类:学习的种类有四种:死记式学习,学习律,自组织的学习和Hebbian学习律,相近学习。由于监督学习主要使用的是学习律,所以,在此主要介绍学习律。第10页,共45页,2023年,2月20日,星期五一、预备知识(9)8、学习律这种方法是用已知例子作为教师对网络的权进行学习。其规则是通过神经网络理想输出和实际输出之间的误差来修正网络的权值。在很多神经网络中,都采用了这种学习方法,如Perceptron,Adaline和Back-propagation算法等。第11页,共45页,2023年,2月20日,星期五一、预备知识(10)9、有监督的学习

有监督的学习就是根据这若干组训练样本,对人工神经网络进行训练,利用学习系统的误差(E[J],为期望输出与实际输出之差),不断校正学习系统的行为(即突触权值),使误差尽可能地小,从而估计出神经元函数:f:x—y。所以,监督学习的最终任务,就是通过使系统误差尽可能地小,不断地调整突触权值,最终求出神经元函数f。第12页,共45页,2023年,2月20日,星期五一、预备知识(11)10、监督学习与非监督学习的区别:在监督学习中,假定我们知道每一输入对应的期望输出,并利用学习系统的误差,不断校正系统的行为;在非监督学习中,我们不知道学习系统的期望输出。第13页,共45页,2023年,2月20日,星期五11、前馈神经网络的结构示意图特点:各神经元接受前一级输入,并输出到下一级,无反馈。输入、输出节点称为可见层,其它中间层称为隐层。第14页,共45页,2023年,2月20日,星期五12、监督学习流图

其关键之处,就是将教师信号加入到了网络中.第15页,共45页,2023年,2月20日,星期五二、有监督的函数估计(1)

在学习之前,神经网络犹如一个黑盒子,我们能做的,就是可以给它加一定的输入Xi,再给每个输入Xi提供一个期望输出Yi,即“教师信号”,从而形成了一系列的样本对(Xi,Yi)。有监督的函数估计,就是通过包含“教师信号”的样本对(Xi,Yi),求出神经网络的传输函数f的近似表达式。第16页,共45页,2023年,2月20日,星期五二、有监督的函数估计(2)

采用的方法,就是利用误差函数E[J](期望输出与实际输出的差值),不断调整ANN的突触权值,使E[J]达到最小,从而达到对ANN函数的估计。

第17页,共45页,2023年,2月20日,星期五二、有监督的函数估计(3)已知随机样本矢量对通过实验可以测出实际输出求出E[J]=-然后通过使E[J]最小而修改突触权值来求出f:

其中F是要估计的ANN函数;是输入空间;是输出空间。第18页,共45页,2023年,2月20日,星期五三、监督学习就是有效的训练

有效训练是指,对具有记忆功能的系统,当使用训练样本对其进行学习之后,系统能够记住所学的方法,并能处理类似的问题。对ANN进行有监督的学习就是有记忆功能的系统。也就是说,使用期望输出与实际输出的误差不断校正其突触权值,最终的结果,就是系统具备了一定的功能,训练取得了一定的成效。就像巴普洛夫条件反射试验一样。第19页,共45页,2023年,2月20日,星期五四、已知类隶属度的监督学习(1)

就是用已知的模式类的隶属度函数,来调整系统的突触权值,从而达到学习的目的。比如,在噪声随机竞争学习定律中,由于没有使用类成员信息校正突触矢量,所以是非监督学习。第20页,共45页,2023年,2月20日,星期五四、已知类隶属度的监督学习(2)噪声随机竞争学习定律为:

它实际上就是在随机竞争学习中加入了噪声ni。其规律为:若第j个神经元获胜,则学新忘旧;若第j个神经元失败,则不学新也不忘旧。其不足是:未使用已知模式类X的隶属度信息。

如果使用了类成员信息校正突触矢量,就成了监督学习。因为是监督学习,有“教师”信号,我们预先就知道其期望分类,所以实行了奖惩机制:若分对,则奖励;分错则惩罚。第21页,共45页,2023年,2月20日,星期五四、已知类隶属度的监督学习(3)

而对应的监督随机竞争学习定律为:

增强函数为:若x属于Dj,上式中第一项为+1,说明是分对了;若x不属于Dj,上式中第二项为-1,说明是分错了。奖励正确的模式分类+1,惩罚错误的模式分类为-1,从而调整权值,达到学习的目的。第22页,共45页,2023年,2月20日,星期五五、感知器学习算法(1)1、感知器拓扑结构

第23页,共45页,2023年,2月20日,星期五五、感知器学习算法(2)2、感知器学习网络用误差修正规则(规则)学习,训练样本对为(,)k=1,2,…m.第k个模式对应的输入向量=(,…

)为模拟值模式,输出向量=(,,…

)为二值模式。网络中,层的n个单元对应模式的n个分量,层的p个单元对应模式的P个分量.

所以,感知器最突出的一个特点便是:输入是模拟向量,输出是二值模式。

第24页,共45页,2023年,2月20日,星期五五、感知器学习算法(3)

由于层中每个单元只取值+1或-1,因此可将它视作输入模式(k=1,2…m)两个可能的分类。在学习开始时,由各连接权决定的超平面随机地被放到N维空间。随着学习的进行,这个超平面渐渐移动,直到它能将两类模式恰当划分为止。第25页,共45页,2023年,2月20日,星期五五、感知器学习算法(4)3、算法过程从随机的权值开始;反复应用每个训练样例到感知器,只要它误分样例,就修改感知器的权值;重复这个过程,直到感知器正确分类所有的训练样例为止。第26页,共45页,2023年,2月20日,星期五五、感知器学习算法(5)4、具体算法:(1)初始化连接权。将层到层的连接权,i=1,2,…n,j=1,2,…,p及层单元阈值j=1,2,…p赋予[-1,+1]间的随机值。

(2)对每一模式对(,)k=1,…m,完成下面操作:

A、将的值送到层单元,层单元的输出之加权和作为层单元的输入,计算层单元的输出:

第27页,共45页,2023年,2月20日,星期五五、感知器学习算法(6)上式中j=1…p,f(x)为双极阶跃函数B、计算层单元希望输出与实际输出间误差

第28页,共45页,2023年,2月20日,星期五五、感知器学习算法(7)C、调整层单元与层单元之间的连接权式中i=1…n,j=1…p,0<<1(3)重复步骤(2)直到误差(j=1…p且k=1…m)变得足够小或变为0为止。第29页,共45页,2023年,2月20日,星期五五、感知器学习算法(8)5、说明:感知器算法,如果输入模式是线性可分的,学习后能对输入模式正确分类;如果输入模式本身是线性不可分的,那么学习后的网络不能对输入模式正确分类。第30页,共45页,2023年,2月20日,星期五六、LMS算法(1)1、LMS就是最小均方误差算法。它采用的准则函数是均方误差函数。它通过调整单个神经元的权值,以使误差为最小,其数学基础是误差曲面上的梯度下降。其学习过程也是根据教师信号计算其均方误差,由均方误差调整突触向量,如此反复,最后达到学习的目的。第31页,共45页,2023年,2月20日,星期五六、LMS算法(2)2、权值调整公式:其中为下一次权值向量的取值,为现在的权向量,为现在的输入向量,为现在的误差,为系数,为输入向量的模.第32页,共45页,2023年,2月20日,星期五七、反向传播网络学习(1)1、定义:反向传播神经网络(Back-PropagationNetworks)简称BP模型。由于在这一神经网络模型中引入了中间隐含神经元层,所以,标准的BP模型由三个神经元层次组成,分别为输入层、隐层和输出层。各层次之间的神经元形成全互连接,各层次内的神经元之间没有连接。第33页,共45页,2023年,2月20日,星期五七、反向传播网络学习(2)

2、BP算法是通过使代价函数最小化的过程来完成输入到输出的映射。代价函数有多种,但通常在BP算法中,将代价函数定义为期望输出与实际输出的误差平方和。在本算法中,将代价函数(期望输出与实际输出的误差平方和)用与其等价的一般化误差来代替,从而减小了运算量。第34页,共45页,2023年,2月20日,星期五七、反向传播网络学习(3)3、BP算法分成两个阶段第一阶段:正向传播。在正向传播过程中,输入信息从输入层经隐层逐层处理,并传向输出层,获得各个单元的实际输出,每一层神经元的状态只影响下一层神经元的状态。第35页,共45页,2023年,2月20日,星期五七、反向传播网络学习(4)第二阶段:反向传播。如果在输出层未能得到期望的输出,则转入反向传播,计算出输出层各单元的一般化误差,然后将这些误差信号沿原来的连接通路返回,以获得调整各连接权所需的各单元参考误差,通过修改各层神经元的权值,使得误差信号最小。第36页,共45页,2023年,2月20日,星期五七、反向传播网络学习(5)4、BP网络拓扑结构

第37页,共45页,2023年,2月20日,星期五七、反向传播网络学习(6)5、BP算法:(1)初始化。将网络中所有权值及阈值赋予(-1,+1)之间的随机值;(2)对于样本模式对(,)(k=1…m)进行如下操作:

A)将的值送到输入层单元,通过连接权矩阵V送到隐层单元,产生隐层单元新的激活值式中i=1…p,f为S型函数:第38页,共45页,2023年,2月20日,星期五七、反向传播网络学习(7)

B)计算输出层单元的激活值

C)计算输出层单元的一般化误差式中j=1…q,为输出层单元j的期望输出;第39页,共45页,2023年,2月20日,星期五七、反向传播网络学习(8)D)计算隐含层单元对于每个的误差式中i=1…p;上式相当于将输出层单元的误差反向传播到隐含层;

E)调整隐含层到输出层的连接权为学习率,0<<1.第40页,共45页,2023年,2月20日,星期五七、反向传播网络学习(9)F)调整输入层到隐含层的连接权式中h=1…

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论