神经网络和模糊系统_第1页
神经网络和模糊系统_第2页
神经网络和模糊系统_第3页
神经网络和模糊系统_第4页
神经网络和模糊系统_第5页
已阅读5页,还剩40页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、神经网络和模糊系统神经网络和模糊系统 第五章第五章 突触动力学突触动力学:有监督的学习:有监督的学习 张文革张文革 2006.112006.11 突触动力学突触动力学:有监督的学习:有监督的学习 本章内容:本章内容: 一、预备知识一、预备知识 二、有监督的函数估计二、有监督的函数估计 三、监督学习就是有效的训练三、监督学习就是有效的训练 四、已知类隶属度的监督学习四、已知类隶属度的监督学习 五、感知器、五、感知器、MLS和和BP算法算法 一、预备知识(一、预备知识(1) 1 1、生物神经元模型、生物神经元模型 神经元是脑组织的基本单元,人神经元是脑组织的基本单元,人 脑是由大约脑是由大约140

2、140多亿个神经元组成的巨系多亿个神经元组成的巨系 统。神经元的结构如下图所示:统。神经元的结构如下图所示: 一、预备知识(一、预备知识(2) 2 2、神经元的突触:、神经元的突触: 突触是两个细胞之间连接的基本单元,突触是两个细胞之间连接的基本单元, 每个细胞约有每个细胞约有 个突触。突触主个突触。突触主 要有两种连接方式:要有两种连接方式: 一是一个神经细胞的轴突与另一个神经细一是一个神经细胞的轴突与另一个神经细 胞的树突发生接触;胞的树突发生接触; 二是一个神经细胞的轴突与另一个神经细二是一个神经细胞的轴突与另一个神经细 胞的胞体接触。胞的胞体接触。 43 1010 一、预备知识(一、预

3、备知识(3) 突触有两种类型:突触有两种类型: 兴奋型和抑制型。兴奋型和抑制型。 突触的界面具有脉冲突触的界面具有脉冲/ /电位信号转换功电位信号转换功 能,它能将沿神经纤维传递的等幅、恒能,它能将沿神经纤维传递的等幅、恒 宽、编码的离散脉冲信号,转换为细胞宽、编码的离散脉冲信号,转换为细胞 膜可以处理的连续电位信号。膜可以处理的连续电位信号。 一、预备知识(一、预备知识(4) 3 3、突触动力学:、突触动力学: 突触能够传递神经冲动。树突从四方突触能够传递神经冲动。树突从四方 收集由其它神经细胞传来的信息,信息收集由其它神经细胞传来的信息,信息 流由树突出发,经过细胞体,然后由轴流由树突出发

4、,经过细胞体,然后由轴 突输出。信息传递在突触处主要是发生突输出。信息传递在突触处主要是发生 化学和电的变化,从而对神经细胞产生化学和电的变化,从而对神经细胞产生 一个兴奋或抑制的动力。一个兴奋或抑制的动力。 一、预备知识(一、预备知识(5) 4 4、人工神经网络的分类:、人工神经网络的分类: 人工神经网络的分类有多种方法,但通人工神经网络的分类有多种方法,但通 常采用如下分类:常采用如下分类: 按网络结构分为:前馈网络和反馈网络;按网络结构分为:前馈网络和反馈网络; 按学习方式分为:监督学习和非监督学习,按学习方式分为:监督学习和非监督学习, 也叫有导师学习和无导师学习。也叫有导师学习和无导

5、师学习。 本章主要论述前馈网络的监督学习算法。本章主要论述前馈网络的监督学习算法。 一、预备知识(一、预备知识(6) 5、什么是学习?、什么是学习? 学习就是对信息进行编码学习就是对信息进行编码, ,其目的就是通过向有其目的就是通过向有 限个例子(训练样本)的学习来找到隐藏在例子背后限个例子(训练样本)的学习来找到隐藏在例子背后 (即产生这些例子)的规律(如函数形式)。(即产生这些例子)的规律(如函数形式)。 当样本数据改变系统参数时,系统会对这些改当样本数据改变系统参数时,系统会对这些改 变进行自适应或自组织的学习,在神经网络中表现为变进行自适应或自组织的学习,在神经网络中表现为 突触的改变

6、。突触的改变。 按突触修正假说,神经网络在拓扑结构固定时,按突触修正假说,神经网络在拓扑结构固定时, 其学习归结为连接权的变化。其学习归结为连接权的变化。 所以,对固定拓扑的神经网络,学习就是求权值,所以,对固定拓扑的神经网络,学习就是求权值, 即突触矩阵。即突触矩阵。 一、预备知识(一、预备知识(7) 6 6、什么是监督?、什么是监督? 监督就是对每一个输入监督就是对每一个输入Xi,Xi,都都假定假定 我们已经知道它的期望输出我们已经知道它的期望输出Yi,Yi,这个这个YiYi 可以理解为监督信号,也叫可以理解为监督信号,也叫“教师信教师信 号号”。 对每一个输入对每一个输入XiXi及其对其

7、估计的期及其对其估计的期 望输出望输出YiYi,就构成了一个训练样本。,就构成了一个训练样本。 一、预备知识(一、预备知识(8) 7 7、学习的种类:、学习的种类: 学习的种类有四种:死记式学习,学习的种类有四种:死记式学习, 学习律,自组织的学习和学习律,自组织的学习和HebbianHebbian学习律,相学习律,相 近学习。近学习。 由于监督学习主要使用的是由于监督学习主要使用的是 学习律,学习律, 所以,在此主要介绍所以,在此主要介绍 学习律。学习律。 一、预备知识(一、预备知识(9) 8 8、 学习律学习律 这种方法是用已知例子作为教师对网络的这种方法是用已知例子作为教师对网络的 权进

8、行学习。其规则是通过神经网络理想输出权进行学习。其规则是通过神经网络理想输出 和实际输出之间的误差来修正网络的权值。在和实际输出之间的误差来修正网络的权值。在 很多神经网络中,都采用了这种学习方法,如很多神经网络中,都采用了这种学习方法,如 PerceptronPerceptron, AdalineAdaline和和Back-propagationBack-propagation 算法等。算法等。 一、预备知识(一、预备知识(10) 9 9、有监督的学习、有监督的学习 有监督的学习就是根据这若干组训练样本有监督的学习就是根据这若干组训练样本 ,对人工神经网络进行训练,利用学习系统的误差,对人工

9、神经网络进行训练,利用学习系统的误差 ( EJEJ ,为期望输出与实际输出之差),为期望输出与实际输出之差),不断校正不断校正 学习系统的行为(即突触权值),使误差尽可能地小,学习系统的行为(即突触权值),使误差尽可能地小, 从而从而估计出神经元函数:估计出神经元函数:f : xf : xy y。 所以,监督学习的最终任务,就是通过使系统误所以,监督学习的最终任务,就是通过使系统误 差尽可能地小,不断地调整突触权值,最终求出神经差尽可能地小,不断地调整突触权值,最终求出神经 元函数元函数f f。 )y,x( ii 一、预备知识(一、预备知识(11) 1010、监督学习与非监督学习的区别:、监督

10、学习与非监督学习的区别: 在监督学习中,假定我们知道每一输在监督学习中,假定我们知道每一输 入对应的期望输出,并利用学习系统的入对应的期望输出,并利用学习系统的 误差,不断校正系统的行为;误差,不断校正系统的行为; 在非监督学习中,我们不知道学习在非监督学习中,我们不知道学习 系统的期望输出。系统的期望输出。 11、前馈神经网络的结构示意图前馈神经网络的结构示意图 特点:各神经元接受前一级输入,并输出特点:各神经元接受前一级输入,并输出 到下一级,无反馈。输入、输出节点称为可见到下一级,无反馈。输入、输出节点称为可见 层,其它中间层称为隐层。层,其它中间层称为隐层。 输出 隐层 输 入 节 点

11、 计算单元 1212、监督学习流图、监督学习流图 其关键之处,就是将教师信号加入到了网络中其关键之处,就是将教师信号加入到了网络中. 环境教师 学习 系统 实际响应 误差信号 应有 响应 描述环境状态 的信号 + - 二、有监督的函数估计二、有监督的函数估计(1) 在学习之前,神经网络犹如一个黑盒子,在学习之前,神经网络犹如一个黑盒子, 我们能做的,就是可以给它加一定的输入我们能做的,就是可以给它加一定的输入 XiXi,再给每个输入,再给每个输入XiXi提供一个期望输出提供一个期望输出YiYi, 即即“教师信号教师信号”,从而形成了一系列的样本,从而形成了一系列的样本 对(对(Xi,YiXi,

12、Yi)。)。 有监督的函数估计,就是通过包含有监督的函数估计,就是通过包含“教教 师信号师信号”的样本对(的样本对(Xi,YiXi,Yi), ,求出神经网络求出神经网络 的传输函数的传输函数 f f 的近似表达式。的近似表达式。 二、有监督的函数估计二、有监督的函数估计(2) 采用的方法,就是利用误差函数采用的方法,就是利用误差函数EJEJ (期望输出与实际输出的差值),不断调整(期望输出与实际输出的差值),不断调整 ANNANN的突触权值,使的突触权值,使EJEJ达到最小,从而达达到最小,从而达 到对到对ANNANN函数的估计。函数的估计。 二、有监督的函数估计二、有监督的函数估计(3) 已

13、知随机样本矢量对已知随机样本矢量对 通过实验可以测出实际输出通过实验可以测出实际输出 求出求出EJ= - EJ= - 然后通过使然后通过使EJEJ最小而修改突触权值来求出最小而修改突触权值来求出f:f: 其中其中F F是要估计的是要估计的ANNANN函数;函数; 是输入空间;是输入空间; 是输出空间是输出空间。 11 ,),(,) mm x yxy( y i y i yi :fxy n i xxR p i yyR 三、监督学习就是有效的训练三、监督学习就是有效的训练 有效训练是指,对具有记忆功能的系统,有效训练是指,对具有记忆功能的系统, 当使用训练样本对其进行学习之后,系统能够当使用训练样本

14、对其进行学习之后,系统能够 记住所学的方法,并能处理类似的问题。记住所学的方法,并能处理类似的问题。 对对ANN进行有监督的学习就是有记忆功能进行有监督的学习就是有记忆功能 的系统。也就是说,使用期望输出与实际输出的系统。也就是说,使用期望输出与实际输出 的误差不断校正其突触权值,最终的结果,就的误差不断校正其突触权值,最终的结果,就 是系统具备了一定的功能,训练取得了一定的是系统具备了一定的功能,训练取得了一定的 成效。就像巴普洛夫条件反射试验一样成效。就像巴普洛夫条件反射试验一样。 四、已知类隶属度的监督学习(四、已知类隶属度的监督学习(1) 就是用已知的模式类的隶属度函数,就是用已知的模

15、式类的隶属度函数, 来调整系统的突触权值,从而达到学习的来调整系统的突触权值,从而达到学习的 目的。目的。 比如,在噪声随机竞争学习定律中,比如,在噪声随机竞争学习定律中, 由于没有使用类成员信息校正突触矢量,由于没有使用类成员信息校正突触矢量, 所以是非监督学习。所以是非监督学习。 四、已知类隶属度的监督学习(四、已知类隶属度的监督学习(2) 噪声随机竞争学习定律为噪声随机竞争学习定律为: 它实际上就是在随机竞争学习中加入了噪声它实际上就是在随机竞争学习中加入了噪声ni。其。其 规律为:若第规律为:若第j个神经元获胜,则学新忘旧;若第个神经元获胜,则学新忘旧;若第j个个 神经元失败,则不学新

16、也不忘旧。神经元失败,则不学新也不忘旧。 其不足是:未使用已知模式类其不足是:未使用已知模式类X的隶属度信息。的隶属度信息。 如果如果使用了类成员信息校正突触矢量,就成了监使用了类成员信息校正突触矢量,就成了监 督学习。督学习。因为是监督学习,有因为是监督学习,有“教师教师”信号,我们预信号,我们预 先就知道其期望分类,所以实行了奖惩机制:若分对,先就知道其期望分类,所以实行了奖惩机制:若分对, 则奖励;分错则惩罚。则奖励;分错则惩罚。 ()() jjijj mSySxmn 四、已知类隶属度的监督学习(四、已知类隶属度的监督学习(3) 而对应的监督随机竞争学习定律为:而对应的监督随机竞争学习定

17、律为: 增强函数为:增强函数为: 若若x x属于属于Dj,Dj,上式中第一项为上式中第一项为+1+1,说明是分对了;,说明是分对了; 若若x x不属于不属于Dj,Dj,上式中第二项为上式中第二项为-1-1,说明是分错了。奖,说明是分错了。奖 励正确的模式分类励正确的模式分类1 1,惩罚错误的模式分类为,惩罚错误的模式分类为1 1, 从而调整权值,达到学习的目的。从而调整权值,达到学习的目的。 ( )() jjjjjj mr x Syxmn ji jDD ij rII 五、感知器学习算法(五、感知器学习算法(1) 1 1、感知器拓扑结构、感知器拓扑结构 bp bj b1 a1 ai an a k

18、 1 a k n a k i b k 1 b k j b k p 11 1n 1 i j1 nj np LALB W 五、感知器学习算法(五、感知器学习算法(2) 2、感知器学习、感知器学习 网络用误差修正规则(网络用误差修正规则( 规则)学习,训练样本对规则)学习,训练样本对 为(为( , )k=1,2,m.第第k个模式对应的输入个模式对应的输入 向量向量 =( , )为模拟值模式,)为模拟值模式, 输出向量输出向量 =( , , )为二值模式。)为二值模式。 网络中,网络中, 层的层的n个单元对应模式个单元对应模式 的的n个分量个分量 , 层的层的p个单元对应模式个单元对应模式 的的P个分

19、量个分量. 所以,感知器最突出的一个特点便是:输入是所以,感知器最突出的一个特点便是:输入是 模拟向量,输出是二值模式。模拟向量,输出是二值模式。 AkB k A k a k 1a k 2 a k n Bk b k 1b k 2 b k p LAA k LBB k 五、感知器学习算法(五、感知器学习算法(3) 由于由于 层中每个单元只取值层中每个单元只取值+1或或-1, 因此可将它视作输入模式因此可将它视作输入模式 (k=1,2m) 两个可能的分类。在学习开始两个可能的分类。在学习开始 时,由各连时,由各连 接权决定的超平面随机地被接权决定的超平面随机地被 放到放到N维空间。维空间。 随着学习

20、的进行,这个超平面渐渐移动,直随着学习的进行,这个超平面渐渐移动,直 到它能将两类模式恰当划分为止。到它能将两类模式恰当划分为止。 A k LB 五、感知器学习算法(五、感知器学习算法(4) 3 3、算法过程、算法过程 从随机的权值开始;从随机的权值开始; 反复应用每个训练样例到感知器,反复应用每个训练样例到感知器, 只要它误分样例,就修改感知器的权值;只要它误分样例,就修改感知器的权值; 重复这个过程,直到感知器正确分重复这个过程,直到感知器正确分 类所有的训练样例为止。类所有的训练样例为止。 五、感知器学习算法(五、感知器学习算法(5) 4 4、具体算法:、具体算法: (1 1)初始化连接

21、权。将)初始化连接权。将 层到层到 层的连接权层的连接权 , , i=1,2,i=1,2,n,jn,j=1,2,=1,2,p,p及及 层单元阈值层单元阈值 j=1,2,j=1,2,p p 赋予赋予-1-1,+1+1间的随机值。间的随机值。 (2)(2)对每一模式对(对每一模式对( , )k=1,k=1,m,m,完成下面操作:完成下面操作: A A、将、将 的值送到的值送到 层单元,层单元, 层单元的输出之加层单元的输出之加 权和作为权和作为 层单元的输入,计算层单元的输入,计算 层单元的输出:层单元的输出: LA LB LB ij j A k B k A k LALA LB LB ) ji n

22、 1i ij (f jab 五、感知器学习算法(五、感知器学习算法(6) 上式中上式中j=1p,f(x)为双极阶跃函数为双极阶跃函数 B、计算、计算 层单元希望输出与实际输出间误差层单元希望输出与实际输出间误差 10 10 ( ) x x fx LB ,1. k jjj jp dbb 五、感知器学习算法(五、感知器学习算法(7) C C、调整、调整 层单元与层单元与 层单元之间的连接权层单元之间的连接权 式中式中i=1i=1n,jn,j=1=1p,0 1p,0 1 (3)(3)重复步骤(重复步骤(2 2)直到误差)直到误差 (j=1j=1p p且且 k=1k=1m m)变得足够小或变为)变得足

23、够小或变为0 0为止。为止。 ijija d LA LB jd 五、感知器学习算法(五、感知器学习算法(8) 5 5、说明:、说明: 感知器算法,如果输入模式是线性感知器算法,如果输入模式是线性 可分的,学习后能对输入模式正确分类;可分的,学习后能对输入模式正确分类; 如果输入模式本身是线性不可分的,如果输入模式本身是线性不可分的, 那么学习后的网络不能对输入模式正确那么学习后的网络不能对输入模式正确 分类。分类。 六、六、LMSLMS算法算法(1)(1) 1 1、LMSLMS就是最小均方误差算法。它就是最小均方误差算法。它 采用的准则函数是均方误差函数。采用的准则函数是均方误差函数。 它通过

24、调整单个神经元的权值,以它通过调整单个神经元的权值,以 使误差为最小,其数学基础是误差曲面使误差为最小,其数学基础是误差曲面 上的梯度下降。上的梯度下降。 其学习过程也是根据教师信号计算其学习过程也是根据教师信号计算 其均方误差,由均方误差调整突触向量,其均方误差,由均方误差调整突触向量, 如此反复,最后达到学习的目的。如此反复,最后达到学习的目的。 六、六、LMSLMS算法算法(2)(2) 2 2、权值调整公式:、权值调整公式: 其中其中 为下一次权值向量的取值,为下一次权值向量的取值, 为现为现 在的权向量,在的权向量, 为现在的输入向量,为现在的输入向量, 为为 现在的误差,现在的误差,

25、 为系数,为系数, 为输入向量的模为输入向量的模. . 2 1 01 KkkK a a k X X 0 K KK yy K 1K KX K KX 七、反向传播网络学习(七、反向传播网络学习(1) 1 1、定义:反向传播神经网络、定义:反向传播神经网络 (Back-Propagation NetworksBack-Propagation Networks)简称)简称BPBP 模型。由于在这一神经网络模型中引入模型。由于在这一神经网络模型中引入 了中间隐含神经元层,所以,标准的了中间隐含神经元层,所以,标准的BPBP 模型由三个神经元层次组成,分别为输模型由三个神经元层次组成,分别为输 入层、隐层

26、和输出层。各层次之间的神入层、隐层和输出层。各层次之间的神 经元形成全互连接,各层次内的神经元经元形成全互连接,各层次内的神经元 之间没有连接。之间没有连接。 七、反向传播网络学习(七、反向传播网络学习(2) 2 2、BPBP算法是通过使代价函数最小化的过算法是通过使代价函数最小化的过 程来完成输入到输出的映射。程来完成输入到输出的映射。 代价函数有多种,但通常在代价函数有多种,但通常在BPBP算法中,将算法中,将 代价函数定义为期望输出与实际输出的误差平代价函数定义为期望输出与实际输出的误差平 方和。方和。 在本算法中,将代价函数(期望输出与实在本算法中,将代价函数(期望输出与实 际输出的误

27、差平方和)用与其等价的一般化误际输出的误差平方和)用与其等价的一般化误 差来代替,从而减小了运算量。差来代替,从而减小了运算量。 七、反向传播网络学习(七、反向传播网络学习(3) 3 3、BPBP算法分成两个阶段算法分成两个阶段 第一阶段:正向传播。第一阶段:正向传播。 在正向传播过程中,输入信息从输在正向传播过程中,输入信息从输 入层经隐层逐层处理,并传向输出层,入层经隐层逐层处理,并传向输出层, 获得各个单元的实际输出,每一层神经获得各个单元的实际输出,每一层神经 元的状态只影响下一层神经元的状态。元的状态只影响下一层神经元的状态。 七、反向传播网络学习(七、反向传播网络学习(4) 第二阶

28、段:反向传播。第二阶段:反向传播。 如果在输出层未能得到期望的输出,如果在输出层未能得到期望的输出, 则转入反向传播,计算出输出层各单元则转入反向传播,计算出输出层各单元 的一般化误差,然后将这些误差信号沿的一般化误差,然后将这些误差信号沿 原来的连接通路返回,以获得调整各连原来的连接通路返回,以获得调整各连 接权所需的各单元参考误差,通过修改接权所需的各单元参考误差,通过修改 各层神经元的权值,使得误差信号最小。各层神经元的权值,使得误差信号最小。 七、反向传播网络学习(七、反向传播网络学习(5) 4 4、BPBP网络拓扑结构网络拓扑结构 bp bi b1 a1 ah an a k 1 a

29、k n a k i b k 1 b k j b k p 11 1n pq c1c 1 cq c j v11 vnp v 1h 七、反向传播网络学习(七、反向传播网络学习(6) 5 5、BPBP算法:算法: (1 1)初始化。将网络中所有权值及阈值赋予()初始化。将网络中所有权值及阈值赋予(-1-1, +1+1)之间的随机值;)之间的随机值; (2 2)对于样本模式对()对于样本模式对( , , )()(k=1k=1m m) 进行如下操作:进行如下操作: A A)将)将 的值送到输入层单元,通过连接权矩的值送到输入层单元,通过连接权矩 阵阵V V送到隐层单元,产生隐层单元新的激活值送到隐层单元,

30、产生隐层单元新的激活值 式中式中i=1i=1p,p, f f为为S S型函数:型函数: KAKC KA 1 n ih ihi h f bva 1 1 x f x e 七、反向传播网络学习(七、反向传播网络学习(7) B)B)计算输出层单元的激活值计算输出层单元的激活值 C)C)计算输出层单元的计算输出层单元的一般化误差一般化误差 式中式中j=1j=1q, q, 为输出层单元为输出层单元j j的期望的期望 输出;输出; 1 1. p jjijj i fjq Cbr 1 k jjjjjdcccc k jc 七、反向传播网络学习(七、反向传播网络学习(8) D)计算隐含层单元对于每个计算隐含层单元对于每个 的误差的误差 式中式中i=1p;上式相当于将输出层单元的误差反上式相当于将输出层单元的误差反 向传播到隐含层;向传播到隐含层; E)调整隐含层到输出层的连接权调整隐含层到输出层的连接权 为学习率,为学习率,0 1. jd 1 1 p jiiijj j ebbd 1. ,1. ijij ipjq b d 七、反向传播网络学习(七、反向传播网络学习(9) F)F)调整输入层到隐含层的连

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论