机器学习神经网络的论文_第1页
机器学习神经网络的论文_第2页
机器学习神经网络的论文_第3页
机器学习神经网络的论文_第4页
机器学习神经网络的论文_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习”论文1120070533112007053311计科邵显伦摘要:神经网络是计算机智能和机器学习研究、开发和应用最活跃的分支之一。本文首先通过对误差回传神经网络(BPNN)和径向基函数神经网络(RBFNN)的知识进行学习,并且对各自的原理进行了简单的分析,最后在各自的功能上进行了比较。人工神经网络(ArtificialNeuralNetworks)是参照生物神经网络发展起来的模拟人脑生物过程的人工智能技术。它是由大量的神经元互连形成的一种非线性系统。因此,神经网络根据神经元互连模式可分为前向网络(前馈网络)和反馈网络。经过十几年的发展,神经网络理论在模式识别、人工智能、控制与优化、空间科学、通讯等应用领域取得了令人瞩目的成就。BP网络和RBFNN网络的分析与比较1BP网络原理BP神经网络也称为误差后向传播神经网络,它是一种无反馈的前向网络,是神经网络模型中使用最广泛的一类。BP神经网络是典型的多层结构,分为输入层、隐层和输出层,层与层之间多采用全互联方式,同一层单元之间不存在相互连接接。Sigmoid阈值单元Sigmoid单元先计算它的输入的线性组合,然后应用到一个阈值上,阈值输出是输入的连续函数►―►

o二b(wDx)其中(y)=111+e-y反向传播算法BP网络可以有多层,我们采用梯度下降方法试图最小化网络输出值和目标值之间的误差平方,首先定义网络输出的总误差:E(w)=1工工(t-o)22kdkddwDkwoutpuskkgoutputs其中:outputs是网络输出单元的集合,tkd和0kd是与训练样例d和第k个输出单元相关的输出值。1.2.1随机梯度下降法两层sigmoid单元的前馈网络的反向传播算法如下:BackPropagation(training_examples,耳,口迅,口。血,nhidden)—>—>training_examples是序偶<x,t>的集合,x是网络输入值向量,t是目标输出值。耳是学习速率,nin是网络输入的数量,nhidden是隐藏层单元数,nout是输出单元数,从单元i到单元j的输入表示为计,单元i到单元j的权值表示为骂:。•创建具有nin个输入,nhidden个隐藏,nout个输出单元的网络初始化所有的网络权值为小的随机值在遇到终止条件前—>t对于训练样例training_examples中的每个<x,>:把输入沿网络前向传播•把实例x输入网络,并计算网络中每个单元u的输出,使误差沿网络反向传播•对于网络每个输出单元k,计算它的误差项%8k^ok(1-ok)(tk-ok)•对于网络每个隐藏单元h,计算它的误差项和8h^8h^oh(1-oh)w8khk•更新每个网络权值Wjiw..jw..+Aw..,jijiji其中△w..=5n.x..jijji算法推导随机梯度下降算法迭代处理训练样例,每次处理一个,对于每个训练样例d.AQEAw=AQEAw=rd

jdwji1E(w)=_工(t一o)2

d2kkkeoutputs符号说明如下:Xji,单元j的第i个输入Wji,与xji相关联的权值nej单元j的输入的加权和Oj,单元j计算出的输出j单元j的目标输出o,sigmoid函数outputs,网络最后一层的输出单元的集合Downstream(j),单元j的输出到达的单元的集合dEdE8netQEd—dj—dXQwQnetQW—Qnetjijijjijae分情况讨论扇—的推导jCase1:输出单元aEddnetjaaEddnetjaEddojdEdododb(net)dJ_j=jdodnetdnetdnet__jjjj=o(1一o)jjddoddo_工(t—o)22k/k^outputs12(t•-o.)22jj22(tj-oj)d(t一o)jjdo=一(t=一(t―o)dEjjd=一一o)o(1一o)dnetjjjjjAw=—1d=r((t-o)o(1-o)xjidwjjjjjijiCase2:隐藏单元aed—anetjkDownstream工keDownstream工kaed—anetjkDownstream工keDownstream工keDownstream工eDowaEanetdk.anetanet(j)kjanet

—6k_kanetjanetao—6kj_kaoanetjjao—6wjkkjanetj(j)(j)nstre乙—6wo(1—o)jam(j)keDownstream(j)二—o(1—o)jjkeAw=—r^xo(1—o)jijijjkjj工6wkkjDownstream(j)工6wkkjkeDownstream(j)收敛性和局部极小值•对于多层网络,误差曲面可能含有多个不同的局部极小值,梯度下降可能陷入这些局部极小值中的任何一个•对于多层网络,反向传播算法仅能保证收敛到误差E的某个局部极小值,不一定收敛到全局最小误差•尽管缺乏对收敛到全局最小误差的保证,反向传播算法在实践中仍是非常有效的函数逼近算法2径向基函数神经网络(RBFNN)径向基函数(radialbasisfunction,RBF)方法是在高维空间进行插值的一种技术。Broommhead和Lowe在1998率先使用该技术,提出了神经网络学习的一种新手段。那就是RBFNN,是以径向基函数作为隐单元的‘基'构成隐含层空间,隐含层对输入矢量进行变换将低维的模式输入数据变换到高维空间内,使得在低维线性不可分问题变成在高维空间内线性可分。它是一种局部逼近网络对于每个训练样本,它只需对少量的权值和阀值进行修正具有学习速度快,收敛性好,实时性强。2.1RBF神经元模型2.2RBF神经网络的结构径向基函数神经网络的构成包括三层:第一层为输入层,第二层为隐含层第三层为输出层。其网络拓扑结构如3图所示。RBF网络从输入空间到隐含空间的变换是非线性的,而从隐含层空间到输出层空间的变换则是线性的。这种网络结构,隐含层的单元是感知单元,每个感受知单元的输出为:R=r(IIX-C.II)ii(1-1),其中,X为n维输入向量;C.为第i个隐节点的中心,i=l,2,…,h。||・II.通常为欧氏范数;r(・)为RBF函数。基函数的形式,可以有以下几种形式的选择:多二次函数、逆多二次函数、样条函数、高斯函数。通常使用的是高斯函数,则由式(1-1)可得式(1-2):R(x)=expII-(X-C.)/(2C2)II,i=1,2…,mii(1-2),其中,为基宽度;m为感知单元的个数。由图3可以看出,网络输出i层k个节点的输出为隐节点输出的线性组合:yk=兰WkR(x),k=1,2,…,ikii=1p(1-3),其中,p为输出节点数;R.(x)为高斯函数;Wik为R.(x)—yk的连接权值。图3RBF网络结构2.3基于聚类的RBF网络设计算法基于聚类的RBF网络算法是一种无导师学习,也称为非监督学习,是对所有输入样本进行聚类,从而求得各隐层节点的RBF的中心。聚类算法主要有HCM、K-均值聚类、最近邻聚类(NN算法)等。目前最常用的是K-均值聚类算法,具体的步骤如下:1)初始化:给定各隐层节点的初始中心Ci(0)。2)相似匹配:计算距离(欧氏空间)并求出最小距离的节点:TOC\o"1-5"\h\zDi(t)二11x(t)-Cj(tT)II

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论