




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、大连大学论文题目:一种新型学习算法极限学习机当前研究姓 名: 邹全义 学 科、专 业: 计算机科学与技术 年 级: 2015级 日 期: 2016年7月 摘 要机器学习是当今大数据时代的核心研究方向,机器学习的研究成果被广泛应用到模式识别、计算机视觉、数据挖掘、控制论等领域当中,并渗透到人们日常生活的方方面面当中。而在机器学习的研究当中,预测、分类的研究占据着重要的地位,预测、分类模型的性能往往是一个应用成果与否的关键。数据挖掘,如支持向量机(SVM)、极限学习机(ELM)等,的潜力已经成为了当今机器学习的主流研究方向。传统前馈神经网络采用梯度下降的迭代算法去调整权重参数,具有明显的缺陷;(1
2、)学习速度缓慢,从而计算时间代价增大;(2)学习率难以确定且易陷入局部最小值;(3)易出现过度训练,引起泛化性能下降。这些缺点制约迭代算法的前馈神经网络的广泛应用。针对这些问题,近几年来,许多学者研究极限学习(ELM)算法,该算法仅通过一步计算即可解析求出学习网络的输出权值,同迭代算法相比,极限学习机(ELM)算法提高了神经网络的学习速度。关键词:神经网络;极限学习机;分类;回归;数据挖掘13目 录摘 要1目 录21. ELM 算法概述33.当前ELM的研究状况64.几种ELM结构选择方式的对比8总结11参考文献121. ELM 算法概述 虽然神经网络研究经过五十多年的发展,已经取得了诸多显着
3、的理论成果,但由于大规模系统中大数据量,高维度的数据中包含的高不确定性,都使得神经网络辨识速度缓慢而难于满足实际要求。例如在数据挖掘、智能控制领域,使用神经网络控制方法虽然可以辨识高度复杂和非线性系统,解决被控对象复杂和高不确定时的建模问题,但神经网络的实时性是非常差,学习时间过久。此外,对于大中型数据集的系统辨识和分类、回归问题,传统神经网络方法如BP网络、RBF网络、SVM算法等不仅需要大量的训练时间,还会出现“过饱和”、“假饱和”和最优化隐含层节点数目难以确定等各种问题。2004年南洋理工大学Huang G.B.教授等人提出了ELM算法。极限学习机(ELM Extreme Learnin
4、g Machine)是一种快速的单隐含层神经网络(SLFN)1,2。ELM神经网络和BP神经网络、RBF神经网络一样,都是SLFN(single-hidden layer feed forward neural network)。近几年来相继提出了基于极限学习的多种神经网络学习算法,将神经网络研究又推进了一步。在传统的人工神经网络中,网络的隐含层节点参数是通过一定的迭代算法进行多次优化并最终确定的。这些迭代步骤往往会使参数的训练过程占用大量的时间,并且,例如BP算法很容易产生局部最优解,从而使网络训练过程的效率得不到保证,同时迭代耗时比较多。图1.1为增强构建网络的整体性能,ELM神经网络的隐
5、含层到输出层的之间的连接不需要迭代,该算法的特点是在网络参数的确定过程中,隐含层节点参数随机选取,在训练过程中无需调节,只需要设置隐含层神经元的个数,便可以获得唯一的最优解;而网络的外权(即输出权值)是通过最小化平方损失函数得到的最小二乘解,最终化归成求解一个矩阵的 Moore-Penrose 广义逆3。这样网络参数的确定过程中无需任何迭代步骤,从而大大降低了网络参数的调节时间。与传统的训练方法相比,该方法具有学习速度快优点,可以采用最小二乘原理求出4。为数输入数据为输出数据,表示第个隐含层的参数,为第i个隐含层的启动函数, 是第i隐含层都输出层的连接权值,针对于训练集(X,Y)具有以下关系;
6、(2.1)是训练集中第i样本误差即 (2.2)(2.3) ELM算法:1 Input:给定训练样本集X,Y层输出函数和隐含层节点个数L.2 随机生成隐含层的参数;3 计算隐含层输出矩阵;4 Output:网络外权;其中,加法型隐含层节点的单隐含层神经网络的启动函数可以选作任意有界非常数分段连续函数;而对于RBF型隐含层节点的单隐含层神经网络,启动函数可以选作任意分段连续可积函数。数据压缩、特征学习、聚类、回归和分类是机器学习和机器智能的基础。极限学习机的目标实现这五种基本学习操作5。2.2图近年来,极限学习机(Extreme Learning Machine, ELM)作为一种新兴的机器学习方
7、法,在全世界许多研究者的不断研究下,已经成为了一个热门研究方向。极限学习机主要有以下四个特点:(1) 极限学习理论探讨了神经网络、机器学习领域悬而从未决的问题:在学习过程中隐含层节点数目,神经元之间的权值是否需要调整。与传统神经网络有所不同,在理论父母已经证明,对于ELM神经网络和学习算法,隐含层节点,神经元不需要迭代式的调整,而早期工作并没有提供随机隐含层节点前馈神经网络的理论基础。(2) 极限学习机的相同构架可用作特征学习,聚类,回归和(二类/多类)分类问题。(3) 相比于极限学习机,支持向量机(SVM)和最小二乘支持向量机(LSSVM)趋向于得到次优解。支持向量机和最小二乘支持向量机也没
8、考虑多层前馈网络中隐含层的特征表征6。3.当前ELM的研究状况我们知道神经网络的学习速度是至关重要的,但目前的情况远远小于我们要求的,多年来,它都是其应用的一个瓶颈,主要有两个原因:( 1)基于梯度的慢的学习算法,( 2)神经网络中的参数需要迭代调整。比如说 BP。为此,黄广斌等 2004 年针对单隐含层前馈神经网络( SLFNs)提出了 ELM 算法,并在 2006 年对 ELM 做了进一步研究,给出了部分理论证明及应用1,2。但是该算法同时也有一些缺点,主要是网络结构的确定没有启发性算法,只能随机指定隐含结点个数,隐含层结点个数的多少直接影响了分类器最后的精度和性能7,此外尽管随机指定隐含
9、层权值和偏置使得网络的学习速度很快,但也同时使得该网络不稳定,两次独立的实验结果可能会相差较大,网络输出波动较大。另外对于该算法中随机指定权值和偏置能否使网络具有一致逼近能力有待进一步证明。针对 ELM 的这些优点和缺点,近年来众多专家学者投身于其研究中研究方向如下:(1)随机生成参数的优化:由于隐含层节点参数随机选取,从而使得隐含层不具有调节能,,因此,隐含层元在构建的单隐含层网络中不具有多大的作用。在不影响ELM算法学习能力和预测能力的情况之下,对其隐含层进行优化显得更加重要。在2010年Huang G. B.和Lan Y.等提出CS_ELM8和TS_ELM9,用不同的方法对随机生成的隐含
10、层节点参数进行筛选,淘汰显着性较弱的隐含层,来实现对已得ELM算法的优化。 2011年, Wang Y. G., Cao F. L.和Yuan Y. B.提出了对角占优的方法(EELM) 10来优化隐含层节点参数,因此保证了隐含层输出矩阵的非奇异性,提高了ELM算法的稳定性。Rong H. J.等提出了P-ELM11,针对分类问题的ELM算法,利用统计学原理,裁剪对网络分类效果影响较弱的隐含层来实现网络结构的优7。(2)最优外权的求解:由于ELM的外权求解过程中要用到求解隐含层输出矩阵的Moore-Penrose3广义逆,而隐含层矩阵奇异和接近奇异的情况不能得到有效的避免,为提高所构建ELM算
11、法的学习能力,避免噪音带来的广义扰动所产生的偏差,Toh K. A.等均借助添加正则项的方法优化了最优外权的选取7。(3)最优隐含层节点个数的选取:针对ELM算法需要较多的隐含层节点个数来弥补隐含层节点参数随机选取带来的缺陷这一问题, Huang G. B.等在2006年和2008年先后提出了I-ELM13和EI-ELM14来优化随机选取的隐含层节点参数,从而大为简化了ELM算法的复杂程度,提高了其优化效率.然而由上述算法过程可知,最终确定的外权并不能保证是相应单隐含层的最优外权.针对该问题, Huang G. B.等在2009年提出EM-ELM15实现了在增加隐含层元的过程中,求得相应单隐含
12、层的最优外权,同时又避免了对上一级隐含层输出矩阵的重复计算。(4)ELM核函数:在原始的ELM算法中, Huang G. B.等在2004年提出了训练对应于常加法型隐含层节点网络1以及径向基型隐含层节点的单隐含层网络的ELM算法16。结合支持向量机的学习原理Huang G. B.等又在2010提出了ELMKernel,利用该方法17所构建的ELM算法较Liu Q.17和Frenay B18.所提出的Extreme SVMs有着更少的约束条件和更好的学习能力。(5)在线ELM算法:在很多情况下,数据的采集往往是一个在线过程,也就是说,所有的样本数据不能一次性的得到,而是每隔一定的时间得到一批数据
13、.由于样本不能同时得到,这样就使得数据的训练过程变得非常复杂.针对这一情况,Liang N. Y.和Huang G. B.提出了处理在线数据的OS-ELM19,该方法有效地将新旧样本的训练衔接在一起,同时避免了对已有数据的多次重复训练。4.几种ELM结构选择方式的对比在学习了有关Extreme Learning Machine (ELM) 的一些基础的及其扩展的论文,对ELM有了更深入的了解。由于ELM中隐藏层和输出层的权重分别是随机和分析得到的,唯一不能确定的(需要人为指定的)是隐节点的个数,也就是网络结构的大小。本文对当前已有的有关ELM的结构选择方法进行了简单的介绍和比较20。在神经网络
14、的研究中,如何确定网络结构一直是一个公开问题。在模式识别中,我们都知道如果我们设计的网络太小,则它不能够很好的拟合训练数据,这样的网络,我们肯定也不希望它能够很好的拟合未见数据。另一方面,如果网络太大,它又可能会过拟合训练数据,导致不能拟合未见数据。另外,网络太大会造成计算更复杂,对运行环境提出了更高的要求。ELM是基于单隐藏层前馈型神经网络设计的,它的主要优势在于计算复杂度低,是一种简单和易于实现的方法。但是,在原始的ELM中没有提供一个关于网络结构设计的有效的解,在大多数情况下,我们是通过多次试验,以训练误差为标准来选出的适当的隐节点个数。这样做,在很多应用中就变得很乏味而且很难找到一个最
15、优的解。所以,很多研究人员改进了原始的ELM,通过一个学习算法来计算所需隐节点的个数。一般来说,对于SLFNs的构造有两种启发式的方法:一是构造的方法,也就是加节点的方法;另一个就是剪枝的方法。目前已有构造法的方法,包过I-ELM, EM-ELM, CS-ELM,。剪枝的方法有。P-ELM,和OP-ELM21接下来,对这几种方法进行简单的介绍和比较。构造方法的主要思想就是先初始化一个简单(隐节点个数比所需要的少)的网络结构,然后一个个或一组组的加隐节点。通过控制最大的隐节点个数和期望的误差,来停止学习过程,进而得到所需的网络结构。主要有I-ELM和EM-ELM,下面简单的介绍这两种方法。I_E
16、LM算法,给定一个训练集,启动函数,最大的隐节点个数,期望的学习误差:Step 1) 初始化过程:设置,残差,其中。Step 2) 学习过程:当并且a) 一个个的增加隐节点;b) 随机设置新加入的隐藏层节点的权值和偏置;c) 对于每一个新加的隐节点,计算输出权值:;d) 计算新加入隐节点后的残差。在Step 2 即学习过程开始前,网络中节点个数为0,残差E初始化为训练数据集的期望目标向量t. 当隐含层节点的个数大于预先设定的最大数或者残差E小于等于期望误差时,学习过程停止。EM_ELM与I-ELM给出的前提条件一样,Step 1 初始化阶段a) 初始化一个具有个隐节点的SLFN,其中是一个人为
17、给定的小的正整数;b) 计算隐藏层输出矩阵;c) 计算相应的残差;Step 2 学习过程,设置k=0;当并且时a) k=k+1;b) 随机的增加个隐节点,则总的隐节点数目变成,相应的隐藏层输出矩阵;c) 计算此时的残差.I-ELM 算法与EM-ELM算法的比较:它们的主要区别是:I-ELM增加新的隐节点时,原有已存在的隐节点的输出权值保持不变;但是当EM-ELM增加新的隐节点时,相应的输出权值是一直重复更新的。剪枝方法的主要思想是:先生成一个具有比所必需的隐节点个数多的SLFN,然后根据各种方法一个个的剪掉不必要的隐节点,从而得出最优的网络结构。主要有P-ELM11和OP-ELM12,下面介绍
18、这两种方法的主要内容。P-ELM11算法:给定一个训练集D,启动函数g,初始化的隐节点个数,一个相关度阈值。1) 把训练集分成互不相交的学习集和验证集;2) 随机设置隐含层节点参数,并计算隐藏层输出矩阵H;3) 用统计的方法或IG计算每个隐含层节点与类目标相关度,然后按降序排列;4) 对于每一个相关度阈值;a) 找出满足的的隐含层节点子集,并计算相应的验证精度;b) 计算;5) 选择对应的隐节点子集;6) 重新训练网络用整个训练集和隐节点子集;7) 用测试数据评价新的网络的性能。OP-ELM算法步骤:1) 构造SLFN用原始的ELM算法;2) 用多响应稀疏回归算法对隐节点进行排序;3) 用留一
19、交叉验证选择最优的隐节点个数。P-ELM算法与OP-ELM算法的比较:这两种方法的思路都是先根据某种方法对隐节点进行排序,然后再用一种结构选择方法选择所需要的隐节点个数。唯一的区别就是所用的方法不同。构造方法的主要思想就是,先构造一个较小的网络,然后一个个或一组组的加隐节点;剪枝方法是,先构造一个比所需的隐节点个数大的网络,然后再一个个的把不必要的剪掉。对于剪枝算法来说,我们很难确定开始构造的网络的大小,为了能找到最优的,往往我们构造了一个比需要的大的多的网络,这样就增加了计算复杂性,需要更多的训练时间21。对于构造算法来说,它们不能自动的获得最优的网络结构,因为一般来说,构造算法都是当隐节点
20、个数达到一个最大值或是小于一个期望误差时才停止;而隐节点个数的最大值和期望误差都是人为确定的。总结ELM算法采用不用迭代而是随机产生隐藏层权值,然后分析决定输出层权值的方法,大大的减少了学习时间,给很多应用带来了方便。对ELM唯一需要确定的隐节点个数,很多学者也有了这方面的研究,取得了不少的成果,比如以上讲的构造方法和剪枝方法。但是,在这些结构选择的方法中,一般都需要设置一些参数,比如构造方法中的最大隐含层节点个数和期望误差,剪枝方法中的开始构造的网络大小,而这些参数一般都是很难确定的,不同的数据集这些参数有时差别还很大。若是在构造网络结构时,不需要人为的设置一些参数,或者对不同的数据集参数设
21、置都是一样的,这样的方法值得期待。由于极限学习机的隐含层节点数目是随机给定的,而实际实验显示隐含层节点数目的选取很大程度上决定了神经网络的系统辨识精度(测试误差)是否可最优。换言之,就是极限学习机的神经元数目直接关系到神经网络的系统逼近与泛化性能。目前最优神经元个数的选择方法依然只能通过试凑法来获得,这大大影响了极限学习机的实际应用效果。参考文献1. Huang G B, Zhu Q Y, Siew C K. Extreme learning machine:a new learning scheme of feed forward neural networks C. In Proceedi
22、ngs of the International Joint Conference on NeuralNet works (IJCNN 2004). Budapest, Hungary, July 2004: 985990.2. Huang G B,Zhu Q Y,Siew C K. Extreme learning machine: Theory and applications JNeuro computing2006,70:4895013. Ortega J M. Matrix Theory M. New York and London: Plenum Press, 1987.4. 刘学
23、艺. 极限学习机算法及其在高炉冶炼过程建模中的应用研究 博士: 浙江大学; 2013.5. 曾志勇. 结合ELM和非负矩阵分解的数据表示方法的研究与应用 硕士: 杭州电子科技大学; 2014.6. 毛小冬.核极限学习机的理论与算法及其在图像处理中的应用 博士:浙江大学;2014. 7. 王智慧 BP神经网络和ELM算法研究 硕士:中国计量学院;2012.8. Lan Y, Soh Y C, Huang G B. Two-stage extreme learning machine for regression J. Neuro-computing. 2010, 73: 30283038.9.
24、Lan Y, Soh Y C, Huang G B. Constructive hidden nodes selection of extreme learning machine for regression J. Neuro computing. 2010, 73: 31933199.10. Wang Y G, Cao F L, B Y Y. A study on effectiveness of extreme learning machine J. Neuro-computing. 2011, 74: 24832490.11. Rong H J, Ong Y S, H T A, et
25、al. A fast pruned-extreme learning machine for classification problem J. Neurocomputing. 2009, 72: 359366.12. Huang G B, Saratchandran P, Sundararajan N. An efficient sequential learning algorithm for growing and pruning RBF networks. IEEE Transactions on Systems Man and Cybernetic Part 2004,34(6):2
26、284-229213. Huang G B, Zhu Q Y, Siew C K. Universal approximation using incremental constructive feed-forwardnetworks with random hidden nodes J.IEEETransactionson Neural Networks.2006,17 (4): 879892.14. HuangG B, Chen L. Enhancedrandom search based incrementalextreme learning machine J.Neurocomputing. 2008, 71: 34603468.15. 15 Feng G R, Huang G B, Lin Q P, et al. Error minimized extreme learning machin
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025-2030塑料鼓行业市场现状供需分析及投资评估规划分析研究报告
- 山东省滨州市博兴县第一中学2025年高考英语五模试卷含答案
- 2025-2030便携式储能电源行业市场发展分析及发展前景预测研究报告
- 2025-2030乌龙茶行业市场现状供需分析及投资评估规划分析研究报告
- 2025-2030中国高校后勤行业市场深度调研及发展战略与投资前景研究报告
- 2025-2030中国颈椎病用药行业发展竞争分析及发展前景与投资机会研究报告
- 吉林省长春市六中2025年高考英语必刷试卷含答案
- 2025届河南省三门峡市陕州区第一高级中学高考压轴卷英语试卷含解析
- 湖北省随州市第一高级中学2025届高考英语必刷试卷含答案
- 云南师大附中2025届高三下学期第六次检测英语试卷含解析
- GB/T 34949-2017实时数据库C语言接口规范
- GB/T 3452.1-2005液压气动用O形橡胶密封圈第1部分:尺寸系列及公差
- GB/T 23641-2018电气用纤维增强不饱和聚酯模塑料(SMC/BMC)
- 2023年国际焊接工程师考试IWE结构试题
- 精华版-赵武灵王胡服骑射课件
- 高等学校英语应用能力考试〔B级〕真题及答案
- 高三(5)高考冲刺家长会课件
- 顶板安全管理知识
- 《新能源汽车转向系统》课件
- 报关委托书 电子版
- 高中音乐人教版高一全一册音乐-《芬兰颂》详案
评论
0/150
提交评论