几种降维方法PCALDALPP_第1页
几种降维方法PCALDALPP_第2页
几种降维方法PCALDALPP_第3页
几种降维方法PCALDALPP_第4页
几种降维方法PCALDALPP_第5页
已阅读5页,还剩7页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

几种降维方法PCA、LDA、LPP/oimz/archive/2011/08/24/PCA.html初识PCA-主成分分析PCA,PrincipalComponentAnalysis。是一种掌握事物主要矛盾的统计分析方法,它可以从多元事物中解析出主要影响因素,揭示事物的本质,简化复杂的问题。这是百度百科的一句话。个人对其的理解,这是一种减少干扰信息并用来区分数据的方法。比如小A和小B是一对双胞胎,小A的额头上有颗痣,而小B没有。此时,我们分辨这两个人只需要根据谁的额头上有痣即可,而无需关注两个人在其他方面的微小差别。人脸中长了痣,这是很形象的,且根据经验,人们会把这颗痣当做区分这对双胞胎的要素。而在现实生活的数据处理中,如向量,向量之间的区分点不是那么明显,而且机器也不会根据经验来判断哪些数据可以当做区分与其他向量的要素。针对这一问题,PCA被提了出来,PCA算法是一种无监督学习(unsupervisedlearning),无须事先训练则可以找到区分于其他数据的''痣”。关于PCA算法的步骤,网上到处都是而且很详细,而那些公式也大多是一样了。本文中便不再赘述,在这里只是做一下简单的介绍。首先我们有N个P维的向量要区分,X1,X2...Xn。P比较大,则处理所有向量的数据量较大,我们将其降至d维(d<P)。首先构造矩阵S=[X1,X2...Xn],算出协方差矩阵C(P维方阵),求出C的特征值T和特征向量V。将特征值按从大到小排列取出前d个特征值,并将这些特征值对应的特征向量构成一个投影矩阵L。使用S*L则得到降维后的提出主成分的矩阵。下面附上自己做的小实验。X1=[1,2,4]X2=[10,4,5]X3=[100,8,4]根据经验上述3维向量中,第一维和第二维是区分的要素且第一维比第二维区分度更大。于是我们构造矩阵S,S=[1,2,4;10,4,5;100,8,5]计算出S的协方差矩阵C=COV(S),C=1.0e+003*2.9970 0.1620 0.01800.1620 0.0093 0.00130.0180 0.0013 0.0003求出协方差矩阵C的特征值T和特征向量V,[T,V]=eig(C)T=-0.0235 0.0489 -0.99850.5299-0.8464-0.0540-0.8478-0.5303-0.0060V=1.0e+003*-0.0000 0 00 0.0008 00 0 3.0059取出第3个和第2个特征值以及相对应的特征向量构成投影矩阵L(实际上可以只取第三维)-0.9985 0.0489-0.0540-0.8464-0.0060-0.5303使用S*L则得到新的降维后的矩阵NN=-1.1305 -3.7651-10.2310 -5.5481-100.3120-4.5327则提取出了可以用于区分的二维。/warmyellow/article/details/5454943线性判别分析(LinearDiscriminantAnalysis,LDA)算法分析LDA算法入门1。入算法概述:线性判别式分析(LinearDiscriminantAnalysis,LDA),也叫做Fisher线性判别(FisherLinearDiscriminant,FLD),是模式识别的经典算法,它是在1996年由Belhumeur引入模式识别和人工智能领域的。性鉴别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。因此,它是一种有效的特征抽取方法。使用这种方法能够使投影后模式样本的类间散布矩阵最大,并且同时类内散布矩阵最小。就是说,它能够保证投影后模式样本在新的空间中有最小的类内距离和最大的类间距离,即模式在该空间中有最佳的可分离性。LDA假设以及符号说明:假设对于一个应”空间有m个样本分别为x1,x2,……xm即每个x是一个n行的矩阵,其中表示属于i类的样本个数,假设有一个有c个类,则 2 !f黑 类间离散度矩阵v 类内离散度矩阵 属于i类的样本个数

第i个样本所有样本的均值类i的样本均值公式推导,算法形式化描述根据符号说明可得类i的样本均值为:(第i个样本所有样本的均值类i的样本均值公式推导,算法形式化描述根据符号说明可得类i的样本均值为:(1)同理我们也可以得到总体样本均值:(2)根据类间离散度矩阵和类内离散度矩阵定义,可以得到如下式子:]=1(3)(4)当然还有另一种类间类内的离散度矩阵表达方式:s广文户(沱-以跖-"1=1£(叫一勤)(叫.-标)『=汉地)研触-对也一-郊)「忙丘己澎撑]2=1 %气 !=1其中^⑴是指i类样本的先验概率,即样本中属于i类的概率( 用),把^⑴代入

第二组式子中,我们可以发现第一组式子只是比第二组式子都少乘了1/m,我们将在稍后进行讨论,其实对于乘不乘该1/m,对于算法本身并没有影响,现在我们分析一下算法的思想,我们可以知道矩阵他—理)处7)'的实际意义是一个协方差矩阵,这个矩阵所刻画的是该类与样本总体之间的关系,其中该矩阵对角线上的函数所代表的是该类相对样本总体的方差(即分散度),而非对角线上的元素所代表是该类样本总体均值的协方差(即该类和总体样本的相关联度或称冗余度),所以根据公式(3)可知(3)式即把所有样本中各个样本根据自己所属的类计算出样本与总体的协方差矩阵的总和,这从宏观上描述了所有类和总体之间的离散冗余程度。同理可以的得出(4)式中为分类内各个样本和所属类之间的协方差矩阵之和,它所刻画的是从总体来看类内各个样本与类之间(这里所刻画的类特性是由是类内各个样本的平均值矩阵构成)离散度,其实从中可以看出不管是类内的样本期望矩阵还是总体样本期望矩阵,它们都只是充当一个媒介作用,不管是类内还是类间离散度矩阵都是从宏观上刻画出类与类之间的样本的离散度和类内样本和样本之间的离散度。LDA做为一个分类的算法,我们当然希望它所分的类之间耦合度低,类内的聚合度高,即类内离散度矩阵的中的数值要小,而类间离散度矩阵中的数值要大,这样的分类的效果才好。这里我们引入Fisher鉴别准则表达式:(5)其中伊为任一n维列矢量。Fisher线性鉴别分析就是选取使得达到最大值的矢量科作为投影方向,其物理意义就是投影后的样本具有最大的类间离散度和最小的类内离散度。我们把公式(4)和公式(3)代入公式(5)得到:。TZ眄伊(叫一”)(叫-讨甲Jg(饥= ; 1=1工氐日*m我们可以设矩阵氏”(%F;其中甲可以看成是一个空间,也就是说值啊F是蚀F构成的低维空间(超平面)的投影。伊31)蚀也可表示为腴,而当样本为列向量时"溉即表示国一©在甲空间的几何距离的平方。所以可以推出fisher线性鉴别分析表达式的分子即为样本在投影伊空间下的类间几何距离的平方和,同理也可推出分母为样本在投影甲空间下的类内几何距离的平方差,所以分类问题就转化到找一个低维空间使得样本投影到该空间下时,投影下来的类间距离平方和与类内距离平方和之比最大,即最佳分类效果。所以根据上述思想,即通过最优化下面的准则函数找到有一组最优鉴别矢量构成的投影矩阵陟叫(这里我们也可以看出1/m可以通过分子分母约掉,所以前面所提到的第一组公式和第二组公式所表达的效果是一样的).W础=argmax时斯丁=[叫‘叫,…叫]ip (6)可以证明,当甲为非奇异(一般在实现LDA算法时,都会对样本做一次PCA算法的降维,消除样本的冗余度,从而保证甘是非奇异阵,当然即使甘为奇异阵也是可以解的,可以把TOC\o"1-5"\h\zS£ W“或a对角化,这里不做讨论,假设都是非奇异的情况)时,最佳投影矩阵华的列向量恰为下来广义特征方程\o"CurrentDocument"软二舵并 ⑺S‘S的d个最大的特征值所对应的特征向量(矩阵* &的特征向量),且最优投影轴的个数d<=c-1.根据(7)式可以推出-4S* (8)又由于w=下面给出验证:把(7)式代入(6)式可得:s处=蜀尚啊n、沙疽=为S抑d妒榄强=啊'■啊伊=时g爪又•.-JT=[啊,二根据公式(6)分解可知公式(6)求的是方程皿]啊户肩=亏燮二根据公式意义来看要使得max最大则只要取4即可,所以根据公式可饵出结论:投影矩阵%的列向量为d(自取)个最大特征值所对应的特征向量,其中d<c-l.算法的物理意义和思考4.1用一个例子阐述LDA算法在空间上的意义下面我们利用LDA进行一个分类的问题:假设一个产品有两个参数来衡量它是否合格,我们假设两个参数分别为:参数A参数B是否合格2.956.63合格2.537.79合格3.575.65合格3.165.47合格2.584.46不合格2.166.22不合格3.273.52不合格实验数据来源:/kardi/tutorial/LDA/Numerical%20Example.html所以我们可以根据上图表格把样本分为两类,一类是合格的,一类是不合格的,所以我们可以创建两个数据集类:clsldata=2.9500 6.63002.5300 7.79003.5700 5.65005.4700cls2_data=2.5800 4.46006.22003.2700 3.5200其中cls1_data为合格样本,cls2_data为不合格的样本,我们根据公式(1),(2)可以算出合格的样本的期望值,不合格类样本的合格的值,以及总样本期望:E_cls1=3.0525 6.3850E_cls2=2.6700 4.7333E_all=2.8886 5.6771我们可以做出现在各个样本点的位置:7.5丢TOC\o"1-5"\h\zE- -\o"CurrentDocument"56" * -5- -A\o"CurrentDocument"- 来 -4- - 1 1 1 1 1 1 \o"CurrentDocument"2 2.2 2.4 2.6 2.S 3 3.2 34 35图一其中蓝色‘*’的点代表不合格的样本,而红色实点代表合格的样本,天蓝色的倒三角是代表总期望,蓝色三角形代表不合格样本的期望,红色三角形代表合格样本的期望。从x,y轴的坐标方向上可以看出,合格和不合格样本区分度不佳。我们在可以根据表达式(3),(4)可以计算出类间离散度矩阵和类内离散度矩阵:Sb=0.0358 0.15470.1547 0.6681Sw=0.5909 -1.3338-1.3338 3.5596s's我们可以根据公式(7),(8)算出* &特征值以及对应的特征向量:L=0.0000 00 2.8837对角线上为特征值,第一个特征值太小被计算机约为0了与他对应的特征向量为V=-0.9742 -0.92300.2256 -0.3848根据取最大特征值对应的特征向量:(-0.9230,-0.3848),该向量即为我们要求的子空间,我们可以把原来样本投影到该向量后所得到新的空间(2维投影到1维,应该为一个数字)new_cls1_data=-5.2741-5.3328-5.4693-5.0216为合格样本投影后的样本值new_cls2_data=-4.0976-4.3872-4.3727为不合格样本投影后的样本值,我们发现投影后,分类效果比较明显,类和类之间聚合度很高,我们再次作图以便更直观看分类效果蓝色的线为特征值较小所对应的特征向量,天蓝色的为特征值较大的特征向量,其中蓝色的圈点为不合格样本在该特征向量投影下来的位置,二红色的‘*’符号的合格样本投影后的数据集,从中个可以看出分类效果比较好(当然由于X,y轴单位的问题投影不那么直观)。我们再利用所得到的特征向量,来对其他样本进行判断看看它所属的类型,我们取样本点(2.81,5.46),我们把它投影到特征向量后得到:result=-4.6947所以它应该属于不合格样本。4.2LDA算法与PCA算法在传统特征脸方法的基础上,研究者注意到特征值打的特征向量(即特征脸)并一定是分类性能最好的方向,而且对K-L变换而言,外在因素带来的图像的差异和人脸本身带来的差异是无法区分的,特征连在很大程度上反映了光照等的差异。研究表明,特征脸,特征脸方法随着光线,角度和人脸尺寸等因素的引入,识别率急剧下降,因此特征脸方法用于人脸识别还存在理论的缺陷。线性判别式分析提取的特征向量集,强调的是不同人脸的差异而不是人脸表情、照明条件等条件的变化,从而有助于提高识别效果。PDF版本可以这里下/source/2228368内附实验代码LPP(LocalityPreservingProjection),局部保留投影・前几天学习了PCA,LDA算法,都是经典的降维算法。第一种为无监督学习,第二种为监督学习。今天看了另一种监督学习的降维算法LPP(LocalityPreservingProjection),在此记录下自己的心得体会。就从算法的步骤上来说,LDA和LPP有着惊人的相似,以至于我怀疑他们之间只是同一种方法的不同表示。为了验证我的想法,我采用这两组算法对相同的数据进行降维,降维后的数据证明了我的想法是错的。但是降维后的数据确实非常的相近。还请各路大神指导两者之间的关系。LPP算法先需要用明确类别的样本进行训练。如有n个K维训练样本,XI,X2...Xn构成矩阵X,样本分为C种。我们需要先构造一个N*N的权重矩阵W.Wij的值对应样本Xi和样本Xj的关系。Wij有两种表示方法,我在此就介绍简单的一种,即当且仅当Xi和Xj是同一类的数据时,Wij为1,其余为0。这样我们就可以够着一个N*N的矩阵了。接着构造一个对角矩阵D,其中Dii等于W矩阵中第i行或者第i列的和(W为对称阵)。最后构造拉普拉斯矩阵L=D-W(至于为什么这样做,我也不清楚,求指导)。令X'为X的装置矩阵,求解XLX'a=kXDX'a。求实数k和向量a。两边同乘XDX'的逆,这个方程就变成求特征

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论