一种子模式局部保持映射算法用于人脸识别_第1页
一种子模式局部保持映射算法用于人脸识别_第2页
一种子模式局部保持映射算法用于人脸识别_第3页
一种子模式局部保持映射算法用于人脸识别_第4页
一种子模式局部保持映射算法用于人脸识别_第5页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

一种子模式局部保持映射算法用于人脸识别

由于计算机人脸识别在管理、公共安全等领域具有巨大的应用前景,它已成为人工智能和模式识别领域的研究热点。特征提取是计算机人脸识别的核心步骤,子空间分析方法因其具有技术代价小、易实现、描述能力强和可分性好等优点被广泛地应用于人脸特征提取,成为目前人脸识别的主流方法之一。主成分分析(PCA)和线性判别分析(LDA)是2种最为经典的子空间分析方法,已经被广泛应用于人脸识别领域。近年来许多研究成果表明,人脸图像很可能位于一个非线性流形上。许多流形算法被提出,如等距映射(Isomap)、局部线性嵌入(LLE)和拉普拉斯特征映射(Laplacianeigenmaps)。它们通过保持原始数据的局部关系结构以探索人脸的非线性流形结构。虽然局部线性嵌入和拉普拉斯特征映射都能很好地揭示人脸数据的内部结构,但是这些方法一般不能直接用于人脸识别,因为它们得到的明晰投影矩阵很难直接提取出新样本的特征。此后,He等提出了局部保持映射算法(localitypreservingprojections,LPP),并将其成功地应用于人脸识别。LPP是一种新的子空间分析方法,它的本质就是对拉普拉斯特征映射的线性逼近。它既解决了PCA等传统线性方法难以保持原始数据非线性流形结构的缺点,又解决了非线性方法难以获得新样本点低维投影的缺点。然而,当人脸图像的光照、姿态、表情等发生较大变化时,LPP的识别率会显著下降。为克服此问题,通常可采用鲁棒度量和子模式化等方法解决。采用鲁棒度量的方法求解一般较复杂、计算代价高。基于子模式主成分分析(subpattern_basedprincipalcomponentanalysis,SPPCA)人脸特征提取算法将子模式与PCA相结合充分利用人脸的局部信息,增强了算法的鲁棒性。该方法主要基于以下考虑:在人脸识别过程中,当人脸的表情和光照等外部因素发生变化时,人脸图像仅部分区域发生明显的变化,其他区域变化不大或无变化,因此对划分后的子图像进行分析可以充分捕捉人脸的局部不变信息,从而有利于模式分类。受到SPPCA人脸特征提取算法的启发,本文提出了一种子模式局部保持映射(subpatternlocalitypreservingprojections,SPLPP)人脸特征提取算法。该算法首先将人脸图像不重叠地划分成多个子图像,将人脸图像中对应位置的子图像分别组成一子模式训练集,然后对每个子模式训练集单独使用LPP提取特征,最后将这些特征组合成一个全局特征向量用于模式分类。在Yale,ORL,FERET人脸图像库上的实验表明,本文提出的SPLPP算法具有较强的鲁棒性且取得了较Eigenface、Fisherface、LPP算法更高的识别率。1子空间分析1.1局部保持映射算法假定N个人的人脸图像组成的训练样本集为{x0,x1,…,xn},共C个类。Ni,ui分别表第i类人脸图像的样本和均值,全部人脸的样本均值为u。主成分分析是从样本协方差矩阵S中寻找1组正交的单位向量来描述人脸空间的最大差异。样本协方差矩阵S的定义为S=1ΝΝ∑i=1(xi-μ)(xi-μ)Τ(1)其中Τ表示矩阵的转置。线性判别分析(LDA)目的是最大化类间散度Sb而最小化类内散度Sw。Sb和Sw的定义为:Sb=c∑i=1(μi-μ)(μi-μ)Τ(2)Sw=c∑i=1∑xk∈Νi(xk-μi)(xk-μi)Τ(3)由式(2)和(3)得最优投影矩阵wopt后便可获得最佳的分类特征。wopt表示为Wopt=argmaxw|WΤSbW||WΤSwW|(4)1.2局部保持映射算法LΡΡ算法的目标是寻找一个最优转换矩阵W将高维空间Rn中的数据集x={x0,x1,⋯,xn}映射为低维空间Rl(l<n)中的数据y={y0,y1,⋯,yn},即:yi=wΤxi,i=1,⋯,Ν,使得Rl空间中互为近邻的两点经W映射后在低维空间仍互为近邻。为了达到这个目的‚LΡΡ最小化下面的目标函数∶∑ij(yi-yj)sij(yi-yj)Τ(5)S=[Sij]i,j=1,⋯,Ν为权值矩阵,Sij定义为Sij={exp(-∥xi-xj∥2/t)‚若xi为xj的近邻或xj为xi的近邻0‚其他(6)其中t是常数。经过代数变换‚可得最优化目标函数WΤXLXΤW‚其中x={x0,x1,⋯,xn}。L=D-S‚L为Laplacian矩阵‚D为对角权值矩阵,其对角元素为S的行(或列)元素之和。矩阵D表示领域图节点的测度‚Dii值越大表明样本点xi越重要。给出约束条件∶yΤDy=1⇒wΤXDXΤW=1这时最小化问题就转化为求解argminwΤXLXΤwwΤXDXΤW=1(7)进而‚式(5)的最小化可以转换成求如下广义特征值问题∶XLXTw=λXDXTw(8)为了得到较高的识别率‚一般取k(k>1)个投影向量。假定a0,a1,⋯,ak-1为式(8)的k个特征向量解,对应的特征值λ0<λ1<⋯<λk-1,则最优的转换矩阵为wopt=[a0,a1,…,ak-1]最后‚LΡΡ算法得到的线性降维映射为xi→yi=woptΤxii=1,…,N(9)3splpp算法与pca、lda为验证本文提出的SPLPP算法的有效性,分别在Yale,ORL,FERET人脸库上进行实验,比较SPLPP算法与PCA,LDA,LPP算法的分类性能。SPLPP和LPP算法的邻居数目均采用M-1(M是每一类训练样本的人脸图像张数)。对Yale,ORL,FERET人脸图像进行裁剪并运用双线性插值将每张图片的大小调整为64×64。3.1图像大小测定在SPLPP算法中,子图像大小的确定是一个非常重要的问题。一般可通过多次实验来确定子图像的大小,但实验要考虑到计算复杂性等因素的关系,所以不建议把子图像划分得太小。子图像划分太小可能会受图像噪声的干扰,而子图像划分太大则会降低鲁棒性。为了确定子图像的大小,分别在Yale,ORL,FERET人脸库上进行实验,每次实验随机地选取每个人的M张人脸用来训练,剩下的用来测试,独立重复10次实验最后取平均值。例如,在Yale上的实验(M=5),考虑下面几种情况:子图像划分为32×4,64×4,8×16,32×8,8×64,16×16,SPLPP对应的最高识别率分别为87.33%,87.22%,85.26%,88.11%,81.78%,86.89%。图4给出了在3个人脸库上部分子图像大小与识别率的关系(Yale,ORL上M=5,FERFET上M=3)。下面的实验中将以识别率的高低来确定子图像的最终大小,Yale,ORL,FERFET子图像大小最终确定为64×16,64×32,32×16,其SPLPP对应的最高识别率分别为89.67%,93.70%,82.70%。3.2结果与分析3.2.1splpp算法性能分析Yale人脸数据库共有15个人,每人11幅图像,大小为243×320,每个人有3种不同的光照情况,6种不同的表情,并且图像有戴眼镜和不戴眼镜的区别。在SPLPP算法中,确定子图像的大小为64×16,即每一张人脸图像划分成4个子图像。每次实验均随机地选取M(M=3,4,5)张照片作为训练样本,余下用来测试,在固定训练样本数目M的情况下,独立重复10次实验最后取平均值。表1列出了各算法的最高识别率以及取得最高识别率所对应的特征维数;图5是M=5时,识别率与特征空间维数关系图。由表1可以看出,SPLPP明显优于其他算法:如当训练样本M=3时,SPLPP比PCA,LDA,LPP算法分别提高了13.33%,6.08%,5.83%;M=4时,分别提高了13.71%,8.78%,6.76%。从图2也可以看出几条曲线在图中的走势差异稍大,特别是在25维后SPLPP算法表现出来的分类性能最优。综上可知:①在识别率上,LPP算法要好于PCA和LDA算法,表明了流行方法在人脸识别中的优势;②SPLPP算法的识别率要高于LPP,表明人脸图像在外部因素变化比较大的情况下,SPLPP比LPP算法具有更高的识别率,体现出了更好的鲁棒性。3.2.2splpp算法的识别率ORL图像库共40个人,每一个人10幅图像。同一个人的不同图像间只有一些细微差别,所有的图像都面部朝外,且在同一黑色背景下拍摄而得。ORL图像库原始每一幅图像的大小为112×92。在SPLPP算法中,子图像大小为64×32,随机地选取M(M=3,4,5)张照片作为训练样本,余下用来测试,重复10次实验最后取平均。表2列出了各算法的最高识别率以及取得最高识别率所对应的特征维数。表2可知,SPLPP算法的识别率稍高于PCA,LDA,LPP算法,如当训练样本M=3时分别提高了1.64%,4.46%,1.64%。图3是M=5时,识别率与特征空间维数关系。由表2和图3可知,由于ORL人脸图像变化不是很大,所以几种算法的识别率也相差不多,特别是在图3中,当特征空间维数大于22后LPP与SPLPP算法表现出来的识别率几乎相当。3.2.3训练样本验证从FERET人脸库选120个人,每人6幅图像,同一个人包括不同表情,光照,姿态和年龄的照片。SPLPP子图像大小确定为32×16,即每张人脸被划分为8个子图像。随机的选取M(M=2,3)张照片作为训练样本,余下用来测试,鉴于图像库太大特别耗时,所以随机抽查1次实验。表3是几种算法实验的结果。图4是当训练样本为3时,识别率与特征空间维数关系。从表3可以看出,由于LPP保留了人脸的非线性流形结构,其识别性能明显高于PCA和LDA;SPLPP算法不仅保持了数据的流形结构,加上子模式的运用能更注重人脸的细节信息,对光照,表情等变化更具鲁棒性,使得识别性能明显高于LPP算法,如M=2,3时,SPLPP比LPP算法的最高识别率分别高出4.08%,9.51%。图7也表明了,SPLPP算法在相同的特征维数下均比其他几种算法的识别率要高出较多的百分点。4基于局部信息的鲁棒性图像检测本文提出了子模式局部保持映射(SPLPP)人脸特征提取算法。该方法将子模式与局部保持映射(LPP)算法相结合,充分发挥了子模式保持局部信息及LPP保持人脸的非线性流形结构的优点,提高了算法的鲁棒性。在Yale,ORL,FERFET上的实验证明了SPLPP算法简单有效,当人脸图像受外界环境影响较大时,该算法具有较好的鲁棒性,取得了较PCA,LDA和LPP更高的识别率。但是,该方法也存在不足,由于人脸各个部分对识别有着不同的贡献,各个子图像应该采用一定的权重来标示其贡献的程度,这也是今后的研究方向。2splpp算法许多研究表明,虽然输入图像空间的维数都很高,但是分类鉴别信息仅包含在使训练样本整体散度矩阵特征值不为零的那些特征向量构成的空间当中。由N个样本构成的训练集,其整体散布矩阵最多包含N-1个不为零的特征值。大多数模式识别算法首先利用主成份分析得到样本在N-1维子空间上的投影,然后利用其他算法进一步提取特征并进行识别。由于LPP算法可能会遇到奇异性问题,所以它一般先采用PCA进行降维,然后在PCA子空间上运用LPP算法。LPP算法可以保持整个数据集映射前后的局部结构,但是并不能保证样本经过LPP映射后得到的特征向量可以很好地用于模式分类。与之不同的是子模式能有效地提取出图像的局部特征,进而增强算法对人脸图像变化的鲁棒性。因此,本文提出了子模式局部保持映射算法(SPLPP)。SPLPP算法的描述如下:1)划分子图像。给定训练集x={x0,x1,…,xn}是m维的向量模式。现将每个向量划分成等大的K个d维图像(采用无重叠方式m=k×d划分),原向量大小变成k×d的矩2)用PCA算法对每个子模式降维。待每个输入人脸图像都划分好后,可构造k个子模式训练集spj,第j个子模式集的总体散度矩阵和均值为:运用PCA算法可得到子模式集spj的特征映射空间wpcaj,并把该子模式集投影到特征映射空间上。3)找邻居,构建邻域图。在每一个子模式集的子空间ypcaj上找邻居和构建邻域图G,用k-nearestneighbors找邻居并且邻居限制在类内。待每个样本点寻找

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论