用于在不受控制的条件下,精确定位眼睛的增强图形结构_第1页
用于在不受控制的条件下,精确定位眼睛的增强图形结构_第2页
用于在不受控制的条件下,精确定位眼睛的增强图形结构_第3页
用于在不受控制的条件下,精确定位眼睛的增强图形结构_第4页
用于在不受控制的条件下,精确定位眼睛的增强图形结构_第5页
已阅读5页,还剩12页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、用于在不受控制的条件下,精确定位眼睛的增强图形结构摘要在本文中,我们提出了一个增强的图像结构(PS)模型,用于精确的眼睛定位,这是一个涉及许多面部处理任务的根本问题。 PS是用于基于部件的对象建模的高计算效率的框架。然而,对于在不受控制的条件下拍摄的面部图像,传统的PS模型不够灵活以处理复杂的外观和结构变化。为了扩展PS,我们1) 提出了一种辨别式PS模型,用于在外观严重变化时更精确的部件定位,2)引入一系列全局约束以提高对尺度,旋转和平移的鲁棒性,3)采用启发式预测方法解决部分被遮挡眼睛的定位困难。在具有挑战性的LFW数据库中的实验结果表明,我们的模型可以在包括姿态,表情,照明,照相机质量,

2、遮挡等的广泛的不受控制的变化范围内准确和有效地定位眼睛。1.简介 在包含面部的给定图像中检测和定位眼睛位置的任务对于许多面部处理应用(例如面部跟踪,面部识别,面部表情分析,眼睛行为分析等)的初始化是至关重要的。眼睛检测和眼睛定位之间存在细微差别; 也就是说,后者通常需要比前者更准确地预测眼睛位置(通常只允许错误的几个像素)。 最近的研究已经公开了不准确的眼睛定位将导致自动面部识别系统的严重问题,特别是对于那些基于几何正规化的面部图像(例如本征面和渔业面)的质量的技术。 图像1.眼睛复杂外观的图示(来自LFW的图像 数据库10)。类似于其他一般的物体检测任务,如面部检测22,人检测3和动物检测1

3、2,眼睛本地化的主要挑战来自于如下事实:如图1所示,眼睛的外观 由于各种因素,从眼睛的正常行为(例如,打开,关闭等)到环境变化(例如,户外照明,姿势,规模,眼镜的反射,头发的部分遮挡等)而复杂。 为了解决该问题,已经提出了各种方法。 这些方法可以大致分为三类23,26,即基于模板的方法,基于外观的方法和基于特征的方法。大多数早期方法,如可变形模板方法,属于基于模板的类别,其中基于眼睛形状设计通用眼睛模型,然后用于搜索图像中的眼睛。这些方法通常具有良好的精度,然而,通常它们在计算上是昂贵的并且需要良好的图像对比度,这在实践中并不总是可用的。基于外观的方法旨在使用各种统计分类技术,如主成分分析(例

4、如,特征向量机),支持向量机,神经网络,引导装入等。埃弗林厄姆等人比较了几种基于外观的方法,发现简单的贝叶斯模型优于其他方法,包括基于回归和基于加速方法。一般来说,基于外观的眼睛定位方法更强大的对复杂外形的变化比基于模板的示例学习的能力,然而真正可靠的分离小眼睛区域从其他地区具有较低的假阳性率的问题仍然没有解决。基于特征的方法试图利用眼睛的特殊特征,例如黑色瞳孔和白色巩膜来区分眼睛和其他物体。 这种眼睛特定的特征可以被认为是真正的眼睛所在的语境。 然而,当输入图像具有低对比度,闭眼或正在闭眼时,眼睛特异性特征难以被检测。总的来说,大多数现有的方法仅在相当受限的条件下是可行的,并且很少有工作研究

5、在不受控条件下的精确眼睛定位的问题,例如极端照明变化,大表情变化和部分闭合的情况,尽管解决这些问题对于实际应用是重要的,例如,不受控的面部识别。在本文中,我们提出了一种新的方法用于精确和强大的眼睛定位。 先前的研究公开了通过利用感兴趣对象的上下文信息可以有效地提高特征定位的准确性以及假阳性率。 在这里,通过眼睛的上下文信息,我们指的是有助于识别眼睛位置的任何面部特征,例如鼻子,嘴等。与嘴巴相比,鼻子可以更可靠地被检测到,因为它的外观 对表情变化和遮挡(例如,大胡子)较不敏感,因此被用于这项工作。 实际上,鼻子位置也可以用于面部归一化算法。图形结构(PS)模型非常适合我们的目的。 它是一个计算高

6、效的框架,用于基于部分的建模和对象的识别,并已成功应用于面部识别3,人类发现和其他物体识别和检测任务。 PS模型的本质是在其整个内部配置的上下文中考虑对象的组件(或部分),旨在通过将它们编码为全局对象函数来确定每个组件的位置及其空间配置 。 与基于纯外观的方法(其中每个对象由单个外观模型处理)相反,PS方法提供了用于在对象的组件和组件之间的几何关系方面建模对象的强大框架。本文的主要贡献是增强传统的PS模型,它可以用来处理复杂的外观和结构的变化在不受控制的条件下的眼睛。 对具有挑战性的LFW(野外标记面)数据库的广泛实验表明,所提出的模型可以在不受控制的条件下准确,有效地定位眼睛。本文的其余部分

7、组织如下。 第2节简要介绍了图形结构模型。 第3节提出了我们的增强型PS模型。 第4节介绍了学习PS模型测试图像和处理部分遮挡的方法。 第5节报告我们的实验。 最后,第6节总结。2. 背景在本节中,我们简单地介绍了在3中的表示之后的图形结构的统计框架。 在PS中,对象首先被分解为部分,然后根据一些空间约束来搜索最佳部分候选,使得生成相关图像的可能性最大化。 因此,一个PS模型也可以被视为一个特定的马尔可夫随机场(MRF),以零件为其站点。PS模型可以根据无向图G =(V,E)自然表示,其中顶点V = v1,.,vNp对应于Np个部分,边缘集合E = (vi,vj),i 6 = j表征不同部分之

8、间的局部成对空间关系。对象的实例由配置L =(l1,.,li)给出,其中每个li =(xi,yi)指定图像平面上的分量vi的位置。 例如,面部可以由四个部分(即,两只眼睛,一个鼻子和一个嘴)以及这四个部分之间的空间关系表示。 因此,外观和结构信息被组合成一个统一的框架。特别地,给定包含面部的图像I,通过面部部分在某些位置处生成该图像的可能性是p(I | L,),其中是模型参数。 假设我们正在处理由面部检测器输出的区域,因此我们不需要对背景进行建模。 为了从该模型推断面部部分的位置,我们可以寻找最大后验p(L | I,),即,给定模型参数和图像I,面部配置为L的概率。根据贝叶斯规则,后验可写为p

9、(L|I,) p(I|L,)p(L|), (1)其中p(I | L,)是外观的生成模型,p(L |)测量面部出现在位置L的先验概率。这里,模型参数由=(u,c) 其中u =(u1,.,uNp)表示外观,而c = cij |(vi,vj)E表示边缘的结构约束。 Felzenszwalb算法和胡滕洛赫尔也包括边缘集E作为模型参数,以简化底层图形结构(例如,让它成为树),但这对于我们眼睛定位的目的不是必要的。假设脸部部位在统计上是独立的,我们有 Np p(I|L,) =p(I|L,u) p(I|li,ui), (2) i=1其中每个分量的外观可以通过单峰高斯分布p(I | li,ui)N(li),i

10、,i)来建模。 通过对部位之间的空间关系的独立假设,我们具有结构模型 p(L|) =p(L|c) =  p(li, lj |cij) (3) (vi,vj)E其中分量之间的边缘约束也可以通过高斯分布来建模 p(li, lj |cij) = p(xli , xlj |cij)p(yli, ylj |cij) (4) = N(xli xlj, sij, ij)N(yli ylj), sij, ij). 将(3)和(2)代入(1),得到全局目标函数 Np p(I|L,)   p(I|li,ui)   p(li,lj|cij) . (5) i=1 (vi,vj)E (5)

11、 右边的第一项是外观模型,而第二项表示空间约束。 取(5)的负对数,我们得到PS模型的能量函数。 对于树结构模型,Felzenszwalb和Huttenlocher 开发了用于从训练数据学习和拟合测试图像的计算高效算法。3. 增强的图形结构对PS模型的可能批评包括单模式生成外观模型可能不能提供对在非受控条件下的眼睛外观的多模态分布的良好近似,并且局部成对先验可以对部件之间的空间关系施加过强的约束。 我们将在本节讨论这些问题。3.1. 歧视性图画结构我们的工作的一个重要的观察是,在复杂的环境中,眼睛图案的分布本质上是多峰的,其不能用单峰高斯模型来近似。 更重要的是,我们的目标是精确地定位眼睛,而

12、不是使用面部特征描述整个面部对象。 所以,一个歧视模型,更多地关注计数更合适的点。为此,我们为每个部分引入类标签z1,.,Np,表示该部分的N p个可能语义标签之一(例如,右眼,左眼,鼻子等) 。 然后(2)的外观模型可以重写为 Np p(I|L,) =p(I|L,u)   p(I|li,ui) i=1 (6) Np Np =   p(I,z|li,ui)= p(I|z)p(z|li,ui). i=1 z i=1 z注意,p(I | z)给出了给定其部分标签的图像的生成概率。 如果我们直接在一般背景(即,没有面部上下文)中检测到眼睛,这可能是有用的。 然而,在我们的设置中,

13、定位器将由面部检测器输出的图像区域作为输入,其中假定感兴趣的部分标签是已知的。 因此,我们不需要对图像I中的标签的任何偏好进行建模; 这意味着p(I | z)是常数,为了简单起见,我们可以省略它。 这简单地减少(6)到 Np Np p(I|L,) p(I|z)p(z|li,ui)= p(z|li,ui). i=1 z i=1 z (7) 此外,我们通过收集关于它们相对于我们的面部检测器的相应输出窗口的真实位置的统计来限制用于搜索每种部分(例如,右眼,左眼,鼻子等)的区域。 这允许我们仅用来自具有已知标签的某个预定义区域的部分进行建模,因此不仅显着地减少每个部分的候选位置的数量,而且显着地简化了

14、我们的模型,其中后验分布p(zij1i; ui) 给定其出现ui和位置li,部分vi的标签是某个标签值zi的概率。 为此,我们完全在PS框架内得到一个辨别模型。 有许多工作1,12使用歧视性外观模型,但没有一个被设计用于眼睛定位。 Np Np p(I|L,) p(z|li,ui)= p(zi|li,ui), (8) i=1 z i=1有许多方法来近似p(zi | li,ui),其中基于能量的方法(例如条件随机场和逻辑回归)非常受欢迎,因为为方便地结合训练样本的任意函数, 在非意义上的非参数性质不需要采取任何特定的分布。 在这里,为了简单起见,我们选择用一个超平面在一些特征空间中建模决策边界,然

15、后用一个逻辑sigmoid函数给出感兴趣的近似概率18。特别地,我们使用支持向量机(SVM)来计算特征空间中的最佳分离超平面,其对应于复杂输入空间中的非线性边界。 还可以考虑其他选项,如相关向量机(RVM 21)和Adaboost。 SVM解算器以f(u)=+ PN i = 1iK(u,ui)的一般形式输出最优超平面,其中N是训练样本的数量,K是预定核函数 内核在本文中使用)。 然后,后验概率的估计通过p(z = 1 | u)= 1 / 1 + e-A f(u)-B 使用二项对数似然作为损失函数来确定182。在实践中,学习的支持向量通常不足以稀疏以满足实时检测的要求。 解决这个问题的一种方式是

16、使用简化集合方法来减少支持向量的数量,从而减少计算复杂度。 在这项工作中,我们采用15中的方法为此目的,并发现通常10至20个支持向量足以满足每个部分。为了进一步加速检测,在实现中我们训练两个分层SVM分类器。 第一级SVM工作在每个部分的简单的灰度强度特征,以便快速拒绝大量的负面。 第二级SVM使用伽柏特征作为输入,已知其对于尺度,照明和其他外观变化是鲁棒的。 级联的SVM以类似于Viola-Jones面部检测器22的方式训练,其中根据给定的性能标准(即,真阳性率和假阳性率)学习训练集上的每个SVM级别的阈值 )。 通过这个过程,我们将每个部分的候选人位置的数量从大约400到20有效地减少。

17、3.2.全局和局部约束如前所述,传统的PS用一个单独的高斯分布模拟一对部分之间的空间配置,但我们发现这样的局部成对约束可能过于强大,并且只能在正常条件下工作(即空间关系不改变太多),而在实践中,面部部分之间的配置可能由于诸如尺度,旋转和表达式变化的变化而大大变形。为了说明这样的限制,在图2中,我们给出了沿着垂直轴的左眼相对于右眼位置的相对位置的定点高斯分布的示例(参见方程(3)。 这可以被理解为一些置信度分数,指示给定配置在何种程度上遵循先前的空间规律性。 置信度在平均值的位置达到峰值,否则减少。 在图2的示例中,分布的平均值非常接近于零,这意味着两只眼睛的最佳垂直位置应当在相同的水平线上,因

18、此对两只眼睛之间的空间关系施加非常强的约束 ,在旋转的情况下容易被破坏,例如图3中的最右边的图像。类似地,对水平轴中的相对位置的约束是有问题的,因为可以在不同尺度下拍摄脸部图像,例如图3中的中间图像 。图2.左眼相对于右眼位置的相对位置的拟合高斯分布(c.f.公式(3)沿垂直轴。图3.一些经常遇到的眼睛之间的结构变化的插图。 从左到右:原始,缩放和旋转的图像。为了解决上述缺陷,我们引入了一种改进的结构描述方法,该方法对于旋转,缩放和平移更加鲁棒。 这个想法是将全局结构约束与局部约束相结合。 通过全局结构,我们意味着两个以上部分之间的空间关系。 在我们的情况下,这只是由两只眼睛和鼻子形成的三角形

19、(参见图3中最左边的图像); 如果需要检测更多的面部特征,则可以添加更多的这样的三角形。 此外,我们采用相对距离来编码局部约束,而不是在先前研究中对部分之间的相对位置建模。特别地,我们基于面部特征三角形,即1)每个边缘的长度,2)一对边缘之间的长度比,以及3)任何两个边缘之间的内角,来模拟三条结构信息。 第一个是局部约束,后两个是全局约束。 他们有好的不变的不变性质。 首先,边长对2D旋转和平移是不变的; 第二,长度比和两个边缘之间的内角都是不变的缩放,2D旋转和2D平移。 结果,这三个结构测量使我们的模型更强大的结构变化所造成的表达和姿态的变化,这是经常遇到的实际应用。在实现中,边缘Lij的

20、长度由图像平面上的部分vi和vj之间的欧几里德距离定义,即 Lij = (xli xlj)2 + (yli ylj)2 (9) i,j 1,2,3,i = j,并且边缘之间的长度比rij和余弦角cos(ij)分别定义为 rij = Lik/Ljk (10)和 (11) 所有上述定义可以表示为边长e的函数。 这里,我们定义e1,L12,e2,L13和e3,L23,因此我们的结构模型的能量函数E(e1,e2,e3) 3 3E(e1,e2,e3)= 1(ei) 2(ei,ej) i=1 i,j=1,i=j 3 3(ei,ej,ek), (12) i,j,k=1,i=j=k其中1,2和3分别是对应于上

21、述三个结构约束的电势,由Gauss建模。 考虑到不同的受试者具有不同的配置偏差,我们在组合它们之前分别用它们的方差加权这些高斯电势; 权重可以被认为是对于不同约束的先验。 可以使用最大似然法从独立训练数据中学习上述结构参数的值。4. 匹配算法4.1.拟合模型在未看见的测试图像中增强的PS模型的最佳效果是 (13)非树结构模型的精确推理是困难的,因此我们采用近似法。 我们首先运行外观模型以滤除噪声候选,然后找到最小化结构模型的最佳配置。 主要的计算成本来自第一阶段,其中(Nleye + Nreye + Nnose)位置需要检查。 3.1节中描述的级联SVM分类器有效地降低了这一阶段的成本。 第二

22、阶段被证明是非常有效的,因为它在2D图像平面上工作,并且第一阶段有助于减少相当数量的候选位置。 我们当前的实现没有优化,但在2.8GHz P4机器上只需要0.1秒就能完成100×100的图像; 我们相信这对于许多实际应用是可以接受的。图4.三种典型眼睛闭塞状况的图示。 从左到右:一只或两只眼睛被弱闭塞; 只有一只眼睛闭塞,几乎检测不到; 双眼完全闭塞。4.2.部分遮挡预测在许多真实世界的图像中,例如从网络收集的那些,眼睛可能被手,头发,眼镜等部分遮挡。这将对我们的外观模型造成困难。这里,我们采用启发式方法来处理以下典型的部分遮挡,如图4所示。1) 一只或两只眼睛被弱遮挡,但仍然可以通

23、过我们的辨别模型检测(即,其后验概率验超过某一阈值)。这种情况不需要任何特殊的处理,我们只是简单地使用学习模型来把他们当作没有被遮挡的图片处理。2)只有一只眼睛闭塞,不能可靠地被检测,而另一只眼睛和鼻子具有良好的反应值。在这种情况下,我们可以使用两个可靠特征的位置来预测困难的特征,即,仅使用结构模型来预测闭塞的眼睛的位置。 Leung等人已经使用类似的方法,在混乱的场景中找到面孔。 3)双眼闭塞和不可检测。这是最坏的情况,但是,如果可以检测到鼻子,我们仍然可以使用它作为触发结构模型拟合的起点;否则,我们必须包括更多的上下文面部特征或依靠由面部检测器输出的眼睛的先前位置。5. 实验我们对数据库包

24、括LFW,FERET 等提出的方法进行评估,并在所有数据库中取得令人鼓舞的结果。 由于页面限制,考虑到LFW是最具挑战性的数据库,我们只在本节中介绍LFW上的结果。5.1.数据LFW 是一个大型的WWW数据库,其中所有的面部都是从现实生活中收集的,包括姿势,照明,表情,背景,照相机质量,遮挡和图像噪声的变化。图像中眼睛区域的外观由于这些变化而大大改变,因此对眼睛定位技术构成巨大挑战。从总共13,233个目标人脸图像中,我们随机选择2000个图像,并将它们分成两个数据集,每个图像有1,000个图像,其中一个用于训练,另一个用于测试。然后将各种变换(例如旋转,模糊,对比度修改和高斯白噪声的添加)应

25、用于初始训练图像集,总共产生约17,000个新图像。最终训练集包含3,000个图像,其中从初始集合中随机选择500个图像,并且从所生成的图像中选择2,500个图像。一些示例测试图像如图1所示.LFW数据库不提供地面真实眼睛位置,因此我们邀请两个人类志愿者手动标记眼睛位置并将平均值作为地面实况。我们将默认情况下的地面实况定义为眼睛的瞳孔,当眼睛完全闭塞(例如,由太阳眼镜)时,我们将其定义为眼球的中心。广泛的劳动工作是我们使用2,000个图像的子集而不是LFW中的总共13,233个图像的原因。5.2.设置所有图像在分析之前经历相同的预处理流水线,如图5所示。对于面部检测,我们使用来自OpenCV库

26、的Viola-Jones面部检测器的公开可用的实现;它输出指示面部的预测中心及其尺度的边界框。在用SVM分类器验证之后,我们将检测到的面部图像缩放到100×100像素的标准尺寸(即,面部检测器窗口的尺度的最大似然估计),这有助于减少平移和尺度变化的量图片。几何标准化的图像然后经历照明归一化,其补偿低频照明变化并且利用高斯滤波器的差抑制噪声。这种技术最近被证明能够导致人脸识别的最先进的性能20,我们发现它在眼睛定位中也是有用的。最后,使用关于相对于面部检测器窗口的眼睛/鼻子位置的统计,分别估计两只眼睛和鼻子的搜索区域2。每个小块的大小由训练集上的交叉验证确定。训练贴片由阳性和阴性样品组

27、成。 它们根据真实收集,而负集进行额外的引导程序以筛选具有低效用价值的样本。 图5。整个预处理管道的插图(包围盒在右边的图像搜索区域)。为了评估眼睛定位的精度,我们采用了Jesorskey等人提出的方法。定位标准根据眼睛中心位置定义 (14)其中Cl和Cr是地面真实位置,dl和dr是检测到的眼球中心和地面实况之间的欧几里得距离。 对于眼睛检测,通常需要deye <0.25 25,但是对于眼睛定位,更期望deye <0.05或deye <0.1。我们比较我们的方法与传统的PS方法和贝叶斯方法。 最近已经表明,简单的贝叶斯方法在眼睛定位方面比几个经典的基于外观的方法表现得更好,如

28、回归方法,基于Boosting的方法和基于SVM的方法。5.3.结果 图6绘出了所比较的方法的累积误差分布曲线,其中水平轴是预测的眼睛位置和地面实况位置之间的归一化欧氏距离(即,deye),而垂直轴是累积定位分数,的对应于某一定位误差的成功处理的图像。如所预期的,PS方法优于贝叶斯方法,部分是由于PS方法具有更强的结构验证能力的事实,而数据库中的许多图像在平面中或在平面外表现出不同的旋转程度。通过用辨别模型替换生成外观模型,并且通过并入全局形状约束,我们的增强的PS方法在所比较的方法中执行最好。为清楚起见,我们将表1中成功定位的百分比列于表1中deye <0.05和deye <0.

29、1。可以发现,当deye <0.05时,我们的方法促进传统PS方法的性能从53.4提高到80.2 ,在deye <0.1时达到最佳的正确定位率为98.4,比其他两种方法高约5。图5.3给出了一些示例图像,其中我们的方法正确定位眼睛,而其他两个方法失败;其他两种方法的大多数不正确的定位是由于照明,姿势,表情和部分遮挡的复杂外观或结构变化引起的。距离内的比例归一化欧氏距离(像素)我们还检查每只眼睛的相对定位性能。 Brei,在这里我们只报告右眼的结果(左眼结果相似)。 表2给出了比较方法的性能的总体估计。 特别地,该表公开了在90的图像中,通过我们的方法眼睛位于1.90像素内,比其他两

30、种方法(根据贝叶斯方法为2.96像素,通过传统PS方法为2.72像素)好得多。 虽然由于缺乏共同的评估数据集,难以与文献中的其他方法进行定量比较,我们注意到2中最好的报告结果是2.04像素和2.74像素,在FERET数据上具有相同的误差测量 集合和WWW数据集。为了在x和y轴上进一步研究右眼上的定位行为,我们通过表3中比较的方法来报告位移。注意,虽然传统PS方法的平均值略小于在x中的贝叶斯方法的平均值 轴的标准偏差远远大于贝叶斯方法,这可能是由于使用过强的局部结构约束。 很明显,我们的方法优于传统的PS方法和贝叶斯方法显着。我们还通过去除每个部分的局部搜索区域来研究所提出的方法的可扩展性。 在

31、这种情况下,外观模型(8)被修改为:p(I | L,)QNp i = 1Pz p(z | li,ui)QNpi = 1 maxzp(z | li,ui)。 结果示于表4中。如所期望的,当搜索区域增加时,所有比较的方法的性能退化。 然而,我们的方法的模型推理的效率仍然改善,因为它首先过滤大量的噪声候选。最后,我们检查我们的方法处理部分闭塞的有效性,一些典型的结果如图5.3所示。 可以看出,我们的方法对于由姿势,头发,太阳镜和诸如棒球杆的其他东西引起的部分遮挡更加强大。 有趣的是,有时我们的人类可能被我们自己的眼睛欺骗,也就是说,眼睛可能不会像我们所想的那样被太阳镜遮挡,并且仍然可以通过我们的方法

32、精确定位(参见图5.3) 。6. 结论 在本文中,我们提出了一种新的在不受控制的条件下定位眼睛的方法。我们通过用辨别性模型替代生成模型来增强画面结构模型,将全局几何约束结合到面部特征上,并采用有效的启发式方法来处理遮挡。 对具有挑战性的LFW数据库的实验在宽范围的外观变化和成像条件下显示令人鼓舞的结果。 所提出的方法可以扩展到定位其他面部特征。图7。在LFW图像眼睛定位结果的例子(从上到下:贝叶斯方法,传统的PS方法,我们的方法)。致谢 本研究得到了中国国家科学基金(60773060,60635030,60721002),江苏科学基金(BK2006187,BK2008018),国家高技术研究发

33、展计划(2007AA01Z169),江苏333高层次人才 培养计划和SRF赞助的ROCS项目,SEM。参考文献1 M. Burl,M. Weber,and P. Perona。 使用局部光度测定和全局几何学的物体识别的概率方法。 在ECCV,第628-641页,19982 M. Everingham和A. Zisserman。回归和分类方法在眼睛图像中的眼睛定位。 FGR,第441-448页,2006年。3 F.Felzenszwalb和P.Huttenlocher。对象识别的图形结构。 IJCV,61(1):1573-1405,2005。4 M.A.Fischler和R.A.Elschlag

34、er。图像结构的表示和匹配。 IEEE Trans。 Comput。,22(1):67-92,1973。5 C.Garcia和M.Delakis。卷积脸部识别:用于快速和鲁棒的脸部检测的神经结构。 IEEE TPAMI,26(11):1408-1423,2004。6 X.Geng,Z.-H. Zhou,and H.Dai。单独稳定神经网络的不受控面部识别。在PRICAI,第553-562页,2006年。7 X.Geng,Z.-H. Zhou和K. Smith-Miles。个体稳定空间:在不受控条件下的面部识别方法。 TNN,19(8):1354-1368,2008。8 T.Hastie,R.Tibshirani和J.H.Friedman。统计学习的要素。 Springer,2002。9 B.Heisele,T.Serre,M. Pontil和T. Poggio。基于组件的面部检测。在CVPR,第657-662页,2001年。10 G.Huang,M.Ramesh,T.Berg和E.Geded-Miller。野外标记的面部:用于在无约束环境中学习面部识别的数据库。技术报告07-49,马萨诸塞

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论