基于混合高斯模型的服装图像分割方法_第1页
基于混合高斯模型的服装图像分割方法_第2页
基于混合高斯模型的服装图像分割方法_第3页
基于混合高斯模型的服装图像分割方法_第4页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于混合高斯模型的服装图像分割方法

通过图像和分析算法对服装图像进行处理,使服装识别,对服装和服装电子商务的实现具有良好的现实意义和广阔的发展前景。针对互联网上大量的服装展示图像,基于人及其所着衣物的色彩特征,利用阈值和聚类统计理论可实现图像中衣物的分割和提取。1图像分割算法图像分割技术是计算机视觉与图像分析中的一个重要研究领域,在其40年的研究历史中,涌现出了许多经典算法,近10年更是层出不穷。由于图像分割目前还没有通用的分割理论,大多数分割算法都只是针对具体问题,因而对一个给定的图像分析问题要选择适当的分割算法。传统的图像分割按对象可以分为灰度图像和彩色图像两大类。在实际研究过程中,针对灰度的分割方法无法准确分割出服装图像的各种成分,灰度信息是一维特征,而彩色图像包含的特征信息是三维的,信息量比灰度图像多,因此服装图像分割算法主要针对彩色图像展开。2算法的设计2.1彩色图像处理在复杂条件下,只利用灰度信息无法从背景中分离出目标,因此必须借助于色彩特征信息。彩色图像提供了比灰度图像更加全面的特征信息,并且随着计算机处理能力的日渐提高,彩色图像处理正成为学术界的研究热点。人眼所感知的色彩是由红、绿、蓝3种颜色分量混合而成。RGB适合于图像的显示,但不适合于图像分割和分析,可以采用线性或非线性变换,转换RGB颜色空间为其他的颜色特征空间。其中HSI颜色特征空间与人眼的色彩感知相吻合,因色调与高亮、阴影无关,而对区分不同颜色的物体非常有效。首先把图像从RGB色彩空间变换到HSI色彩空间,然后在H分量即色调通道上进行分割。2.2图像序列的预处理Otsu方法是由N·Otsu提出的最大类间方差法,其优点是不需要先验知识,是应用范围很广,性能比较突出的图像分割方法之一。选取Otsu方法作为新提出算法的性能参考对象。设一幅灰度图像的灰度值为(0,1…,L-1)级,灰度级为i的象素点数为ni,图像的总象素数为:Ν=L-1∑i=0ni(1)归一化的直方图:pi=ni/ΝL-1∑Ι=0pi=1(2)图像灰度均值μT:μΤ=L-1∑i=0i×pi(3)用阈值T来划分图像灰度值的集合,分T以上的和T以下的,即根据门限T划分为C1和C2两个类。最大类间方差法就是根据C1和C2两个类的平均方差与各组方差的比值为最大确定阈值T。ω1(T)和ω2(T)是各类出现的概率,而μ1(T)和μ2(T)为各类内均值。ω1(Τ)=Τ∑i=0pi=ω(Τ)(4)ω2(Τ)=L-1∑i=Τ+1pi=1-ω(Τ)(5)μ1(Τ)=Τ∑i=0i×piω1(Τ)=μ(Τ)ω(Τ)(6)μ2(Τ)=L-1∑i=Τ+1i×piω2(Τ)=μΤ-μ(Τ)1-ω(Τ)(7)C1和C2类的方差分别定义为:σ21(Τ)=Τ∑i=0(i-μ1(Τ))2×piω1(Τ)(8)σ22(Τ)=L-1∑i=Τ+1(i-μ2(Τ))2×piω2(Τ)(9)C1和C2类内方差σ2W(T)为:σ2W(Τ)=ω1(Τ)σ21(Τ)+ω2(Τ)σ22(Τ)(10)C1和C2类间方差σ2B为:σ2B(Τ)=ω1(Τ)(μ1(Τ)-μΤ)2+ω2(Τ)(μ2(Τ)-μΤ)2(11)设分离度为η(T),则:η(Τ)=[σ2B(Τ)σ2W(Τ)](12)使式(12)最大的T值就是所找的分割阈值。2.3密度函数px利用GMM算法进行图像分割的思路是把每一个像素点所具有的颜色用M个高斯分布模式来表示,M可以取3-5。像素点所体现的颜色用随机向量X来表示,图像的像素值为随机向量X的取样。则对于第k个模式(0<k≤M),像素的颜色分布可表示为:pk(x|k,ϕk)=1(2π)n/2|∑k|1/2e-1/2(x-μk)Τ∑-1(x-μk)(13)这里,μk和∑k分别为期望和协方差矩阵。像素的颜色分布可用M个高斯分布的加权和来表示:p(x|Φ)=∑k=1Μπkpk(x|k,ϕk)(14)其中πk是权值,说明由第k个分布产生的采样值占总采样值的比例,且∑k=1Μπk=1。Φ是全部参数的集合,定义为Φ={π1,π2…πM;ϕ1,ϕ2…ϕM},所有参数需要从X的观察值估计得到。期望最大化(EM)算法是一种从不完整数据集以及从有数据缺失的数据集中求解未知分布参数的最大似然估计方法。因为复杂情况下,无法直接求解参数的似然函数,通过假设隐含数据的存在并引入它们,可以降低求解似然函数的难度。已知一个依赖于参数集Φ的密度函数p(x|Φ)和一组长度为N的样本数据X=(x1,…,xN)。样本数据的联合概率密度函数表示为:Ρ(x|Ф)=∏i=1Νp(xi|Φ)=L(Φ|X)(15)我们知道最大似然估计方法的目标是要找到一个使L取最大值的Φ*,即Φ*=argmaxL(Φ|X)。假定pi(x|ϕi)服从高斯分布,则有下面的结果:μi=∑l=1Νxlp(i|xl,Φh)∑l=1Νp(i|xl,Φh)πi=1Ν∑l=1Νp(i|xl,Φh)(16)∑i=∑l=1Νp(i|xl,Φh)(xl-μi)(xl-μi)Τ∑l=1Νp(i|xl,Φh)(17)按照以上3个方程进行迭代,根据样本值和旧的参数值计算更新参数值。方程左边的πi,μi和∑i是迭代运算得到的新参数值,Φh为旧的参数值,p(i|xl,Φh)表示随机向量X属于第i个高斯分布的概率,计算公式如下:p(i|xl,Φh)=πip(i|xl,Φh)∑j=1Μπjpj(xl|Φh)(18)3对不同模式区域的分割效果比较图1是使用OTSU算法对图像在H通道上分割,分割的阈值分别为2、3、4个时候的实验结果。对于原始图像a,可以发现在把像素分为2类时,分割效果比较理想。当把像素分为3类时,可以区分出图像的光照明暗区域,但分为4类时,对噪声过于敏感。对于原始图像b,可以发现在把像素分为2类和3类时,分割效果都比较理想。在分为4类时,由于服装上褶皱的影响,服装区域内部被错误的分为2个部分。对于原始图像c和d来说,在分割阈值取2、3、4个的时候分割效果均不理想。原始图像c服装上衣有花朵纹理,仅利用色彩特征来分割会分割出很多小区域,而裤子由于没有纹理,分割效果比较好。原始图像d服装和背景色彩的区分度不大,所以OTSU算法基本失效。因此,OTSU算法的关键参数就是分割阈值的个数,同时可以发现OTSU算法对纹理服装图像分割效能较差。图2是使用GMM算法对同样一组图像分割,模式数目分别为2、3、4个时候的实验结果。对于原始图像a,可以发现在把像素分为2类时,分割效果比较理想。当把像素分为3类时,可以区分出服装、背景和人体部分,分为4类时,同样对噪声过于敏感。对于原始图像b,可以发现在把像素分为2类、3类和4类时,分割效果都比较理想。原始图像c服装上衣有花朵纹理,而裤子由于没有纹理,在模式数目为3和4的时候分割效果比较好。同样,原始图像d服装在模式数目为3和4的时候分割效果比较好。与OTSU算法的分割效果进行对比,可以发现同等条件下GMM算法的性能更优越。4服装图像的分割处理通

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论