智能目标识别分类技术_第1页
智能目标识别分类技术_第2页
智能目标识别分类技术_第3页
智能目标识别分类技术_第4页
智能目标识别分类技术_第5页
已阅读5页,还剩2页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

一、K-均值算法因为K-SVD算法是由K-均值扩展而来,有必要先简单介绍K-均值算法。K-均值算法要解决的问题是:求解一个包括K个代码的码本,使得在此码本上,根据最近邻分配法则,对包括N个信号的信号集合7={y.}^1,N□K进行分类,得到最佳分类问题。此时,Y中各向量被归类于与之距离最小的代码所代表的类中,TOC\o"1-5"\h\zC={c,c,…,c}为码本,C中的列c为码本中的大妈。当码本C给定时,每个1 2K 1信号用最近(12-范数意义下)的一个代码表示。也就是说,y-CXj,其中xi=ej是自然基中的一个向量(除第j个值为1外,其他值都为0)。满足就牛j,||y-C。』2M|y-Ce||2 ⑹iJ2ik2这相当于稀疏编码的一个特例:只用一个原子表示信号*,同时强制系数等于1。这种表示方法中,y.的方差为e2=||y-Cx||2,则Y的量化误差由下式确定1 i i i2E2=步e2=|『-CX||2i Fi=1K-均值算法的目标函数如下式7-K-均值算法的目标函数如下式7-CX||2[FminC,Xs.tVi,x=eikK-均值算法的实现是一个迭代过程,包括两步:(1)求X,本质上就是稀疏编码;(2)更新码本。图4K均值算法步骤示意图从上图中,我们可以看到,A,B,C,D,E是五个在图中点。而灰色的点是我们的种子点,也就是我们用来找点群的点。有两个种子点,所以K=2。然后,K-Means的算法如下:1。 随机在图中取K(这里K=2)个种子点。2。 然后对图中的所有点求到这K个种子点的距离,假如点P.离种子点S.最近,那么P.属于S.点群。(上图中,我们可以看到A,B属于上面的种子点,,C,D,E属于下面中部的种子点)3。 接下来,我们要移动种子点到属于他的“点群”的中心。(见图上的第三步)4。 然后重复第2)和第3)步,直到,种子点没有移动(我们可以看到图中的第四步上面的种子点聚合了A,B,C,下面的种子点聚合了D,E)。二、K-SVD算法K-SVD算法和K-均值聚类算法有着很深的联系,当K-SVD算法中要求的每个信号只用一个原子来近似时,K-SVD算法就退化为K均值聚类算法。同样,稀疏表示也可看作广义的矢量量化(VQ),其中的每个信号用多个代码的线性组合表示。令DG□*K,y口n,工口K分别代表字典、训练信号、训练信号的稀疏表示系数

向量,y={七}二为N个训练信号的集合,X="}"为Y的解向量的集合。从线性组合角度看,K-SVD训练算法的目标方程可表示为s.tmin[y—DX||s.tD,X F "0其中,T0为稀疏表示系数中非零分量的数目的上限,即系数向量中最大差异度。从误差逼近角度来看,K-SVD训练算法的目标方程还可以表示为(10)min[x||}, s.t ||y-DX||2<£(10)D,X 10 F本质上,式(9)和式(10)是相同的,只是考虑问题的角度不同,K-SVD作者在论文中的目标函数式子采用(9)。式(9)求解是一个迭代过程。首先,假设字典D是固定的,用MP、OMP、或BP等算法可以得到字典D上Y的稀疏表示的系数矩阵X;然后根据系数矩阵X,找到更好的字典D。更新字典的第k列d,令系数矩阵X更新字典的第k列d,令系数矩阵X中d相应的k行为xk(不同于X的第k列xkT的转置),则目标函数式(6。21)中的惩罚项可以重写为2=‘E—2=‘E—dxkF上式中,乘积DX被分解成K个秩为1的矩阵和。按照假设其中K-1项是固定的。y-^dx,jTj=l -Fy-^^dxj-dxkjTj我)I2F(11)所剩的一个,也就是要处理的第k个。矩阵Ek代表的是去掉原子dk的成分在所有N个样本中造成的误差。如果此时就用奇异值分解(SVD)更新dk和xt,SVD能找到距离Ek最近的秩为1的矩阵,这能有效地减少式(10)代表的误差。但是,如此得到的xk将是满向量T(相对于稀疏向量而言,满向量表示向量大多数元素都是非零元的向量),所以更新的dk也不能被强制的满足稀疏条件。换句话说,因为x*中的0的影响,用SVD得到的更新向量中的非零值的位置和数量会和原中非零位置和数量不同,出现“发散”。为解决此问题,直观的可以看出,去掉XT中所有的0,仅保留非零值,再用SVD更新斗和x;时,就不会出现“发散”现象了。定义集合o广§I拦i<N,x;(i山0}为用到dk所有信号集合{*}的索引所构成的集合,即X;(Do0的点的索引值。定义Qk为Nx|oJ矩阵,他在(o久(i),i)处的值都为1,其他点为0。定义x"=x;Q、丫:=Y;Q、eR=E;Q,则三者分别为x;、Y、Ek中去掉零输入后的收缩结果,Yk为当前用到原子dk的样本集合,E;为去掉不受原子dk影响的样本后,如果不考虑dk在其受影响的样本中成分时,带来的误差。xr的长度为0J,彳、Er是nx|oJ矩阵。此时,最小化式(11)得到的解X;和原x;就会有相同的支撑,不会出现“发散”。相当于式(11)经过一次转化,转化为|EQ-dxkQ||2=||Ek-dxk||2 (12)kkkTkFRkRF对Ek做SVD分解,则Ek=UM,令d为U的第一列,则d为d的更新结果。R R k kk同时,用V的第一列和^(1,1)的乘积更新xr。在逐列更新完成后用字典力做稀疏分解,并判断是否达到停止条件(停止条件可以是既定的迭代次数或者重构信号和原信号之间的误差率),以决定迭代是否继续。K-SVD算法非常灵活,可以和常见的稀疏分解的最优原子搜索算法(如匹配追踪(MP)、正交匹配追踪(OMP)、基追踪(BP)、FOCUSS等)结合使用。文中所选的是正交匹配追踪算法。三、K-SVD算法仿真实验结果在以上知识的指导下,我们给出了在高斯白噪声下使用KSVD方法进行去噪的仿真结果。实验设置:实验用图为标准测试图Barbara、House、Lena和Peppers。所加高斯白噪声分别方差分别为15、25和35。而去噪过程中所采用的字典分别为固定的DCT字典和文档中所阐述的使用噪声块学习出的字典。实验用图如下:图5实验用原图和加标准差为15、25、35的噪声图像,从左至右分别为Barbara、House、Lena和Peppers分别采用了两种字典学习方式一一固定的DCT字典和由噪声图像学习的字典,去噪结果图由下图所示:

图6固定DCT字典的K-SVD算法去噪结果图,从上到下噪声标准差为15、25、35图7基于噪声图像块学习的字典的KSVD去噪结果■ 丁二■ 丁二七专耳三二主三土关I 交MM冬至与M立王I■■■■址■:E圭99女I乜毛主IIWUUMMBBKSaSSS^SEIUUHM:其充基壬兵舞洼IRIXV#":::显我席泠/戒浅芝萦II出由诂村中&祝溶!8著控M塔更孩川七Vlllfll*庶191的的烟魏丽拥盘I精甜lllWWWXtH^S^^^^Ifl'J.-'.VWM单恩整寓页茶蕤眸愆欧翥山叫安JW圈勰惑毁激妾忍慰成密III悟氏田,罚&}段双费验毂装骚翘羯密曜n湖冈,内花薛:胃密■rhlz土J北职源嚣蹲凶划部披却■围心,4*:H部』,帽W摩近■石l・W埸■营■.U.:x[口阻N4IWMN?*!!T疫',CLfj^^MJXSMTOfflOCK^®(S■部网/X,土#?叔rvr*m.'Jli^WMIW^MXZVJ日wn先Jill川昭、'醐沽暮E崩的神踞睥1WW*WZKWfflAS?LV^ZI11硼■,】郦板伐泌每点七楸部盅':l3IIIIIIWS®7/Wfllll«!W8他湖NNE二妥W1M漏公(a) (b)图8K-SVD算法所用字典结果(a)DCT字典(b)自适应学习的字典

表1定量分析不同噪声标准差下应用不同字典的去噪结果o=15o=25o=35噪声图DCTAdaptive噪声图DCTAdaptive噪声图DCTAdaptiveBarbara24.6131.6532.3820.1628.6929.6317.2426.7127.81House24.5933.4534.2720.1630.9932.0717.2829.2930.31Lena24.5833.3533.6720.1530.9231.3417.2229.1729.65Peppers24.6131.6732.1420.1828.9129.6317.2627.1828.09由图6、图7和表1所示,我们可以看到K-SVD算法在去噪性能确实有很明显的效果。属于目前流行的几种去噪算法之一。细节上看,固定的DCT字典不能很好的适应各类图像,而去噪的结果也没有自适应学习的字典效果好。宏观上看,K-SVD算法在低标准差

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论