独立成分分析IndependentComponentAnalysisICA_第1页
独立成分分析IndependentComponentAnalysisICA_第2页
独立成分分析IndependentComponentAnalysisICA_第3页
独立成分分析IndependentComponentAnalysisICA_第4页
独立成分分析IndependentComponentAnalysisICA_第5页
已阅读5页,还剩26页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、独立成分分析independent component analysis(ica) 齐娟 2007-5-29主要内容 ica定义 ica模型 ica原理 ica算法 ica应用 pca&icaica定义 定义一:利用很少的先验知识将混合信息分离成独立分量的一种重要方法。 定义二:找到事物的一种合理表示,使得各分量最大化地独立。 20世纪八十年代才被提出。 cocktail-party problem 例子:cocktail-party problemsourcesobservationss1s2x1x2mixing matrix ax = asn sources, m=n observ

2、ationscocktail-party problemtwo independent sourcesmixture at two mics22212122121111)()(sasatxsasatx xj = aj1s1 + aj2s2 + . + ajnsn, 对于每一个 jx = as 条件:s和a均是未知的,只有x已知 目标: 通过x估计出a和s 每一个si成分统计独立 限制: 每一个成分都不是gaussian分布(实际上未知) 混合矩阵a为方阵且可逆(这个限制可以放松) 结论:估计出a之后,我们就可以得到s(s= a-1x)ambiguities of icals和a均是未知的,s乘

3、一个标量k,总可以用a乘以 1/k所抵消,即不能唯一确定s和a。 作如下约束:ls中各个分量的次序不确定21ie sillustration of ica统计意义下说明xasoxa ss各分量相互独立x各分量不相互独立判断方法:能否从一个分量估计出另一分量的值。边的方向即a0列向量。illustration of ica 通过x的统计性质,作一些假设的条件下,可以估计出a和s 独立:两个随机变量y1和y2是相互独立的,如果y1的值不能为y2提供任何信息,反之亦成立。 用概率密度函数描述:性质:给定两函数h1和h2有: 不相关:两随机变量是不相关的,如果 独立的肯定不相关,不相关的未必独立,即独

4、立是比不相关更强的约束。121122(,)()()p y yp y py11221122 ()() () ()e h y hye h ye hy1212 e y ye y e y 在假设条件中,各分量不允许是gaussian分布 x1和x2都是标准gaussian分布,联合概率密度函数: 没有边缘信息,即不包含a的 列向量的信息。2212121( ,)exp22xxp x x 根据中心极限定理,独立随机变量的和在一定条件下趋近于高斯分布。即独立随机变量的和比原独立随机变量更接近高斯分布。 可以认为越具有高斯性,其独立性越差 反之, non-gaussianity越强,独立性越强 ica 模型:

5、x = as s=a-1x 令y=wtx.z=atw, 则 y=wtx=wt as=zts 这样的话y 是s的线性组合,y应该比s更具有高斯性,除非wt接近a-1。此时,y=wtx=a-1x=s。 也就是说y=s时,y具有最大非高斯性。 问题转化为求解w,它最大化wtx的non-gaussianity性。 ica 数值优化问题。non-gaussianity的度量 为了在ica估计中使用non-gaussianity,我们必须有一个对它的定性度量。 常用的有三种: kurtosis negentropy approximations of negentropykurtosis定义:y为随机变量

6、,则对于高斯分布, kurtosis为零,大部分非高斯分布 kurtosis不为零。性质:优点:计算和理论简单缺点:对outliers敏感,不具有鲁棒性negentropyl 基于信息论中熵的概念l 定理:在所有随机变量,高斯分布的变量有最大熵。l 定义negentropy j为:ygauss是和y有相同协方差矩阵的高斯随机变量。y为高斯分布时, negentropy为零,其它分布时不为零。l 计算起来太复杂,需要引入其近似值。negentropy的近似l 经典近似:和kurtosis有同样的缺点:不鲁棒。l 另一种近似:v是均值为零,方差为1的高斯随机变量,g是非二次函数常取为:计算简单快速

7、,而且具有鲁棒性。后面介绍的算法即采用此种近似。 22311( )1248j ye ykurt y2( )( )( )j yc e g ye g v1111( )logcosg ua ua22()e x p2ugu 预处理centering 为了使算法更简单,一般会在采用具体算法前进行预处理。 centering:使x变为均值为零的随机变量,减去m=ex即可。 纯粹为了简化计算,估计完a后,可以将s的均值补偿回去。s的均值向量为a1 s。预处理whitening对x进行线性变化,使变换后的x是white的,即各分量不相关且 ,i为单位矩阵。方法:特征值分解(evd)变换后a为正交矩阵a: 根据

8、正交矩阵性质,正交矩阵自由度为n(n-1)/2,将需要估计的矩阵系数减少了一半。texxi tte x xede1/2txede x1ttttex xa essaa a小结 前面给出了测量函数,也已证明ica问题实际上就是求解函数的最值问题。 现在需要的是求解最值的优化算法。有很多,梯度下降法,em算法等。 应用最广泛的为fastica算法,它基于固定点迭代的方法补充:固定点迭代法用于求解方程(线性、非线性、差分)函数的固定点:函数g(x)的固定点是数p,如果p=g(p)几何上的表述是y=g(x)和y=x的交点固定点迭代:选择初始值p0,然后将函数迭代作用于自身的输出,直到输入和输出差别很小为

9、止。 p1=g(p0) p2=g(p1) . pn=g(pn) fastica算法(一个分量) fastica算法目前应用最为广泛。 采用度量函数为: 基于固定点迭代的方法找到wtx度量函数的最大值。1. 随机选择初始向量w2. 令:3. 令:4. 如果不收敛,转到2 2( )( )( )j yc e g ye g v()()ttwe xg w xe g w xw/ |wwwfastica算法(多个分量)使用上面的算法可以求出一个独立分量,重复使用上面的算法即可求出多个独立分量,为避免所有调用趋近一个值,需充分利用独立性的特点,在此使用的是轻级独立性不相关。类似于gram-schmidt正交化

10、1.得到前q个向量w1.w2.wp后,再次调用上算法得到wp12.令:3.令: 1111ptpppjjjwwww w1111/tppppwwww扩展 ica模型前面只给出了经典ica模型,实际现在发展起来很多模型,如噪声模型,非线性模型等等。 ica 方法前面解决ica的方法是,最大化non-gaussianity度量函数,转化为数值优化问题。 除了non-gaussianity度量函数外,还有很多其它函数如互信息量,也有各种不同的优化算法,梯度、em等。 其实所有的ica算法可以表示为: ica算法 = 度量函数 + 优化算法应用 声音源分离 (”cocktail-party problem

11、”) 生物信号处理 经济及其它时间序列 无线通信,如cdma 特征提取应用 生物信号处理。如eeg(脑电图)将一些电极放在头皮上记录脑的活动。一些人为动作会造成噪声(如眨眼、张嘴等)。ica可以用于去除这些噪声。 经济及其它时间序列。对于一些并列的序列,如外汇兑换和股票交易,可能有相同的潜在因素,一些连锁店的销售情况可能有共同的影响因素,如假期。无线通信cdma (code division multiple access)码分多路复用 3g标准之一。用户共享相同的带宽,同时传送信号。cdma通信系统给每个用户分配一个唯一的光正交码的码字作为该用户的地址码 ,但由于传输的特点会丧失正交性。如何

12、恢复原信号。信道用户用户特征提取x=as ,如果我们把a的每一列ai 当作一个特征,s是系数向量,则 可以用于特征提取。很多人脸识别的方法是使用统计方法得到一些基图像,人脸被认为是这些基图像的线性组合,多用pca得到这些基图像。有人将其用于人脸识别,代替pca做特征提取,发现识别效果要好。研究标明ica提取的特征和人的大脑皮层感知的特征很相近。在数据压缩和模式识别中应用很广。i ixas多媒体中的应用mediumtopicimage/videofeature extraction, noise reductionwatermark detectioncontent based retrieva

13、laudioauditory perceptionsource separation, scene analysistextdocument filtering, retrievalcombined mediacross-language document retrievalcombined text/image content extractionaudio-visual segmentationpca&ica两者都是线性变换 都可以看作一些分量的组合。不同的是 pca而言,各分量不相关 ica而言, 各分量独立pca的目的是找到这样一组分量表示,使得重构误差最小,即最能代表原事物的特征。ica的目的是找到这样一组分量表示,使得个分量最大化独立,能够发现一些隐藏因素。ica是pca的增

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论