矩阵低秩分解理论_第1页
矩阵低秩分解理论_第2页
矩阵低秩分解理论_第3页
矩阵低秩分解理论_第4页
矩阵低秩分解理论_第5页
已阅读5页,还剩33页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

关于矩阵低秩分解理论从稀疏表示到低秩分解稀疏表示压缩感知(Compressedsensing)第2页,共38页,2024年2月25日,星期天从稀疏表示到低秩分解矩阵低秩分解矩阵低秩稀疏分解(Sparseandlow-rankmatrixdecomposition)低秩矩阵恢复(Low-rankMatrixRecovery)鲁棒主成分分析(Robustprinciplecomponentanalysis,RPCA)低秩稀疏非相干分解(Rank-sparsityincoherence)observationlow-ranksparse第3页,共38页,2024年2月25日,星期天预备知识第4页,共38页,2024年2月25日,星期天低秩矩阵恢复(鲁棒主成分分析RPCA)在许多实际应用中,给定的数据矩阵D往往是低秩或近似低秩的,但存在随机幅值任意大但是分布稀疏的误差破坏了原有数据的低秩性,为了恢复矩阵D的低秩结构,可将矩阵D分解为两个矩阵之和,即D=A+E,其中矩阵A和E未知,但A是低秩的。当矩阵E的元素服从独立同分布的高斯分布时,可用经典的PCA来获得最优的矩阵A,即求解下列最优化问题:

当E为稀疏的大噪声矩阵时,问题转化为双目标优化问题:

引入折中因子λ,将双目标优化问题转换为单目标优化问题:第5页,共38页,2024年2月25日,星期天RPCA的求解凸松弛NP难问题松弛后矩阵核范数第6页,共38页,2024年2月25日,星期天迭代阈值算法(iterativethresholding,IT)将最优化问题正则化,便得到优化问题:优化问题式的拉格朗日函数为使用迭代阈值算法交替更新矩阵A,E和Y。当E=Ek,Y=Yk时,当A=Ak+1,Y=Yk时,当A=Ak+1

,E=Ek+1时,其中:步长δk满足0<δk

<1IT算法的迭代式形式简单且收敛,但它的收敛速度比较慢,且难以选取合适的步长第7页,共38页,2024年2月25日,星期天加速近端梯度算法(acceleratedproximalgradient,APG)将优化问题式的等式约束松弛到目标函数中,得到如下的拉格朗日函数:记于是L(A,E,μ)=g(A,E,μ)+f(A,E)。函数g(A,E,μ)不可微,而f(A,E)光滑且具有李普希兹连续梯度,即存在Lf>0,使得其中:表示函数f(A,E)关于矩阵变量A和E的Fréchet梯度。此处取Lf=2。对于给定的与D同型的两个矩阵YA和YE,作L(A,E,μ)的部分二次逼近:第8页,共38页,2024年2月25日,星期天加速近端梯度算法(acceleratedproximalgradient,APG)为了得到更新YA和YE时的步长,需先确定参数tk+1:于是YA和YE的迭代更新公式为:参数μ的迭代公式为其中:为事先给定的正数;0<η<1。尽管APG与IT算法类似,但它却大大降低了迭代次数。第9页,共38页,2024年2月25日,星期天由于核范数的对偶范数为谱范数,所以优化问题的对偶问题为:其中:表示矩阵元素绝对值最大的值。当优化问题对偶式取得最优值时,必定满足即此优化问题等价于:上述优化问题是非线性、非光滑的,可以使用最速上升法求解。当时,定义正规锥其中表示函数J(.)的次梯度。此时,优化问题的最速上升方向为Wk=D-Dk,其中Dk为D在N(Yk)上的投影。使用线性搜索方法确定步长大小:于是Yk的更新过程为DULL比APG算法具有更好的可扩展性,这是因为在每次迭代过程中对偶方法不需要矩阵的完全奇异值分解。对偶方法(DUL)第10页,共38页,2024年2月25日,星期天增广拉格朗日乘子法(augmentedLagrangemultipliers,ALM)构造增广拉格朗日函数:当Y=Yk,μ=μk

,使用交替式方法求解块优化问题

minA,EL(A,E,Yk,μk)。使用精确拉格朗日乘子法交替迭代矩阵A和E,直到满足终止条件为止。若则第11页,共38页,2024年2月25日,星期天再更新矩阵E:记分别收敛于,则矩阵Y的更新公式为最后更新参数μ:其中:ρ>1为常数;ε>0为比较小的正数。第12页,共38页,2024年2月25日,星期天交替方向方法(alternatingdirectionmethods,ADM,IALM)ADM对ALM做了改善,即不精确拉格朗日乘子法(inexactALM它不需要求的精确解,即矩阵A和E的迭代更新公式为:第13页,共38页,2024年2月25日,星期天求解方法性能比较第14页,共38页,2024年2月25日,星期天低秩矩阵恢复应用图像恢复第15页,共38页,2024年2月25日,星期天低秩矩阵恢复应用图像去光照影响恢复第16页,共38页,2024年2月25日,星期天低秩矩阵恢复应用视频背景建模Candès,Li,Ma,andW.,JACM,May2011.第17页,共38页,2024年2月25日,星期天低秩矩阵恢复应用图像类别标签净化第18页,共38页,2024年2月25日,星期天低秩矩阵恢复应用文本主题分析传统PCARPCA第19页,共38页,2024年2月25日,星期天低秩矩阵恢复应用音乐词曲分离第20页,共38页,2024年2月25日,星期天低秩矩阵恢复应用图像矫正与去噪第21页,共38页,2024年2月25日,星期天低秩矩阵恢复应用图像对齐第22页,共38页,2024年2月25日,星期天低秩矩阵补全当数据矩阵D含丢失元素时,可根据矩阵的低秩结构来恢复矩阵的所有元素,称此恢复过程为矩阵补全(MC)。记Ω为集合[m]×[n]的子集,这里[m]表示集合{1,2,…,m}。MC的原始模型可描述为如下的优化问题:其中:为一线性投影算子,即为便于优化,凸松弛后转化为:第23页,共38页,2024年2月25日,星期天低秩矩阵补全求解MC问题可应用ALM算法求解,将原优化问题重新表示为:于是构造上述问题的部分增广拉格朗日函数为第24页,共38页,2024年2月25日,星期天低秩矩阵补全应用智能推荐系统第25页,共38页,2024年2月25日,星期天低秩矩阵补全应用电影去雨线处理第26页,共38页,2024年2月25日,星期天低秩矩阵表示(LRR)低秩矩阵表示(LRR)是将数据集矩阵D表示成字典矩阵B(也称为基矩阵)下的线性组合,即D=BZ,并希望线性组合系数矩阵Z是低秩的。为此,需要求解下列优化问题:为便于优化,凸松弛后转化为:若选取数据集D本身作为字典,则有那么其解为,这里是D的SVD分解。当D是从多个独立子空间的采样组合,那么为对角块矩阵,每个块对应着一个子空间。此即为子空间聚类(SparseSubspaceClustering)。第27页,共38页,2024年2月25日,星期天低秩矩阵表示(LRR)为了对噪声和野点更加鲁棒,一个更合理的模型为:一般意义上的LRR可以看做:第28页,共38页,2024年2月25日,星期天低秩矩阵表示求解构造上述优化问题的增广拉格朗日乘子函数为当时,X的更新公式为Z的更新公式为E的更新公式为拉格朗日乘子的迭代公式为参数μ的更新式为第29页,共38页,2024年2月25日,星期天低秩矩阵表示的应用图像分割B.Chengetal.Multi-taskLow-rankAffinityPursuitforImageSegmentation,ICCV2011.第30页,共38页,2024年2月25日,星期天低秩矩阵表示的应用显著性检测Langetal.SaliencyDetectionbyMultitaskSparsityPursuit.IEEETIP2012.

第31页,共38页,2024年2月25日,星期天低秩矩阵表示新近的发展研究LatentLRRLiuandYan.LatentLow-RankRepresentationforSubspaceSegmentationandFeatureExtraction,ICCV2011.

第32页,共38页,2024年2月25日,星期天低秩矩阵表示新近的发展研究FixedRankRepresentation(FRR)Liu,Lin,Torre,andSu,Fixed-RankRepresentationforUnsupervisedVisualLearning,CVPR2012.

第33页,共38页,2024年2月25日,星期天低秩矩阵表示新近的发展研究KernelLRRWangetal.,StructuralSimilarityandDistanceinLearning,AnnualAllertonConf.Communication,ControlandComputing2011.第

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论