稀疏学习优化算法_第1页
稀疏学习优化算法_第2页
稀疏学习优化算法_第3页
稀疏学习优化算法_第4页
稀疏学习优化算法_第5页
已阅读5页,还剩58页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、稀疏学习优化算法张长水 清华大学 自动化系2013,11内容提纲背景介绍快速信赖域牛顿法鲁棒多任务特征学习多阶段多任务特征学习迭代收缩阈值法快速求解非凸优化问题总结和展望支持向量机线性判别神经网络主成分分析C-means优化问题应用问题信号处理人脸识别文本分析稀疏学习稀疏数据向量矩阵p 稀疏学习:带有稀疏结构的机器学习问题稀疏学习一般模型稀疏学习的研究问题p 优化算法 p 理论研究p 应用问题p 稀疏学习优化算法p (分块) 坐标下降法p 积极集算法p 同伦算法p 梯度投影法p 近似梯度法p 稀疏学习理论损失函数? 正则或约束? 假设?最优解预测误差:参数估计误差:特征选择一致性:给定观测数据

2、建立稀疏模型尽可能恢复真实向量内容提纲背景介绍快速信赖域牛顿法鲁棒多任务特征学习多阶段多任务特征学习迭代收缩阈值法快速求解非凸优化问题总结和展望信赖域牛顿法 : 梯度 : 正定的Hessian矩阵 : 信赖域步长 实际下降量与预测下降量的比值 我们着重于快速求解信赖域步长问题Pinghua Gong, Changshui Zhang, Efficient Multi-Stage Conjugate Gradient for Trust Region Step. AAAI 2012 信赖信赖域步长问题:域步长问题: 优化问题:共轭梯度法 无约束二次规划问题 共轭梯度: 共轭梯度最多在 p 步之内

3、找到最优解Pinghua Gong, Changshui Zhang, Efficient Multi-Stage Conjugate Gradient for Trust Region Step. AAAI 2012: 梯度: 共轭方向多阶段共轭梯度法 略去上标,将 (1) 简化成内部: 共轭梯度 (C 步)边界: 梯度下降 (G 步)Pinghua Gong, Changshui Zhang, Efficient Multi-Stage Conjugate Gradient for Trust Region Step. AAAI 2012Multi-Stage Conjugate Grad

4、ient理论分析Pinghua Gong, Changshui Zhang, Efficient Multi-Stage Conjugate Gradient for Trust Region Step. AAAI 2012引理 1:令 。如果不是(2)式的最优解,那么 。引理 2:如果 不是(2)式的最优解,那么我们有: 。定理 1:多阶段共轭梯度法产生的序列收敛到唯一的最优解。指向超球的内部下降方向实验 逻辑回归中的信赖域步长问题:其中 比较算法p 多阶段共轭梯度 (MSCG)p 梯度投影 (PG)p 加速梯度投影 (APG)所有的算法均是用 Matlab 来实现,实验是在英特尔四核的处理

5、器 (Intel(R) Core(TM)2 Quad CPU Q6600 2.4GHz),8G内存的个人 PC 机上运行。Pinghua Gong, Changshui Zhang, Efficient Multi-Stage Conjugate Gradient for Trust Region Step. AAAI 2012实验结果(部分)Pinghua Gong, Changshui Zhang, Efficient Multi-Stage Conjugate Gradient for Trust Region Step. AAAI 2012内容提纲稀疏学习背景介绍快速信赖域牛顿法鲁棒多

6、任务特征学习多阶段多任务特征学习迭代收缩阈值法快速求解非凸优化问题总结和展望多任务学习 (MTL)p 我们有多个人的手写字母,但来自每个人的字母比较少p 我们能否把所有的字母放到一起学习,以达到更好的性能?p第 k 个任务:识别来自第 k 个人的字母 p 共享信息 神经网络的隐层单元 贝叶斯模型的先验 分类权重向量 相似度量矩阵 低秩的子空间 一组特征 共享信息任务 2任务 3任务 4任务 5任务6任务 1多任务学习 (MTL)p 联合特征多任务学习示意图多任务学习 (MTL)鲁棒多任务特征学习模型p 学习共享特征+发现异常任务 Pinghua Gong, Jieping Ye, Changs

7、hui Zhang, Robust Multi-Task Feature Learning. KDD 2012p P: 学习共享特征p Q: 发现异常任务p W: 权重矩阵优化算法 加速梯度下降法: 迭代: 步长搜索: 系数更新: 收敛速率:Pinghua Gong, Jieping Ye, Changshui Zhang, Robust Multi-Task Feature Learning. KDD 2012算法细节 每步迭代有闭式解 步长初始化:Pinghua Gong, Jieping Ye, Changshui Zhang, Robust Multi-Task Feature Lea

8、rning. KDD 2012是分块对角矩阵,第 i 个块矩阵是理论分析Pinghua Gong, Jieping Ye, Changshui Zhang, Robust Multi-Task Feature Learning. KDD 2012参数假设线性+噪声假设Pinghua Gong, Jieping Ye, Changshui Zhang, Robust Multi-Task Feature Learning. KDD 2012数据矩阵假设Pinghua Gong, Jieping Ye, Changshui Zhang, Robust Multi-Task Feature Lear

9、ning. KDD 2012理论的界预测误差和参数估计误差的界基本假设Pinghua Gong, Jieping Ye, Changshui Zhang, Robust Multi-Task Feature Learning. KDD 2012理论的界共享特征和异常任务的恢复实验 合成数据 真实数据 School MRIPinghua Gong, Jieping Ye, Changshui Zhang, Robust Multi-Task Feature Learning. KDD 2012Pinghua Gong, Jieping Ye, Changshui Zhang, Robust Mu

10、lti-Task Feature Learning. KDD 2012实验结果Pinghua Gong, Jieping Ye, Changshui Zhang, Robust Multi-Task Feature Learning. KDD 2012实验结果(部分)内容提纲背景介绍快速信赖域牛顿法鲁棒多任务特征学习多阶段多任务特征学习迭代收缩阈值法快速求解非凸优化问题总结和展望非凸多任务特征学习模型WWPinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012非凸的

11、凸的-10-5051000.20.40.60.811.2 = 0.1xy-10-5051000.20.40.60.81 = 8xy优化算法加权系数Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012repeat多阶段多任务特征学习算法(MSMTFL)加权Lasso问题直观解释一:最小化上界 上界 次梯度Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learnin

12、g. NIPS 2012 原优化问题: 最小化上界 目标函数值下降Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012直观解释一:最小化上界 共轭函数: 共轭的共轭:g 是凹的且是闭函数分块坐标下降Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012直观解释二:分块坐标下降 原优化问题: 等价形式: 分块坐标下降Pinghua G

13、ong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012直观解释二:分块坐标下降加权系数加权Lasso问题收敛性分析 极限点存在吗? 收敛定理Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012有界,所以存在极限点可再生性分析Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Tas

14、k Feature Learning. NIPS 2012加权Lasso问题:参数估计误差的界Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012指数衰减 & 逐步改善Lasso:MSMTFL:Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012参数估计误差的界Pinghua Gong, Jieping Ye, Chang

15、shui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012实验 比较算法 L1-正则多任务特征学习 (lasso) L1,2-则正多任特征务学习 (L1,2) 脏模型多任务特征学习 (DirtyMTL) 多阶段多任务特征学习 (MSMTFL) 实验设置p 逐步改善 (合成数据)p 参数估计误差(合成数据)p 预测误差 (真实数据)Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012实验结果 (1)

16、Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012实验结果 (2)Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012实验结果 (3)Pinghua Gong, Jieping Ye, Changshui Zhang, Multi-Stage Multi-Task Feature Learning. NIPS 2012内容提纲背

17、景介绍快速信赖域牛顿法鲁棒多任务特征学习多阶段多任务特征学习迭代收缩阈值法快速求解非凸优化问题总结和展望非凸稀疏学习问题-10-8-6-4-2024681000.511.522.5 L1CapL1LSPMCPSCAD 与 可能是非凸的Gong, Zhang, et al. A General Iterative Shrinkage and Thresholding Algorithm for Non-convex Optimization Problems. ICML 2013假设p A1: 连续可微且梯度是Lipschitz连续的p A2: 是一个可以写成两个凸函数之差的函数p A3: 有下

18、界Gong, Zhang, et al. A General Iterative Shrinkage and Thresholding Algorithm for Non-convex Optimization Problems. ICML 2013一些例子-10-8-6-4-2024681000.511.522.5 L1CapL1LSPMCPSCADLeast Squares:Logistic Regression:Squared Hinge Loss:非凸正则Gong, Zhang, et al. A General Iterative Shrinkage and Thresholding

19、 Algorithm for Non-convex Optimization Problems. ICML 2013迭代收缩阈值法(GIST)近似算子:闭式解: CapL1, LSP, SCAD, MCPGong, Zhang, et al. A General Iterative Shrinkage and Thresholding Algorithm for Non-convex Optimization Problems. ICML 2013步长的选择 步长的初始化:BB 准则 线搜索m=1: 单调下降;m1: 非单调下降Gong, Zhang, et al. A General Ite

20、rative Shrinkage and Thresholding Algorithm for Non-convex Optimization Problems. ICML 2013其中 是一个常数 直观解释Majorization and Minimization (MM)Gong, Zhang, et al. A General Iterative Shrinkage and Thresholding Algorithm for Non-convex Optimization Problems. ICML 2013梯度的Lipschitz常数最小化上界收敛分析引理1:令假设A1-A3成立,

21、给定 ,对于任意的 ,只要 ,那么单调/非单调线搜索准则都成立。定理1:令假设A1-A3成立且单调/非单调线搜索准则成立,那么由GIST算法产生的序列 的所有极限点都是关键点。定理2:令假设A1-A4成立且单调/非单调线搜索准则成立,那么由GIST算法产生的序列 至少有一个极限点。Gong, Zhang, et al. A General Iterative Shrinkage and Thresholding Algorithm for Non-convex Optimization Problems. ICML 2013 CappedL1 正则逻辑回归收敛性能实验结果(部分)Gong, Z

22、hang, et al. A General Iterative Shrinkage and Thresholding Algorithm for Non-convex Optimization Problems. ICML 2013 LSP 正则最小二乘稀疏恢复性能实验结果(部分)Gong, Zhang, et al. A General Iterative Shrinkage and Thresholding Algorithm for Non-convex Optimization Problems. ICML 2013内容提纲背景介绍快速信赖域牛顿法鲁棒多任务特征学习多阶段多任务特征学

23、习迭代收缩阈值法快速求解非凸优化问题总结和展望总结p 稀疏学习优化问题 凸优化问题:投影子问题、投影牛顿法 非凸优化问题:多阶段凸松弛、迭代收缩阈值p 稀疏学习理论 多任务特征学习 凸模型和非凸模型 优化算法 理论分析展望p 稀疏学习优化算法 在线优化算法 分布式优化算法 非凸优化算法收敛速率的分析p 稀疏学习理论 一般化的非凸稀疏学习理论 带有缺失数据的稀疏学习理论p 稀疏学习应用问题 融入特定先验知识进行更加合理的建模 生物医药 社会网络参考文献1 Pinghua Gong, Changshui Zhang. Efficient Nonnegative Matrix Factorizati

24、on via Projected Newton Method. Pattern Recognition, 2012, 45(9):3557-3565. (SCI收录,收录号:000306091900044, 检索号:969XE, 影响因子:2.292, 5年影响因子:3.172)2 Pinghua Gong, Kun Gai, Changshui Zhang. Efficient Euclidean Projections via Piecewise Root Finding and Its Application in Gradient Projection. Neurocomputing,

25、 2011, 74(17): 2754-2766. (SCI收录,收录号:000296212400006,检索号:837OF,影响因子:1.580,5年影响因子:1.595)3 Pinghua Gong, Changshui Zhang, Zhaosong Lu, Jianhua Huang, Jieping Ye. A General Iterative Shrinkage and Thresholding Algorithm for Non-convex Regularized Optimization Problems. The 30th International Conference on Machine Learning (ICML), Atlanta, Georgia, USA, June 16-21, 2013. 4 Pinghua Gong, Jieping Ye, Changshui Zhang. Multi-Stage Multi-Task Feature Learning. The 26th Annual Conferen

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论