大数据十大经典算法SVM讲解PPT.ppt_第1页
大数据十大经典算法SVM讲解PPT.ppt_第2页
大数据十大经典算法SVM讲解PPT.ppt_第3页
大数据十大经典算法SVM讲解PPT.ppt_第4页
大数据十大经典算法SVM讲解PPT.ppt_第5页
已阅读5页,还剩28页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

,数据挖掘十大算法之SVM,程广兵2014.12.22,分类,概念:通过构造一个分类函数或分类器的方法,该方法能把数据库中的数据项映射到给定类别中的某一个,从而可以用于预测未知数据。数据:线性可分线性不可分,什么是SVM,全名:SupportVectorMachine(支持向量机)支持向量:支持或支撑平面上把两类类别划分开来的超平面的向量点。机:一个算法基于统计学习理论的一种机器学习方法。简单的说,就是将数据单元表示在多维空间中,然后对这个空间做划分的算法。,SVM的特点,SVM是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性之间寻求最佳折衷,以期获得最好的推广能力(或泛化能力)。核函数松弛变量,线性分类,1,线性分类,1,线性分类,最优标准:分类间隔,对于给定的训练数据集T和超平面(w,b),定义超平面(w,b)关于样本点(xi,yi)的函数间隔为对于给定的训练数据集T和超平面(w,b),定义超平面(w,b)关于样本点(xi,yi)的几何间隔为|w|叫做向量w的范数,WX的p范数为|w|p=(X1p+X2p+.+Xnp)(1/p)函数间隔和几何间隔的关系=/|w|(1),最优标准:分类间隔,H2与H之间的间隔便是几何间隔。其中H1:wx+b=1;H2:wx+b=-1;定义超平面(w,b)关于训练数据集T的函数间隔为超平面(w,b)关于T中所有样本点(xi,yi)的函数间隔之最小值,即同理最终问题转化成为求最大值。(ps:我的理解在找到几何间隔后,就要使H1和H2尽可能的离H远,这样分类就更有说服力),在H1和H2上的点就叫做支持向量H1和H2之间的距离称为间隔,间隔依赖于法向量w,等于2/|w|,H1和H2称为间隔边界由等式(1),可将问题写为,求最大的,由于函数间隔不影响最优化问题的解,这样可以取=1,由于最大化1/|w|和最小化1/2*|w|*|w|问题是等价的于是问题便转化成了求很容易看出当|w|=0的时候就得到了目标函数的最小值。反映在图中,就是H1与H2两条直线间的距离无限大,所有样本点都进入了无法分类的灰色地带解决方法:加一个约束条件,求最大的,我们把所有样本点中间隔最小的那一点的间隔定为1,也就意味着集合中的其他点间隔都不会小于1,于是不难得到有不等式:yi+b1(i=1,2,l)总成立。于是上面的问题便转化成了求条件最优化问题:,约束条件,这是一个凸二次规划问题,所以一定会存在全局的最优解,但实际求解较为麻烦。实际的做法:将不等式约束转化为等式约束,从而将问题转化为拉格朗日求极值的问题。(2)(3),最优问题的求解,为了求解线性可分支持向量机的最优化问题(2)(3),将它作为原始最优化问题,应用拉格朗日对偶性(参考李航的统计学习方法附录C),通过求解对偶问题得到原始问题的最优解,这是线性可分支持向量机的对偶算法。,最优问题的求解,引入拉格朗日乘子(ps:之所以,=0是因为如果不做限定,因为要求极大值,而,那么可以取负无穷,这样目标值就会无穷大,其实当点是支持向量时0,其他的点=0)利用Lagrange乘子法:当点是支持向量时y(wx+b)=1当点不是支持向量时y(wx+b)1这样Lagrange函数的第二项始终为零,凸二次规划问题求解,代入L(w,b,a):问题转换为,凸二次规划问题求解,凸二次规划问题求解,更多细节请参照李航的统计学习方法SVM这一章,凸二次规划问题求解,为了,例题,例题,线性分类,目标函数:约束条件:,目标函数:约束条件:,拉格朗日乘数法可将问题转化为对偶问题:目标函数:约束条件:,线性分类,巧妙之处:原问题=二次凸优化问题=对偶问题对偶问题求解:更巧妙的地方:未知数据x的预测,只需要计算它与训练数据点的内积即可,非线性分类,对于以上所述的SVM,处理能力还是很弱,仅仅能处理线性可分的数据。如果数据线性不可分的时候,我们就将低维的数据映射向更高的维次,以此使数据重新线性可分。这转化的关键便是核函数。,非线性分类,找不到一个超平面(二维空间:直线)将其分割开来,而很自然的想到可以用一个椭圆将数据分为两类,Z1=X1,Z2=X12,Z3=X2,Z4=X22,Z5=X1X2(X1,X2)(Z1,Z2,Z3,Z4,Z5,)即将:R2空间映射到R5空间。此时,总能找到一个超平面wTZ+b=0wT=a1,a2,a3,a4,a5T,b=a6使得数据很好的分类。,映射过后的空间:,非线性分类,令:Z1=X1,Z2=X12,Z3=X2,Z4=X22,Z5=X1X2(X1,X2)(Z1,Z2,Z3,Z4,Z5,)则:对于样本x1=(1,2),x2=(1,2)(x1)=1,12,2,22,12T(x2)=1,12,2,22,12T内积:我们注意到:,非线性分类,我们注意到:若令(x1)=21,12,22,22,212,1T则:,那么区别在于什么地方呢?1.一个是将低维空间数据映射到高维空间中,然后再根据内积的公式进行计算;另一个则直接在原来的低维空间中进行计算,而不需要显式地写出映射后的结果。当样本空间处于高维度时,第一种方法将引发维度灾难,第二种方法仍然能够从容处理,核函数,核函数:概念:x,zX,X属于Rn空间,非线性函数实现输入空间X到特征空间F的映射,其中F属于Rm,n其中:为内积,K(x,z)为核函数。例如:加入核函数以后的分类函数为:,核函数,核函数应用广泛的原因:核函数的引入避免了“维数灾难”,大大减小了计算量。而输入空间的维数n对核函数矩阵无影响,因此,核函数方法可以有效处理高维输入。无需知道非线性变换函数的形式和参数核函数的形式和参数的变化会隐式地改变从输入空间到特征空间的映射,进而对特征空间的性质产生影响,最终改变各种核函数方法的性能。核函数方法可以和不同的算法相结合,形成多种不同的基于核函数技术的方法,且这两部分的设计可以单独进行,并可以为不同的应用选择不同的核函数和算法。,常用的核函数,多项式核:线性核:高斯核:,总结,线性可分:求解使得超平面具有最大内间间隔的wT,b参数。将问题转化为对偶问题进行快速求解。改进:加入松弛变量和惩罚因子C的SVM松弛变量允许实际分类中一定的不准确性的存在,引入松弛变量后原先的约束条件变为:惩罚因子C则是为了避免系统轻易放弃一些重要的数据,减小系统损失。引入C后目标函数变为:,总结,线性不可分:将数据空间映射到高维空间,使原本线性不可分变为线性可分。引入核函数,简化映射空间中的内积运算。它避开了直接在高维空间中进行计算,而表现形式却等价于高维空间。不同的样本结构与不

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论