对线性回归逻辑回归各种回归的概念学习以及一些误差等具体含义_第1页
对线性回归逻辑回归各种回归的概念学习以及一些误差等具体含义_第2页
对线性回归逻辑回归各种回归的概念学习以及一些误差等具体含义_第3页
对线性回归逻辑回归各种回归的概念学习以及一些误差等具体含义_第4页
对线性回归逻辑回归各种回归的概念学习以及一些误差等具体含义_第5页
已阅读5页,还剩3页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、请下载支持!对线性回归、逻辑回归、各种回归的概念学习妨鲂量覆蔗袅芾回归问题的条件/前提:荽腿蓬蝴蜗藏辑1)收集的数据芨*瞬期巴袂袄2)假设的模型,即一个函数,这个函数里含有未知的参数,通过学习,可以估计出参数。然后利用这个模型去预测/分类新的数据。蛰艘肆帔箴肄蠢1.线性回归荒薄噩赚褥皤假设特征和结果都满足线性。即不大于一次方。这个是针对收集的数据而言。收集的数据中,每一个分量,就可以看做一个特征数据。每个特征至少对应一个未知的参数。这样就形成了一个线性模型函数,向量表示形式:莆滕蚕蒂希妍芈这个就是一个组合问题,已知一些数据,如何求里面的未知参数,给出一个最优解。一个线性矩阵方程,直接求解,很可

2、能无法直接求解。有唯一解的数据集,微乎其微。莅蓬蒲啕珅墓基本上都是解不存在的超定方程组。因此,需要退一步,将参数求解问题,转化为求最小误差问题,求出一个最接近的解,这就是一个松弛求解。肇螃噩肇袁董亵求一个最接近解,直观上,就能想到,误差最小的表达形式。仍然是一个含未知参数的线性模型,一堆观测数据,其模型与数据的误差最小的形式,模型与数据差的平方和最小:袂蔻腿唐裂蛔蝇这就是损失函数的来源。接下来,就是求解这个函数的方法,有最小二乘法,梯度下降法。芟勘黄辐范罩韵/%E7%BA%BF%E6%80%A7%E6%96%B9%E7%A8%8B%E7%BB%84菱蝇膂询聿芨建最/卜二乘法薄前祎芈膀节袄是一个

3、直接的数学求解公式,不过它要求X是列满秩的,蒂童曹羁蒂蛔蟋梯度下降法膝部!莫膈祎膈分别有梯度下降法,批梯度下降法,增量梯度下降。本质上,都是偏导数,步长/最佳学习率,更新,收敛的问题。这个算法只是最优化原理中的一个普通的方法,可以结合最优化原理来学,就容易理解了。崛筮腿箍肆辑蚁2.逻辑回归袈羁蟆芍螂袁蛔逻辑回归与线性回归的联系、异同?康充蜀维薄赣逻辑回归的模型是一个非线性模型,sigmoid函数,又称逻辑回归函数。但是它本质上又是一个线性回归模型,因为除去sigmoid映射函数关系,其他的步骤,算法都是线性回归的。可以说,逻辑回归,都是以线性回归为理论支持的。滕衿康赚肃腿蚀只不过,线性模型,无

4、法做到sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。量德蔗袅芾膈方另外它的推导含义:仍然与线性回归的最大似然估计推导相同,最大似然函数连续积(这里的分布,可以使伯努利分布,或泊松分布等其他分布形式),求导,得损失函数。蓬蛔蜗藏蟹妨妨逻辑回归函数|*fif.a肄助巴袂袄荽腿表现了0,1分类的形式。肆螃菽肄嘉图®应用举例:黑赚荒嵋膏W叟是否垃圾邮件分类?蚕耨挪芈荒薄是否肿瘤、癌症诊断?着麻珅募莆滕是否金融欺诈?黑肇袁童裳莅连3.一般线性回归咽IT裂蛔蝇肇螃线性回归是以高斯分布为误差分析模型;逻辑回归采用的是伯努利分布分析误差。亢辐翔蒙?袂蔻而高斯分布、伯努利分布、

5、贝塔分布、迪特里特分布,都属于指数分布。膂索聿芨建黄勘而一般线性回归,在x条件下,y的概率分布p(y|x)就是指指数分布.祎芈膀节袄菱蝇经历最大似然估计的推导,就能导出一般线性回归的误差分析模型(最小化误差模型)。曹羁蒂蛔帔薄前softmax回归就是一般线性回归的一个例子。覆奠膈祎膈蒂英有监督学习回归,针对多类问题(逻辑回归,解决的是二类划分问题),如数字字符的分类问题,0-9,10个数字,y值有10个可能性。腿箍肆辑蚁滕T而这种可能的分布,是一种指数分布。而且所有可能的和为1,则对于一个输入的结果,其结果可表示为:蟆芍螂袁蛔嫄筮参数是一个k维的向量。艿芳屋踌赣袈羁而代价函数:犀赚肃腿蚀犀先是

6、逻辑回归代价函数的推广。蔗袅芾膈劳滕衿而对于softmax的求解,没有闭式解法(高阶多项方程组求解),仍用梯度下降法,或L-BFGS求解。蜗藏辑鲂妨量覆当k=2时,softmax退化为逻辑回归,这也能反映softmax回归是逻辑回归的推广。期袂袄荽腿迷蝴线性回归,逻辑回归,softmax回归三者联系,需要反复回味,想的多了,理解就能深入了。菽肄芽芨踊耀充4.拟合:拟合模型/函数荒懈圈艘肆帔由测量的数据,估计一个假定的模型/函数。如何拟合,拟合的模型是否合适?可分为以下三类幕期芈荒薄噩赚合适拟合神聿募莆滕蚕蒂欠拟合袁蜜亵莅连着糖过拟合裂蛔蝇肇螃黑肇看过一篇文章(附录)的图示,理解起来很不错:a”

7、用量神袂荒腿M欠拟合:V。-八XXXofO。X2boooxpxx°pxxX>Xi5如+02x2+&亢+好R十依5正12)一聿芨建交勘冗辐合适的拟合X19(。0+若2"+皿也+仇丐园+诙*©2+)膀节袄菱蝇膂n过拟合蒂蛔帔薄前祎芈过拟合的问题如何解决?瞄韦膈蒂童曹羁问题起源?模型太复杂,参数过多,特征数目过多。肆蟹蚁滕出英方法:1)减少特征的数量,有人工选择,或者采用模型选择算法螂袁雌g筮腿箍/archive/2011/01/02/1924088.html(特征选择算法的综述)康薄赣袈羁业M芍2)正则化,即保留所有特征,但降低参数的值的影响。正则化的优

8、点是,特征很多时,每个特征都会有一个合适的影响因子。肃胆蚀犀充蚕芳5.概率解释:线性回归中为什么选用平方和作为误差函数?芾膈劳滕衿犀赚假设模型结果与测量值误差满足,均值为0的高斯分布,即正态分布。这个假设是靠谱的,符合一般客观统计规律。蟹妨妨量德点袅数据x与y的条件概率:袄荽腿超质藏若使模型与测量数据最接近,那么其概率积就最大。概率积,就是概率密度函数的连续积,这样,就形成了一个最大似然函数估计。对最大似然函数估计进行推导,就得出了求导后结果:平方和最小公式蠢硼肄腼袂6.参数估计与数据的关系誉周艘肆帔放肄拟合关系芈荒薄豆赚荒嵋7.错误函数/代价函数/损失函数:募莆滕十窿蟒线性回归中采用平方和的

9、形式,一般都是由模型条件概率的最大似然函数概率积最大值,求导,推导出来的。亵莅蓬蒲喇聿统计学中,损失函数一般有以下几种:蝇肇螃黑肇袁童1)0-1损失函数请下载支持!裙I袂蔻腿曾契蛔L(Yf(X)=1,0,Ywf(X)Y=f(X)建黄勘黄精荒量2)平方损失函数袄菱蝇膂询聿芨L(Y,f(X)=(Y-f(X)2帔薄莉祎芈膀节3)绝对损失函数膈蒂童曹羁蒂蛔L(Y,f(X)=|Y-f(X)|蚁滕蕾g莫膈祎4)对数损失函数蝴嫄筮腿箍肆辑L(Y,P(Y|X)=-logP(Y|X)赣袈羁蟆芍螂袁损失函数越小,模型就越好,而且损失函数尽量是一个凸函数,便于收敛计算。蚀康斯!芳康薄线性回归,采用的是平方损失函数。

10、而逻辑回归采用的是对数损失函数。这些仅仅是一些结果,没有推导。劳滕衿犀赚肃腿8.正则化:蟾瞬蔗袅芾膈为防止过度拟合的模型出现(过于复杂的模型),在损失函数里增加一个每个特征的惩罚因子。这个就是正则化。如正则化的线性回归的损失函数:腿蓬蝴!尺藏辑妨lambda就是惩罚因子。n肄丸期袂袄荽正则化是模型处理的典型方法。也是结构风险最小的策略。在经验风险(误差平方和)的基础上,增加一个惩罚项/正则化项。艘肆帔箴肄蠢芨线性回归的解,也从薄噩赚荒嵋誉蜜9=(XtX)-iXTy滕蚕蒂蒂妍芈荒转化为连蒲啕珅蒙莆括号内的矩阵,即使在样本数小于特征数的情况下,也是可逆的。螃噩肇袁董裂莅逻辑回归的正贝ij化:蔻1鳍

11、裂蛔蝇肇从贝叶斯估计来看,正则化项对应模型的先验概率,复杂模型有较大先验概率,简单模型具有较小先验概率。这个里面又有几个概念。如疆黄鬻勺袂什么是结构风险最小化?先验概率?模型简单与否与先验概率的关系?蝇膂索聿芨建黄经验风险、期望风险、经验损失、结构风险前祎芈膀节袄菱期望风险(真实风险),可理解为模型函数固定时,数据平均的损失程度,或平均”犯错误的程度。期望风险是依赖损失函数和概率分布的。英曹羁蒂蛔帔薄只有样本,是无法计算期望风险的。g奠膈祎膈蒂所以,采用经验风险,对期望风险进行估计,并设计学习算法,使其最小化。即经验风险最小化(EmpiricalRiskMinimization)ERM,而经验

12、风险是用损失函数来评估的、计算的。筮腿箍肆辑蚁滕对于分类问题,经验风险,就训练样本错误率。羁蟆芍螂袁娜原对于函数逼近,拟合问题,经验风险,就平方训练误差。斯SKW踽袈对于概率密度彳计问题,ERM,就是最大似然估计法。衿犀赚肃腿蚀犀而经验风险最小,并不一定就是期望风险最小,无理论依据。只有样本无限大时,经验风险就逼近了期望风险。覆蔗袅芾膈劳滕如何解决这个问题?统计学习理论SLT,支持向量机SVM就是专门解决这个问题的。时藏辑鲂鲂量有限样本条件下,学习出一个较好的模型。腼袂袄荽腿蓬由于有限样本下,经验风险Rempf无法近似期望风险Rf。因此,统计学习理论给出了二者之间的关系:Rf<=(Rem

13、pf+e)帔箴肄蠢芨牌而右端的表达形式就是结构风险,是期望风险的上界。而e=g(h/n)是置信区间,是VC维h的增函数,也是样本数n的减函数。赚荒懈HS艘肆VC维的定义在SVM,SLT中有详细介绍。e依束hh和n,若使期望风险最小,只需关心其上界最小,即e最小化。所以,需要选择合适的h和n。这就是结构风险最小化StructureRiskMinimization,SRM.希蒂妍芈荒薄墨SVM就是SRM的近似实现,SVM中的概念另有一大筐。就此打住。瞧初聿蒙莆膝蚕1范数,2范数的物理意义:肇袁董亵莅蓬蒲范数,能将一个事物,映射到非负实数,且满足非负性,齐次性,三角不等式。是一个具有长度”概念的函数

14、。唐裂蛔蝇肇螃罪1范数为什么能得到稀疏解?精荒鬻勺袂蔻腿压缩感知理论,求解与重构,求解一个L1范数正则化的最小二乘问题。其解正是欠定线性系统的解。索聿芨建宏!Ot2范数为什么能得到最大间隔解?芈膀节袄菱蝇膂2范数代表能量的度量单位,用来重构误差。羁蒂蛔蟋祎以上几个概念理解需要补充。奠膈祎膈蒂童曹9.最小描述长度准则:箍肆辑蚁蝌糠即一组实例数据,存储时,利用一模型,编码压缩。模型长度,加上压缩后长度,即为该数据的总的描述长度。最小描述长度准则,就是选择总的描述长度最小的模型。芍螂袁娜原筮腿最小描述长度MDL准则,一个重要特性就是避免过度拟合现象。方翱»袈羁蟆如利用贝叶斯网络,压缩数据,

15、一方面,模型自身描述长度随模型复杂度的增加而增加;另一方面,对数据集描述的长度随模型复杂度的增加而下降。因此,贝叶斯网络的MDL总是力求在模型精度和模型复杂度之间找到平衡。当模型过于复杂时,最小描述长度准则就会其作用,限制复杂程度。赚肃腿蚀犀充蚕奥卡姆剃刀原则:袅芾膈劳滕衿犀如果你有两个原理,它们都能解释观测到的事实,那么你应该使用简单的那个,直到发现更请下载支持!多的证据。藏蟹妨妨量疑点万事万物应该尽量简单,而不是更简单。袂袄荽腿蓬螂i帆11.凸松弛技术:肄露缠霞晚将组合优化问题,转化为易于求解极值点的凸优化技术。凸函数/代价函数的推导,最大似然估计法。嵋誉蜜艘肆帔放12.牛顿法求解最大似然

16、估计蟒芈荒薄黑赚用前提条件:求导迭代,似然函数可导,且二阶可导。e(98=8L>,聿蒙莆膝蚕蒂蒂迭代公式:童裂莅连着糖科若是向量形式,蛔蝇肇螃罪肇袁H就是n*n的hessian矩阵了。量何袂荒腿唐袭特征:当靠近极值点时,牛顿法能快速收敛,而在远离极值点的地方,牛顿法可能不收敛。这个的推导?芨建黄勘茂需荒这点是与梯度下降法的收敛特征是相反的。节袄菱蝇膂索聿线性与非线性:蛔帔薄前祎芈膀线性,一次函数;非线性,输入、输出不成正比,非一次函数。祎膈蒂英曹羁蒂线性的局限性:xor问题。线性不可分,形式:篝蚁滕誉凌奥膈x0袁蝴崛筮腿箍肆0x踌篇袈羁蟆其螂而线性可分,是只用一个线性函数,将数据分类。线

17、性函数,直线。腿蚀犀充葡维线性无关:各个独立的特征,独立的分量,无法由其他分量或特征线性表示。膈劳滕衿询肃核函数的物理意义:妨妨量疑葭袅芾映射到高维,使其变得线性可分。什么是高维?如一个一维数据特征x,转换为(x,xA2,xA3),就成为了一个三维特征,且线性无关。一个一维特征线性不可分的特征,在高维,就可能线性可分了。荽腿蓬螂i蜗藏密逻辑回归logicalisticregression本质上仍为线性回归,为什么被单独列为一类?芨*瞬充期袂袄其存在一个非线性的映射关系,处理的一般是二元结构的0,i问题,是线性回归的扩展,应用广泛,被单独列为一类。量艘肆帔菽肄暮而且如果直接应用线性回归来拟合逻辑

18、回归数据,就会形成很多局部最小值。是一个非凸集,而线性回归损失函数是一个凸函数,即最小极值点,即是全局极小点。模型不符。荒薄噩赚褥皤若采用逻辑回归的损失函数,损失函数就能形成一个凸函数。莆滕蚕耨脚芈多项式样条函数拟合莅连蒲啕珅蒙多项式拟合,模型是一个多项式形式;样条函数,模型不仅连续,而且在边界处,高阶导数也是连续的。好处:是一条光滑的曲线,能避免边界出现震荡的形式出现(龙格线性)/301735.htm肇螃噩肇袁董亵以下是几个需慢慢深入理解的概念:袂蔻腿曾裂蛔蝇无结构化预测模型黄勘五盘1黄鬻勺结构化预测模型菱蝇膂索聿芨建什么是结构化问题?薄莉祎芈膀节袄adaboost,svm,lr三个算法的关系。蒂童曹羁蒂蛔帔三种算法的分布对应exponentialloss(指数损失函数),hingeloss,logloss(对数损失函数),无本质区别。应用凸上界取代0、1损失,即凸松弛技术。从组合优化到凸集优化问题。凸函数,比

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论