最新机器学习中的特征选择专业知识讲座_第1页
最新机器学习中的特征选择专业知识讲座_第2页
最新机器学习中的特征选择专业知识讲座_第3页
最新机器学习中的特征选择专业知识讲座_第4页
最新机器学习中的特征选择专业知识讲座_第5页
已阅读5页,还剩24页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

单击此处添加文字内容综述单击此处添加文字内容特征选择流程单击此处添加文字内容几种常用的特征选择算法单击此处添加文字内容总结12342023/6/291综述What

从全部特征中选取一个特征子集,使构造出来的模型更好。Why

在机器学习的实际应用中,特征数量往往较多,其中可能存在不相关的特征,特征之间也可能存在相互依赖,容易导致如下的后果:分析特征、训练模型耗时长模型复杂、推广能力差引起维度灾难2023/6/292维度灾难随着维数的增加,特征空间的体积指数增加,从而导致各方面的成本指数增加样本数量存储空间计算量……如何从中选出有用的特征??2023/6/293单击此处添加文字内容综述单击此处添加文字内容特征选择流程单击此处添加文字内容几种常用的特征选择算法单击此处添加文字内容总结12342023/6/294特征选择流程GeneratorEvaluationStopRuleValidationSubsetYesNoOriginalFeatureSet2023/6/295两个主要步骤产生过程特征子集的产生可以看作是一个搜索过程,搜索空间中的每一个状态都是一个可能特征子集。搜索的算法分为完全搜索(Complete),启发式搜索(Heuristic),随机搜索(Random)3大类。评价函数评价函数是评价一个特征子集好坏的准则特征的评估函数分为五类:相关性,距离,信息增益,一致性和分类错误率。2023/6/296搜索算法之完全搜索完全搜索分为穷举搜索与非穷举搜索两类广度优先搜索(BFS)分支限界搜索(BAB)定向搜索(BS)最优优先搜索(BestFirstSearch)BS:首先选择N个得分最高的特征作为特征子集,将其加入一个限制最大长度的优先队列,每次从队列中取出得分最高的子集,然后穷举向该子集加入1个特征后产生的所有特征集,将这些特征集加入队列。2023/6/297搜索算法之启发式搜索启发式搜索序列前向选择(SFS)序列后向选择(SBS)双向搜索(BDS)增L去R选择算法(LRS)L和R的选择是关键序列浮动选择(SequentialFloatingSelection)决策树(DTM)LRS两种形式:

<1>算法从空集开始,每轮先加入L个特征,然后从中去除R个特征,使得评价函数值最优。(L>R)在训练样本集上运行C4.5或其他决策树生成算法,待决策树充分生长后,再在树上运行剪枝算法。则最终决策树各分支处的特征就是选出来的特征子集。一般使用信息增益作为评价函数。L和R怎么确定??2023/6/298搜索算法之随机算法随机算法随机产生序列选择算法(RGSS)随机产生一个特征子集,然后在该子集上执行SFS与SBS算法模拟退火算法(SA)以一定的概率来接受一个比当前解要差的解,因此有可能会跳出这个局部的最优解,达到一个全局次最优解遗传算法(GA)

共同缺点:依赖于随机因素,有实验结果难以重现2023/6/299评价函数作用是评价产生过程所提供的特征子集的好坏按照其工作原理,评价函数可以分为三种模型:过滤模型(FilterModel)封装模型(WrapperModel)混合模型(EmbeddedModel)被称为特征选择的经典三刀:飞刀(Filter)弯刀(Wrapper)电刀(Embedded)2023/6/2910评价函数—过滤模型根据特征子集内部的特点来衡量其好坏,如欧氏距离、相关性、信息熵等特征子集在学习算法运行之前就被选定学习算法用于测试最终特征子集的性能特点:简单、效率高,但精度差2023/6/2911评价函数—封装模型学习算法封装在特征选择的过程中,用特征子集在学习算法上得到的挖掘性能作为特征子集优劣的评估准则。与过滤模型相比,精度高、但效率低。根本区别在于对学习算法的使用方式2023/6/2912评价函数—混合模型混合模型把这两种模型进行组合,先用过滤模式进行初选,再用封装模型来获得最佳的特征子集。2023/6/2913常用评价函数特征的评价函数分为五类:

相关性;距离;信息增益;一致性;分类错误率

前四种属于过滤模型,分类错误率属于封装模型从概率论的角度

相关系数:值域范围:[-1,+1]绝对值越大,相关性越大2023/6/2914常用评价函数从数理统计的角度(假设检验)T检验检验与相关系数在理论上非常接近,但更偏重于有限样本下的估计T检验统计量:其中,n为样本容量,、为样本均值和方差,为总体方差。

2023/6/2915常用评价函数从信息论角度条件熵与“相关性”负相关信息增益相对信息增益互信息量(MutualInformation)2023/6/2916常用评价函数IR领域的度量(逆)文档词频(inversedocumentfrequency)词强度(termstrength)已知一个词(特征)在某文档(实例)中出现,该词在同类(目标函数值相同)文档中出现的概率为词强度总文档数包含词(特征)t的文档数2023/6/2917常用评价函数学习相关的度量分类准确率

准确率、召回率、F值、AUC等用单一维特征进行分类训练,某种分类准确率指标作为特征的有效性度量复杂度较大不一定有合适的准确率指标2023/6/2918单击此处添加文字内容综述单击此处添加文字内容特征选择流程单击此处添加文字内容几种常用的特征选择算法单击此处添加文字内容总结12342023/6/2919过滤模型—FishScoreFisherScore:计算两个分布的距离第i个特征的权重公式为:

其中uij和pij分别是第i个特征在第j类中的均值和方差,nj为第j类中实例的个数,ui为第i个特征的均值,K为总类别数。缺点:容易产生冗余特征,f1,f2

忽略组合特征,f1|f2

2023/6/2920过滤模型—Chi-Squaredtest卡方检验利用统计学中的假设检验思想,利用卡方统计量来衡量特征和类别之间的相关程度。卡方值公式:其中,N是文档总数,A是

包含词t且

属于c类的文档数目B是

包含词t且不属于c类的文档数目C是不包含词t且

属于c类的文档数目D是不包含词t且不属于c类的文档数目sklearn.feature_selection.chi2(X,

y)

2023/6/2921过滤模型—ReliefRelief:根据各个特征和类别的关系赋予特征不同的权重,权重小于某阈值的将被移除。2023/6/2922Relief算法的缺点Relief算法属于特征权重算法,该算法缺点在于:他们可以捕获特征与目标概念间的相关性,却不能发现特征间的冗余性。Relief-F是Relief的升级版,可用于多分类经验证明除了无关特征对学习任务的影响,冗余特征同样影响学习算法的速度和准确性,也应尽可能消除冗余特征。2023/6/2923封装模型—增量法封装模型首先需要选用较好学习算法,如RF、SVM、LR、KNN等可以使用前面提到的各种缩小搜索空间的尝试,其中最经典的是启发式搜索,概括来说主要分为两大类:增量法(SFS:sequentialforwardselection)减量法(SBS)2023/6/2924增量法试验结果2023/6/2925增/减量法优缺点复杂度关于维数为或选单个特征采用评价准则排序的方式为一次选单个特征采用测试全部特征的方式为二次本质上是贪心算法某些组合无法遍历可能陷入局部极值2023/6/2926单击此处添加文字内容综述单击此处添加文字内容特征选择流程单击此处添加文字内容几种常用的特征选择算法单击此处添加文字内容总结12342023/6/2927总结123特征选择是机器学习领域中重要的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论