决策树学习的培训讲义_第1页
决策树学习的培训讲义_第2页
决策树学习的培训讲义_第3页
决策树学习的培训讲义_第4页
决策树学习的培训讲义_第5页
已阅读5页,还剩33页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

决策树学习的培训讲义大纲决策树学习算法2决策树(DecisionTree)决策树学习是应用最广的归纳推理算法之一它是一种逼近离散函数的方法学习到的函数以决策树的形式表示主要用于分类对噪声数据有很好的鲁棒性能够学习析取表达3分类任务基本框架4分类应用实例垃圾邮件过滤信贷分析新闻分类

人脸识别、手写体识别等5决策树的结构图结构内部节点(非树叶节点,包括根节点)在一个属性上的测试分枝一个测试输出树叶节点类标识6决策树示例分类型分类型连续型类别RefundMarStTaxIncYESNONONOYesNoMarriedSingle,Divorced<80K>80K测试属性训练数据模型:决策树(Refund=YES)٧

(Refund=NO

٨

MarSt=Single,Divorced

٨

TaxInc<80K)٧

(Refund=NO

٨

Married=NO)7另一棵决策树MarStRefundTaxIncYESNONONOYesNoMarriedSingle,Divorced<80K>80K相同的数据可产生多棵决策树分类型分类型连续型类别8决策树分类任务框架决策树9决策树应用RefundMarStTaxIncYESNONONOYesNoMarriedSingle,Divorced<80K>80K测试数据从根节点开始10决策树应用RefundMarStTaxIncYESNONONOYesNoMarriedSingle,Divorced<80K>80K测试数据11决策树应用RefundMarStTaxIncYESNONONOYesNoMarriedSingle,Divorced<80K>80K测试数据12决策树应用RefundMarStTaxIncYESNONONOYesNoMarriedSingle,Divorced<80K>80K测试数据13决策树应用RefundMarStTaxIncYESNONONOYesNoMarriedSingle,Divorced<80K>80K测试数据14决策树应用RefundMarStTaxIncYESNONONOYesNoMarriedSingle,Divorced<80K>80K测试数据指定欺诈为:“No”15决策树分类任务框架DecisionTree16大纲简介决策树学习算法应用实例17决策树算法Hunt’sAlgorithmCARTID3,C4.5SLIQ,SPRINT18基本的ID3算法19基本算法Don’tCheatRefundDon’tCheatDon’tCheatYesNoRefundDon’tCheatYesNoMaritalStatusDon’tCheatCheatSingle,DivorcedMarriedTaxableIncomeDon’tCheat<80K>=80KRefundDon’tCheatYesNoMaritalStatusDon’tCheatCheatSingle,DivorcedMarried20决策树归纳贪婪策略根据特定的性能度量选择最好的划分属性要素哪个属性是最佳的分类属性?如何确定最佳划分点如何确定停止条件21度量标准——熵熵(Entropy)信息论中广泛使用的一个度量标准刻画任意样例集的纯度(purity)一般计算公式为:对于二元分类:给定包含关于某个目标概念的正反样例的样例集S,那么S相对这个布尔型分类的熵为:

Entropy(S)

-p

log2p

-pΘlog2pΘ其中p

是在S中正例的比例,pΘ是在S中负例的比例。在有关熵的所有计算中我们定义0log0为0。22例子Entropy=-(0/6)log(0/6)-(6/6)log(6/6)=0Entropy=1-(1/6)log(1/6)-(5/6)log(5/6)=0.650Entropy=1-(3/6)log(3/6)-(3/6)log(3/6)=123度量标准——熵24度量标准——熵信息论中熵的一种解释熵确定了要编码集合S中任意成员(即以均匀的概率随机抽出的一个成员)的分类所需要的最少二进制位数=1接收者知道抽出的样例必为正,所以不必发任何消息,熵为0=0.5必须用一个二进制位来说明抽出的样例是正还是负,熵为1=0.8那么对所需的消息编码方法是赋给正例集合较短的编码,可能性较小的反例集合较长的编码,平均每条消息的编码少于1个二进制位25性能度量——信息增益属性的信息增益使用这个属性分割样例而导致的期望熵降低的数量Values(A)是属性A所有可能值的集合Sv是S中属性A的值为v的子集,即Sv={s

S|A(s)=v}当对S的一个任意成员的目标值编码时,Gain(S,A)的值是在知道属性A的值后可以节省的二进制位数26例子假设S是有关天气的训练样例集[9+,5-]其中:wind=weak的样例是[6+,2-]wind=strong的样例[+3,-3]问题:计算属性wind的信息增益S的熵:E(S)=-(9/14)log(9/14)–(5/14)log(9/14)=0.94027选择最好的分类属性28大纲简介决策树学习算法应用实例29应用实例问题及数据集根据其他属性,判断周六是否玩网球playTennis=Y/N?30Step1:确定根节点分别计算4个属性的信息增益Outlook:0.246=Sunny[2+,3-]=Overcast[4+,0-]=Rain[3+,2-]Wind:0.048=weak的样例是[6+,2-]=strong的样例[+3,-3]Humidity:0.151Temperature:0.029因此:根节点为Outlook31Step2:分枝选择哪个属性进行划分?32Step3:循环选择哪个属性进行划分?33小结实例是由“属性-值”对(pair)表示的目标函数具有离散的输出值可能需要析取的描述(disjunctivedescription)训练数据可以包含错误训练数据可以包含缺少属性值的实例34作业6-1画出表示下面布尔函数的决策树(a)A

¬B(b)A

[B

C](c)AXORB(d)[A

B]

[C

D]35作业6-2考虑下面的训练样例集合手动给出决策树的构造过程36作业6-3ID3仅寻找一个一致的假设,而候选消除算法寻找所有一致的假

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论