决策树学习培训讲义_第1页
决策树学习培训讲义_第2页
决策树学习培训讲义_第3页
决策树学习培训讲义_第4页
决策树学习培训讲义_第5页
已阅读5页,还剩34页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

《人工智能》第6章

学习智能体-决策树学习巢文涵

G1001/G931北航计算机学院智能信息研究所5/4/2023第一页,共三十九页。1大纲简介决策树学习算法应用实例第二页,共三十九页。2决策树(DecisionTree)决策树学习是应用最广的归纳推理算法之一它是一种逼近离散函数的方法学习到的函数以决策树的形式表示主要用于分类对噪声数据有很好的鲁棒性能够学习析取表达第三页,共三十九页。3分类任务基本框架第四页,共三十九页。4分类应用实例垃圾邮件过滤信贷分析新闻分类

人脸识别、手写体识别等第五页,共三十九页。5决策树的结构图结构内部节点(非树叶节点,包括根节点)在一个属性上的测试分枝一个测试输出树叶节点类标识第六页,共三十九页。6决策树示例分类型分类型连续型类别RefundMarStTaxIncYESNONONOYesNoMarried

Single,Divorced<80K>80K测试属性训练数据模型:决策树(Refund=YES)٧

(Refund=NO

٨

MarSt=Single,Divorced

٨

TaxInc<80K)٧

(Refund=NO

٨

Married=NO)第七页,共三十九页。7另一棵决策树MarStRefundTaxIncYESNONONOYesNoMarried

Single,Divorced<80K>80K相同的数据可产生多棵决策树分类型分类型连续型类别第八页,共三十九页。8决策树分类任务框架决策树第九页,共三十九页。9决策树应用RefundMarStTaxIncYESNONONOYesNoMarried

Single,Divorced<80K>80K测试数据从根节点开始第十页,共三十九页。10决策树应用RefundMarStTaxIncYESNONONOYesNoMarried

Single,Divorced<80K>80K测试数据第十一页,共三十九页。11决策树应用RefundMarStTaxIncYESNONONOYesNoMarried

Single,Divorced<80K>80K测试数据第十二页,共三十九页。12决策树应用RefundMarStTaxIncYESNONONOYesNoMarried

Single,Divorced<80K>80K测试数据第十三页,共三十九页。13决策树应用RefundMarStTaxIncYESNONONOYesNoMarriedSingle,Divorced<80K>80K测试数据第十四页,共三十九页。14决策树应用RefundMarStTaxIncYESNONONOYesNoMarriedSingle,Divorced<80K>80K测试数据指定欺诈为:“No”第十五页,共三十九页。15决策树分类任务框架DecisionTree第十六页,共三十九页。16大纲简介决策树学习算法应用实例第十七页,共三十九页。17决策树算法Hunt’sAlgorithmCARTID3,C4.5SLIQ,SPRINT第十八页,共三十九页。18基本的ID3算法第十九页,共三十九页。19基本算法Don’tCheatRefundDon’tCheatDon’tCheatYesNoRefundDon’tCheatYesNoMaritalStatusDon’tCheatCheatSingle,DivorcedMarriedTaxableIncomeDon’tCheat<80K>=80KRefundDon’tCheatYesNoMaritalStatusDon’tCheatCheatSingle,DivorcedMarried第二十页,共三十九页。20决策树归纳贪婪策略根据特定的性能度量选择最好的划分属性要素哪个属性是最佳的分类属性?如何确定最佳划分点如何确定停止条件第二十一页,共三十九页。21度量标准——熵熵(Entropy)信息论中广泛使用的一个度量标准刻画任意样例集的纯度(purity)一般计算公式为:对于二元分类:给定包含关于某个目标概念的正反样例的样例集S,那么S相对这个布尔型分类的熵为:

Entropy(S)-plog2p-pΘlog2pΘ其中p是在S中正例的比例,pΘ是在S中负例的比例。在有关熵的所有计算中我们定义0log0为0。第二十二页,共三十九页。22例子Entropy=-(0/6)log(0/6)-(6/6)log(6/6)=0Entropy=1-(1/6)log(1/6)-(5/6)log(5/6)=0.650Entropy=1-(3/6)log(3/6)-(3/6)log(3/6)=1第二十三页,共三十九页。23度量标准——熵第二十四页,共三十九页。24度量标准——熵信息论中熵的一种解释熵确定了要编码集合S中任意成员(即以均匀的概率随机抽出的一个成员)的分类所需要的最少二进制位数=1接收者知道抽出的样例必为正,所以不必发任何消息,熵为0=0.5必须用一个二进制位来说明抽出的样例是正还是负,熵为1=0.8那么对所需的消息编码方法是赋给正例集合较短的编码,可能性较小的反例集合较长的编码,平均每条消息的编码少于1个二进制位第二十五页,共三十九页。25性能度量——信息增益属性的信息增益使用这个属性分割样例而导致的期望熵降低的数量Values(A)是属性A所有可能值的集合Sv是S中属性A的值为v的子集,即Sv={sS|A(s)=v}当对S的一个任意成员的目标值编码时,Gain(S,A)的值是在知道属性A的值后可以节省的二进制位数第二十六页,共三十九页。26例子假设S是有关天气的训练样例集[9+,5-]其中:wind=weak的样例是[6+,2-]wind=strong的样例[+3,-3]问题:计算属性wind的信息增益S的熵:E(S)=-(9/14)log(9/14)–(5/14)log(9/14)=0.940第二十七页,共三十九页。27选择最好的分类属性第二十八页,共三十九页。28大纲简介决策树学习算法应用实例第二十九页,共三十九页。29应用实例问题及数据集根据其他属性,判断周六是否玩网球playTennis=Y/N?第三十页,共三十九页。30Step1:确定根节点分别计算4个属性的信息增益Outlook:0.246=Sunny[2+,3-]=Overcast[4+,0-]=Rain[3+,2-]Wind:0.048=weak的样例是[6+,2-]=strong的样例[+3,-3]Humidity:0.151Temperature:0.029因此:根节点为Outlook第三十一页,共三十九页。31Step2:分枝选择哪个属性进行划分?第三十二页,共三十九页。32Step3:循环选择哪个属性进行划分?第三十三页,共三十九页。33小结实例是由“属性-值”对(pair)表示的目标函数具有离散的输出值可能需要析取的描述(disjunctivedescription)训练数据可以包含错误训练数据可以包含缺少属性值的实例第三十四页,共三十九页。34作业6-1画出表示下面布尔函数的决策树(a)A¬B(b)A[BC](c)AXORB(d)[AB][CD]第三十五页,共三十九页。35作业6-2考虑下面的训练样例集合手动给出决策树的构造过程第三十六页,共三十九页。36作业6-3ID3仅寻找一个一致的假设,而候选消除算法寻找所有一致的假设。考虑这两种学习算法间的对应关系(a)假定给定EnjoySport的四个训练样例,画出ID3学习的决策树(b)学习到的决策树和从同样的样例使用变型空间算法得到的变型空间间有什么关系?树等价于变型空间的一个成员吗?第三十七页,共三十九页。37作业6-4实现ID3算法,并以PlayTennis实例中的训练集进行训练,给出最终的决策树第三十八页,共三十九页。38内容总结《人工智能》第6章

学习智能体-决策树学习。《人工智能》第6章

学习智能体-决策树学习。4/27/2023。学习到的函数以决策树的形式表示。内部节点(非树叶节点,包括根节点)。根据特定的性能度量选择最好的划分属性。哪个属性是最佳

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论