大数据经典算法讲解_第1页
大数据经典算法讲解_第2页
大数据经典算法讲解_第3页
大数据经典算法讲解_第4页
大数据经典算法讲解_第5页
已阅读5页,还剩17页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

大数据经典算法讲解第一页,共二十二页,编辑于2023年,星期五分类与回归分类——划分离散变量回归——划分连续变量第二页,共二十二页,编辑于2023年,星期五什么是CARTwelcometousethesePowerPointtemplates,NewContentdesign,10yearsexperience分类与回归树CART采用一种二分递归分割的技术,将当前的样本集分为两个子样本集,使得生成的决策树的每个非叶子节点都有两个分支。CART算法生成的决策树是结构简洁的二叉树。第三页,共二十二页,编辑于2023年,星期五摘要递归划分自变量空间验证数据进行剪枝模型评价第四页,共二十二页,编辑于2023年,星期五Hunt算法设Dt是与节点t相关联的训练记录集,y={y1,y2,…,yc}是类标号。Hunt算法的递归定义如下:(1)如果Dt中所有记录都属于同一个类yt,则t是叶子节点。(2)如果Dt中包含属于多个类的记录,则选择一个属性测试条件,将记录划分成较小的子集。对于测试条件的每一个输出创建一个子女结点,并根据测试结果将Dt中的记录分布到子女结点中。然后,对于每个子女结点,递归调用该算法。第五页,共二十二页,编辑于2023年,星期五一递归划分自变量空间tid有房者婚姻状况年收入拖欠贷款者12345678910是否否是否否是否否否单身已婚单身已婚离异已婚离异单身已婚单身125K100K70K120K95K60K220K85K75K90K否否否否是否否是否是训练集

如何以递归方式建立决策树?第六页,共二十二页,编辑于2023年,星期五决策树如何划分训练记录?

如何表示属性测试条件?

如何确定最佳划分?如何构建测试条件效果最好的树?第七页,共二十二页,编辑于2023年,星期五如何确定最佳划分贪婪法:根据子女结点类分布的一致性程度来选择最佳划分度量结点的不纯度Gini熵误分类误差第八页,共二十二页,编辑于2023年,星期五对于一个给定的结点t:是结点t中类j的相对频率最大值:(1-1/nc),记录在所有类中等分布最小值:0,所有记录属于同一个类不纯度度量——GINI第九页,共二十二页,编辑于2023年,星期五如何划分训练记录

根据属性类型的不同:

标称属性

序数属性

连续属性根据分割的数量

二元划分

多元化分如何表示测试条件第十页,共二十二页,编辑于2023年,星期五选择最佳分割点数值型变量对记录的值从小到大排序,计算每个值作为临界点产生的子节点的异质性统计量。能够使异质性减小程度最大的临界值便是最佳的划分点。分类型变量

列出划分为两个子集的所有可能组合,计算每种组合下生成子节点的异质性。同样,找到使异质性减小程度最大的组合作为最佳划分点。第十一页,共二十二页,编辑于2023年,星期五有房无房否34是03Gini(t1)=1-(3/3)²-(0/3)²=0Gini(t2)=1-(4/7)²-(3/7)²=0.4849Gini=0.3×0+0.7×0.4898=0.343第十二页,共二十二页,编辑于2023年,星期五单身已婚离异否241是201单身或已婚离异否61是21单身或离异已婚否34是30离异或已婚单身否52是12Gini(t1)=1-(2/4)²-(2/4)²=0.5Gini(t2)=1-(0/4)²-(4/4)²=0Gini(t3)=1-(1/2)²-(1/2)²=0.5Gini=4/10×0.5+4/10×0+2/10×0.5=0.3Gini(t1)=1-(6/8)²-(2/8)²=0.375Gini(t2)=1-(1/2)²-(1/2)²=0.5Gini=8/10×0.375+2/10×0.5=0.4Gini(t1)=1-(3/6)²-(3/6)²=0.5Gini(t2)=1-(4/4)²-(0/4)²=0Gini=6/10×0.5+4/10×0=0.3Gini(t1)=1-(5/6)²-(1/6)²=0.2778Gini(t2)=1-(2/4)²-(2/4)²=0.5Gini=6/10×0.2778+4/10×0.5=0.3667第十三页,共二十二页,编辑于2023年,星期五60707585909510012012522055657280879297110122172230≤>≤>≤>≤>≤>≤>≤>≤>≤>≤>≤>030303031221303030303007162534343434435261700.4200.4000.3750.3430.4170.4000.3000.3430.3750.4000.420是否Gini第十四页,共二十二页,编辑于2023年,星期五测试条件效果为确定测试条件划分,比较父节点(划分前)的不纯度和子女结点的不纯度,差越大测试效果就越好

不变值第十五页,共二十二页,编辑于2023年,星期五决策树停止生长条件节点达到完全纯度树的深度达到用户所要的深度异质性指标下降的最大幅度小于用户指定的幅度节点中样本个数少于用户指定个数第十六页,共二十二页,编辑于2023年,星期五决策树(Hunt算法)拖欠贷款者=否拖欠贷款者=是拖欠贷款者=否拖欠贷款者=否拖欠贷款者=是有房者婚姻状况拖欠贷款者=否拖欠贷款者=否有房者年收入是是否否单身离异已婚<80K≥80K拖欠贷款者=是拖欠贷款者=否拖欠贷款者=否有房者婚姻状况是否单身离异已婚第十七页,共二十二页,编辑于2023年,星期五剪枝前剪枝:停止生长策略后剪枝:在允许决策树得到最充分生长的基础上,再根据一定的规则,自下而上逐层进行剪枝。当分类回归树划分得太细时,会对噪声数据产生过拟合作用。因此我们要通过剪枝来解决第十八页,共二十二页,编辑于2023年,星期五剪枝方法231最小误差剪枝代价复杂性

悲观误差剪枝第十九页,共二十二页,编辑于2023年,星期五代价复杂性剪枝第二十页,共二十二页,编辑于2023年,星期五模型评价

减少在冒险因素或损失因素方面的不确定性。不仅包括不同模型的比较,而且还

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论