机器学习PPT课件_第1页
机器学习PPT课件_第2页
机器学习PPT课件_第3页
机器学习PPT课件_第4页
机器学习PPT课件_第5页
已阅读5页,还剩87页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1,机器学习,学习是人类获取知识的重要途径和自然智能的重要标志,机器学习则是机器获取知识的重要途径和人工智能的重要标志。,.,什么是机器学习,是寻找一种对自然/人工主题、现象或活动可预测且/或可执行的机器理解方法,2,.,什么是机器学习,研究计算机怎样模拟或实现人类(动物)的学习行为,以获取新的知识或技能重新组织已有的知识结构使之不断改善自身的性能是人工智能的核心,是使计算机具有智能的根本途径其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎,3,.,机器学习的一个形象描述,4,.,机器学习的一般泛型,监督学习必须预先知道学习的期望结果,并依此按照某一学习规则来修正权值。知道输入数据,知道结果,用函数预测个例无监督学习,不知道结果,根据数据特征分类半监督学习是监督学习与无监督学习相结合的一种学习方法。它主要考虑如何利用少量的标注样本和大量的未标注样本进行训练和分类的问题。输入数据不可靠,依据权重的调整进行训练。强化学习利用某一表示“奖惩”的全局信号,衡量与强化输入相关的局部决策如何。(输入输出之间没有固定的函数),5,.,监督学习,决策树(简单问题)人工神经网络(大量样本)支持向量机(小样本),6,.,决策树学习,7,.,决策树学习1什么是决策树决策树(decisiontree)也称判定树,它是由对象的若干属性、属性值和有关决策组成的一棵树。其中的节点为属性(一般为语言变量),分枝为相应的属性值(一般为语言值)。从同一节点出发的各个分枝之间是逻辑“或”关系;根节点为对象的某一个属性;从根节点到每一个叶子节点的所有节点和边,按顺序串连成一条分枝路径,位于同一条分枝路径上的各个“属性-值”对之间是逻辑“与”关系,叶子节点为这个与关系的对应结果,即决策。例如图1就是一棵决策树。其中,A,B,C代表属性,ai,bj,ck代表属性值,dl代表对应的决策。处于同一层的属性(如图中的B,C)可能相同,也可能不相同,所有叶子节点(如图中的dl,l=1,2,6)所表示的决策中也可能有相同者。,8,.,由图1不难看出,一棵决策树上从根节点到每一个叶子节点的分枝路径上的诸“属性-值”对和对应叶子节点的决策,刚好就构成一个产生式规则:诸“属性-值”对的合取构成规则的前提,叶子节点的决策就是规则的结论。例如,图1中从根节点A到叶子节点d2的这一条分枝路径就构成规则:(A=a1)(B=b2)=d2而不同分枝路径所表示的规则之间为析取关系。,9,.,图1决策树示意图,10,.,图2飞机起飞的简单决策树,11,.,例1图3所示是一个描述“兔子”概念的决策树。,图3“兔子”概念的决策树,12,.,2.怎样学习决策树决策树是一种知识表示形式,构造决策树可以由人来完成,但也可以由机器从一些实例中总结、归纳出来,即由机器学习而得。机器学习决策树也就是所说的决策树学习。决策树学习是一种归纳学习。由于一棵决策树就表示了一组产生式规则,因此决策树学习也是一种规则学习。特别地,当规则是某概念的判定规则时,这种决策树学习也就是一种概念学习。,13,.,决策树学习的基本方法和步骤是:首先,选取一个属性,按这个属性的不同取值对实例集进行分类;并以该属性作为根节点,以这个属性的诸取值作为根节点的分枝,进行画树。然后,考察所得的每一个子类,看其中的实例的结论是否完全相同。如果完全相同,则以这个相同的结论作为相应分枝路径末端的叶子节点;否则,选取一个非父节点的属性,按这个属性的不同取值对该子集进行分类,并以该属性作为节点,以这个属性的诸取值作为节点的分枝,继续进行画树。如此继续,直到所分的子集全都满足:实例结论完全相同,而得到所有的叶子节点为止。这样,一棵决策树就被生成。下面我们进一步举例说明。,14,.,表1汽车驾驶保险类别划分实例集,15,.,可以看出,该实例集中共有12个实例,实例中的性别、年龄段和婚状为3个属性,保险类别就是相应的决策项。为表述方便起见,我们将这个实例集简记为,S=(1,C),(2,C),(3,C),(4,B),(5,A),(6,A),(7,C),(8,B),(9,A),(10,A),(11,B),(12,B),其中每个元组表示一个实例,前面的数字为实例序号,后面的字母为实例的决策项保险类别(下同)。另外,为了简洁,在下面的决策树中我们用“小”、“中”、“大”分别代表“21”、“21且25”、“25”这三个年龄段。,16,.,显然,S中各实例的保险类别取值不完全一样,所以需要将S分类。对于S,我们按属性“性别”的不同取值将其分类。由表1可见,这时S应被分类为两个子集:,S1=(3,C),(4,B),(7,C),(8,B),(11,B),(12,B)S2=(1,C),(2,C),(5,A),(6,A),(9,A),(10,A),于是,我们得到以性别作为根节点的部分决策树(见图4(a)。,17,.,考察S1和S2,可以看出,在这两个子集中,各实例的保险类别也不完全相同。这就是说,还需要对S1和S2进行分类。对于子集S1,我们按“年龄段”将其分类;同样,对于子集S2,也按“年龄段”对其进行分类(注意:对于子集S2,也可按属性“婚状”分类)。分别得到子集S11,S12,S13和S21,S22,S23。于是,我们进一步得到含有两层节点的部分决策树(如图4(b)所示)。,18,.,注意到,这时除了S12和S13外,其余子集中各实例的保险类别已完全相同。所以,不需再对其进行分类,而每一个子集中那个相同的保险类别值就可作为相应分枝的叶子节点。添上这些叶子节点,我们又进一步得到发展了的部分决策树(如图4(c)所示)。接着对S12和S13,按属性“婚状”进行分类(也只能按“婚状”进行分类)。由于所得子集S121,S121和S131,S132中再都只含有一个实例,因此无需对它们再进行分类。这时这4个子集中各自唯一的保险类别值也就是相应分枝的叶子节点。添上这两个叶子节点,就得到如图4(d)所示的决策树。,19,.,图4决策树生成过程,20,.,图4决策树生成过程,21,.,图4决策树生成过程,22,.,图4决策树生成过程,23,.,由这个决策树即得下面的规则集:女性且年龄在25岁以上,则给予A类保险.女性且年龄在21岁到25岁之间,则给予A类保险。女性且年龄在21岁以下,则给予C类保险。男性且年龄在25岁以上,则给予B类保险。男性且年龄在21岁到25岁之间且未婚,则给予C类保险。男性且年龄在21岁到25岁之间且已婚,则给予B类保险。男性且年龄在21岁以下且未婚,则给予C类保险。男性且年龄在21岁以下且已婚,则给予B类保险。,24,.,人工神经网络,25,.,人工神经网络,1生物神经元及人工神经元的组成2人工神经网络的模型2.1人工神经元的模型2.2常用的激活转移函数2.3MP模型神经元,26,.,1、生物神经元及人工神经元的组成,神经元也称神经细胞,它是生物神经系统的最基本单元,它和人体中其他细胞的关键区别在于具有产生、处理和传递信号的功能。每个神经元都包括三个主要部分:细胞体、树突和轴突,见图5(a)。,27,.,目前多数人工神经网络的构造大体上都采用如下的一些原则:,由一定数量的基本神经元分层联接;每个神经元的输入、输出信号以及综合处理内容都比较简单;网络的学习和知识存储体现在各神经元之间的联接强度上。,28,.,2、人工神经网络的模型,2.1人工神经元的模型神经元是人工神经网络的基本处理单元,它一般是一个多输入/单输出的非线性元件。神经元输出除受输入信号的影响外,同时也受到神经元内部因素的影响,所以在人工神经元的建模中,常常还加有一个额外输入信号,称为偏差,有时也称为阈值或门限值。,29,.,神经元的输出矢量可以表示为:A=f(W*P+b)=f(wjpj+b)可以看出偏差被简单地加在W*P上作为激活函数的另一个输入分量。实际上偏差也是一个权值,只是它具有固定常数为1的权值。在网络的设计中,偏差起着重要的作用,它使得激活函数的图形可以左右移动,从而增加了解决问题的可能性。,人工神经网络的学习就是过程就是对它的训练过程,30,.,2.2激活转移函数,激活转移函数f(Activationtransferfunction)简称激活函数,它是一个神经元及神经网络的核心之一。神经网络解决问题的能力与功效除了与网络结构有关外,在很大程度上取决于网络激活函数。线性函数、非线性斜面函数、阈值函数、S形函数,31,.,人工神经网络,人工神经网络是对人类神经系统的一种模拟。尽管人类神经系统规模宏大、结构复杂、功能神奇,但其最基本的处理单元却只有神经元。人工神经系统的功能实际上是通过大量神经元的广泛互连,以规模宏伟的并行运算来实现的。基于对人类生物系统的这一认识,人们也试图通过对人工神经元的广泛互连来模拟生物神经系统的结构和功能。人工神经元之间通过互连形成的网络称为人工神经网络。在人工神经网络中,神经元之间互连的方式称为连接模式或连接模型。它不仅决定了神经元网络的互连结构,同时也决定了神经网络的信号处理方式。,32,.,人工神经网络的分类,目前,已有的人工神经网络模型至少有几十种,其分类方法也有多种。例如,若按网络拓扑结构,可分为无反馈网络与有反馈网络;若按网络的学习方法,可分为有导师学习网络和无导师学习网络;若按网络的性能,可分为连续型网络与离散型网络,或分为确定性网络与随机型网络;若按突触连接的性质,可分为一阶线性关联网络与高阶非线性关联网络。,33,.,无导师学习:当两个神经元同时处于激发状态时被加强,否则被减弱。它学习的是神经元之间的连接强度。有导师学习:输入向量与其输出向量构成一个训练对,不断调整权值,使输入与输出向量在一个误差范围内。,34,.,人工神经网络的局限性,人工神经网络是一个新兴学科,因此还存在许多问题。其主要表现有:受到脑科学研究的限制:由于生理实验的困难性,因此目前人类对思维和记忆机制的认识还很肤浅,还有很多问题需要解决;还没有完整成熟的理论体系;还带有浓厚的策略和经验色彩;与传统技术的接口不成熟。上述问题的存在,制约了人工神经网络研究的发展。,35,.,2.3MP神经元模型,MP神经元模型是由美国心理学家McClloch和数学家Pitts共同提出的,因此,常称为MP模型。MP神经元模型是典型的阈值型神经元,见图7,它相当于一个多输入单输出的阈值器件。,36,.,如图7所示,假定p1,p2,pn表示神经元的n个输入;wi表示神经元的突触连接强度,其值称为权值;n表示神经元的输入总和,f(n)即为激活函数;a表示神经元的输出,b表示神经元的阈值,那么MP模型神经元的输出可描述为(1)式所示:,37,.,MP模型神经元是二值型神经元,其输出状态取值为1或0,分别代表神经元的兴奋和抑制状态。如果n0,即神经元输入加权总和超过某个阈值,那么该神经元兴奋,状态为1;如果n0,那么该神经元受到抑制,状态为0。通常,将这个规定称为MP模型神经元的点火规则。用一数学表达式表示为:,对于MP模型神经元,权值w在(1,1)区间连续取值。取负值表示抑制两神经元间的连接强度,正值表示加强。,(2),38,.,MP模型神经元具有什么特性?能完成什么功能?,为了回答这个问题,我们以简单的逻辑代数运算为例来说明。,39,.,例1假设一个MP模型神经元有2个输入:p1和p2,其目标输出记为t,试问它能否完成下列真值表功能?,解:根据要求,神经元的权值和阈值必须满足如下不等式组:若取b值为0.5,W1和W2取0.7。可以验证用这组权值和阈值构成的2输入MP模型神经元能够完成该逻辑“或”运算。,40,.,如同许多代数方程一样,由MP模型激活函数得出的不等式具有一定的几何意义,所有输入样本构成样本输入空间。对于任意特定W和P的值都规定了一个超平面(决策平面),其方程为:它把超平面Rn(XRn)分成了两部分:WX-b0;当x点在超平面的负侧时,g(x)0,(i1,n),则对任何事件BS,有,式子就称为贝叶斯公式。,贝叶斯定理回顾,72,.,例子:已知某种疾病的发病率为0.1%,该种疾病患者一个月以内的死亡率为90%;且知未患该种疾病的人一个月以内的死亡率为0.1%;现从人群中任意抽取一人,问此人在一个月内死亡的概率是多少?若已知此人在一个月内死亡,则此人是因该种疾病致死的概率为多少?,贝叶斯定理回顾,73,.,贝叶斯公式给出了结果事件B已发生的条件下,原因属于事件Ai的条件概率.从这个意义上讲,它是一个“执果索因”的条件概率计算公式.相对于事件B而言,概率论中把P(Ai)称为先验概率(PriorProbability),而把P(Ai|B)称为后验概率(PosteriorProbability),这是在已有附加信息(即事件B已发生)之后对事件发生的可能性做出的重新认识,体现了已有信息带来的知识更新.,贝叶斯定理回顾,74,.,分类问题,这个人会不会逃税?,75,.,分类问题,76,.,贝叶斯分类方法,把每一个属性(输入)和分类变量(输出)都看作随机变量对于具有属性值(A1,A2,An)的观测记录目标是预测类别C特别地,我们想找能够最大化P(C|A1,A2,An)的C值能否从直接数据中估计P(C|A1,A2,An)?,77,.,方法:使用贝叶斯定理对于分类变量C的所有值计算后验概率P(C|A1,A2,An),选择C使得P(C|A1,A2,An)最大等价于选择C使得P(A1,A2,An|C)P(C)最大如何估计P(A1,A2,An|C)?,贝叶斯分类方法,78,.,简单贝叶斯,假设在给定的类别上属性变量Ai相互独立:P(A1,A2,An|C)=P(A1|Cj)P(A2|Cj)P(An|Cj)对所有的Ai和Cj计算P(Ai|Cj).如果对某一个Cj,P(Cj)P(Ai|Cj)最大,新的数据点就被分类到Cj。,79,.,分类问题1,类别:P(Ck)=Nk/N例如,P(C=否)=7/10,P(C=是)=3/10Nk是类别C=Ck.的数量对离散属性:P(Ai|Ck)=|Aik|/Nk|Aik|是属性值为Ai且属于Ck的记录数量例如:P(婚姻状况=婚姻中|否)=4/7P(去年退税=是|是)=0,80,.,对于连续属性:(sqlserver不能处理连续型属性)离散化把属性的范围划分为许多段:每一段设定一个有序值这样会违反独立性假设估计概率密度假定属性服从正态分布估计该属性分布的参数(例如,均值和标准差)在得到概率密度之后,我们可以使用它估计条件概率P(Ai|c),分类问题1,81,.,每一对(Ai,ci)的正态分布:例如对于(收入,逃税=否):在逃税=否的情况下,可征税收入的样本均值=110样本方差=2975,分类问题1,82,.,思路:看p(逃税=否|X)是否大于p(逃税=是|X)p(逃税=否|X)=p(逃税=否)P(X|逃税=否)/p(B)p(逃税=是|X)=p(逃税=是)P(X|逃税=是)/p(B)P(X|逃税=否)=P(去年退税=否|逃税=否)P(婚姻中|逃税=否)P(收入=120K|逃税=否)P(X|逃税=是)=P(去年退税=否|逃税=是)P(婚姻中|逃税=是)P(收入=120K|逃税=是),分类问题1,83,.,P(X|逃税=否)=P(去年退税=否|逃税=否)P(婚姻中|逃税=否)P(收入=120K|逃税=否)=4/74/70.0072=0.0024P(X|逃税=是)=P(去年退税=否|逃税=是)P(婚姻中|逃税=是)P(收入=120K|逃税=是)=101.210-9=0因为:P(X|否)P(否)P(X|是)P(是)0.0024*0.30*0.7所以:P(否|X)P(是|X)=逃税=否,84,.,A:(胎生是,会飞否,水中生活是,有腿否)M:哺乳动物N:非哺乳动物,P(A|M)P(M)P(A|N)P(N)=哺乳动物,分类问题,85,.,这个算法之所以称为“朴素”,是因为所有属性的重要性是一样的,没有谁高谁低一说。它是一种运用算术原则来理解数据的方法对此算法的另一个理解就是:所有属性都是独立的,互不相关的。从字面来看,该算法只是计算所有属性之间的关联。虽然该算法既可用于预测也可用于分组,但最常用于模型构建的早期阶段,更常用于分组而不是预测某个具体的值。通常要将所有属性标记为简单输入或者既是输入又是可预测的,因为这就可以要求算法在执行的时候考虑到所有属性,86,.,很常见的一种情况是,在输入中包含大量属性

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论