人工智能教案05章机器学习5.3符号学习方法_第1页
人工智能教案05章机器学习5.3符号学习方法_第2页
人工智能教案05章机器学习5.3符号学习方法_第3页
人工智能教案05章机器学习5.3符号学习方法_第4页
人工智能教案05章机器学习5.3符号学习方法_第5页
免费预览已结束,剩余6页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

符号学习方法些主要的符号学习方法。记忆学习存储的信息来解决问题。统需要几种力量:能实现有组织的存储信息:该种学习方法必需有一种快速计算该值来得快。能进展信息综合:通常存储对象的数目可能很大,为了使其数目限制在便于治理的范围内,需要有某种综合技术。能掌握检索方向:当存储对象增多时,其中可能有多个对选择,以便把留意力集中到有期望的方向上来。y,作为联想对存储起来,以后再对x作同样的计算时,就可通过查询〔而不是计算〕直接得到y。又如,对于某个事实A,经过某种推理而得到结论B,那么A直接得到B。传授学习已有一些通过某种方式得到的学问,传授学习就是通过人机对习使得系统性能有所转变〔增加,或者是具有了的力量。1981“心牌玩耍”,使用者可以告知系统玩耍的规章以及假设干取胜的建议,如“避开取点”,“假设某个对手已无某种花色的牌,则不要出该种花色的大牌可直接执行的过程。演绎学习演绎学习是基于演绎推理的一种学习。演绎推理是一种保真变演绎学几年才作为独立的学习策略得到争论。A→BB→CA→C,BC去证明,A→C即可。类比学习用事物间的可类比的关系,从已有的学问推导出未知的学问。觉察相像之处,然后利用这种相像关系解决习题中的问题。类比学习的过程包括以下主要步骤:回忆与联想:即当遇到状况或问题时,先通过回忆与建立对应关系:即建立相像的“问题学问”和“求解问题”之间的对应关系,以获得求解问题的学问;验证与归纳:即检验所获得的全部学问的有效性,如觉察确学问,经过推广、归纳等过程取得一般性学问。类比学习又可分为属性类比学习和转化类比学习。框架是一种学问表示的方法。顾名思义,框架是一种构造,习可描述为把原框架中假设干个槽的值传递给另一个目标框架的一些槽中去,这种传递分两步进展:目标框架中去;相像性。最终添入合理有效的内容。。实例学习〔包括正例和反例〕归纳出一般概念或规章的学习方法。〔概念的方法。“全部鸟都是动物”推出“麻雀是动物”,这是演绎推理,前提真结论前提真结论不肯定真。再如,由“麻雀是植物”推出“全部鸟都是植物”,前提假结论必假,这是归纳推理的保假性。此外,对给倾向性、假设和约束最终仅考虑其中少数结论。〔这些实例事先〕,并由这些实例进展归纳推理,并且在一般状况下,可用这些规章指导执行环节的操作。习一般是通过所谓的实例空间和规章空间的相互转化来实现学同时也需要运用实例空间中的实例所供给的启发式信息来引导空间相互作用的过程。实例学习方法。觉察学习〔如书本、教师或专家〕所拥有的学问。觉察学习则是系有简单的问题求解力量。解释学习解释学习是近年〔80年月初〕消灭的一种机器学习方法。解释学习的一般框架是:给定:领域学问、目标概念、训练实例和操作性准则。找出:满足操作性准则的关于目标概念的充分条件。概念进展取舍。整个过程为目标引导,反向推理。chunk。实例为什么是目标概念的证明〔即解释产生这样的学习描述,作为目标概念的有效识别器。推理。过程可以表示为:目标问题→规章一→子目标问题→规章二→。→该“后件”又将成为下一个推导的“前件”,周而复始。解释构造。产生的解释构造的方法有2种:全部的算子构成动作序列,作为解释构造自顶向下的遍历证明树构造的同时进展,也可以在问题求解后进展。解释学习的根本方法之一是:解释和概括交替并行。如下例x可以安全的放置在另一个物体y的上面”〔堆叠问题〕目标概念:Safe-to-stack(x,y)xy上安全堆放训练实例〔obj1和obj2的事实〕:前提:重量、体积、密度,Weight(obj1,0.1)0.1Weight(obj2,5)5Volume(obj1,1)1Density(obj1,0.1)0.1条件Lighter(obj1,obj2)obj1比obj2轻状态On(obj1,obj2)在之上是什么:Is-a(obj1,book)是书Is-a(obj2,table)是桌子〔是把一个物体安全的放置在另一个物体上面的准则:Fragile(y)→Safe-to-stack(x,y)如yxy上Lighter(x,y)→Safe-to-stack(x,y)如x比yxy上以上两条是条件Volume(p,v)∧Density(p,d)∧Product(v,d,w)→Weight(p,w)p的体积vd的乘积为重量Is-a(p,table)→Weight(p,5)p5Weight(p1,w1)∧Weight(p2,w2)∧Smaller(w1,w2)→Lighter(p1,p2)p1的重量与p2的重量比较有p1的比p2的小,则p1比p2轻这两条是计算,乘法计算、比较计算。理,最终得到的解释树就是该例的解释构造。obj2)的解释构造t5-2_swf.htm上图说明系统从目标开头反向推理。依据库中已有的上述〔自顶把该规章应用到变量化的目标概念上。这样,在生成该例子求解的解释构造的同时,也生成了变量的概括的解释构造。由Safe-to-stack(obj1,obj2),查找其条件〔前件〕。由于没有Fragile(y)Lighter(x,y)Lighter(obj1,obj2)。Lighter(obj1,0.1)ΛWeight(obj2,5)ΛSmaller(0.1,5)。连续分别查找各个元素的前件。有前件就填上前件,没得到了解的解释构造树。然后我们对上一步得到的解释构造进展概括化处理,从而概括化处理以后所得到的概括化解释构造如以下图所示。O2)的概括化解释构造t5-3_swf.htm生成解释规章时,全部叶结点的合取作为前件,以顶点的产生式规章。例如:上图得到的规章是Volume(O1,v1)ΛDensity(O1,d1)ΛProduct(v1,d1,w1)ΛIs-a(O2,table)Λsmaller(w1,5)→Safe-to-stack(O1,O2)了即可〔不考虑

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论