人工智能第五部分.ppt_第1页
人工智能第五部分.ppt_第2页
人工智能第五部分.ppt_第3页
人工智能第五部分.ppt_第4页
人工智能第五部分.ppt_第5页
已阅读5页,还剩125页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、1,第五部分 不确定性推理,2,在现实世界中,能够进行精确描述的问题只占较少一部分,而大多数问题是非精确、非完备的。对于这些问题,若采用确定性推理方法显然是不行的。为此,人工智能需要研究非精确性的推理方法,以满足客观问题的需求。,3,不确定性推理的基本概念 不确定性推理的概率论基础 可信度理论 主观贝叶斯方法 证据理论,内容提要,4,一. 不确定性推理的含义 二. 不确定性推理中的基本问题 三. 不确定性推理的类型,1. 不确定性推理的基本概念,5,不确定性是智能问题的一个本质特征,研究不确定性推理是人工智能的一项基本内容。本节讨论: 不确定性推理的含义 不确定性推理中的基本问题 不确定性推理

2、的基本类型,6,一. 不确定性推理的含义 不确定性推理是指那种建立在不确定性知识和证据的基础上的推理。例如,不完备、不精确知识的推理,模糊知识的推理等。 不确定性推理实际上是一种从不确定的初始证据出发,通过运用不确定性知识,最终推出具有一定程度的不确定性但却又是合理或基本合理的结论的思维过程。,采用不确定性推理是客观问题的需求,其原因包括以下几个主要方面:,7,(l)所需知识不完备、不精确 在很多情况下,解决问题所需要的知识往往是不完备、不精确的。 所谓知识的不完备是指在解决某一问题时,不具备解决该问题所需的全部知识。例如,医生在看病时,一般是从病人的部分症状开始诊断的。 所谓知识的不精确是指

3、既不能完全确定为真,也不能完全确定为假。例如,专家系统中的知识多为专家经验,而专家经验又多为不确定性知识。 对于这些不精确、不完备知识,采用确定性推理的方法是无法处理的。,8,(2)所需知识描述模糊 知识描述模糊是指知识的边界不明确。例如,平常人们所说的“很好”、“好”、“比较好”、“不很好”、“不好”、“很不好”等概念,其边界都是比较模糊的。那么,当用这类概念来描述知识时,所描述的知识当然也是模糊的。 例如,“如果李清这个人比较好,那么我就把他当作好朋友”所描述的就是一个比较模糊的知识。显然,像这类知识采用确定性推理也是无法处理的。,9,(3)多种原因导致同一结论 在现实世界中,可由多种不同

4、原因导出同一结论的情况是很多的。例如,引起人体低烧的原因至少有几十种,医生在看病时只能根据病人的症状,低烧的持续时间和方式,以及病人的体质、病史等做出猜测性的推断。像这样的推理,不可能是精确的。,10,(4)问题的背景知识不足 问题的背景知识一般是指与该问题有关的历史情况、实现机理、存在环境等方面的知识。 例如,人类目前对一些疾病的机理尚未完全搞清,因此,在预防、检查、诊断、治疗这些疾病方面只能作不确定性推理。,11,(5)解题方案不唯一 现实生活中的问题一般都存在着多种不同的解决方案,并且这些方案之间又很难绝对地判断其优劣。对于这些情况,人们往往是优先选择主观上认为相对较优的方案,这也是一种

5、不确定性推理。,12,总之,在人类的知识和思维行为中,确定性只能是相对的,而不确定性才是绝对的。 人工智能要解决这些不确定性问题,必须采用不确定性的知识表示和推理方法。,13,二不确定性推理中的基本问题 在不确定性推理中,除了需要解决在确定性推理中所提到的推理方向、推理方法、控制策略等基本问题外,一般还需要解决不确定性的表示与度量、不确定性的匹配、不确定性的传递算法以及不确定性的合成等问题。,(1)不确定性的表示 不确定性的表示包括知识的不确定性表示和事实的不确定性表示。,14,A.知识的不确定性表示 知识不确定性的表示方式是与不确定性推理方法密切相关的一个问题。在选择知识的不确定性表示方式时

6、,通常需要考虑以下两个方面的因素: 一是要能够比较准确地描述问题本身的不确定性; 二是要便于推理过程中不确定性的计算 对这两个方面的因素,一般是将它们结合起来综合考虑的,只有这样才会得到较好的表示效果。,15,在不确定性知识表示中,知识的不确定性通常表示为一个数值,它表示相应知识的确定性程度,亦称为知识的静态强度。 知识的静态强度可以是该知识在应用中成功的概率,也可以是该知识的可信程度等。 如果用知识在应用中成功的概率来表示静态强度,则其取值范围为 O,1 该值越接近于1,说明该知识越接近于“真”;其值越接近于O,说明该知识越接近于“假”。 如果用知识的可信度来表示静态强度,则其取值范围为-1

7、,1当该值大于O,越大说明该识越接近于“真”,当其值小于O时,值越小说明知识越接近于“假”。在实际应用中,知识的不确定性是由领域专家给出的。,16,B.证据的不确定性表示 推理中的证据有两种来源: 一种是用户在求解问题时所提供的初始证据,如病人的症状、检查结果等; 另一种是在推理中得出的中间结果,即把当前推理中所得到的中间结论放入综合数据库,并作为以后推理的证据来使用。,一般来说,证据的不确定性表示应该与知识的不确定性表示保持一致,以便推理过程能对不确定性进行统一处理。 证据的不确定性可以用概率来表示,也可以用可信程度等来表示,其意义与知识的不确定性类似。,17,(2)不确定性的匹配 推理过程

8、实际上是一个不断寻找和运用可用知识的过程。所谓可用知识,是指其前提条件可与综合数据库中的已知事实相匹配的知识。只有匹配成功的知识才可以被使用。 在不确定性推理中,由于知识和证据都是不确定的,而且知识所要求的不确定性程度与证据实际所具有的不确定性程度不一定相同,那么,怎样才算匹配成功呢? 常用的解决方法是:设计一个用来计算匹配双方相似程度的算法,并给出一个相似的限度,如果匹配双方的相似程度落在规定的限度内,则称匹配双方是可匹配的,否则称匹配双方是不可匹配的。,18,(3)组合证据不确定性的计算 在不确定性的系统中,知识的前提条件既可以是简单的单个条件,也可以是复杂的组合条件。当进行匹配时,一个简

9、单条件只对应于一个单一的证据,一个复合条件将对应于一组证据。 另外,结论的不确定性是通过对证据和知识的不确定性进行某种运算得到的,因此,当知识的前提条件为组合条件时,需要有合适的算法来计算复合证据的不确定性。 用来计算复合证据不确定性的主要方法有:最大最小方法、概率方法和有界方法等。将在后面分别进行详细讨论。,19,(4)不确定性的更新 在不确定性推理中,由于证据和知识均是不确定的,那么就存在以下两个问题:,在推理的每一步如何利用证据和知识的不确定性去更新结论的不确定性; 在整个推理过程中如何把初始证据的不确定性传递给最终结论。,20,对于第一个问题,一般做法是按照某种算法由证据和知识的不确定

10、性计算出结论的不确定性,至于其计算办法,不同不确定性推理方法中的处理方式各有不同,这些内容将在以后几节中分别进行讨论。,对于第二个问题,不同不确定性推理方法的做法基本相同,都是把当前推出的结论及其不确定性作为证据放入综合数据库,供以后推理使用。由于推理第一步得出的结论是由初始证据推出的,该结论的非精确性当然要受初始证据的不确定性的影响,而把它放人综合数据库作为新的证据进一步推理时,该不确定性又会传递给后面的结论,如此进行下去,就会把初始证据的不确定性逐步传递到最终结论。,21,(5)不确定性结论的合成 在不确定性推理过程中,很可能会出现由多个不同知识推出同一结论,且该结论的不确定性程度有多个不

11、相同的情况。这时,需要采用某种算法对该结论的不确定性进行合成。具体的合成算法,将在相应的不确定性推理方法中分别进行讨论。,以上问题是不确定性推理中需要考虑的一些基本问题,但也并非每种不确定性推理方法都必须全部包括这些内容。实际上,不同的不确定性推理方法所包括的内容可以不同,并且对这些问题的处理方法也可以不同。,22,三. 不确定性推理的类型 目前,关于不确定性推理的类型有多种不同的分类方法,如果按照是否采用数值来描述非精确性,可将其分为数值方法和非数值方法两大类型。 数值方法是一种用数值对非精确性进行定量表示和处理的方法。人工智能对它的研究和应用较多,目前已形成了多种不确定性推理模型。 非数值

12、方法是指除数值方法以外的其他各种方法对不确定性进行表示和处理。,23,对于数值方法,按其所依据的理论分为两类: 一类是基于概率论的有关理论发展起来的方法,称为基于概率的模型,如可信度方法、主观Bayes方法、证据理论等; 另一类是基于模糊逻辑理论发展起来的可能性理论方法,称为模糊推理。,24,2. 不确定性推理的概率论基础,25,基于概率论的不确定性推理方法是下面讨论的重点。为了更好地理解这些方法,先介绍与不确定性推理有关的概率论方面的基础知识。 概率论是研究随机现象中数量规律的一门学科。所谓随机现象是指在相同条件下重复进行某种试验时,所得试验结果不一定完全相同且不可预知的现象。 例如,在做掷

13、币试验时,其结果是正面向上还是反面向上,只有当该硬币落稳后才能确定,事先是很难准确预言的。在随机现象中,试验结果所呈现的这种不确定性称为随机性。,26,1.样本空间与随机事件 样本空间 在概率论中,把试验中每一个可能出现的结果称为试验的一个样本点,由全体样本点构成的集合称为样本空间。通常,用D表示样本空间,d表示样本点。,例如在掷币试验中,若用d1表示硬币的正面向上,用d2表示硬币的反面向上,则该试验的样本空间为 D=d1,d2 这是一个样本空间为有限的例子。在某些试验中,样本空间中样本点的个数可能是无限的。无论样本空间中的样本点是有限的还是无限的,在每次随机试验中,其样本空间中的样本点只能有

14、一个出现。,27,随机事件 在实际问题中,人们所关心的不仅仅是某个样本点所代表的结果是否会出现,更重要是由某些样本点构成的集合所代表的事物是否会出现。在概率论中,把由样本点构成的集合称为随机事件,简称为事件。事件通常用大写英文字母A,B,C等表示。例如,若用A表示“硬币的正面向上”这一事件,则 A=d1 对两个事件A与B,如果事件表达的是“事件A与事件B至少有一个发生”,则称该事件为 A与 B的并事件,记为 AB。可见,并事件是由 A与 B的所有样本点共同构成的事件。 如果事件表达的是“事件A与事件B同时发生”,则称该事件为A与B的交事件,记为AB。可见,交事件是由既属于A同时又属于B的所有样

15、本点构成的事件。 如果事件A与B之间满足“AB=,AB=D”,则称A与B为互逆事件,记作A=B或B=A。在每次随机试验中,A与A中有且仅有一个发生。,28,2. 事件的概率 对一般的随机事件,尽管每一次试验的结果是随机的,但当这一试验一直重复进行时,就会发现它具有某种统计规律,即一个事件发生的可能性会稳定在某一个数的附近。 例如,对掷币试验,有人曾连续掷了1000O次,结果正面向上的次数为4979次。又有人连续掷了8O640次,结果正面向上的次数为39699次。可以发现,当这一试验进行的次数足够多时,硬币正面向上的可能性会稳定在5O左右。 为了描述随机事件的统计规律,可用一个数来表示事件发生的

16、可能性,这个表示事件发生可能性大小的数就称为事件的概率。 事件的概率可分为多种类型,这里主要讨论在非精确性推理中应用较多的统计概率和条件概率。,29,统计概率 统计概率是通过某一事件出现的频率定义的。一个事件出现的频率可描述为 fn(A)=m/n其中,A是所讨论的事件;n是进行试验的总次数;m是试验中事件A发生的次数。有了事件出现的频率,就可以定义统计概率了。,【定义1】在同一组条件下进行大量重复试验时,如果事件A出现的频率fn(A) 总是在区间O,1上的一个确定常数p附近摆动,并且稳定于p,则称p为事件A的统计概率。即 P(A)=p 例如,在掷币试验中,当掷币次数足够多时有 fn(正面向上)

17、=O5 则称正面向上的概率为O5,即 P(正面向上)=O5,30,非精确性推理用到统计概率的如下性质: (1)对任一事件A,有 0 P(A)1 (2)必然事件D的概率P(D)=1,不可能事件的概率P( )=O。 (3)对任一事件A,有 P(A)=1P(A) (4)设事件A1,A2,Ak(kn)是两两互不相容的事件,即有AiAj= (ij),则 P( )=P(A1)+P(A2)+P(Ak) (5)设A、B是两个事件,则 P(AB)=P(A)P(B)P(AB),31,条件概率 设A与B是某个随机试验中的两个事件,如果在事件B发生的条件下考虑事件A发生的概率,就称它为事件 A的条件概率,记为 P(A

18、B)。,32,例1 设样本空间 D是扑克牌中的54张牌,即 D= 红桃A,方块A,黑桃A,梅花A,红桃2,方块2,小王,大王 且有以下两个事件 A= 取花脸牌 B= 取红桃牌 求在事件B发生的条件下事件A发生的概率P(AB)。,解:由于事件B已经发生,因此以下事件: 取到红桃A;取到红桃2;取到红桃3;取到红桃K中必有一个出现。 而对事件A,在事件B发生的前提下,只有以下事件中的一个发生时事件A才能发生: 取到红桃J;取到红桃Q;取到红桃K因此,在事件B发生的条件下事件A发生的概率是313。,33,从上述例子可以看出,在事件B发生的条件下事件A的条件概率,是把B的样本点作为新的样本空间D1,然

19、后在D1上求出事件AB的概率。它可用定义描述如下。,【定义2】设A与B是两个事件,P(B)O,则称 P(AB)= P(AB)/P(B) 为在事件B已发生的条件下事件A的条件概率。,34,全概率公式与Bayes公式 全概率公式【定理1】设事件A1,A2,An满足: (1)任意两个事件都互不相容,即当ij时,有 AiAj=(i=1,2,3,n;j=1,2,3,n); (2)P(Ai) 0 (i1, 2, n); (3) D= 则对任何事件B有下式成立: P(B)= 该公式称为全概率公式,它提供了一种计算P(B)的方法。,35,Bayes公式 【定理2 】 设事件A1,A2,An满足定理1规定的条件

20、,则对任何事件B有下式成立: P(Ai)*P(B/Ai) P(Ai/B)=- i=1,2,3,n; 该定理称为Bayes定理,该公立称为Bayes公式。 在Bayes公式中,P(Ai)是事件Ai的先验概率,P(B/Ai)是在事件Ai发生条件下事件B的条件概率;P(Ai/B)是在事件B发生条件下事件Ai的条件概率。 如果把全概率公式代入 Bayes公式中,就可得到 P(Ai)*P(B/Ai) P(Ai/B)=- i l,2,n P(B) 即 P(Ai/B)*P(B)P(B/Ai)*P(Ai) i1,2,n这是Bayes公式的另一种形式。,36,Bayes定理给出了用逆概率 P(BAi)求原概率

21、P(AiB)的方法。 假设用 B代表咳嗽,Ai代表肺炎,若要得到在咳嗽的人中有多少是患肺炎的,就相当于求 P(AiB)。由于患咳嗽的人较多,因此需要做大量的统计工作。但是,如果要得到患肺炎的人中有多少人是咳嗽的,则要容易得多,原因是在所有咳嗽的人中只有一小部分是患肺炎的,即患肺炎的人要比咳嗽的人少得多。Bayes定理非常有用,后面将要讨论的主观Bayes方法,就是在其基础上提出来的。,37,一. 可信度的概念 二. C-F模型 三. 带加权因子的可信度推理,3. 可信度理论,38,可信度理论(Confirmation Theory)是由美国斯坦福大学肖特里菲(E.H.Shortlffe)等人在

22、考察了非概率的和非形式化的推理过程后于1975年提出的一种不确定性推理模型,并于1976年首次在血液病诊断专家系统MYCIN中得到了成功应用。 在不确定性理论中,不确定性是用可信度来表示的,因此称其为可信度方法。它是不确定性推理中使用最早、最简单且又十分有效的一种推理方法。目前,有许多成功的专家系统都是基于这一方法建立起来的。 本节首先讨论可信度的概念,以及基于可信度表示的不确定性推理方法(即CF模型),然后再讨论可信度方法的一些其他问题。,39,一.可信度的概念 可信度是指人们根据以往经验对某个事物或现象为真的程度的一个判断,或者说是人们对某个事物或现象为真的相信程度。 例如,沈强昨天没来上

23、课,他的理由是因为头疼。就此理由而言,只有以下两种可能:一种是沈强真的头疼了,即理由为真;另一种是沈强根本没有头疼,只是找个借口而已,即理由为假。但就听话的人来说,对沈强的理由可能完全相信,也可能完全不信,还可能是在某种程度上相信,这与沈强过去的表现和人们对他积累起来的看法有关。这里的相信程度就是可信度。,40,显然,可信度具有较大的主观性和经验性,其准确性是难以把握的。但是,对某一具体领域而言,由于该领域专家具有丰富的专业知识及实践经验,要给出该领域知识的可信度还是完全有可能的。因此,可信度方法不失为一种实用的不确定性推理方法。,41,二. CF模型 CF模型是肖特里菲等人在可信度理论的基础

24、上,结合概率论和模糊集合论等方法提出的一种基本的不确定性推理方法。下面讨论其知识表示和推理问题。(1)知识不确定性的表示 在CF模型中,知识是用产生式规则表示的,其一般形式为: IF E THEN H ( CF(H,E) 其中,E是知识的前提条件;H是知识的结论;CF(H,E)是知识的可信度。对它们简单说明如下:,42,1)前提条件E可以是一个简单条件,也可以是由合取和析取构成的复合条件。例如 E(E1 OR E2)AND E3 AND E4就是一个复合条件。 2)结论H可以是一个单一的结论,也可以是多个结论。 3)可信度 CF(Certainty Factor简记为 CF)又称为可信度因子或

25、规则强度,它实际上是知识的静态强度。CF(H,E)的取值范围是-1,l,其值表示当前提条件E所对应的证据为真时,该前提条件对结论H为真的支持程度。CF(H,E)的值越大,对结论H为真的支持程度就越大。,例如 IF 发烧 AND 流鼻涕 THEN 感冒 ( 0.8)表示当某人确实有“发烧”及“流鼻涕”症状时,则有8O的把握是患了感冒。可见,CF(H,E)反映的是前提条件与结论之间的联系强度,即相应知识的知识强度。,43,(2)可信度的定义 在C-F模型中,把CF(H,E)定义为 CF(H,E)= MB(H,E)- MD(H,E) 其中,MB(Measure Belief简记为 MB)称为信任增长

26、度,它表示因为与前提条件 E 匹配的证据的出现,使结论H为真的信任增长度。MB(H,E)定义为: 1 , 若P(H)= 1 MB(H,E) = maxP(H/E),P(H)-P(H) 1-P(H) ,否则,44,MD(Measure Disbelief简记为 MD)称为不信任增长度,它表示因为与前提条件E匹配的证据的出现,对结论H的不信任增长度。 MD(H,E)定义为: 1, 若 P(H)= 0 MD(H,E) = min(P(H/E),P(H))-P(H) -P(H) ,否则 在以上两个式子中,P(H)表示H的先验概率;P(H/E)表示在前提条件E所对应的证据出现的情况下,结论H的条件概率。

27、,45,由MB与MD的定义可以看出: 当MB(H,E)O时,有P(H/E)P(H),这说明由于E所对应的证据的出现增加了H的信任程度。此时MD(H,E)=0。 当MD(H,E)O时,有P(H/E)P(H),这说明由于E所对应的证据的出现增加了H的不信任程度。此时MB(H,E)=0。 根据前面对CF(H,E)、MB(H,E)、MD(H,E)的定义,可得到CF(H,E)的计算公式: MB(H,E)=(P(H/E)-P(H)/(1-P(H) ,若P(H/E)P(H) CF(H,E)= 0 ,若P(H/E)=P(H) -MD(H,E)=-(P(H)-P(H/E)/P(H) ,若P(H/E)P(H),4

28、6,从此公式可以看出: 若CF(H,E)O,则P(H/E)P(H)。说明由于前提条件E所对应证据的出现增加了H为真的概率,即增加了H的可信度,CF(H,E)的值越大,增加 H为真的可信度就越大。 若 CF(H,E)=O,则 P(H/E)=P(H),即 H的后验概率等于其先验概率,它说明 E所对应的证据与H无关。 若CF(H,E)0,则P(H/E) P(H)。这说明由于前提条件E所对应证据的出现减少H为真的概率,即增加了H为假的可信度, CF(H,E)的值越小,增加H为假的可信度就越大。,47,P(H) P(H/E),1,1,-1,0,MB,MD,CF=MB-MD,48,根据以上对CF、MB、M

29、D的定义,可得到其性质: 1)互斥性 对同一证据,它不可能既增加对H的信任程度,又同时增加对H的不信任程度,这说明MB与MD是互斥的。即有如下互斥性: 当MB(H,E)O时,MD(H,E)=0 当MD(H,E)O时,MB(H,E)=O 2)值域 0MB(H,E)1 0MD(H,E)1 -1CF(H,E)1 3)典型值 当CF(H,E)=1时,有P(HE)=1,它说明由于E所对应证据的出现使H为真。此时,MB(H,E)=1,MD(H,E)=O。 当CF(H,E)=1时,有P(HE)=O,说明由于E所对应证据的出现使H为假。此时,MB(H,E) O, MD(H,E) 1。 当CF(H,E)=O时,

30、有MB(H,E)=O,MD(H,E)=0。前者说明E所对应证据的出现不证实H,后者说明E所对应证据的出现不否认H。,H和E无关,49,4)对H的信任增长度等于对非H的不信任增长度 根据MB、MD的定义及概率的性质有 MD(H/E)=(P(H,E)-P(H)/(-P( H) =(1-P(H/E) (1-P(H)/(P(H) - 1) =(P(H) -P(H/E)/(P(H) - 1) =(-(P(H,E) -P(H)/-(1 - P(H)=MB(H,E) 再根据CF的定义及MB、MD的互斥性有: CF(H,E) CF( H,E) MB(H,E) MD(H,E) MB( H,E) MD( H,E)

31、 0,可信度不是概率,50,该公式说明了以下三个问题: 对H的信任增长度等于对非H的不信任增长度; 对H的可信度与对非H的可信度之和等于O; 可信度不是概率。对概率有 P(H)P( H)=1且 OP(H),P( H) 1 而可信度不满足此条件。5)对同一前提E,若支持若干个不同的结论H1,H2,Hn,则 CF(Hi,E) 1 i=1,2,n 因此,如果发现专家给出的知识有如下情况 CF(H1,E)O.7, CF(H2,E)O.4则因O.7O.4=1l1为非法,应进行调整或规范化。,51,最后需要指出,在实际应用中P(H)和P(HE)的值是很难获得的,因此CF(H,E)的值应由领域专家直接给出。

32、 其原则是:若相应证据的出现会增加H为真的可信度,则CF(H,E)O,证据的出现对H为真的支持程度越高,则CF(H,E)的值越大;反之,证据的出现减少H为真的可信度,则CF(H,E)0,证据的出现对H为假的支持程度越高,就使CF(H,E)的值越小;若相应证据的出现与H无关,则使CF(H,E)=0。,52,(3)证据不确定性的表示 在CF模型中,证据的不确定性也是用可信度因子来表示的,其取值范围同样是-1,1。证据可信度的来源有以下两种情况: 如果是初始证据,其可信度是由提供证据的用户给出的; 如果是先前推出的中间结论又作为当前推理的证据,则其可信度是原来在推出该结论时由不确定性的更新算法计算得

33、到的。,53,对初始证据E,若对其所有观察e能肯定它为真,则使CF(E)=1;若它以某种程度为真,则使CF取区间(O,1)中的某一个值,即0CF(E) l;若肯定它为假,则使CF(E)=-1;若它以某种程度为假,则使CF取区间(l,O)中的某一个值,即一lCF(E) 0 ;若对其所有观察e都与它无关,则使CF(E)=O。 可见,CF(E)所描述的是证据的动态强度。尽管它和知识的静态强度在表示方法上类似,但二者的含义却完全不同。知识的静态强度CF(H,E)表示的是知识的强度,即当E所对应的证据为真时对H的影响程度,而动态强度CF(E)表示的是证据E当前的不确定性程度。,54,(4)组合证据不确定

34、性的计算 对证据的组合形式可分为“合取”与“析取”两种基本情况。 当组合证据是多个单一证据的合取时,即 EE1 AND E2 AND AND En时,若已知CF(E1),CF(E2),CF(En),则 CF(E)minCF(E1), CF(E2),CF(En) 当组合证据是多个单一证据的析取时,即 EE1 OR E2 OR OR En 时,若已知CF(E1),CF(E2),CF(En),则 CF(E)=maxCF(E1), CF(E2),CF(E n),55,56,(5)不确定性的更新 CF模型中的不确定性推理实际上是从不确定性的初始证据出发,不断运用相关的不确定性知识,逐步推出最终结论和该结

35、论的可信度的过程。 每一次运用不确定性知识,都需要由证据的不确定性和知识的不确定性去计算结论的不确定性。,57,其计算公式如下: CF(H)=CF(H,E)* max 0,CF(E) 由上式可以看出,若CF(E)0,即相应证据以某种程度为假,则 CF(H)O 。 这说明在该模型中没有考虑证据为假时对结论H所产生的影响。 另外,当证据为真即CF(E)=1时,由上式可推出 CF(H)=CF(H,E) 。这说明,知识中的规则强度CF(H,E)实际上就是在前提条件对应的证据为真时结论H的可信度。,58,(6)结论不确定性的合成 如果可由多条知识推出一个相同结论,并且这些知识的前提相互独立,结论的可信度

36、又不相同,则可用不确定性的合成算法求出该结论的综合可信度。 其合成过程是先把第一条与第二条合成,然后再用该合成后的结论与第三条合成,依次进行下去,直到全部合成为止。由于多条知识的合成是通过两两合成来实现的,因此下面仅考虑对两条知识进行合成的情况。,59,设有如下知识: IF E1 THEN H (CF(H, E1 ) IF E2 THEN H (CF(H, E2 ) 则结论 H 的综合可信度可分以下两步计算; (1)分别对每条知识求出其CF(H)。即 CF1(H)= CF(H,E1)* maxO,CF(E1) CF2(H)= CF(H,E2)* max0,CF(E2) (2)用如下公式求E1与

37、E2对H的综合可信度 CF1(H)+CF2(H)-CF1(H)*CF2(H) ,若CF10,CF20 CF1(H)+CF2(H)+CF1(H)*CF2(H) ,若CF10,CF20 CF(H)= CF1(H)+CF2(H) 1-min|CF1(H)|,|CF2(H)| ,若CF1,CF2异号,60,例2 设有如下一组知识: r1:IF E1 THEN H (0.9) r2:IF E2 THEN H (0.6) r3:IF E3 THEN H (-0.5) r4:IF E4 AND (E5 OR E6) THEN E1 (0.8) 已知:CF(E2)=0.8,CF(E3)=0.6,CF(E4)=

38、0.5,CF(E5)=0.6, CF(E6)=0.8 求:CF(H)=? 解:,61,三. 带加权因子的可信度推理 在前面讨论的方法中,当知识的前提条件为多个子条件的组合时,认为这些子条件之间相对独立,并且对结论的重要程度也完全相同。但是,现实中却并非完全如此。例如,知识: IF 某人发高烧 AND 咳嗽 THEN 他应该多喝水前提中的发高烧和咳嗽这两个子条件之间是存在着依赖关系的。再如: IF 论文有创新 AND 立论正确 AND 文字流畅 THEN 该论文可以发表前提中3个子条件之间的重要程度显然是不同的。 为此,可在知识的前提条件中引入加权因子,对诸子条件给出相应的权重,以说明它们对结论

39、的重要程度。这种方法和前面的不确定性推理方法相比,有以下几个问题需要说明。,62,(1)知识不确定性的表示 在这种不确定性推理方法中,知识的表示形式是 IF E1(1) AND E2 ( 2) AND AND En(n) THEN H CF(H,E) 其中,(i),i=1, 2,n 为加权因子,其取值范围是0,1,该值由领域专家给出。给出i原则是:如果一个子条件的独立性越强,或者对结论的重要程度越高,则该子条件的加权因子就应该越大。但加权因子应该满足归一条件,即 1 +2 +3+ n =1,63,(2)组合证据不确定性的计算 在这种不确定性推理中,证据的不确定性仍然用可信度因子表示,组合证据的

40、可信度可通过计算得到。对于前提条件 E=E1(1) AND E2(2) AND AND En(n) 所对应的组合证据,其可信度由下式计算: CF(E)= CF(E1)*1 +CF(E2)*2+CF(En)*n 如果不满足归一条件,则可信度由下式计算: CF(E)= (CF(E1)*1 +CF(E2)*2+CF(En)*n)/(1+ 2+ n),64,(3)不确定性的更新 按照上面的方法,可以求出加权的组合证据的可信度,有了组合证据的可信度,不确定性的更新算法为 CF(H)CF(H,E)*CF(E)其中,“*”可以是“相乘”运算,也可以是“取极小”或其他合适的运算。,在可信度方法中,除了可以对前

41、提条件或其子条件增加加权因于外,还可以对前提条件或其子条件本身也给出可信度,甚至还可以在知识中增加阈值,用来判断相应知识是否可以被使用。,65,例3 设有如下知识: r1: IF E1(0.6)AND E2(0.4) THEN E5 (0.8) r2: IF E3(0.5)AND E4(0.3)AND E5(0.2)THEN H(0.9)已知: CF(E1)=0.9,CF(E2)=0.8,CF(E3)=0.7,CF(E4)=0.6 求: CF(H)=? 解:,E5,CF(E1 AND E2)=0.9*0.6+0.8*0.4=0.86 CF(E5)=0.86*0.8=0.69,0.69,CF(E

42、3 AND E4 AND E5) =0.7*0.5+0.6*0.3+0.69*0.2=0.67 CF(H)=0.67*0.9=0.60,0.6,66,一. 知识不确定性的表示 二. 证据不确定性表示 三. 组合证据的不确定性计算 四. 不确定性更新 五. 结论不确定性的合成,4. 主观Bayes方法,67,主观 Bayes方法是由杜达(RODuda)等人于1976年提出的一种不确定性推理模型。 根据前面的讨论,如果直接用Bayes公式求P(HE),则需要先求出P(EH),这在实际应用中是比较困难的。 为此,杜达等人在对Bayes公式做了适当改进后,提出了主观Bayes方法,并成功地应用在他自己

43、开发的地矿勘探专家系统PROSPECTOR中。,68,一知识不确定性的表示 (1)知识表示方式 在主观Bayes方法中,知识是用产生式表示的,其形式为 IF E THEN (LS,LN) H其中,(LS,LN)用来表示该知识的知识强度,LS和LN的表示形式分别为:,P(E/H) P(E/H) 1-P(E/H) LS= - LN=- = - P(E/H) P(E/H) 1-P(E/H),LS和LN的取值范围均为0,)。,69,下面进一步讨论LS和LN的含义。由本章第2节的Bayes公式可知: P(E/H)*P(H) P(E) P(E/H)*P(H) P( E)将两式相除,得 P(HE) P(EH

44、) . P(H) P(H/E) P(E/H) P(H),70,O(x)=- = -,为讨论方便起见,引入几率函数: P(x) P(x) 1-P(x) P(x),可见,x的几率等于X出现的概率与X不出现的概率之比。显然,随着P(x)的增大,O(x)也在增大,并且 P(x)=0时有O(x)=O P(x)=1时有O(X)这样,就可以把取值为O,1的P(x)放大到取值为0,)的O(x)。,71,把前面式中几率和概率的关系代入式子有: P(E/H) O(H/E)=- * O(H) P(E/H) 再把LS代入此式,可得 O(HE) LS * O(H) 同理可得到关于LN的公式 O(HE) LN * O(H

45、) 这两个就是修改的Bayes公式。从这两个公式可以看出:当E为真时,可以利用LS将H的先验几率O(H)更新为其后验几率O(HE)当E为假时,可以用LN将H的先验几率O(H)更新为其后验几率O(HE),72,(2)LS和LN的性质 有了LS和LN与几率之间的关系,下面就来讨论LS和LN的有关性质。 1) LS 当 LS1时,O(HE)O(H),说明 E支持 H;LS越大,O(HE)比 O(H)大得越多,即LS越大,E对H的支持越充分。 当LS时,O(HE) ,即P(HE)1,表示由于E的存在,将导致H为真。 当 LS=l时,O(HE)=O(H),说明 E对 H没有影响。 当 LSl时,O(HE

46、)O(H),说明 E不支持 H。 当 LS=0时,O(HE)= 0 ,说明 E的存在使 H为假。 由上述分析可以看出,LS反映的是E的出现对H为真的影响程度。因此,称LS为知识的充分性度量。,73,2) LN 当LN1时,O(HE)O(H),说明E支持H,即由于E的不出现,增大了H为真的概率。并且,LN越大,P(HE)就越大,即E对H为真的支持就越强。 当 LN时,O(HE) ,即P(H E)1,表示由于E的存在,将导致H为真。 当 LN=1时,O(HE)=O(H),说明E对 H没有影响。 当 LNl时,O(HE)O(H),说明E不支持H,即由于E的存在,将使H为真的可能性下降,或者说由于E不

47、存在,将反对H为真。这说明H越需要E的出现。 当LN=O时O(HIE)=O,即LN越小,说明E的存在(即 E不存在)将导致 H为假。 由上述分析可以看出,LN反映的是当E不存在时对H为真的影响。因此,称LN为知识的必要性度量。,74,3)LS与LN的关系 由于E和E不会同时支持或同时排斥H,因此只有下述三种情况存在: LS1且LN1 LS=LN=1 事实上,如果 LS1,即 LS1P(E/H)/P(E/H)1P(E/H)P(E/H) 1-P(E/H)1-P(E/H) P(E/H)P(E/H) P(E/H)/P(E/H)1LN1 同理可以证明“LSl且LN1”和“LS=LN=1”。 计算公式LS

48、和LN除了在推理过程中使用以外,还可以作为领域专家为LS和LN赋值的依据。在实际系统中,LS和LN的值均是由领域专家根据经验给出的,而不是由LS和LN计算出来的。当证据E愈是支持H为真时,则LS的值应该愈大;当证据E对H愈是重要时,则相应的LN的值应该愈小。,75,二. 证据不确定性的表示 在主观Bayes方法中,证据E的不确定性是用其概率或几率来表示的。概率与几率之间的关系为:,0 当E为假时 O(E)=P(E)/(1-P(E)= 当E为真时 (0, ) 当E非真也非假时,76,上式给出的仅是证据E的先验概率与其先验几率之间的关系,但在有些情况下,除了需要考虑证据E的先验概率与先验几率外,往

49、往还需要考虑在当前观察下证据E的后验概率或后验几率。 以概率情况为例,对初始证据E,用户可以根据当前观察S将其先验概率P(E)更改为后验概率P(ES),即相当于给出证据E的动态强度。,77,不过,由于概率的确定比较困难,因而实际应用中多采用某种变换的方式。例如,在PROSPECTOR系统中,为方便用户,引入了可信度C(ES)的概念。PROSPECTOR系统中的可信度C(ES)用-5到5之间的11个正数来表示,它和P(ES)之间保持大小次序一致的对应关系,即 : C(ES)= -5,表示在观察 S下证据 E肯定不存在,即 P(ES)=0 C(ES)= 0,表示观察 S与 E无关,即 P(ES)=

50、P(E)。 C(ES)= 5,表示在观察 S下证据 E肯定存在,即 P(ES)=1。 C(ES)为其他值时,它与 P(ES)的对应关系可通过对上述 3个点进行分段线性插值得到。 C(ES)与 P(ES)之间的分段插值关系如下图所示,78,79,80,C(ES)是 PROSPECTOR中使用的可信度,它和 MYCIN中使用的可信度不同。在MYCIN中,可信度CF(E,S)=MB(E,S)MD(E,S),可证,C(ES)=5*CF(E,S)。也就是说,PROSPECTOR使用的可信度 C(ES),恰好是MYCIN使用的可信度 CF(E,S)的5倍。,81,三. 组合证据不确定性的计算 无论组合证据

51、有多么复杂,其基本组合形式只有合取与析取两种。当组合证据是多个单一证据的合取时,即 EE1 AND E2 AND AND En 如果已知在当前观察S下,每个单一证据Ei有概率P(E1S),P(E2S),P(EnS),则 P(ES)=min P(E1S),P(E2S),P(EnS) 当组合证据是多个单一证据的析取时,即 EE1 OR E2 OR OR En 如果已知在当前观察 S下,每个单一证据 Ei有概率 P(E1S), P(E2S),P(EnS),则 P(ES)=max P(E1S),P(E2S),P(EnS),82,四. 不确定性的更新 主观Bayes方法推理的任务就是根据证据E的概率P(

52、E)及LS、LN的值,把H的先验概率P(H)或先验几率O(H)更新为后验概率或后验几率。 由于一条知识所对应的证据可能肯定为真,也可能肯定为假,还可能既非为真又非为假,因此,在把H的先验概率或先验几率更新为后验概率或后验几率时,需要根据证据的不同情况去计算其后验概率或后验几率。下面就来分别讨论这些不同情况。,83,(1)证据确定为真 当证据 E肯定为真时,P(E)=P(ES)=1。将 H的先验几率更新为后验几率的公式为 O(HE)LS * O(H) 如果是把H的先验概率更新为其后验概率,则可将(2)式关于几率和概率的对应关系代入(3)式,得 这是把先验概率 P(H)更新为后验概率 P(HE)的

53、计算公式。,LS*P(H) P(H/E) = - (LS-1)*P(H)+1 (9),84,(2) 证据肯定为假 当证据E肯定为假时,P(E)=P(ES)=0,P( E)=1。将H的先验几率更新为后验几率的公式 O(H E)LN*O(H) 如果是把H的先验概率更新为其后验概率,则可将(2)式关于几率和概率的对应关系代人(4)式,得 这是把先验概率 P(H)更新为后验概率 P(H E)的计算公式。,LN*P(H) P(H/E) = - (LN-1)*P(H)+1 (10),85,(3)证据既非为真又非为假 当证据既非为真又非为假时,不能再用上面的方法计算H的后验概率,而需要使用杜达等人给出的公式

54、 P(HS)= P(HE)* P(ES) P(HE)* P(ES) (11) 下面分4种情况来讨论这个公式: 1) P(ES)=1 当 P(ES)=1时,P(ES)=0。由(4.11)式和(5.9)式可得 LS * P(H) P(H/S)=P(H/E)=- (LS-1)*P(H)+1 这实际上就是证据肯定存在的情况。 2)P(ES)=0 当P(ES)=O时,P(ES)=1。由(4.11)式和(5.10)式可得 LN * P(H) P(H/S)=P(H/E)=- (LN-1)*P(H)+1 这实际上是证据肯定不存在的情况。,86,3) P(ES)=P(E) 当 P(ES)=P(E)时,表示 E与

55、 S无关。由(5.11)式和全概率公式可得 P(HS) P(HE)* P(ES) P(HE)* P( ES)= P(HE)* P(E) P(HE)* P( E)= P(H),通过上述分析,我们已经得到了 P(ES)上的 3个特殊值:0,P(E)及 1。并分别取得了对应值P(HE),P(H)及P(HE)。这样就构成了3个特殊点。,87,4) P(ES)为其他值 当 P(ES)为其他值时,P(HS)的值可通过上述 3个特殊点的分段线性插值函数求得。该分段线性插值函数 P(HS)如后图所示,函数的解析表达式为: P(H)-P(H/ E) P(H/E)+ - * P(E/S) ,0P(E/S)P(E)

56、 P(E) P(H/S)= P(H/E)-P(H) P(H)+ - * P(E/S)-P(E) ,P(E)P(E/S)1 1-P(E) 该公式称为EH公式。,88,0,P(H/E),1,P(H/E),P(H),P(H/S),图 分段线性插值函数,89,上述公式只能处理用概率描述的非精确性,当证据的非精确性是用可信度 C(E/S)给出时,需要用到关于可信度的计算公式。事实上,只要把 P(E/S)与 C(E/S)的转换公式(7)与(8)代入EH公式,就可将上式修改为关于可信度的计算公式。修改后的公式为: P(H/ E)+P(H)-P(H/ E)*1/5*C(E/S)+1 当C(E/S) 0P(H/S)= P(H)+P(H/E)-P(H)*1/5*C(E/S) 当C(E/S) 0 该公式称为 CP公式。,90,有了EH和CP公式,系统就可以根据这两个公式对可信度和概率进行不同处理。 当用初始证据进行推理时,可根据用户给出的可信度 C(E/S),通过运用 CP公式求出 P(H/S); 当用前面推出的中间结论作为新的证据进行推理时,可根据该中间结论的概率,通过运用EH公式就可求出 P(H/S)。,91,五.

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论