人工智能导论-第四章02-2014_第1页
人工智能导论-第四章02-2014_第2页
人工智能导论-第四章02-2014_第3页
人工智能导论-第四章02-2014_第4页
人工智能导论-第四章02-2014_第5页
已阅读5页,还剩54页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、第四章第四章 非经典推理非经典推理 4.1 概述概述 4.2 不确定性不确定性推理推理 4.3 非单调推理非单调推理 4.4 概率方法概率方法 4.5 主观主观贝叶斯贝叶斯方法方法 4.6 贝叶斯网络贝叶斯网络 4.7 可信度可信度方法方法 4.8 证据理论证据理论2021-11-1人工智能导论 - 刘珊1基本框架基本框架2021-11-1人工智能导论 - 刘珊2贝叶斯贝叶斯网络网络 全联合概率分布全联合概率分布 贝叶斯网络的定义贝叶斯网络的定义 独立和条件独立独立和条件独立 贝叶斯网络的构造贝叶斯网络的构造 贝叶斯贝叶斯网络网络的应用的应用 精确推理精确推理 近似推理近似推理2021-11-

2、1人工智能导论 - 刘珊34.6 贝叶斯网络全联合概率分布全联合概率分布 定义定义 设设X= X1, X2, , Xn 为任何随机变量集,其全联合概为任何随机变量集,其全联合概率分布是指当对每个变量取特定值时率分布是指当对每个变量取特定值时xi(i=1,2,n)时的合取概率,时的合取概率,即即 P( X1=x1X2=x2Xn=xn),其,其简化表示形式为简化表示形式为P( x1,x2,xn)。 重复使用乘法重复使用乘法法则法则2021-11-1人工智能导论 - 刘珊4121211( ,.,)(|,.,)nniiiiP x xxP xxxx得到如下全联合概率分布表示得到如下全联合概率分布表示12

3、121121( ,.,)(|,.,) (,.,)nnnnnnP x xxP xxxx P xxx4.6 贝叶斯网络贝叶斯网络贝叶斯网络 基本概念基本概念 一系列变量的联合概率分布的图形一系列变量的联合概率分布的图形表示表示 一个表示变量之间的相互依赖关系的一个表示变量之间的相互依赖关系的数据结构数据结构 定义定义 是一个有向无环是一个有向无环图图 随机变量随机变量集集X= X1, X2, , Xn 组成组成网络节点,变网络节点,变量可离散或连续量可离散或连续 连接节点对的有向边组成边集合连接节点对的有向边组成边集合 每节点每节点Xi都有一个条件概率分布表:都有一个条件概率分布表:P(Xi|pa

4、r(Xi),量化其父节点对该节点的量化其父节点对该节点的影响影响2021-11-1人工智能导论 - 刘珊54.6 贝叶斯网络示例示例 例例1、假设、假设学生在碰见难题和遇到干扰时会产生焦学生在碰见难题和遇到干扰时会产生焦虑,而焦虑又可导致思维迟缓和情绪波动。请用虑,而焦虑又可导致思维迟缓和情绪波动。请用贝叶斯网络描述这一问题贝叶斯网络描述这一问题。 解:在该贝叶斯网络中,大写英文字母解:在该贝叶斯网络中,大写英文字母A、D、I、C和和E分别表示分别表示节点节点 “产生焦虑产生焦虑”、“碰见难题碰见难题”、“遇到干扰遇到干扰”、“认知迟缓认知迟缓”和和“情绪波动情绪波动”,并将各节点的条件概率表

5、置于相应节点的右侧并将各节点的条件概率表置于相应节点的右侧。 所有随机变量取布尔变量,因此可以分别用小写所有随机变量取布尔变量,因此可以分别用小写英文字母英文字母a、d、i、c和和e来表示布尔变量来表示布尔变量A、D、I、C和和E取逻辑值为取逻辑值为“True”,用,用a、d、i、c和和e来表示布尔变量来表示布尔变量A、D、I、C和和E取逻辑值为取逻辑值为“False”。2021-11-1人工智能导论 - 刘珊64.6 贝叶斯网络示例示例 右图贝叶斯右图贝叶斯网络中网络中每个节点的概率表每个节点的概率表就是该节点与其父就是该节点与其父节点之间的一个局节点之间的一个局部条件概率部条件概率分布。分

6、布。 由于节点由于节点D和和I无父无父节点,故它们的条节点,故它们的条件概率表由其先验件概率表由其先验概率来填充概率来填充2021-11-1人工智能导论 - 刘珊7碰见碰见难题难题产生焦虑产生焦虑遇到遇到干扰干扰思维思维迟缓迟缓情绪情绪波动波动ADIECA P(C)T 0.8A P(E)T 0.9 P(D) 0.15P(I)0.05D I P(A)T T 0.8T F 0.4F T 0.5F F 0.14.6 贝叶斯网络联合概率分布联合概率分布表示表示 贝叶斯网络的联合概率分布贝叶斯网络的联合概率分布表示表示 用用par(Xi)表示表示Xi的所有父节点的相应的所有父节点的相应取值,取值,P(X

7、i | par(Xi)是节点是节点Xi的一个条件概率分布函的一个条件概率分布函数,则对数,则对X的所有节点的所有节点,有如,有如下联合概率分布:下联合概率分布:2021-11-1人工智能导论 - 刘珊8121( ,.,)(|()nniiiP x xxP xpar X局部化特征局部化特征每个节点只受到整个节点集中少数别的节点的直接影每个节点只受到整个节点集中少数别的节点的直接影响,而不受这些节点外的其它节点的直接响,而不受这些节点外的其它节点的直接影响。影响。贝叶斯网贝叶斯网络的语义络的语义4.6 贝叶斯网络独立和条件独立独立和条件独立nWeather和其它和其它3个变量个变量相互相互独立。独立

8、。n给定给定Cavity后,后,Toothache和和Catch条件条件独立独立2021-11-1人工智能导论 - 刘珊9WeatherCavityCatchToothachen 贝叶斯网络能实现简化计算的最根本基础贝叶斯网络能实现简化计算的最根本基础-条件独条件独立性。立性。n 两两个判别准则个判别准则n1)给定)给定父节点,一个节点与非其后代的节点之间是条件独立父节点,一个节点与非其后代的节点之间是条件独立的的。n2)给定)给定一个节点,该节点与其父节点、子节点和子节点的父一个节点,该节点与其父节点、子节点和子节点的父节点一起构成了一个节点一起构成了一个马尔科夫覆盖马尔科夫覆盖,则该节点与

9、马尔科夫覆,则该节点与马尔科夫覆盖以外的所有节点之间都是条件独立的。盖以外的所有节点之间都是条件独立的。4.6 贝叶斯网络条件独立条件独立2021-11-1人工智能导论 - 刘珊10U1Um XZ1jZnjY1Yn【说明说明】:给定节点给定节点X的的父节点父节点U1. Um,节点,节点X与与它的非后代节它的非后代节点(即点(即Zij)是)是条件独立的。条件独立的。4.6 贝叶斯网络条件独立条件独立2021-11-1人工智能导论 - 刘珊11【说明说明】:给定给定马尔可夫马尔可夫覆盖覆盖(两圆圈(两圆圈之间的区域),之间的区域),节点节点X和和马尔可马尔可夫覆盖夫覆盖中中所有所有其它节点都是其它

10、节点都是条件独立的。条件独立的。U1Um XZ1jZnjY1Yn4.6 贝叶斯网络贝叶斯网络的构造贝叶斯网络的构造 构造构造过程过程 (1)首先首先建立不依赖于其它节点的根节点,并且根建立不依赖于其它节点的根节点,并且根节点可以不止一个。节点可以不止一个。 (2)加入加入受根节点影响的节点,并将这些节点作为受根节点影响的节点,并将这些节点作为根节点的子节点。此时,根节点已成为父节点。根节点的子节点。此时,根节点已成为父节点。 (3)进一步进一步建立依赖于已建节点的子节点。重复这建立依赖于已建节点的子节点。重复这一过程直到叶节点为止。一过程直到叶节点为止。 (4) 对每个根节点,给出其先验概率;

11、对每个中间对每个根节点,给出其先验概率;对每个中间节点和叶节点,给出其条件概率表节点和叶节点,给出其条件概率表。 主要原则主要原则 忽略过于微弱的依赖关系忽略过于微弱的依赖关系 利用变量间的因果关系利用变量间的因果关系2021-11-1人工智能导论 - 刘珊124.6 贝叶斯网络贝叶斯网络的简单应用贝叶斯网络的简单应用 例例2、对、对例例1所所示的贝叶斯网络,若示的贝叶斯网络,若假设某学生已假设某学生已经经产生了焦虑情绪,但实际上并未碰见难题,也产生了焦虑情绪,但实际上并未碰见难题,也未遇到干扰,请计算思维迟缓和情绪波动的概率。未遇到干扰,请计算思维迟缓和情绪波动的概率。 解:令相应变量的取值

12、分别为:解:令相应变量的取值分别为:a,d, i, c, e, P(ceadi ) =P(c | a)P(e | a)P(a |di)P(d)P(i) =0.80.90.10.850.95 =0.05814 即所求的概率为即所求的概率为0.058142021-11-1人工智能导论 - 刘珊134.6 贝叶斯网络贝叶斯网络推理贝叶斯网络推理 概念概念 在在给定一组证据变量观察值的情况下,利用贝叶给定一组证据变量观察值的情况下,利用贝叶斯网络计算一组查询变量的后验概率斯网络计算一组查询变量的后验概率分布。分布。 变量分类变量分类 查询查询变量变量X 证据变量集证据变量集E = E1, E2, ,

13、En 观察观察到的特定到的特定事件事件s 非非证据证据变量集变量集Y= y1, y2, , ym 全部全部变量的集合变量的集合V=x E Y 其其推理就是要查询后验概率推理就是要查询后验概率P(X|s)。2021-11-1人工智能导论 - 刘珊144.6 贝叶斯网络贝叶斯网络推理贝叶斯网络推理 步骤步骤 首先确定各相邻节点之间的初始条件概率分布首先确定各相邻节点之间的初始条件概率分布; 然后然后对各证据节点取值对各证据节点取值; 接着接着选择适当推理算法对各节点的条件概率分布选择适当推理算法对各节点的条件概率分布进行更新进行更新; 最终最终得到推理结果得到推理结果。 分类分类 精确精确推理:一

14、推理:一种可以精确地计算查询变量的后验种可以精确地计算查询变量的后验概率概率的推理方法,适用于单连通贝叶斯网络。的推理方法,适用于单连通贝叶斯网络。 近似推理:在近似推理:在不影响推理正确性的前提下,通过不影响推理正确性的前提下,通过适当降低推理精确度来提高推理效率的一类适当降低推理精确度来提高推理效率的一类方法。方法。2021-11-1人工智能导论 - 刘珊154.6 贝叶斯网络贝叶斯网络精确推理贝叶斯网络精确推理 主要方法主要方法 基于枚举的基于枚举的算法算法 基于基于变量消元的变量消元的算法算法 基于基于团树传播的团树传播的算法等算法等 基于枚举的基于枚举的算法算法 利用利用全联合概率分

15、布去推断查询变量的后验概全联合概率分布去推断查询变量的后验概率率2021-11-1人工智能导论 - 刘珊16(| )(, )(, , ),YP X sP X sP X s Y是归一化常数4.6 贝叶斯网络示例示例 例例3、以、以例例1所所示的贝叶斯网络为例,假设目前观示的贝叶斯网络为例,假设目前观察到的一个事件察到的一个事件s = c, e ,求在该事件的前提下,求在该事件的前提下碰见难题的概率碰见难题的概率P( D | c, e )是多少?是多少? 解:按照精确推理算法,该询问可表示为:解:按照精确推理算法,该询问可表示为:2021-11-1人工智能导论 - 刘珊17IAecAIDPecDP

16、ecDP),(),(),|(先对先对D的不同取值的不同取值d和和d分别进行处理分别进行处理,当当D取值取值d时,有时,有 IAecAIdPecdP),(),|(4.6 贝叶斯网络示例示例2021-11-1人工智能导论 - 刘珊18( | , )( )( )(| , ) ( |) ( |)( ) ( )( ( | , ) ( | ) ( | )(| , ) ( |) ( |)()( ( | ,) ( | ) ( | )(| ,) ( |) ( |)0.0519IAP d c eP dP IP A d I P c A P e AP dP i P a d i P c a P e aPa d i P

17、ca P eaPi P a di P c a P e aPa di P ca P ea当当D取值取值d时,有时,有(| , )(, , , , )() ( )( ( |, ) ( | ) ( | )(|, ) ( |) ( |)()( ( |,) ( | ) ( | )(|,) ( |) ( |)0.0901IAPd c ePd I A c ePdP i P ad i P c a P e aPad i P ca P eaPi P adi P c a P e aPadi P ca P ea取取=1/(0.0519+0.0901)=1/0.142。因此有因此有 P(D | c, e)= (0.05

18、19, 0.0901)=( 0.3655, 0.6345)即在思维迟缓和情绪波动都发生时即在思维迟缓和情绪波动都发生时,碰见难题,碰见难题的概率是的概率是P(d | c, e)= 0.3655,没有碰见难题没有碰见难题的概率是的概率是P(d | c, e)= 0.63454.6 贝叶斯网络贝叶斯贝叶斯网络近似推理网络近似推理 马尔可夫链蒙特卡罗(马尔可夫链蒙特卡罗(MCMC)算法是目)算法是目前使用较广的前使用较广的一一类类贝叶斯网络推理贝叶斯网络推理方法方法。 它它通过对前一通过对前一个事件状态个事件状态作随机改变来生作随机改变来生成下一个问题状态,通过对某个隐变量进成下一个问题状态,通过对

19、某个隐变量进行随机采样来实现对随机变量的改变行随机采样来实现对随机变量的改变。 MCMC方法可视为:在状态空间方法可视为:在状态空间中的中的随机随机走动,走动,但是证据变量的值固定但是证据变量的值固定不变。不变。2021-11-1人工智能导论 - 刘珊194.6 贝叶斯网络示例示例 例例4、学习情绪会影响、学习情绪会影响学习效果。假设有一个学习效果。假设有一个知识点,考虑学生在愉知识点,考虑学生在愉快学习状态下对该知识快学习状态下对该知识点的识记、理解、运用点的识记、理解、运用的情况,得到了的情况,得到了如右图如右图所所示示的贝叶斯的贝叶斯网络。如网络。如果目前观察到一个学生果目前观察到一个学

20、生不但记住了该知识,并不但记住了该知识,并且还可以运用该知识,且还可以运用该知识,询问这位学生是否理解询问这位学生是否理解了该知识。了该知识。2021-11-1人工智能导论 - 刘珊20愉快愉快学习学习知识知识识记识记知识知识理解理解知识知识运用运用EUMAE P(M)T 0.9 F 0.4 P(E) 0.75M U P(A)T T 0.95T F 0.5F T 0.65F F 0.1E P(U)T 0.85F 0.34.6 贝叶斯网络示例示例解:要求的是解:要求的是P( U| m, a )。应用。应用MCMC算法的推理步骤如下:算法的推理步骤如下: (1) 将将“知识识记知识识记”节点节点M

21、和和“知识运用知识运用”节点节点A作为证据变量,作为证据变量,并保持它们的观察值不变;并保持它们的观察值不变; (2) 隐隐变量变量“愉快学习愉快学习”节点节点E和查询变量和查询变量“知识理解知识理解”节点节点U进进行行随机初始化。假设,取值分别为随机初始化。假设,取值分别为e和和u,问题的初始状态为,问题的初始状态为 e, m,u, a; (3) 反复执行如下反复执行如下步骤,步骤, 对隐变量对隐变量E进行采样,由于进行采样,由于E的马尔科夫覆盖(其父节点、子的马尔科夫覆盖(其父节点、子节点和子节点的父节点)仅包含节点节点和子节点的父节点)仅包含节点M和和U,可以按照变量,可以按照变量M和和

22、U的当前值进行采样,若采样得到的当前值进行采样,若采样得到e,则生成下一状态,则生成下一状态e, m,u, a ; 对查询变量对查询变量U进行采样,由于进行采样,由于U的马尔科夫覆盖包含节点的马尔科夫覆盖包含节点E、M和和A,可以按照变量,可以按照变量E、M和和A的当前值进行采样,若采样得到的当前值进行采样,若采样得到u,则生成下一状态则生成下一状态e, m, u, a 。 (4)重复以上步骤直到所要求的访问次数重复以上步骤直到所要求的访问次数N。若为。若为true和和false的次的次数分别为数分别为n1,、n2,则查询解为,则查询解为Normalize() = 2021-11-1人工智能导

23、论 - 刘珊214.6 贝叶斯网络示例示例解:解: 在上述采样过程中,每次采样都需要两步。以对隐变量在上述采样过程中,每次采样都需要两步。以对隐变量E的采样为例,每次采样步骤如下:的采样为例,每次采样步骤如下: 1、先、先依据该隐变量的马尔科夫覆盖所包含的变量的当前值,计依据该隐变量的马尔科夫覆盖所包含的变量的当前值,计算该状态转移概率算该状态转移概率p; 2、确定、确定状态是否需要改变。其基本方法是,生成一个随机数状态是否需要改变。其基本方法是,生成一个随机数r0,1,将其与第一步得到的转移概率,将其与第一步得到的转移概率p进行比较,若进行比较,若rp,则,则E取取e,转移到下一状态;否则,

24、还处在原状态不变,转移到下一状态;否则,还处在原状态不变。在在初始状态下,初始状态下,对变量对变量E进行采样,第一进行采样,第一步计算步计算P( E | m,u ),以此判断是否转移以此判断是否转移到下一状态到下一状态e, m,u, a 。 P( e | m,u )= P( e, m,u ) / P( m,u ) =P( e )P( m| e )P(u|e ) / P( e )P( m| e )P(u|e ) + P(e)P( m|e )P(u|e ) =( 0.750.90.3 ) / 0.750.90.3 + 0.250.40.3 =0.2025/0.2325=0.8710第二步,假设产生

25、的随机数第二步,假设产生的随机数r=0.46,有,有0.46 0,证据的出现越是支持,证据的出现越是支持 H 为真,为真,就使就使CF(H,E)的的值越大。值越大。 反之反之,CF(H,E) 0,证据的出现越是支持,证据的出现越是支持 H 为为假,假,CF(H,E)的的值就越小。值就越小。 若若证据的出现与否与证据的出现与否与 H 无关,则无关,则 CF(H,E)=02021-11-1人工智能导论 - 刘珊254.7 可信度方法2、证据、证据不确定性的不确定性的表示表示 证据证据E的可信度取值范围:的可信度取值范围:-1,1 。 对于初始证据,若所有观察对于初始证据,若所有观察S能肯定它为真,

26、则能肯定它为真,则CF(E)= 1;若;若肯定它为假,则肯定它为假,则 CF(E) = 1。 若以某种程度为真,则若以某种程度为真,则 0 CF(E) 1。 若以某种程度为假,则若以某种程度为假,则 1 CF(E) 0 。 若未获得任何相关的观察,则若未获得任何相关的观察,则 CF(E) = 0。 静态静态强度强度CF(H,E):知识的强度,即知识的强度,即当所对应当所对应的证据的证据E为为真时对真时对 H 的影响程度。的影响程度。 动态动态强度强度 CF(E):证据证据 E 当前的不确定性程度当前的不确定性程度2021-11-1人工智能导论 - 刘珊264.7 可信度方法3、组合、组合证据不

27、确定性的算法证据不确定性的算法 组合证据:多个单一证据的组合证据:多个单一证据的合取合取 E = E1 AND E2 AND AND En 则则CF(E)=minCF(E1), CF(E1), , CF(En) 组合证据:多个单一证据的组合证据:多个单一证据的析取析取 E = E1 OR E2 OR OR En 则则CF(E)=maxCF(E1), CF(E1), , CF(En)2021-11-1人工智能导论 - 刘珊274.7 可信度方法4、不确定性、不确定性的传递的传递算法算法 C-F模型中的不确定性推理:从不确定的初始模型中的不确定性推理:从不确定的初始证据出发,通过运用相关的不确定性

28、知识,证据出发,通过运用相关的不确定性知识,最终推出结论并求出结论的可信度值最终推出结论并求出结论的可信度值。 结论结论 H 的可信度由下式的可信度由下式计算计算:2021-11-1人工智能导论 - 刘珊28)(, 0max),()(ECFEHCFHCF=CF(E)0时,时,CF(H)=0;CF(E)=1时,时,CF(H)=CF(H,E)4.7 可信度方法5、结论、结论不确定性的合成不确定性的合成算法算法 设知识:设知识: IF E1 THEN H (CF(H,E1) IF E2 THEN H (CF(H,E2) (1)分别对每一条知识求出)分别对每一条知识求出CF(H): CF1(H)=CF

29、(H, E1) max0, CF(E1) CF2(H)=CF(H, E2) max0, CF(E2) (2) 用如下公式求用如下公式求E1与与E2对对H的综合可信度的综合可信度 2021-11-1人工智能导论 - 刘珊29121212121212121212()()()()()0,()0()()()()()()0,()0()()()()1 min() ,()CF HCF HCF HCF HCF HCF HCF HCF HCF HCH HCF HCF HCF HCF HCF HCF HCF HCF HCF H若若若与异号4.7 可信度方法6、带、带加权因子的可信度推理加权因子的可信度推理 当知识

30、的前提条件为多个子条件当知识的前提条件为多个子条件组合,且组合,且这些这些子子条件对条件对结论的重要结论的重要程度不同时,程度不同时,在在前提条件中加入加权因子,以说明每个前前提条件中加入加权因子,以说明每个前提的重要程度提的重要程度。 知识的不确定性知识的不确定性表示表示 if E1(w1) and E2(w2) and and En(wn) then H CF(H,E) 其中其中w1,w2,wn为加权因子,一般满足归一为加权因子,一般满足归一条件即条件即w1+w2+wn=12021-11-1人工智能导论 - 刘珊304.7 可信度方法带加权因子的可信度推理带加权因子的可信度推理 组合证据不

31、确定性的组合证据不确定性的计算计算 若若E= E1(w1) and E2(w2) and and En(wn) 则则E的可信度因子可以按如下方式的可信度因子可以按如下方式计算计算 CF(E)=wi*CF(Ei) 不确定性的不确定性的更新更新 直观直观的方法的方法为:为: CF(H)=CF(H,E)*CF(E)2021-11-1人工智能导论 - 刘珊314.7 可信度方法示例示例 例例1、已知规则、已知规则 r1:if E1(0.6) and E2(0.4) then E5 (0.8) r2:if E3(0.5) and E4(0.3) and E5(0.2) then H (0.9) 以及以及

32、 CF(E1)=0.9, CF(E2)=0.8, CF(E3)=0.7, CF(E4)=0.6 求求CF(H)?2021-11-1人工智能导论 - 刘珊324.7 可信度方法示例示例 解:解: CF(E5)=CF(E5,E)*CF(E)=0.8*0.86=0.69 CF(E3(0.5) and E4(0.3) and E5(0.2)=0.67 CF(H)=0.9*0.67=0.6032021-11-1人工智能导论 - 刘珊334.7 可信度方法第四章第四章 非经典推理非经典推理 4.1 概述概述 4.2 不确定性推理不确定性推理 4.3 非单调推理非单调推理 4.4 概率方法概率方法 4.5

33、主观主观贝叶斯贝叶斯方法方法 4.6 贝叶斯网络贝叶斯网络 4.7 可信度可信度方法方法 4.8 证据理论证据理论2021-11-1人工智能导论 - 刘珊34证据理论证据理论 又称又称DS理论理论 在证据理论的基础上已经发展了多种不确定在证据理论的基础上已经发展了多种不确定性性推理模型推理模型 主要内容主要内容 概率分配函数概率分配函数 信任信任函数函数 似然函数似然函数 信任信任函数与似然函数的关系函数与似然函数的关系 概率概率分配函数的正交和(证据的分配函数的正交和(证据的组合)组合) 基于证据理论的推理基于证据理论的推理2021-11-1人工智能导论 - 刘珊354.8 证据理论基本概念

34、基本概念 证据理论假设有一个不证据理论假设有一个不变的两两相斥的完备元变的两两相斥的完备元素集合素集合U,如右图所示,如右图所示,其中其中2021-11-1人工智能导论 - 刘珊36证据理论说明图证据理论说明图4.8 证据理论12 ,nUA AA例如例如,U =三轮车,汽车,火车三轮车,汽车,火车U =赤,橙,黄,绿,青,赤,橙,黄,绿,青,蓝,紫蓝,紫U =马,牛,羊,鸡,狗,马,牛,羊,鸡,狗,兔兔基本概念基本概念 证据理论用集合表示命题。证据理论用集合表示命题。 设设D是变量是变量x所有可能取值的集合,且所有可能取值的集合,且D中的元素是互中的元素是互斥的,在任一时刻斥的,在任一时刻x都

35、取都取D中的某一个元素为值,称中的某一个元素为值,称D为为x的样本空间。的样本空间。 在证据理论中,在证据理论中,D的任何一个子集的任何一个子集A都对应于一个关都对应于一个关于于x的命题,称该命题为的命题,称该命题为“x的值在的值在A中中”。 设设 x :所看到的颜色,:所看到的颜色,D=红,黄,蓝红,黄,蓝, 则则 A=红红:“ x 是红色是红色”; A=红,蓝红,蓝:“x 或者是红色,或者是蓝色或者是红色,或者是蓝色”。 为了描述和处理不确定性,引入了概率分配函数、为了描述和处理不确定性,引入了概率分配函数、信任函数及似然函数等概念。信任函数及似然函数等概念。2021-11-1人工智能导论

36、 - 刘珊374.8 证据理论概率分配函数概率分配函数 设设D为样本空间,领域内的命题都用为样本空间,领域内的命题都用D的子集表的子集表示。示。 定义:定义: 设函数设函数M: ,且满足且满足2021-11-1人工智能导论 - 刘珊384.8 证据理论20,1D()0( )1ADMM A 则称则称M是是 上的概率分配函数,上的概率分配函数,M(A)称为称为A的基本概率函数。的基本概率函数。2D对样本空间对样本空间D的任一子集都分配一个概率值。的任一子集都分配一个概率值。概率分配函数概率分配函数2021-11-1人工智能导论 - 刘珊39几点说明:几点说明:(1)样本空间)样本空间D中有中有n个

37、元素,则个元素,则D中子集的个数中子集的个数为为2n个个。 2D:D的所有子集。的所有子集。(2)概率分配函数:把)概率分配函数:把D的任意一个子集的任意一个子集A都映射为都映射为0,1上的一个数上的一个数M(A)。)。 A D,A D时时,M(A):对相应命题):对相应命题A的精确信任度。的精确信任度。(3)概率分配函数与概率不同。)概率分配函数与概率不同。 例如,设例如,设 A=红红, M(A)=0.3:命题命题“x是红色是红色”的信任度是的信任度是0.3。 设设 D=红,黄,蓝红,黄,蓝M(红红)=0.3, M(黄黄)=0, M(蓝蓝)=0.1, M(红,黄红,黄)=0.2,M(红,蓝红

38、,蓝)=0.2,M(黄,蓝黄,蓝)=0.1,M(红,黄,蓝红,黄,蓝)=0.1,M()=0但:但:M(红红)+ M(黄黄)+ M(蓝蓝)=0.4设设 D=红,黄,蓝红,黄,蓝则其子集个数则其子集个数 238,具体为:,具体为:A=红红, A=黄黄, A =蓝蓝, A =红,黄红,黄,A =红,蓝红,蓝, A =黄,蓝黄,蓝, A =红,黄,蓝红,黄,蓝, A = 4.8 证据理论信任函数信任函数2021-11-1人工智能导论 - 刘珊40 设设 D =红,黄,蓝红,黄,蓝M(红红)=0.3, M(黄黄)=0,M(红,黄红,黄)=0.2, ,),()()(),(黄红黄红黄红MMMBel0.30.

39、20.5由信任函数及概率分配函数的定义推出:由信任函数及概率分配函数的定义推出: 0)()(MBelDBBMDBel1)()(4.8 证据理论似然函数似然函数 似然函数定义为似然函数定义为 Pl:2D0,1且且pl(A)=1-Bel( A), A D2021-11-1人工智能导论 - 刘珊41 设设 D =红,黄,蓝红,黄,蓝M(红红)=0.3,M(黄黄)=0,M(红,黄红,黄)=0.2,Bel(红红,黄黄)=M(红红)+M(黄黄)+M(红红,黄黄)=0.5Pl(蓝蓝)=1-Bel( 蓝蓝)=1-Bel(红红,黄黄)=1-0.5=0.5 4.8 证据理论信任函数与似然函数的关系信任函数与似然函

40、数的关系 Pl(A) Bel(A) Bel(A):对对A为真的信任程度。为真的信任程度。 Pl(A):对对A为非假的信任程度。为非假的信任程度。 A(Bel(A), Pl(A):对对A信任程度的下限与上限信任程度的下限与上限。 例如例如红红 :0.3,0.9 表示表示红红的精确信任度为的精确信任度为0.3,不可驳斥部分为,不可驳斥部分为0.9 典型典型值值 A0,1:对:对A一无所知一无所知 A0,0:说明:说明A为为假假 A1,1:说明:说明A为真为真2021-11-1人工智能导论 - 刘珊424.8 证据理论概率分配函数的正交和概率分配函数的正交和2021-11-1人工智能导论 - 刘珊4

41、3yxyxyMxMyMxMK)()()()(12121如果如果K 0,则正交和则正交和 M也是一个也是一个概率分配函数概率分配函数;如果如果K=0,则不存在正交和则不存在正交和 M,即没有可能存在,即没有可能存在概率函数,概率函数,称称M1与与M2矛盾矛盾。4.8 证据理论12112()0( )( )( )xy AMMMMM AKMxMy 设设M1和和M2是两个概率分配函数,则其正交和定是两个概率分配函数,则其正交和定义为义为概率分配函数的正交和概率分配函数的正交和 设设M1,M2, Mn是是n个个概率分配概率分配函数函数,则则其其正交和正交和 M= M1 M2 Mn为为 M( )=0, 20

42、21-11-1人工智能导论 - 刘珊4411( )()iiiAAi nM AKM A 1()iiiAinKMA 其中:其中:4.8 证据理论实例实例 设设D=黑,白黑,白,且,且2021-11-1人工智能导论 - 刘珊4512(, ,)(0.3,0.5,0.2,0)(, ,)(0.6,0.3,0.1,0)MM 黑白黑白黑白黑白则,则,1212121( )( )1 ()( )( )()0.61xyKM x MyMMMM 黑白白黑112121212()( )( )1()()()(,)(,)()0.610.54xyMKM x MyMMMMMM黑黑黑黑黑黑白黑白黑4.8 证据理论实例实例 同理可得:同

43、理可得:2021-11-1人工智能导论 - 刘珊46( )0.43(,)0.03MM白黑白 组合后得到的概率分配函数:组合后得到的概率分配函数:(, ,)(0.54,0.43,0.03,0)M 黑白黑白4.8 证据理论一类特殊的概率分配函数一类特殊的概率分配函数 设设D=s1,s2,sn,M为为定义在定义在2D上上的概率的概率分配函数,分配函数,且且M满足满足: M(si)0,对任给对任给si D i=1n M(si)1 M(D)=1- i=1n M(si) 当当AD,且且A的元素多于的元素多于1个或没有元素个或没有元素,M(A)=0。2021-11-1人工智能导论 - 刘珊474.8 证据理

44、论一类特殊的概率分配函数一类特殊的概率分配函数 对对这类这类概率概率分配函数分配函数,其信任,其信任函数和似然函数和似然函数的函数的性质为:性质为: Bel(A) = si AM(si) Bel(D) = si DM(si) +M(D)=1 Pl(A) = 1-Bel(A) = 1- si AM(si) = 1- si DM(si)+si AM(si) = M(D)+Bel(A) Pl(D)=1-Bel(D)=12021-11-1人工智能导论 - 刘珊484.8 证据理论类概率函数类概率函数 设设D为为有限域,对任何命题有限域,对任何命题AD,其,其类类概概率函数定义为率函数定义为 f(A)

45、= Bel(A) + |A| / |D| Pl(A)-Bel(A) 其中其中|A|和和|D|表示表示A和和D中中的元素个数的元素个数。 类概率函数的性质类概率函数的性质 si Df(si)=1 对任何对任何AD,有,有Bel(A) f(A) Pl(A) 对任何对任何AD,有,有f(A)=1-f(A) 则,则,f()=0;f(D)=1;对;对任何任何AD,0f(A)12021-11-1人工智能导论 - 刘珊494.8 证据理论规则不确定性规则不确定性的表示的表示 D-S理论中,理论中,不确定性规则的不确定性规则的表示形式为表示形式为 if E then H=h1,h2,hn CF=c1,c2,c

46、n 其中:其中:E为前提条件为前提条件,可以,可以是简单条件,也是简单条件,也可可以以是复合条件;是复合条件; H是结论是结论,用,用样本空间的子集表示,样本空间的子集表示,h1,h2,hn是该子集的元素;是该子集的元素; CF是可信度因子,用集合的方式表示。是可信度因子,用集合的方式表示。 c1,c2,cn用来表示用来表示h1,h2,hn的可信度的可信度。2021-11-1人工智能导论 - 刘珊504.8 证据理论证据不确定性的表示证据不确定性的表示 证据证据E的不确定性由的不确定性由证据的类概率函数给证据的类概率函数给出出: CER(E) = f(E)2021-11-1人工智能导论 - 刘

47、珊514.8 证据理论不确定性的更新不确定性的更新 设有知识设有知识 if E then H=h1,h2,hn CF=c1,c2,cn 根据证据根据证据E的不确定性为的不确定性为CER(E),确定结论,确定结论H的不确定性描述的不确定性描述CER(H),方法如下:,方法如下: 1)求)求H的概率分配的概率分配函数:函数:M(h1,h2,hn)=(c1CER(E),c2CER(E),cnCER(E);M(D)=1- i=1n M(hi) 2)求求Bel(H),Pl(H)及及f(H):Bel(H)= i=1n M(hi);Pl(H)=1-Bel(H);f(H)=Bel(H)+|H|/|D|M(D) 3)CER(H)=f(H)2021-11-1人工智能导论 - 刘珊524.8 证据理论结论不确定性的合成结论不确定性的合成 如果有两条知识支持同一结论如果有两条知识支持同一结论 if E1 then H=h1,h2,hn CF=c1,c2,cn if E2 then H=h1,h2,hn CF=e1,e2,en 先求出每条知识的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论