版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1第二章信息的度量2度量信息的基本思路信源熵和条件熵互信息量和平均互信息量多维随机变量的熵
本章内容提要3信息论的发展是以信息可以度量为基础的,度量信息的量称为信息量。对于随机出现的事件,它的出现会给人们带来多大的信息量?考虑到通信系统或很多实际的信息传输系统,对于所传输的消息如何用信息量的方法来描述?本章将围绕这些问题展开讨论。第2章信息的度量4从讨论信源的特征入手,给出定量度量信息的方法。以天文学范畴的事件为例。小行星撞击地球、月食、日食、流星雨、星系的产生与消亡等等,都是天文学内一个个离散的事件如果将一个事件用一个符号来表示,则一个符号代表一个完整的消息如果把都是天文学内的事件看作是天文学这个“信源”输出的符号,则这个信源可以看作是单符号离散信源。2.1.1单符号离散信源2.1度量信息的基本思路5由此给出如下定义:定义2.1
如果信源发出的消息是离散的、有限或无限可列的符号或数字,且一个符号代表一条完整的消息,则称这种信源为单符号离散信源。2.1度量信息的基本思路2.1.1单符号离散信源6单符号离散信源的实例掷骰子每次只能是1,2,3,4,5,6中的某一个;天气预报可能是晴、阴、雨、雪、风、冰雹…中的一种或其组合以及温度、污染等;二进制通信中传输的只是1、0两个数字;等等。这种符号或数字都可以看作某一集合中的事件,每个符号或数字(事件)都是信源中的元素,它们的出现往往具有一定的概率。把信源看作具有一定概率分布的某一符号集合。2.1度量信息的基本思路2.1.1单符号离散信源7定义2.2若信源的输出是随机事件X,其出现概率为P(X),,则它们所构成的集合,称为信源的概率空间或简称为信源空间。信源空间通常用如下方式来描述:
显然,信源空间必定是一个完备集,即2.1度量信息的基本思路2.1.1单符号离散信源8考虑一个单符号离散信源,它的输出被传送给对此感兴趣的一方。设x1为最大可能的输出,xN为最小可能的输出。例如,假设信源输出代表天气情况,x1为晴或多云天气,xN为冰雹或其他强对流天气。哪个输出包含更多的信息,x1还是xN?直观地,传递xN
给出了更多的信息。2.1.2度量信息的基本思路2.1度量信息的基本思路9由此可以合理地推算信源输出的信息量应该是输出事件的概率的减函数。2.1.2度量信息的基本思路2.1度量信息的基本思路10信息量的另一个直观属性是,某一输出事件的概率的微小变化不会很大地改变所传递的信息量,即信息量应该是信源输出事件概率的连续减函数。2.1.2度量信息的基本思路2.1度量信息的基本思路11假设与输出xi相关的信息能被分成独立的两部分,比如xi1与xi2,即xi={xi1,xi2}。直观地,传递xi所包含的信息量是分别传递xi1和xi2所得到的信息量的和。2.1.2度量信息的基本思路2.1度量信息的基本思路12
若信源中事件xi的出现所带来的信息量用I(xi)来表示并称之为事件xi的自信息量,则概率为p(xi)的信源输出xi所包含的信息量I(xi)必须满足以下几个条件:2.1.2度量信息的基本思路2.1度量信息的基本思路131.
信源输出xi所包含的信息量I(xi)仅依赖于它的概率,与其取值无关。2.I(xi)是P(xi)的连续函数。3.I(xi)是P(xi)的减函数,即:如果P(xi)>P(xj),则I(xi)<I(xj)。极限情况,若P(xi)=0,则I(xi)→∞; 若P(xi)=1,则I(xi)=0。4.若两个单符号离散信源(符号集合X,Y
)统计独立,则X中出现xi、Y中出现yj的联合信息量
I(xi,yj)=I(xi)+I(yj)4个公理只有对数函数能够同时满足以上条件。
2.1度量信息的基本思路2.1.2度量信息的基本思路14定义2.3
事件xi的出现所带来的信息量为事件xi的自信息量。2.1度量信息的基本思路2.1.2度量信息的基本思路15I(xi)实质上是无量纲的为研究问题的方便,根据对数的底定义信息量的量纲对数的底取2,则信息量的单位为比特(bit);取e(自然对数),则单位为奈特(nat);取10(常用对数),则单位为哈特(Hart)。利用换底公式容易求得: 1nat1.44bit 1Hart3.32bit在通信及目前的绝大多数信息传输系统中,都是以二进制为基础的,因此信息量单位以比特最为常用在没有特别说明的情况下,通常式(2.3)的量纲即为比特,且底数2被省略。2.1度量信息的基本思路2.1.2度量信息的基本思路16例2.1
一个1,0等概的二进制随机序列,求任一码元的自信息量。 解:任一码元不是为0就是为1 因为P(0)=P(1)=1/2 所以I(0)=I(1)=–lb(1/2)=1(bit)2.1度量信息的基本思路2.1.2度量信息的基本思路17例2.2
对于2n进制的数字序列,假设每一符号的出现完全随机且概率相等,求任一符号出现时所包含的自信息量。 解:设2n进制数字序列任一码元xi的出现概率为P(xi),根据题意,有
P(xi)=1/2n
I(xi)=–lb(1/2n)=n(bit)事件的自信息量只与其概率有关,而与它的取值无关。2.1度量信息的基本思路2.1.2度量信息的基本思路18信宿端收到某一消息后所得到的信息量,可以等效为接收者在通信前后“不确定”因素的减少或消除。事件的不确定性可用不确定度描述,它同样是事件概率的函数,在数值和量纲上和自信息量相等,因此都可以用(2.3)式来计算。某一随机事件的出现所给出的信息量(自信息量),在数值上与该随机事件的不确定度不但相关而且相等,即事件的出现等效成事件不确定集合的元素的减少,或简称为事件不确定度的减少。2.1度量信息的基本思路2.1.3自信息量和不确定度的关系19自信息量和该事件的不确定度的含义有本质的区别。不确定度只与事件的概率有关,是一个统计量,在静态状态下也存在;自信息量只有该随机事件出现时才给出,不出现时不给出,因此它是一个动态的概念。2.1度量信息的基本思路2.1.3自信息量和不确定度的关系20自信息量I(xi)只能表示信源发出的某一具体符号xi的自信息量。很多信源的符号集合具有多个元素且其概率并不相等,即P(xi)≠P(xj),因此I(xi)不能作为整个信源的总体信息测度。能作为信源总体信息测度的量应是信源各个不同符号xi
(i=1,2,…,N)所包含的自信息量I(xi)(i=1,2,…,N)在信源空间 P(X)={P(x1),P(x2),…,P(xi),…,P(xN
)}中的统计平均值。2.2信源熵和条件熵2.2.1信源熵21 定义2.4
若信源符号xi
的出现概率为P(xi),自信息量为I(xi)(i=1,2,…,N),则
称为信源的信息熵,简称信源熵。其中,定义0lb0=0。2.2信源熵和条件熵2.2.1信源熵22对于单符号离散信源,信源熵是信源每发一个符号所提供的平均信息量,其量纲为信息单位/信源符号。信源熵只与信源符号的概率分布有关,是一种先验熵。对于任何给定概率分布的信源,H(X)是一个确定的数,其大小代表了信源每发出一个符号给出的平均信息量。2.2信源熵和条件熵2.2.1信源熵23例2.3
二进制通信系统的信源空间为
求该信源的熵。
解:
设P(1)=p,则P(0)=1-p。由(2.4)式,有 H(X)=-plbp-(1-p)lb(1-p) (2.5)上式又称为二进制熵函数,也常用Hb(p)表示p=0或p=1时,H(X)=0;p=1/2时,H(X)=1。2.2信源熵和条件熵2.2.1信源熵242.2信源熵和条件熵2.2.1信源熵图2.1二进制熵函数25信息熵借用热力学中的熵给出了平均信息量的概念,不但可以表征信源的信息统计测度,也可以表征任何集合的信息统计测度。例如,若信宿的符号yj
的出现概率为P(yj),自信息量为I(yj)(j=1,2,…,M),则信宿熵为2.2信源熵和条件熵2.2.1信源熵26若信源的输出为X,信宿的输入为Y,即考虑了信道的作用,如图2.2所示,这时经常是某一事件在某种条件下才出现,它的出现所带来的信息量就必须要在联合符号集合X、Y中进行考虑,且需用条件概率来描述。
2.2.2条件自信息量2.2信源熵和条件熵图2.2最简单的通信系统模型27定义2.5
设在yj条件下,随机事件xi的条件概率为P(xi/yj),则xi的出现所带来的信息量被称为它的条件自信息量,表示为
(2.6)类似地,在xi条件下,随机事件yj出现所带来的信息量亦是条件自信息量:(2.7)2.2信源熵和条件熵2.2.2条件自信息量上述条件概率仅仅由信道特性决定,可以看作是由信道给出的信息量。28为寻求在给定y条件下X集合的总体信息量度,有2.2信源熵和条件熵2.2.3条件熵考虑到整个Y集合,有(2.9)29定义2.6
对于联合符号集XY,在给定Y的条件下,用联合概率P(xy)对X集合的条件自信息量进行加权的统计平均值,为X的条件熵。由此可见,条件熵表示了信道所给出的平均信息量。2.2信源熵和条件熵2.2.3条件熵30在图2.3的通信系统信息传输模型中,若信道存在干扰,信宿收到从信道输出的某一符号yj后,能够获取多少关于从信源发某一符号xi的信息量?
图2.3最简单的通信系统信息传输模型2.2信源熵和条件熵2.2.3条件熵31定义2.7
对两个离散随机事件集合X和Y,事件yj的出现给出关于事件xi的信息量,定义为事件xi、yj的互信息量,用I(xi
;yj)表示。注意I(xi;yj)与I(xi,yj)的区别,后者表示xi与yj同时出现时的自信息量。 2.3互信息量和平均互信息量2.3.1互信息量32互信息量的表示式首先考虑信道没有干扰的情况:
信源发xi,信宿获取其全部信息量,即信源信息通过信道全部流通到信宿,有 I(xi
;yj)=I(xi)2.3互信息量和平均互信息量2.3.1互信息量33当信道存在干扰时,信源发xi,信宿收到的yj可能是xi的某种变型,亦即除了信源给出的信息外,还可能有纯粹是信道给出的“信息”。收到yj后,考虑从发端发xi这一事件中获得的信息量,应该是
(2.10) 故有
(2.11)
2.3互信息量和平均互信息量2.3.1互信息量34
1.对称性如果考虑信息的反向流通问题,即考虑事件xi的出现给出关于事件yj的信息量,或者从xi中获取关于yj的信息量,那么由定义2.7,有
(2.12)
2.3.2互信息量的性质2.3互信息量和平均互信息量35由式(2.11),有
(2.13)即I(xi;yj)=I(yj;xi),称为互信息量的对称性。
2.3互信息量和平均互信息量2.3.2互信息量的性质36由于P(xi)、P(yj
)均为先验概率,而P(xi|yj)、P(yj|xi)均为后验概率,综合式(2.11)和式(2.12)有
互信息量= (2.14)
这也表明,互信息量描述了两个随机事件xi、yj之间的统计约束程度,假如先验概率确定了,其后验概率就决定了信息的流通。2.3互信息量和平均互信息量2.3.2互信息量的性质37 2.值域为实数互信息量的值可为正数、负数或者0,取决于后验概率和先验概率的比值。以式(2.11)为例进行讨论,有如下几种情况。 (1)P(xi|yj
)=1,I(xi;yj)=I(xi)。后验概率为1,说明收到yj后即可以完全消除对信源是否发xi的不确定度。其物理含义是信宿获取了信源发出的全部信息量,这等效为信道没有干扰。2.3.2互信息量的性质2.3互信息量和平均互信息量38(2)P(xi)<P(xi|yj)<1,这时I(xi)>I(xi/yj),I(xi;yj)>0。后验概率大于先验概率,说明收到yj后对信源是否发xi所进行判断的正确程度,要大于xi在信源集合中的概率.或者说收到yj后多少还能消除一些对信源是否发xi的不确定度,因此yj获取了关于xi的信息量。I(xi;yj)越大,这种获取就越多。这正是实际通信时遇到的大多数情况,它对应着信道存在干扰,但信宿仍能从信源中获取信息量。I(xi;yj)>0表明信宿从信源获取的信息,亦表明存在正确通信的可能,在后面的章节将会进一步讨论进行可靠通信的极限条件。2.3互信息量和平均互信息量2.3.2互信息量的性质39(3)P(xi|yj)=P(xi),即I(xi)=I(xi|yj),I(xi;yj)=0后验概率与先验概率相等,说明收到yj后对信源是否发xi所进行判断的正确程度,和xi在信源集合中的概率是一样的;因此,它一点也不能消除对信源是否发xi的不确定度,也就是说从yj中获取不到关于xi的信息量;事实上,假若xi
和yj
统计无关,即P(xi,yj)=P(xi)P(yj),由贝叶斯公式容易推得I(xi;yj)=0;这种情况实际上是事件xi
和事件yj
统计无关,或者说信道使得事件xi
和事件yj变成了两码事,信宿得到的信息仅仅是由信道特性给出的,与信源实际发出什么符号无关,因此完全没有信息的流通。2.3互信息量和平均互信息量2.3.2互信息量的性质40(4)0<P(xi|yj)<P(xi),即I(xi)<I(xi|yj),I(xi;yj)<0后验概率小于先验概率,说明收到yj后对信源是否发xi所进行判断的正确程度,比xi在信源集合中的概率还要小,这时判断信源没有发xi似乎更合理些,但不能判断信源到底发了什么(特别是对应于信源有多个符号时)。这种情况事实上给出了信息量,但流通的不是关于xi的信息量,而是xi以外的事件的信息量。综上所述,只有P(xi|yj)=P(xi),即I(xi;yj)=0时,才没有信息的流通。2.3互信息量和平均互信息量2.3.2互信息量的性质41
3.不大于其中任一事件的自信息量由于P(xi|yj)1,根据式(2.11),有 I(xi;yj)lb[1/P(xi)]=I(xi)同理,由P(yj|xi)1,根据式(2.12),有 I(yj;xi)lb[1/P(yj)]=I(yj)这一性质清楚地说明了互信息量是描述信息流通特性的物理量,流通量的数值当然不能大于被流通量的数值。某一事件的自信息量是任何其他事件所能提供的关于该事件的最大信息量。2.3互信息量和平均互信息量2.3.2互信息量的性质422.3互信息量和平均互信息量2.3.3条件互信息量假设XYZ空间的事件xi、yj、zk,那么事件yjzk出现后,从yjzk中获取关于xi的信息量是多少呢?如果把yjzk看作一个事件,则由式(2.11),有
(2.15)将上式分子分母同乘以P(xi|zk),得
(2.16)上式第一项是xi与zk之间的互信息量;第二项定义为在zk条件下xi与yj之间的互信息量,简称为条件互信息量。43条件互信息量I(xi;yj|zk)是在给定zk条件下,事件yj的出现所提供的有关xi
的信息量写成I[(xi;yj)|zk]或许含义更明确些是在给定zk条件下xi、yj之间的互信息量2.3互信息量和平均互信息量2.3.3条件互信息量442.3互信息量和平均互信息量2.3.3条件互信息量条件互信息量和条件信息量的关系由式(2.16),有
类似地,还可推得其他表示,如
即条件互信息量可用条件信息量表示
45自信息量→熵互信息量→平均互信息量定义2.8
两个离散随机事件集合X和Y,若其任意两事件间的互信息量为I(xi;yj),则其联合概率加权的统计平均值,称为两集合的平均互信息量,用I(X;Y)表示。2.3互信息量和平均互信息量2.3.4平均互信息量46推导其数学描述:当信宿收到某一具体符号yj后,从yj中获取关于输入符号的平均信息量,显然应该是在条件概率空间中的统计平均,可用I(X;yj)表示,有再对其在集合Y中取统计平均,得2.3互信息量和平均互信息量2.3.4平均互信息量(2.19)47
1.对称性根据互信息量的对称性,容易推得 I(X;Y)=I(Y;X)
(2.20)说明从集合Y中获取X的信息量,等于从集合X中获取Y的信息量。
2.3互信息量和平均互信息量2.3.5平均互信息量的性质48
2.与各种熵的关系
从平均互信息量的定义出发,可以推得它与各种熵的关系。例如
2.3互信息量和平均互信息量2.3.5平均互信息量的性质(2.21)49
2.与各种熵的关系I(X;Y)=H(X)–H(X|Y)
(2.22)I(Y;X)=H(Y)–H(Y|X)
(2.23)I(X;Y)=H(X)+H(Y)–H(XY) (2.24)H(XY)为X集合和Y集合的共熵,或称联合熵。共熵应该是联合符号集合XY上的每个元素对xy的自信息量的概率加权统计平均值。2.3互信息量和平均互信息量2.3.5平均互信息量的性质50
2.与各种熵的关系(续)
共熵的定义式将P(x|y)=P(xy)
/P(y)带入式(2.21),得H(XY)=
=
(2.25)当X、Y统计独立时,有P(xy)=P(x)P(y),故
H(XY)=
H(X)+H(Y) (2.26)H(XY)=H(Y)+H(X|Y) (2.27)H(XY)=H(X)+H(Y|X)(2.28)2.3互信息量和平均互信息量2.3.5平均互信息量的性质51 3.I(X;Y)0,当且仅当X、Y互相独立时,等号成立平均互信息量是一个非负数由式(2.24),只要证明 H(XY)
H(X)+H(Y) (2.29)
当且仅当X、Y互相独立时等号成立,上述结论即得到证明。2.3互信息量和平均互信息量2.3.5平均互信息量的性质52式(2.29)的证明如下H(XY)-H(X)-H(Y)
2.3互信息量和平均互信息量2.3.5平均互信息量的性质由式(2.26)可知,当且仅当X、Y互相独立时等号成立。证毕。53上述证明中的不等式使用了Jensen不等式,该不等式给出如下结论:如果f是上凸函数,X为随机变量,则E[f(x)]
f[E(x)]。在这里用
这一关系可证。另外,对下凸函数有:f(x1+(1–)x2)
f(x1)+(1–)f(x2),即二阶导数非负利用式(2.24)和(2.26)容易证明,平均互信息量实质上是一种熵。
2.3互信息量和平均互信息量2.3.5平均互信息量的性质54I(X;Y)=H(X)–H(X/Y)平均互信息量为信源熵减掉一个条件熵。表明:以发送端(信源)的熵为参考,在接收端平均每收到一个符号所获得的(来自发端的)信息量。信道上没有任何干扰或噪声:I(X;Y)=H(X);信道存在干扰和噪声干扰和噪声“污染”了被传输的信息到达接收端的平均信息量比信源熵少了一些少掉的部分就是条件熵H(X/Y)因此H(X/Y)表征了对接收的每一个符号的正确性所产生怀疑的程度,故条件熵H(X/Y)又称之为疑义度。2.3互信息量和平均互信息量2.3.6平均互信息量的物理意义55I(Y;X)=H(Y)–H(Y/X)说明平均互信息量也可以用接收端(信宿)的熵为参考,且等于信宿熵减掉一个条件熵同样表征接收端平均每收到一个符号所获得的信息量。如果信道上没有任何干扰或噪声,则平均每收到一个符号所获得的信息量即是信宿熵,即I(X;Y)=H(Y);但是,如果信道上存在着干扰或噪声,则平均每收到一个符号所获得的信息量,它比起信宿熵小了一个条件熵,这个条件熵H(Y/X)是由于信道的干扰或噪声给出的,因此它是唯一地确定信道噪声和干扰所需的平均信息量,故称之为噪声熵,也称为散布度(DegreeofDiffusiveness)。2.3互信息量和平均互信息量2.3.6平均互信息量的物理意义56I(X;Y)=H(X)+H(Y)–H(XY)根据各种熵的定义,从该式可以清楚看出平均互信息量是一个表征信息流通的量其物理意义就是信源端的信息通过信道后传输到信宿端的平均信息量。2.3互信息量和平均互信息量2.3.6平均互信息量的物理意义57例2.4
已知信源空间
信道特性如图2.4所示,求在该信道上传输的平均互信息量I(X;Y),疑义度H(X|Y),噪声熵H(Y|X)和共熵H(XY)。2.3互信息量和平均互信息量2.3.6平均互信息量的物理意义
图2.4例2.4的信道特性58解(1)根据P(xiyj)=P(xi)P(yj
|xi),求各联合概率,得 P(x1y1)=P(x1)P(y1|x1)=0.5×0.98=0.49 P(x1y2)=P(x1)P(y2|x1)=0.5×0.02=0.01 P(x2y1)=P(x2)P(y1|x2)=0.5×0.20=0.10 P(x2y2)=P(x2)P(y2|x2)=0.5×0.80=0.40(2)根据,求Y集合中各符号的概率,得 P(y1)=P(x1)P(y1|x1)+P(x2)P(y1|x2)=0.5×0.98+0.5×0.2=0.59 P(y2)=1–0.59=0.412.3互信息量和平均互信息量2.3.6平均互信息量的物理意义59(3)根据P(xi|yj)=P(xiyj)/P(yj),求各后验概率,得 P(x1|y1)=P(x1y1)/P(y1)=0.49/0.59=0.831 P(x2|y1)=P(x2y1)/P(y1)=0.10/0.59=0.169 P(x1|y2)=P(x1y2)/P(y2)=0.01/0.41=0.024
P(x2|y2)=P(x2y2)/P(y2)=0.40/0.41=0.9762.3互信息量和平均互信息量2.3.6平均互信息量的物理意义602.3互信息量和平均互信息量2.3.6平均互信息量的物理意义(4)求各种熵,有
I(X;Y)=H(X)+H(Y)–H(XY)=1+0.98-1.43=0.55比特/信符H(X|Y)=H(X)–I(X;Y)=1–0.55=0.45比特/信符H(Y|X)=H(Y)–I(X;Y)=0.98–0.55=0.43比特/信符61相对熵的定义定义2.9
若对应于x有两种分布p(x)和q(x),则
2.3互信息量和平均互信息量2.3.7平均互信息量的另一种定义(2.30)称为这两种分布的相对熵。62D(p||q)称为“熵差”,也称为两种分布的“距离(Distance)”。在计算时将使用如下求极限的公式:2.3互信息量和平均互信息量2.3.7平均互信息量的另一种定义63例2.5
x={0,1};p(0)=1–r,p(1)=r;q(0)=1–s,q(1)=s。求D(p||q)和D(q||p)。
解
2.3互信息量和平均互信息量2.3.7平均互信息量的另一种定义若r=s,则D(p||q)=D(q||p)=0r
s,则D(p||q)D(q||p)64上述定义并不是严格意义下的熵差或“距离”,仅有一种相互的关系。利用这一关系引入平均互信息量的另一种定义。定义2.10
平均互信息量用相对熵定义如下:2.3互信息量和平均互信息量2.3.7平均互信息量的另一种定义65二维随机变量的熵 H(X1,X2)=H(X1)+H(X2|X1) (2.32)多维随机变量的熵P(X1,X2,…,
Xn)=P(X1)P(X2|X1)···P(Xn
|Xn
–1,Xn–2,…,
X2,X1)
根据熵和共熵的定义可推得
H(X1,X2,X3)=H(X1)+H[(X2,X3)|X1]=H(X1)+H(X2|X1)+H(X3|X2,X1)
(2.33)
H(X1,X2,…,Xn)=H(X1)+H(X2|X1)+H(X3|X2,X1)+… +H(Xn|Xn–1,Xn–2,…,
X2,X1)=2.4多维随机变量的熵2.4.1熵的链接准则(2.34)66
式(2.34)被称为熵的链接准则(ChainRules)给出了多维随机变量的联合熵与各随机变量的熵之间的关系。等于某一随机变量的熵及其他所有随机变量的条件熵之和,而条件熵涉及的条件,随着随机变量的维数增加而递增。2.4多维随机变量的熵2.4.1熵的链接准则67多维随机变量的信息流通问题假设信源是一个多维随机变量(X1,X2,…,
Xn),它通过信道传送到信宿的信息量,就是它们的平均互信息量I(X1,X2,…,
Xn;Y)。由平均互信息量的定义和熵的链接准则,有2.4多维随机变量的熵2.4.2信息链接准则(2.35)68式(2.35)被称为信息链接准则给出了多维随机变量的信息流通量与各随机变量的信息流通量之间的关系为( )条件下Xi与Y的平均互信息量。2.4多维随机变量的熵2.4.2信息链接准则69定理2.1
n维随机变量的共熵,不大于它们各自的熵之和。即
(2.36)
称为熵的界(Bounds)。2.4多维随机变量的熵2.4.3熵的界70证明
因为0I(X;Y)=H(X)–H(X|Y),所以H(X|Y)
H(X)由共熵的定义和熵的链接准则,有 H(X1,X2)=H(X1)+H(X2|X1)
H(X1)+H(X2) H(X1,
X2,X3)=H(X1)+H(X2,X3|X1)
=H(X1)+H(X2|X1)+H(X3|X2,X1)
H(X1)+H(X2)+H(X3)
证毕。2.4多维随机变量的熵2.4.3熵的界71由随机过程理论,对于3个随机变量空间X、Y、Z,如果Z的条件分布仅仅取决于Y而与X的条件无关,则称随机变量空间X、Y、Z构成了马尔可夫链(MarkovChain),简称马氏链。特别地,若 P(X,Y,Z)=P(X)P(Y|X)P(Z|Y)
(2.37) 则随机变量空间X、Y、Z构成了马氏链。X、Y、Z构成的马氏链也可写成X→Y→Z。2.4多维随机变量的熵2.4.4数据处理不等式72定理2.2
如果X→Y→Z,则I(X;Y)
I(X;Z)证明
由平均互信息量的性质和信息链接准则,可得 I(X;Y,Z)=I(X;Z)+I(X;Y|Z)
(2.38) 或 I(X;Y,Z)=I(X;Y)+I(X;Z|Y)
(2.39)X、Z与给定的Y条件无关,式(2.38)中的I(X;Y|Z)0,而式(2.39)中的I(X;Z|Y)=0,因此I(X;Y)
I(X;Z)
(2.40)证毕。类似地,也可以证得I(Y;Z)
I(X;Z)
(2.41)2.4多维随机变量的熵2.4.4数据处理不等式73定理说明:当消息通过级联处理时,其输入和输出消息之间的平均互信息量,不会超过输入消息与中间消息之间的平均互信息量,也不会超过中间消息与输出消息之间平均互信息量。结论可以推广到多级处理的情况,且无论处理器级数数目增加多少,输入消息与输出消息之间的平均互信息量只会变小而不会变大。称定理2.2为数据处理定理,式(2.40)和(2.41)为数据处理不等式。它指出数据处理能够把数据变换成各种所需要的或更有用的形式,但对于传输输入消息的目的而言,所作的处理不会创造出新的信息,故不会使流通的信息量增大。2.4多维随机变量的熵2.4.4数据处理不等式74信源空间的概念自信息量条件自信息量、信息熵、条件熵、互信息量、条件互信息量、平均互信息量及不确定度、疑义度、噪声熵、联合熵
信息可以度量
在信息的度量中,熵是最基本的,图2.5给出了各种熵与平均互信息量之间的关系。本章小结图2.5各种熵与平均互信息量之间的关系751.某市在几乎所有十字路口行人通道的红绿灯下方均增设了红灯语音提示装置,每当对应方向的红灯亮启时就有“现在是红灯,请不要闯红灯”的高声提示,根据实测,该提示音的传播几乎没有方向性且在嘈杂环境下亦能传得很远;假设在十字路口四角的两个通行方向出现红、绿灯分别用事件R1、G1和R2、G2表示,行人听到红灯提示用事件R表示,它们对应的概率分别为P(R1)、P(G1)、P(R2)、P(G2)和P(R)。(1)若P(G1)=P(G2)=1/2,试建立一信息传输模型,求行人听到红灯提示音时获取的信息量;(2)若P(G1)=1/3,P(G2)=3/8,再求行人听到红灯提示音时获得的信息量;(3)从狭义信息论的观点出发,你认为通过如何改进能够让行人获取比现在情况要大一些的信息量。
习题76解(1)设行人听到红灯提示音获取的信息量为I(R),由自信息量的定义,有I(R)=-lbP(R),根据本题条件必有P(R)=P(R1)+P(R2),因为对于行人行进方向来说只有红灯和绿灯,因此在P(G1)=P(G2)=1/2情况下P(R)=1,故I(R)=0,即由于行人总能一直听到红灯提示音且无法辨别其来自的方向,听到红灯提示时获取的信息量为0,亦即说明红灯提示音并没有给出行人行进方向是否为红灯的任何信息。(2)根据题意,有:P(R1)=1-P(G1)=2/3,P(R2)=1-P(G2)=5/8,P(R)=P(R1)+P(R2/G1)P(G1)=P(R2)+P(R1/G2)P(G2)=1,I(R)=-lbP(R)=0,即此时红灯提示音也没有给出行人行进方向是否为红灯的任何信息。77(3)从狭义信息论的观点来看,该红灯语音提示没有给行人提供关于行进方向红绿灯的任何信息,究其原因是因为始终出现“现在是红灯”的事件。改进的方法有(建议):两个方向的语音提示装置物理空间上分开;去除“现在是红灯”的判定,仅给出“请不要闯红灯”的警示;去除该种装置,让行人养成看红绿灯的习惯。78 1.一珍珠养殖场收获240颗外观及重量完全相同的特大珍珠,但不幸被人用外观相同但重量仅有微小差异的假珠换掉1颗。(1)一人随手取出3颗,经测量
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2023年废弃资源和废旧材料回收加工品项目融资计划书
- 2023年家庭投影仪项目融资计划书
- 2024秋新沪科版物理八年级上册课件 第六章 熟悉而陌生的力 第3节 来自地球的力
- 2023年绿化喷洒车项目融资计划书
- 电力电缆模拟试题(附答案)
- 养老院老人生活设施维修人员表彰制度
- 2024年版香港离婚简易协议样本版B版
- 2024年版自卸汽车租赁条款3篇
- 2025年中卫货运资格证考试题答案
- 2025年凉山州货运上岗证考试题库1387题
- 物联网与人工智能技术融合发展年度报告
- 妇产科医生医患沟通技巧
- 内科学糖尿病教案
- 《高尿酸血症》课件
- 微量泵的操作及报警处置课件查房
- 云南省昆明市西山区2023-2024学年七年级上学期期末语文试卷
- 人教版小学数学四年级上册5 1《平行与垂直》练习
- 市政设施养护面年度计划表
- 公差配合与技术测量技术教案
- 坚持教育、科技、人才“三位一体”为高质量发展贡献高校力量
- 污水处理厂工艺设计及计算
评论
0/150
提交评论