信源与信息熵_第1页
信源与信息熵_第2页
信源与信息熵_第3页
信源与信息熵_第4页
信源与信息熵_第5页
已阅读5页,还剩80页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

信源与信息熵1第一页,共八十五页,2022年,8月28日本章内容信源的分类及基本的信源数学模型描述、自信息和信息熵的定义及性质、互信息的概念及性质、信源冗余度的描述等。本章重点理解信源不确定性的含义,熵函数H(X)的性质、平均互信息量的定义、性质,联合信源的联合熵、条件熵,离散平稳信源的信源熵、极限熵等概念和计算方法。了解马尔可夫信源的定义和计算方法。第二页,共八十五页,2022年,8月28日2.1信源的描述和分类第三页,共八十五页,2022年,8月28日一、香农信息论的基本点用随机变量或随机矢量来表示信源用概率论和随机过程的理论来研究信息常用的信息度量方法——统计度量。(另有结构度量、语义度量、语用度量和模糊度量等方法。)2.1信源的描述和分类第四页,共八十五页,2022年,8月28日二、信源的分类 按照信源发出的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源两大类

{信源离散信源连续信源连续信源是指发出在时间和幅度上都是连续分布的连续消息(模拟消息)的信源,如语言、图像、图形等都是连续消息。离散信源是指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息。5第五页,共八十五页,2022年,8月28日离散信源{离散无记忆信源离散有记忆信源{{发出单个符号的无记忆信源发出符号序列的无记忆信源发出符号序列的有记忆信源发出符号序列的马尔可夫信源离散无记忆信源所发出的各个符号是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率。离散有记忆信源所发出的各个符号的概率是有关联的。发出单个符号的信源是指信源每次只发出一个符号代表一个消息。发出符号序列的信源是指信源每次发出一组含二个以上符号的符号序列代表一个消息。发出符号序列的有记忆信源是指用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征。

发出符号序列的马尔可夫信源是指某一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,这样的信源可以用信源发出符号序列内各个符号之间的条件概率来反映记忆特征。6第六页,共八十五页,2022年,8月28日三、信源的描述单符号离散信源定义:一个离散无记忆信源是由n个符号消息组成的集合:X={x1,x2···xn},这n个符号消息的概率分布为:称为符号xi的先验概率,信源数学模型表示为:

称为概率空间,其中7第七页,共八十五页,2022年,8月28日例如:对二进制数字与数据信源8第八页,共八十五页,2022年,8月28日单个连续信源

pX(x)为随机变量X的概率密度函数9第九页,共八十五页,2022年,8月28日概率论知识复习随机变量X和Y分别取值于集合和 X发生xi和Y发生yj的概率为p(xi)和p(yj),它们一定满足0

p(xi),p(yj)1以及 和。如果考察X和Y同时发生xi和yj的概率,则二者构成联合随机变量XY,取值于集合{xiyj|i=1,2,…,n,j=1,2,…,m},元素xiyj发生的概率称为联合概率,用p(xiyj)表示。10第十页,共八十五页,2022年,8月28日概率论知识复习如X发生xi以后,Y又发生yj的条件概率为p(yj/xi),代表xi已知的情况下,又出现yj的概率。当xi不同时,即使发生同样的yj

,其条件概率也不同,说明xi对yj的影响。而p(yj)则是对xi一无所知情况下,yj发生的概率,有时相应地称为p(yj)为yj的无条件概率。同理,yj

已知的条件下xi

的条件概率记为p(xi/yj)。相应地,p(xi)称为xi的无条件概率。11第十一页,共八十五页,2022年,8月28日概率论知识复习12第十二页,共八十五页,2022年,8月28日概率论知识复习

1)条件概率

2)联合概率13第十三页,共八十五页,2022年,8月28日概率论知识复习

3)全概率:

4)Bayes公式:14第十四页,共八十五页,2022年,8月28日2.2离散信源熵和互信息15第十五页,共八十五页,2022年,8月28日2.2离散信源熵和互信息信源发出消息,经过信道,到达信宿,信宿收到消息,获得了信息,这个过程就称作通信。我们现在来研究通信的源头,也就是信源的特性。那么实际有用的信源应该具有什么特性呢?我们认为它应该具有不确定性(不肯定性)。信源至少应该包含两种不同的消息,例如两元信元(包含0、1),而信宿是知道信元发送(0、1)的,但是它就是不知道在具体的某一时刻,信源发送的是哪个消息。这是显然的,如果它知道,就不需要通信了!

一、不确定性16第十六页,共八十五页,2022年,8月28日

【例2.1】某二元信源(含有两个不同消息的信源)发送1的概率0.99,0的概率0.01,信宿仅凭猜测就可以简单的认为信源发出的消息始终都是1,即使如此,猜错的概率仅为百分之一。这说明在这种情况下,信源基本上在发送1,信源的不确定性很小。

【例2.2】某二元信源发送1和0的概率相等,均为0.5,这时信宿不依赖通信仅凭猜测的话,猜错的概率高达50%。这说明在这种情况下,猜测信源发送什么消息就困难了,因为信源发送什么消息相当不确定。17第十七页,共八十五页,2022年,8月28日

【例2.3】如果信源具有更多的消息,例如发10个数字0,1…..9(例如采用4位十进制树的中文电报),而且假定这是个消息是等概率分布的,均为0.1,这时信宿仅凭猜测的话,就更难猜了。因为信源发送什么消息更加不确定。

【例2.4】现在讨论一种极端的情况,信源只发送一种消息,即永远只发送1或者只发送0,从这样的信源中我们就不能从中获取任何信息,也就是说信源的不确定性为0。18第十八页,共八十五页,2022年,8月28日信源如果没有不确定性,那么就没有实用价值。不确定度和发送的消息数目和发送符号的概率有关。为了确切的描述信源,我们采用概率空间来描述信源。

离散信源:若一类信源输出的消息常常是以一个个符号的形式出现,例如文字、字母等,这些符号的取值是有限的或可数的,这样的信源称为离散信源。比如(0、1)二元信元,它的消息是以一定的概率来出现的,所以可以采用概率空间来描述。若信源的输出是随机变量X,其出现概率为P(X),则它们所构成的集合,称为信源的概率空间或简称为信源空间。19第十九页,共八十五页,2022年,8月28日

1)定义:一个符号消息xi的自信息量为其发生概率的对数的负数,并记为I(xi);

I(xi)=-logp(xi)

当p(xi)=0,则I(xi)→∞;当p(xi)=1,则I(xi)=0.2)自信息量的单位自信息量的单位与所用对数的底有关:

1º对数的底是2时,单位为比特

—bit(binaryunit)2º对数的底是e(自然对数)时,单位为奈特

—nat(natureunit)二、自信息量20第二十页,共八十五页,2022年,8月28日

3º对数的底是10(常用对数)时,单位为笛特或哈特

—det(decimalunit)orHart(Hartley)

三种信息量单位之间的换算:

1det=log210≈3.322bit1bit=ln2≈0.6931nat1bit=lg

2≈0.3010det1nat=log2e≈1.4427bit

在信息论中常用以2为底的对数,为了书写方便,以后将log2书写为log,因其单位为比特bit,不会产生混淆;注意有些文献将log2书写为lb。21第二十一页,共八十五页,2022年,8月28日

【例2.5】一个1,0等概的二进制随机序列,求任一码元的自信息量。 解:任一码元不是为0就是为1

因为P(0)=P(1)=1/2

所以I(0)=I(1)=–lb(1/2)=1(bit)22第二十二页,共八十五页,2022年,8月28日

【例2.6】对于2n进制的数字序列,假设每一符号的出现完全随机且概率相等,求任一符号的自信息量。 解:设2n进制数字序列任一码元xi的出现概率为p(xi),根据题意,

p(xi)=1/2n

I(xi)=–lb(1/2n)=n(bit)

事件的自信息量只与其概率有关,而与它的取值无关。23第二十三页,共八十五页,2022年,8月28日

3)自信息量的含义是随机量、根据单个符号消息的先验概率确定其信息量和不确定度。是该符号出现后,提供给收信者的信息量。

4)随机事件的不确定度:不确定度在数量,单位与自信息量相同,含义不同。具有某种概率的信源符号在发生之前,存在不确定度,不确定度表征该符号的特性。24第二十四页,共八十五页,2022年,8月28日

5)

自信息量I(xi)的特性

1º事件xi先验概率p(xi)=1(确定事件),则不存在不确定性,同时不会带来信息量;I(xi)=0。

2º事件xi先验概率p(xi)=0(不可能事件),则存在不确定性应为无穷大,同时会带来无穷的信息量;I(xi)→∞3º非负性

4º单调性

若有两个事件xi,xj

,其先验概率为p(xi)<p(xj),则事件xi

比事件xj有更大的不确定性,同时会带来更多的信息量;I(xi)>I(xj

)5º可加性

两个统计独立事件的联合自信息量应等于它们各自信息量之和;则I(x

y

)=

I(x)+I(y

)25第二十五页,共八十五页,2022年,8月28日

6)联合自信息量与条件自信息量

联合自信息量定义:若有两个消息xi

yj同时出现,用联合概率p(xi

yj)

表示,联合自信息量为:I(xi

yj)=-logp(xi

yj)

当X和Y相互独立时,p(xiyj)=p(xi)p(yj),代入到前式就有:I(xiyj)=-log2p(xi)-log2p(yj)=I(xi)+I(yj)

说明两个随机事件相互独立时,同时发生得到的自信息量,等于这两个随机事件各自独立发生得到的自信息量之和。26第二十六页,共八十五页,2022年,8月28日

条件自信息量定义:在事件yj出现条件下,xi发生的条件概率为p(xi

|

yj),则xi的条件自信息量为:

I(xi

|yj)=-logp(xi

|

yj)

由于随机事件(消息)的概率在0~1范围内,所以联合信息量和条件自信息量也满足非负和单调递减性。27第二十七页,共八十五页,2022年,8月28日联合自信息、条件自信息与自信息间的关系

I(xiyj)=-log2p(xi)p(yj|xi)=I(xi)+I(yj|xi)=-log2p(yj)p(xi|yj)=I(yj)+I(xi|yj)28第二十八页,共八十五页,2022年,8月28日 作为信源总体信息测度的量应是信源各个不同符号xi

(i=1,2,…,N)所包含的自信息量I(xi)(i=1,2,…,N)在信源空间

P(X)={p(x1),p(x2),…,p(xi),…,p(xN

)}中的统计平均值。三、离散信源熵29第二十九页,共八十五页,2022年,8月28日

【例2.7】一个布袋内放100个球,其中80个球为红色,20球为白色。若随机摸取一个球,猜测其颜色,求平均摸取一次所获得的(自)信息量。解:随机事件的概率空间为30第三十页,共八十五页,2022年,8月28日当被告知摸出红球的信息量是当被告知摸出白球的信息量是如果每次摸出一个球后又放回袋中,再进行下一次摸取且如此摸取n次,那么红球出现的次数为np(x1),白球出现的次数为np(x2)。随机摸取n次后总共所获得的信息量为31第三十一页,共八十五页,2022年,8月28日而平均随机摸取1次所获得的信息量为32第三十二页,共八十五页,2022年,8月28日

1)定义信息源的平均不确定度为信源中各个符号不确定度的数学期望,记作H(X)

其中

H(X)又称为信源X的信源熵。33第三十三页,共八十五页,2022年,8月28日

2)H(X)

的含义

1º表示的是信源的平均不确定度。

2º表示信源X发出一个符号提供的平均信息量。

3º是统计量、数学期望(统计平均)、各个符号平均不确定度和平均信息量。

3)

信源熵单位:二进制:bit/信源符号,或bit/信源序列十进制:det/信源符号,或det/信源序列

e进制:nat/信源符号,或nat/信源序列34第三十四页,共八十五页,2022年,8月28日4)信源熵的三种特殊情况1º当

p(xi)=0时(p(xi)→0),则p(xi)logp(xi)=02º信源X={x1,x2

·

··xn

}

,若其中xi

的概率p(xi)=1

则其余xj的p(xj)=0,因为则H(X)=0bit/信源符号3º当信源中X所有n个符号均有相同的概率p(xi)=1/n,则H(X)=-(1/n)log(1/n)=lognbit/信源符号35第三十五页,共八十五页,2022年,8月28日

【例2.8】设信源符号集X={x1,x2,x3},每个符号发生的概率分别为p(x1)=1/2,p(x2)=1/4,p(x3)=1/4,则信源熵为即该信源中平均每符号所包含的信息量为1.5bit,也即为了表明和区分信源中的各个符号只需用1.5bit。36第三十六页,共八十五页,2022年,8月28日

【例2.10】二元符号信源{0,1}

符号0的概率p(0)=p

,则p(1)=1-p

H(X)=-[plogp+(1-p)log(1-p)]

p=0.5时H(X)有最大值,H(X)=1bit/信源符号37第三十七页,共八十五页,2022年,8月28日38第三十八页,共八十五页,2022年,8月28日

5)条件熵与联合熵

1º条件熵在给定yj条件下,xi的条件自信息量为:

I(xi

|yj)=-logp(xi

|

yj)

集合X的条件熵为:

在给定Y(即各个yj)条件下,集合X的条件熵定义为:39第三十九页,共八十五页,2022年,8月28日2º联合熵(共熵)

联合熵是联合符号集合XY上的每个元素对xi

,

yj的自信息量的概率加权的统计平均值。40第四十页,共八十五页,2022年,8月28日3º条件熵与联合熵的关系

I(xi

|yj)=-logp(xi

|

yj)

,I(xi

yj)=-logp(xi

yj)41第四十一页,共八十五页,2022年,8月28日所以H(XY)=H(X

)+H(Y|X)同理H(XY)=H(Y)+H(X|Y)当X和Y相互独立时,有42第四十二页,共八十五页,2022年,8月28日简单的通信模型若信源发出符号xi,由于信道存在干扰,收到的不是xi而是yi

,从yi中获取有关xi的信息量称为互信息量,用I(xi;yi)表示。信源X有干扰离散信道信宿Y干扰源四、互信息43第四十三页,共八十五页,2022年,8月28日1º

信源发送符号xi,同时信宿接收符号yj的联合概率:

其中:p(xi)为信源符号xi的先验概率。

p(yj|xi)为信源符号xi已发送,信宿接收到yj的条件概率;称为信道的传递概率或转移概率或前向概率。注意:p(yi|xi)是在信源发送xi的情况下,信宿接收到yi的概率,该概率是可通过统计获得的。

2º信宿接收符号yj的概率44第四十四页,共八十五页,2022年,8月28日

3º信宿接收yj后,推测信源发送的符号是xi的概率(后验概率):p(xi|yi)45第四十五页,共八十五页,2022年,8月28日

4º互信息量定义:后验概率与先验概率比值的对数称为互信息量,记为I(xi;yj)

1.当p(xi

|yj

)=1,则I(xi;yj)=I(xi)2.当xi,yj互不相关,p(xi|

yj

)=p(xi),则I(xi;yj)=0

3.互信息量单位bit46第四十六页,共八十五页,2022年,8月28日

I(xi;yj)=I(xi)-I(xi

|yj

)

互信息量等于自信息量减去条件自信息量。自信息量在数量上与随机事件发出的xi不确定度相同,可以理解为对yj一无所知的情况下xi存在的不确定度。同理,条件自信息量在数量上等于已知yj的条件下,xi仍然存在的不确定度。两个不确定度差,是不确定度被消除的部分,代表已经确定的东西,实际是从yj得到的关于xi的信息量。47第四十七页,共八十五页,2022年,8月28日

5º互信息量的性质

I(xi;yj)=I(yj;xi)I(xi;yj)=I(xi)-I(xi

|yj

)

I(xi;yj)=I(xi|

yj

)-I(yi)48第四十八页,共八十五页,2022年,8月28日

6º互信息量计算

已知:信源符号xi的概率p(xi)---先验概率,

信源xi

发送的条件下,信宿接收到yj的概率p(yj

|xi)

互信息量计算即如何求p(xi|yj)/p(xi)1.联合概率

2.全概率

3.后验概率与先验概率之比49第四十九页,共八十五页,2022年,8月28日

【例2.11】某二元通信系统x0=0,x1=1,信源发送x0和x1的概率分别为p(0)=1/2,p(1)=1/2;信宿y0=0,y1=1

由于信道中有干扰,当信源发送0时,信宿接收为0的概率p(y0|x0)=p(0|0)=3/4

信宿接收为1的概率p(y1|x0)=p(1|0)=1/4

当信源发送1时,信宿接收为0的概率p(y0|x1)=p(0|1)=1/5

信宿接收为1的概率p(y1|x1)=p(1|1)=4/5

求互信息量

I(x0;y0),I(x0;y1),I(x1;y0),I(x1;y1)50第五十页,共八十五页,2022年,8月28日

x0=0

p(0|0)=3/4y0=0

p(0|1)=1/5p(1|0)=1/4

x1=1p(1|1)=4/5y1=11.联合概率

p(x0y0)=p(x0)p(y0|x0)=1/2×3/4=3/8

p(x0y1)=p(x0)p(y1|x0)=1/2×1/4=1/8

p(x1y0)=p(x1)p(y0|x1)=1/2×1/5=1/10p(x1y1)=p(x1)p(y1|x1)=1/2×4/5=4/1051第五十一页,共八十五页,2022年,8月28日2.全概率

p(y0)=p(x0y0)+p(x1y0)=3/8+1/10=19/40

p(y1)=p(x0y1)+p(x1y1)=1/8+4/10=21/403.后验概率与先验概率之比

p(x0|y0)/p(x0)=p(y0|x0)/p(y0)=3/4÷19/40=30/19p(x0|y1)/p(x0)=p(y1|

x0)/p(y1)=1/4÷21/40=10/21p(x1|y0)/p(x1)=p(y0|

x1)/p(y0)=1/5÷19/40=8/19p(x1|y1)/p(x1)=p(y1|

x1)/p(y1)=4/5÷21/40=32/21

4.互信息量

I(x0;y0)=log(30/19)bitI(x0;y1)

=log(10/21)bitI(x1;y0)=log(8/19)bitI(x1;y1)=log(32/21)bit52第五十二页,共八十五页,2022年,8月28日2)条件互信息量假设XYZ空间的事件xi、yj、zk,那么事件yjzk出现后,从yjzk中获取关于xi的信息量是多少呢?如果把yjzk看作一个事件,则有53第五十三页,共八十五页,2022年,8月28日

将上式分子分母同乘以P(xi|zk),得

上式第一项是xi与zk之间的互信息量;第二项定义为在zk条件下xi与yj之间的互信息量,简称为条件互信息量。54第五十四页,共八十五页,2022年,8月28日互信息量、联合事件互信息量、条件互信息量三者都是随机变量,其值随着变量xi

、yj、zk的变化而变化。三者之间有如下的关系式:55第五十五页,共八十五页,2022年,8月28日

3)平均互信息量定义互信息量I(xi;yj)在联合概率空间P(XY)上的统计平均值称平均互信息量,用I(X;Y)表示平均互信息量单位

bit/消息56第五十六页,共八十五页,2022年,8月28日当信宿收到某一具体符号yj后,从yj中获取关于输入符号的平均信息量,显然应该是在条件概率空间中的统计平均,可用I(X;yj)表示,有再对其在集合Y中取统计平均,得57第五十七页,共八十五页,2022年,8月28日平均互信息的三种不同的形式表达式58第五十八页,共八十五页,2022年,8月28日4)平均互信息量的性质

1º对称性

I(X;Y)=I(Y;X)59第五十九页,共八十五页,2022年,8月28日

2º非负性

I(X;Y)≥0

平均互信息量的非负性告诉我们:从整体和平均的意义上来说,信道每通过一条消息,总能传递一定的信息量,或者说接收端每收到一条消息,总能提取到关于信源X的信息量,等效于总能使信源的不确定度有所下降。也可以说从一个事件提取关于另一个事件的信息,最坏的情况是0,不会由于知道了一个事件,反而使另一个事件的不确定度增加。60第六十页,共八十五页,2022年,8月28日

3º极值性I(X;Y)H(X)I(Y;X)H(Y)

因此I(X;Y)=H(X)-H(X|Y)

当X与Y无关时,H(X|Y)=H(X),则I(X;Y)=0;表示无法从Y中获取X的信息。61第六十一页,共八十五页,2022年,8月28日

4º凸函数性由平均互信息量的定义显然平均互信息量是信源概率分布p(xi)和表示输入输出之间关系的条件概率或称信道传递概率分布p(yj|xi)的函数,即62第六十二页,共八十五页,2022年,8月28日

若固定信道,调整信源,则平均互信息量是信源概率分布p(xi)的函数反之若固定信源,调整信道,则平均互信息量是信道传递概率或称信道转移概率分布p(yj|xi)的函数

f[p(xi)]和f[p(yj|xi)]具有不同的数学特性63第六十三页,共八十五页,2022年,8月28日平均互信息量I(X;Y)是信源概率分布p(xi)的上凸函数平均互信息量I(X;Y)是信道转移概率p(yj|xi)的下凸函数64第六十四页,共八十五页,2022年,8月28日

5)平均互信息量的物理意义

I(X;Y)=H(X)-H(X|Y)

1ºH(X)是符号集合X的熵或不确定度

2ºH(X|Y)是当信宿已收到Y时,X的条件熵或不确定度(仍有疑义),表示通信过程中信息在信道中的损失量,称为信道疑义度或疑义度;

3ºI(X;Y)表示信宿获得的净信息量;

4º平均互信息量I(X;Y)考虑全部消息,根据统计平均的计算得出一个确定的量,是信道中流通的信息量的整体测度。65第六十五页,共八十五页,2022年,8月28日

I(Y;X)=H(Y)–H(Y/X)

说明平均互信息量也可以用接收端(信宿)的熵为参考,且等于信宿熵减掉一个条件熵同样表征接收端平均每收到一个符号所获得的信息量。如果信道上没有任何干扰或噪声,则平均每收到一个符号所获得的信息量即是信宿熵,即I(X;Y)=H(Y);但是,如果信道上存在着干扰或噪声,则平均每收到一个符号所获得的信息量,它比起信宿熵小了一个条件熵,这个条件熵H(Y/X)是由于信道的干扰或噪声给出的,因此它是唯一地确定信道噪声和干扰所需的平均信息量,故称之为噪声熵,也称为散布度。66第六十六页,共八十五页,2022年,8月28日

I(X;Y)=H(X)+H(Y)–H(XY)

根据各种熵的定义,从该式可以清楚看出平均互信息量是一个表征信息流通的量,其物理意义就是信源端的信息通过信道后传输到信宿端的平均信息量。67第六十七页,共八十五页,2022年,8月28日

【例2.12】已知信源空间

信道特性如图所示,求在该信道上传输的平均互信息量I(X;Y),疑义度H(X|Y),噪声熵H(Y|X)和共熵H(XY)。68第六十八页,共八十五页,2022年,8月28日解(1)根据P(xiyj)=P(xi)P(yj

|xi),求各联合概率,得

P(x1y1)=P(x1)P(y1|x1)=0.5×0.98=0.49 P(x1y2)=P(x1)P(y2|x1)=0.5×0.02=0.01 P(x2y1)=P(x2)P(y1|x2)=0.5×0.20=0.10 P(x2y2)=P(x2)P(y2|x2)=0.5×0.80=0.40

(2)根据,求Y集合中各符号的概率,得

P(y1)=P(x1)P(y1|x1)+P(x2)P(y1|x2)=0.5×0.98+0.5×0.2=0.59 P(y2)=1–0.59=0.4169第六十九页,共八十五页,2022年,8月28日(3)根据P(xi|yj)=P(xiyj)/P(yj),求各后验概率,得

P(x1|y1)=P(x1y1)/P(y1)=0.49/0.59=0.831 P(x2|y1)=P(x2y1)/P(y1)=0.10/0.59=0.169 P(x1|y2)=P(x1y2)/P(y2)=0.01/0.41=0.024 P(x2|y2)=P(x2y2)/P(y2)=0.40/0.41=0.97670第七十页,共八十五页,2022年,8月28日

(4)求各种熵,有

I(X;Y)=H(X)+H(Y)–H(XY)=1+0.98-1.43=0.55比特/信符

H(X|Y)=H(X)–I(X;Y)=1–0.55=0.45比特/信符

H(Y|X)=H(Y)–I(X;Y)=0.98–0.55=0.43比特/信符71第七十一页,共八十五页,2022年,8月28日

2.2.4数据处理中信息的变化在一些实际的通信系统中,常常出现串联信道的情况。另外,对于信宿收到的信号或数据,常常需要进行适当的处理,以使输出消息变换成更有用的形式。这种处理称为数据处理。数据处理系统一般可看成是一种信道,它与前面传输数据的信道构成串联的关系。P(Y|X)P(Z|Y)XYZ72第七十二页,共八十五页,2022年,8月28日假设Y下X和Z相互独立,则有数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。数据处理定理的数学表示式为

I(X;Z)

I(X;Y)I(X;Z)

I(Y;Z)73第七十三页,共八十五页,2022年,8月28日证明:对互信息量和条件互信息量求数学期望得到

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论