信源及信源熵_第1页
信源及信源熵_第2页
信源及信源熵_第3页
信源及信源熵_第4页
信源及信源熵_第5页
已阅读5页,还剩42页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

信源及信源熵第一页,共四十七页,2022年,8月28日2.1信源的描述和分类2.2离散信源熵和互信息2.3连续信源的嫡和互信息2.4离散序列信源的熵2.5冗余度重点:信源熵和互信息难点:离散序列信源的熵第二页,共四十七页,2022年,8月28日2.1信源的描述和分类

信源是信息的来源。信源的产生消息、消息序列以及连续消息的来源。信源具有不确定性,可用概率统计特性来描述。一、信源的分类1、按照信源每次输出符号的个数可分为单符号信源和多符号信源。单符号信源:是最简单也是最基本的信源,是组成实际信源的基本单元。信源每次输出一个符号,通常用离散随机变量和其概率分布来表示。第三页,共四十七页,2022年,8月28日多符号信源:信源每次发出一个符号序列,用随机矢量来表示。

其中,为输出序列,共有q=中可能取值。2、按照时间和取值上的离散和连续性分类。

第四页,共四十七页,2022年,8月28日离散信源是时间上和幅度上都是离散分布的信源,根据信源发出符号之间的依赖关系可分为无记忆信源、有限记忆信源和无限记忆信源。

离散无记忆信源:发出单个符号的无记忆信源;发出符号序列的无记忆信源;离散有记忆信源:发出符号序列的有记忆信源发出符号序列的马尔可夫信源第五页,共四十七页,2022年,8月28日二、离散平稳无记忆信源平稳信源:若当t=i,t=j,有,则称信源是一维平稳的,即任意两个不同时刻信源发出的符号的概率分布完全相同。若一维平稳信源还满足,则称信源是二维平稳的,即任意时刻信源连续发出两个符号的联合概率分布也完全相同。如果各维联合概率分布均与时间起点无关,则称信源的完全平稳的,简称离散平稳信源。无记忆信源:信源发出符号出现的概率与前面符号无关。常见的无记忆信源有投硬币、掷骰子等等。无记忆信源各变量组成的随机序列的概率是各变量概率的乘积,即p(x)

=p(x1x2…xL)=p(x1)p(x2)…p(xL)=

第六页,共四十七页,2022年,8月28日无记忆信源包括单个符号的无记忆信源和符号序列的无记忆信源,常见的单个符号的无记忆信源有书信文字、计算机的代码、电报符号、阿拉伯数字码等等。这些信源输出的都是单个符号(或代码)的消息,它们符号集的取值是有限的或可数的。单符号无记忆信源可以用一维的随机变量及其概率分布来表示。

例如扔骰子,每次试验结果必然是1~6点中的某一个面朝上。可以用一个离散型随机变量X来描述这个信源输出的消息。并满足第七页,共四十七页,2022年,8月28日符号序列的无记忆信源可以用概率矢量来表示。将一维的单符号无记忆信源进行N维扩展可得到符号序列的无记忆信源。例如投三次硬币,“1”代表正面朝上,“0”代表反面朝上。第八页,共四十七页,2022年,8月28日三、马尔科夫信源若信源在某一时刻发出的符号概率除与该符号有关外,还与此前的符号有关,则此类信源为有记忆信源。如果与前面无限个符号有关,为无限记忆信源;如果仅与前面有限个符号有关,为有限记忆信源。有记忆信源序列的联合概率与条件概率有关将这有限个符号记为一个状态,在信源发出的符号概率除与次符号有关外,只与该时刻所处的状态有关,信源将来的状态及其发出的符号只与信源当前的状态有关,而与信源过去的状态无关。这种信源的一般数学模型就是马尔可夫过程,所以称这种信源为马尔可夫信源。第九页,共四十七页,2022年,8月28日马氏链的基本概念m阶马尔可夫信源:信源输出某一符号的概率仅与以前的m个符号有关,而与更前面的符号无关。p(xt|xt-1,xt-2,xt-3,…xt-m,…x1)=p(xt|xt-1,xt-2,xt-3,…xt-m)令si=(xi1xi2…xim)i1,i2…im∈(1,2,…q)m个字母组成的各种可能的序列就对应于信源全部可能的状态S.状态集S={s1,s2,…,sQ}Q=qm信源输出的随机符号序列为:x1,x2,…xi-1,xi…信源所处的随机状态序列为:s1,s2,…si-1,si,…第十页,共四十七页,2022年,8月28日例:二元序列为…01011100…考虑m=2,Q=qm=22=4s1=00s2=01s3=10s4=11变换成对应的状态序列为…s2s3s2s4s4s3s1…第十一页,共四十七页,2022年,8月28日设信源在时刻m处于si状态,它在下一时刻(m+1)状态转移到sj的转移概率为:pij(m)=p{Sm+1=sj|Sm=si}={sj|si}pij(m):基本转移概率(一步转移概率)、若pij(m)与m的取值无关,则称为齐次(时齐)马尔可夫链。pij=p{Sm+1=sj|Sm=si}=p{S2=sj|S1=si}pij具有下列性质:pij≥0类似地,定义k步转移概率为pij(k)=p{Sm+k=sj|Sm=si}由于系统在任一时刻可处于状态空间S={s1,s2,…,sQ}中的任意一个状态,因此状态转移时,转移概率是一个矩阵

第十二页,共四十七页,2022年,8月28日也可将符号条件概率写成矩阵:上两个矩阵,一般情况下是不同的。齐次马尔可夫链可以用其状态转移图(香农线图)来表示,图是一个有着6个状态的齐次马尔可夫链。第十三页,共四十七页,2022年,8月28日齐次马尔可夫链中的状态可以根据其性质进行分类:如状态si经若干步后总能到达状态sj,即存在k,使pij(k)>0,则称si可到达sj;若两个状态相互可到达,则称此二状态相通;过渡态:一个状态经过若干步以后总能到达某一其他状态,但不能从其他状态返回,如图中的状态s1;吸收态:一个只能从自身返回到自身而不能到达其他任何状态的状态,如图中的状态s6;常返态:经有限步后迟早要返回的状态,如s2、s3、s4和s5;周期性的:在常返态中,有些状态仅当k能被某整数d>1整除时才有pij(k)>0,如图中的状态s4和s5,其周期为2;非周期性的:对于pij(k)>0的所有k值,其最大公约数为1。遍历状态:非周期的、常返的状态,如图中的状态s2和s3。闭集:状态空间中的某一子集中的任何一状态都不能到达子集以外的任何状态不可约的:闭集中除自身全体外再没有其他闭集的闭集第十四页,共四十七页,2022年,8月28日一个不可约的、非周期的、状态有限的马尔可夫链其k步转移概率pij(k)在k→∞时趋于一个和初始状态无关的极限概率p(sj),它是满足方程组的唯一解;p(sj)或Wj:为马尔可夫链的一个平稳分布,且p(sj)或Wj就是系统此时处于状态sj的概率。

第十五页,共四十七页,2022年,8月28日例:设一个二元二阶马尔可夫信源,信源符号集为

X=0,1,输出符号的条件概率为:求该信源的状态转移图。第十六页,共四十七页,2022年,8月28日解:p(0/00)=p(x0/e1)=p(e1/e1)=0.8p(1/00)=p(x1/e1)=p(e2/e1)=0.2p(0/01)=p(x0/e2)=p(e3/e2)=0.5p(1/01)=p(x1/e2)=p(e4/e2)=0.5p(0/10)=p(x0/e3)=p(e1/e3)=0.5p(1/10)=p(x1/e3)=p(e2/e3)=0.5p(0/11)=p(x0/e4)=p(e3/e4)=0.2p(1/11)=p(x1/e4)=p(e4/e4)=0.8第十七页,共四十七页,2022年,8月28日例:有一个二元二阶马尔可夫信源,其信源符号集为{0,1},已知符号条件概率:

p(0|00)=1/2p(1|00)=1/2p(0|01)=1/3p(1|01)=2/3p(0|10)=1/4p(1|10)=3/4p(0|11)=1/5p(1|11)=4/5求:⑴信源全部状态及状态转移概率⑵画出完整的二阶马尔可夫信源状态转移图。⑶求平稳分布概率

第十八页,共四十七页,2022年,8月28日解:第十九页,共四十七页,2022年,8月28日2.2离散信源熵和互信息一、自信息量信源发出的信息具有不确定性,而事件发生的不确定性与事件发生的概率大小有关,概率越小,不确定性越大,事件发生以后所含有的信息量就越大。小概率事件,不确定性大,一旦出现必然使人感到意外,因而产生的信息量就大;大概率事件,不确定性小,因而信息量小。因此随机变量的自信息量是该事件发生的概率的函数,并且应该满足一下条件:(1)是的严格递减函数,当时,,概率越小,事件发生后的信息量越大。(2)极端情况下,=0时,趋于无穷大;=1时,=0。(3)两个相对独立的不同的消息所提供的信息量应等于它们分别提供的信息量之和,即自信息满足可加性。自信息量第二十页,共四十七页,2022年,8月28日自信息量Df:随机事件的自信息量定义为该事件发生概率的对数的负值,设事件的概率为,则它的自信息量定义为自信息量的单位与所用对数的底有关:对数底为2时,单位是比特;对数底是自然数e时,单位是奈特;对数底是10时,单位是哈特莱。一般采用以2为底的对数。条件自信息量Df:在事件yj出现的条件下,随机事件xi发生的条件概率为,则它的条件自信息量定义为条件概率对数的负值:

联合自信息量Df:二维联合集XY上的元素()的联合自信息量

第二十一页,共四十七页,2022年,8月28日例:英文字母中“e”出现的概率为0.105,“c”出现的概率为0.023,“o”出现的概率为0.001。分别计算它们的自信息量。解:“e”的自信息量I(e)=-log20.105=3.25bit“c”的自信息量I(c)=-log20.023=5.44bit“o”的自信息量I(o)=-log20.001=9.97bit第二十二页,共四十七页,2022年,8月28日例:设离散无记忆信源,其发出的信息,求(1)此消息的自信息量是多少?(2)此消息中平均每符号携带的信息量是多少?解:(1)此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:此消息的信息量是:(2)此消息中平均每符号携带的信息量是:第二十三页,共四十七页,2022年,8月28日二、离散信源熵信源熵用平均自信息量来表征整个信源的不确定性,平均自信息量又称为信源熵。为信源中各个符号不确定度的数学期望,即单位为:比特/符号或者比特/符号序列.信息熵H(X)是表示信源输出后,每个消息(或符号)所提供的平均信息量。某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,必有信源的熵值。例:

H(Y)>H(X)信源Y比信源X的平均不确定性要大。第二十四页,共四十七页,2022年,8月28日条件熵定义:在给定某个yj条件下,xi的条件自信息量I(xi/yj),X集合的条件熵H(X/yj)为相应地,在给定X(即各个xi)的条件下,Y集合的条件熵H(Y/X)定义为:联合熵定义:联合熵是联合符号集合XY上的每个元素对xiyj的自信息量的概率加权统计平均值,表示X和Y同时发生的不确定度。第二十五页,共四十七页,2022年,8月28日联合熵与条件熵有下列关系式:1)H(XY)=H(X)+H(Y/X)2)H(XY)=H(Y)+H(X/Y)证明:特别地,当X和Y相互独立时,H(XY)=H(X)+H(Y)第二十六页,共四十七页,2022年,8月28日例:随机变量X和Y的联合概率分布如表所示,求联合熵H(XY)和条件熵H(X/Y)解:=2/4+2/4+1/2=2.5由表可知H(Y/X=0)=1,H(Y/X=1)=0则H(Y/X)=1/2+0=1/2H(Y)=H(1/4)=0.8113X\Y0101/41/411/20第二十七页,共四十七页,2022年,8月28日例:二进制通信系统用符号“0”和“1”,由于存在失真,输时会产生误码,用符号表示下列事件:

u0:一个“0”发出:u1:一个“1”发出

v0:一个“0”收到;v1:一个“1”收到。给定下列概率:p(u0)=1/2,p(v0|u0)=3/4,p(v0|u1)=1/2求:⑴已知发出一个“0”,求收到符号后得到的信息量;⑵已知发出的符号,求收到符号后得到的信息量⑶知道发出的和收到的符号,求能得到的信息量;⑷已知收到的符号,求被告知发出的符号得到的信息量。第二十八页,共四十七页,2022年,8月28日解:⑴p(v1|u0)=1-p(v0|u0)=1/4⑵联合概率:

p(u0v0)=p(v0|u0)p(u0)=3/4×1/2=3/8p(u0v1)=p(v1|u0)p(u0)=1/4×1/2=1/8p(u1v0)=p(v0|u1)p(u1)=1/2×1/2=1/4p(u1v1)=p(v1|u1)p(u1)=[1-p(v0|u1)]=1/2×1/2=1/4第二十九页,共四十七页,2022年,8月28日(3)(4)第三十页,共四十七页,2022年,8月28日三、互信息贝叶斯公式:先验概率p(x)似然概率p(y/x)后验概率p(x/y)证据因子p(y)互信息一个事件所给出关于另一个事件的信息,第三十一页,共四十七页,2022年,8月28日互信息的性质1.互易性:2.当两事件相互独立时,互信息量为零;3.互信息可正可负。互信息为正时,说明一事件的出现有助于肯定另一事件的出现,反之,则是不利的。4.任何两事件之间的互信息量不可能大于其中任意事件的自信息量。第三十二页,共四十七页,2022年,8月28日例:某地区的天气分布情况如表所示如果有人告诉你:“今天不是晴天”,把这句话作为收到的信息,求收到后,与各种天气的互信息量。解:把各种天气记作:表示晴天,表示阴天,表示雨天,表示雪天。p(x1|y1)

=0,p(x2|y1)

=1/2,p(x3|y1)

=1/4,p(x4|y1)

=1/4

第三十三页,共四十七页,2022年,8月28日平均互信息在XY的联合概率空间中的统计平均值为随机变量X和Y间的平均互信息。I(X;Y)=H(X)-H(X/Y)条件熵H(X/Y)表示给定随机变量Y后,对随机变量X仍然存在的不确定性,所以Y关于X的平均互信息是收到Y前后关于X的不确定度减少的量,也就是从Y所获得的关于X的平均自信息量。平均互信息的性质1.非负性I(X;Y)02.互易性I(X;Y)=I(Y;X)3.平均互信息和各种熵的关系第三十四页,共四十七页,2022年,8月28日当X和Y统计独立时,I(X;Y)=0H(X)+H(Y)表示在通信前系统的先验不确定性。H(XY)表示输入集符号经有噪信道传输到输出端,为系统的后验不确定性。所以该式表示为:接收到的平均信息量=系统的先验不确定性-系统的后验不确定性。4.极值性I(X;Y)≦H(X)I(X;Y)≦H(Y)最好通信I(X;Y)=H(X)=H(Y)最差通信X和Y统计独立,I(X;Y)=05.凸函数性P(X)一定时,平均互信息I(X;Y)是信道传递概率分布P(Y/X)的下凸函数,存在最小值,此时信道最差。

P(Y/X)一定时,平均互信息I(X;Y)是信源概率分布P(X)的上凸函数,存在最大值,此时这个最大值即是信道容量。第三十五页,共四十七页,2022年,8月28日例:已知联合概率分布如表所示,求:H(XY),H(X),H(Y),H(Y|X),H(X|Y),I(X;Y)。第三十六页,共四十七页,2022年,8月28日解:首先求出边缘概率分布

得H(X)=2.066bit/符号

得H(Y)=1.856bit/符号由联合分布可得:H(XY)=2.665bit/符号∴I(X;Y)=H(X)+H(Y)-H(XY)=1.257bit/符号

H(X∣Y)=H(X)-I(X;Y)=0.809bit/符号

H(Y∣X)=H(Y)-I(X;Y)=0.600bit/符号第三十七页,共四十七页,2022年,8月28日四、数据处理中信息的变化平均条件互信息它表示随机变量Z给定后,从随机变量Y所得到的关于随机变量X信息量。平均联合互信息

它表示从二维随机变量YZ所得到的关于随机变量X的信息量。第三十八页,共四十七页,2022年,8月28日五、熵的性质1.非负性 2.对称性 3.确定性 4.香农辅助定理(极值性)对于任意两个n维概率矢量P=(p1,p2,…,pn)和Q=(q1,q2,…,qn),如下不等式成立:5.最大熵定理第三十九页,共四十七页,2022年,8月28日6.条件熵小于无条件熵(1)条件熵小于信源熵(2)两个条件下的条件熵小于一个条件下的条件熵

(3)联合熵小于信源熵之和

当X、Y相互独立时,有:第四十页,共四十七页,2022年,8月28日2.3连续信源的熵和互信息一、连续信源的熵随机变量的相对熵熵功率二、最大熵定理1.峰值功率受限均匀分布相对熵最大2.平均功率受限高斯分布相对熵最大3.平均功率大于等于熵功率第四十一页,共四十七页,2022年,8月28日2.4离散序列信源的熵一、离散无记忆序列信源的熵设信源输出的随机序列/随机矢量为X,X=(X1,X2…Xl…XL),序列中的单个符号变量,即序列长为L。设随机序列的概率为:

当信源无记忆(符号之间无相关性)时,p(xi)=p(xi1xi2…xiL)=第四十二页,共四十七页,2022年,8月28日若信源的序列满足平稳特性时,有p(xi1)=p(xi2)=…=p(xiL)=p,p(xi)=pL,则信源的序列熵又可表示为H(X)=LH(x).

平均每个符号熵为第四十三页,共四十七页,2022年,8月28日二、离散有记忆序列信源的熵1.对于由两个符号组成的联合信源,有下列结论:(l)H(X1X2)=H(X1)+H(X2/X1)=H(X2)+H(X1/X2)(2)H(X1)≥H(X1/X2);H(X2)≥H(X2/X1)当前后符号无依存关系时,有下列推论:

H(X1X2)

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论