信息与编码理论 第2版 课件 2.6 离散多符号信源的信息熵_第1页
信息与编码理论 第2版 课件 2.6 离散多符号信源的信息熵_第2页
信息与编码理论 第2版 课件 2.6 离散多符号信源的信息熵_第3页
信息与编码理论 第2版 课件 2.6 离散多符号信源的信息熵_第4页
信息与编码理论 第2版 课件 2.6 离散多符号信源的信息熵_第5页
已阅读5页,还剩11页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2.6离散多符号信源的信源熵1.离散平稳无记忆信源为了研究离散平稳无记忆信源的极限熵,把信源输出的符号序列看成是一组一组发出的。例1:电报系统中,可以认为每2个二进制数字组成一组。这样信源输出的是由2个二进制数字组成的一组组符号。这时可以将它们等效看成一个新的信源,它由四个符号00,01,10,11组成,把该信源称为二进制无记忆信源的二次扩展。例2:如果把每三个二进制数字组成一组,这样长度为3的二进制序列就有8种不同的符号,可等效成一个具有8个符号的信源,把它称为二进制无记忆信源的三次扩展信源。1.离散平稳无记忆信源(续1)假定信源输出的是N长符号序列,把它看成是一个新信源,称为离散平稳无记忆信源的N次扩展信源,用N维离散随机矢量来表示:N次扩展信源的概率空间为:

是一个长为N的序列,1.离散平稳无记忆信源(续2)N次扩展信源的熵:离散平稳无记忆信源的N次扩展信源的熵等于离散单符号信源熵的N倍:1.离散平稳无记忆信源(续3)离散平稳无记忆信源的熵率:2.离散平稳有记忆信源实际信源常常是有记忆信源。设信源输出N长的符号序列,则可以用N维随机矢量来表示信源,其中每个随机变量之间存在统计依赖关系。N维随机矢量的联合熵为:2.离散平稳有记忆信源(续1)定理3.1-(1):对于离散平稳信源,条件熵随N的增加是递减的。证明:所以条件熵随着N的增加是递减的。这表明记忆长度越长,条件熵越小,也就是序列的统计约束关系增加时,不确定性减小。2.离散平稳有记忆信源(续2)定理3.1-(2):对于离散平稳信源,N给定时平均符号熵大于等于条件熵,证明:所以,即N给定时平均符号熵大于等于条件熵。2.离散平稳有记忆信源(续2)定理3.1-(3):对于离散平稳信源,平均符号熵随N的增加是递减的。证明:所以,,即序列的统计约束关系增加时,由于符号间的相关性,平均每个符号所携带的信息量减少。

2.离散平稳有记忆信源(续1)定理:对于离散平稳信源,如果,则有

2.离散平稳有记忆信源(续2)证明:(1)首先证明极限条件熵存在:只要X的样本空间有限,则必然有。根据条件熵的性质,以及信源的平稳性有

是单调有界数列,极限必然存在,且极限为0和之间的某一个值。2.离散平稳有记忆信源(续3)(2)对于收敛的实数列,有以下结论成立:如果是一个收敛的实数列,那么利用上述结论可以推出:2.离散平稳有记忆信源(续6)结论:

如何从理论上解释这个结果?3.马尔可夫信源(1)定义(2)熵率(3)马尔可夫信源马尔可夫链(4)马尔可夫链3.马尔可夫信源(续1)

实际的有记忆信源,符号间的相关性可以追溯到很远,使得熵率的计算比较复杂。马尔可夫信源是一类相对简单的有记忆信源。信源在某一时刻发出某一符号的概率,除与该符号有关外,只与此前发出的有限个符号有关。(1)定义3.马尔可夫信源(续2)对于m阶马

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论