压缩理论极限与基本途径2_第1页
压缩理论极限与基本途径2_第2页
压缩理论极限与基本途径2_第3页
压缩理论极限与基本途径2_第4页
压缩理论极限与基本途径2_第5页
已阅读5页,还剩13页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第三章

理论极限与基本途径

课前回顾1.自信息量的定义是什么?根据对数所用“底”不同,信息量单位也不同:

比特(bit):r=2

奈特(Nat):r=e(自然对数之底)

哈特(Hart):r=10含义是随机变量X

取值为时所携带信息的度量。2.信息熵的定义是什么?自信息量的概率平均。当强调各事件的概率分布、并构成概率向量(m维)时,熵也习惯地写成:课前回顾课前回顾3.如何计算对信源的平均码长l?4.统计编码的基础是什么?只要信源不是等概率分布,就存在着数据压缩的可能性课前回顾压缩前每个信源符号(取样)的编码位数(logm)与压缩后平均每符号的编码位数(l)之比编码效率:上界:※※5.如何理解压缩比的上界和编码效率?1离散无记忆信源2联合信源

3随机序列4率失真理论本章内容3.2联合信源多个信源构成的联合信源

音响设备有多个声道;彩色电视信号可分解为红、绿、蓝(R,G,B)三种基色;遥感图像包含多个波段;3.2.1联合熵和条件熵设信源X

取值于:信源Y

取值于:对X和Y做笛卡儿乘积构成联合信源(X,Y)第一个对象是X的成员,而第二个对象是Y的所有可能的一个成员。例:假设集合X={a,b},集合Y={0,1,2},则两个集合的笛卡尔积为{(a,0),(a,1),(a,2),(b,0),(b,1),(b,2)},即所有两两组合的情况。符号关系定义:联合概率

边缘概率条件概率(3.2.1a)(3.2.1b)(3.2.2a)(3.2.2b)联合熵(JointEntropy)(3.2.3)——联合信源(X,Y)的熵表示联合概率分布所具有的信息量的概率平均;表示两个事件集联合发生时所能得到的总的平均信息量。条件自信息量——由条件概率定义(3.2.4a)(3.2.4b)

表示在发现信源Y取值为时,对猜测信源X是否取的不确定程度。互信息量——自信息量与条件自信息量之差(3.2.5)

表示所含的信息量(不确定度);表示知道后还保留的信息量;代表信源符号为所提供的信息量。平均互信息量——互信息量的概率平均(3.2.6)条件熵(平均条件自信息量)(3.2.7a)(3.2.7b)平均互信息量表示信源X的平均不确定性与其在信源Y被确定条件下仍保留的平均不确定性之差。(3.2.8a)

表示了随机变量Y

对X

所提供的平均信息量。

表示两个事件集联合发生时所能得到的总的平均信息量。与区别:(3.2.10)(3.2.8b)对称性由于:平均互信息量具有:(3.2.8a)非负性(3.2.12)由于:(3.2.11 a)(3.2.11b)没有冗余度的信源还能否被压缩?习题:有人说:“黑白图像

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论