压缩理论极限与基本途径3_第1页
压缩理论极限与基本途径3_第2页
压缩理论极限与基本途径3_第3页
压缩理论极限与基本途径3_第4页
压缩理论极限与基本途径3_第5页
已阅读5页,还剩13页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第三章

理论极限与基本途径

课前回顾1.联合信源是如何构成的?设信源X

取值于:信源Y

取值于:对X和Y做笛卡儿乘积构成联合信源(X,Y)第一个对象是X的成员,而第二个对象是Y的所有可能的一个成员。例:假设集合X={a,b},集合Y={0,1,2},则两个集合的笛卡尔积为{(a,0),(a,1),(a,2),(b,0),(b,1),(b,2)},即所有两两组合的情况。2.如何计算联合熵?课前回顾联合熵(JointEntropy)——联合信源(X,Y)的熵表示联合概率分布所具有的信息量的概率平均;表示两个事件集联合发生时所能得到的总的平均信息量。课前回顾3.如何计算互信息量?互信息量——自信息量与条件自信息量之差(3.2.5)

表示所含的信息量(不确定度);表示知道后还保留的信息量;代表信源符号为所提供的信息量。课前回顾4.如何计算平均互信息量?如何计算条件熵?平均互信息量与条件熵有什么关系?与联合熵有什么关系?平均互信息量——互信息量的概率平均(3.2.6)条件熵(平均条件自信息量)(3.2.7a)(3.2.7b)课前回顾平均互信息量表示信源X的平均不确定性与其在信源Y被确定条件下仍保留的平均不确定性之差。互信息量与条件熵的关系:

表示了随机变量Y

对X

所提供的平均信息量。

表示两个事件集联合发生时所能得到的总的平均信息量。与区别:(3.2.10)课前回顾互信息量与联合熵的关系:5.平均互信息量的两个性质是什么?对称性:非负性:课前回顾1离散无记忆信源2联合信源

3随机序列4率失真理论本章内容基本途径之二

—对独立分量进行编码(3.2.11 a)(3.2.11b)条件熵必定不大于无条件熵只有当X与Y相互独立时,式(3.2.11)中等号成立。(3.2.10)由于平均信息量非负,(3.2.13)联合信息熵必定不大于各分量信息熵之和,只有当X与Y相互独立时,式(3.2.13)中等号成立。一般情况下,联合信源的冗余度,就是两者之差(3.2-14)两信源的相关性越大,冗余度越大平均互信息量

对于联合信源,

1)冗余度隐含在信源的相关性中;

2)尽量去除各分量间的相关性,再对各独立分量进行编码。数据压缩的途径之二变换编码的基础例3-2为消除彩色电视信号R、G、B分量间的相关性并保持与黑白电视兼容,可按下面的彩色空间变换矩阵将其转换为亮度(Y)和色度(U,V)。再对相关性较弱的Y、U、V分量分别编码(3.2.15)文氏图(VennDiagram)图3.2

表示信息熵关系的Venn图联合信息熵和平均互信息量之和等于各分量之和(3.2.16)※X、Y信源相互独立时两圆互相离开,条件熵增大,相关性减弱。X、Y

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论