信息论与编码-第五章(续1)_第1页
信息论与编码-第五章(续1)_第2页
信息论与编码-第五章(续1)_第3页
信息论与编码-第五章(续1)_第4页
信息论与编码-第五章(续1)_第5页
已阅读5页,还剩25页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

信息论与编码-信源编码最佳编码香农第一定理给除了信源熵与编码后的平均码长之间的关系,同时也指出可已通过编码使平均码长达到极限值,因此,香农第一定理是一个极限定理。但定理中并没有告诉我们如何来构造这种码。下面我们介绍三种编码方法:香农码、费诺码以及哈夫曼编码。这三种码的平均码长都比较短。信息论与编码-信源编码1.

香农(Shannon)编码方法因为平均码长是各个码的概率平均,可以想象,应该使出现概率大的信源符号编码后码长尽量短一些。三种编码方法的出发点都是如此。香农第一定理指出,选择每个码字的长度满足下式就可以得到这种码。这种编码方法称为香农编码。香农编码是采用信源符号的累计概率分布函数来分配码字。信息论与编码-信源编码设信源符号集,并设所有的P(x)>0,则香农编码方法如下:(1)将信源消息符号按其出现的概率大小依次排列:(2)确定满足下列不等式的整数码长:(3)为了编成唯一可以码,计算第个消息的累加概率信息论与编码-信源编码(4)将累加概率变换成二进制数。(5)取二进制数的小数点后位即为该消息符号的二进制码字。可以证明,这样得到的编码一定是唯一可译码,且码长比较短,接近于最佳编码。信息论与编码-信源编码例题:设信源共有7个符号组成,其概率如表所示,求其香农码。信源消息符号符号概率0.200.190.180.170.150.100.01信息论与编码-信源编码符号概率累加概率码字长度

码字0.2002.3430000.190.22.4130010.180.392.4830110.170.572.5631000.150.742.7431010.100.893.34411100.010.996.6671111110信息论与编码-信源编码以为例,累加概率,变成二进制数,为0.1001…,转换的方法是:用乘以2,如果整数部分有进位,则小数点后第一位为1,否则为0,将其小数部分再做同样的处理,得到小数点后的第二位,依此类推,直到得到了满足要求的位数,或者没有小数部分了为止。

信息论与编码-信源编码例如现在,乘以2为1.14,整数部分有进位,所以小数点后第一位为1,将小数部分即0.14再乘以2,得0.28,没有整数进位,所以小数点后第二位为0,依此类推,可得到其对应的二进制数为0.1001…。可以看出,编码所得的码字,没有相同的,所以是非奇异码,也没有一个码字是其它码字的前缀,所以是即时码。唯一可译码。信息论与编码-信源编码平均码长为:平均信息传输率为香农编码的效率不高,实用意义不大,但对其它编码方法有很好的理论指导意义。信息论与编码-信源编码2.

费诺编码方法费诺编码也不是最佳编码方法,但有时可以得到最佳编码。费诺编码方法如下:首先,将信源符号以概率递减的次序排列起来,将排列好的信源符号分成两组,使每一组的概率之和相接近,并各赋予一个二元码符号“0”或者“1”;信息论与编码-信源编码然后,将每一组的信源符号再分成两组,使每一小组的符号概率之和也接近相等,并又分别赋予一个二元码符号。依此下去,直到每一个小组只剩下一个信源符号为止。这样,信源符号所对应的码符号序列则为编得的码字。例题:信源符号及其概率仍如香农码中的例题所示。编码过程及编码结果如下表所示,信息论与编码-信源编码

消息符号符号概率第一次分组第二次分组第三次分组第四次分组二元码字码长0.20000020.191001030.18101130.17101020.151011030.1010111040.01111114信息论与编码-信源编码可以求得,该费诺码的平均码长为信源熵为信息传输率为例题:离散无记忆信源及其符号概率分布如下表所示,求其费诺码。求费诺码的过程也表示在表中。码的平均长度为信源的熵为因此是最佳码。原因是概率分布满足一定的条件。信息论与编码-信源编码信息论与编码-信源编码

信源符号符号概率第一次分组第二次分组第三次分组第四次分组码字码长1/4000021/410121/81

0010031/8110131/161

00110041/161110141/1610111041/16111114信息论与编码-信源编码3.

哈夫曼编码方法1952年哈夫曼提出了一种构造最佳码的方法。它是一种最佳的逐个符号的编码方法。其编码步骤如下:(1)将q个信源符号按概率分布的大小,以递减次序排列起来,设(2)用“0”和“1”码符号分别代表概率最小的两个信源符号,并将这两个概率最小的符号合并成一个符号,合并的符号概率为两个符号概率之和,信息论与编码-信源编码从而得到只包含q-1个符号的新信源,称为缩减信源。(3)把缩减信源的符号仍旧按概率大小以递减次序排列,再将其概率最小的两个信源符号分别用“0”和“1”表示,并将其合并成一个符号,概率为两符号概率之和,这样又形成了q-2个符号的缩减信源。(4)依此继续下去,直至信源只剩下两个符号为止。将这最后两个信源符号分别用“0”和“1”表示。信息论与编码-信源编码(5)然后从最后一级缩减信源开始,向前返回,就得出各信源符号所对应的码符号序列,即对应的码字。例题:下表是一个哈夫曼编码的整个过程。其平均码长为信息传输率为信息论与编码-信源编码

信源符号符号概率

编码过程码字码长0.201020.191120.1800030.1700130.1501030.10011040.0101114010.200.190.180.170.150.110.260.200.190.180.1701010.260.350.200.19010.350.260.39010.390.6101信息论与编码-信源编码从表中编码过程可以看出,哈夫曼编码方法得到的码一定是即时码。因为这种编码方法不会使任一码字的前缀为码字。这一点在用码树形式来表示的时候,看得更清楚。下图是用码树形式进行哈夫曼编码的过程,由于代表信源符号的节点都是终端节点,因此其编码不可能是其它终端节点对应的编码的前缀。另外,由于哈夫曼编码总是把概率大的符号安排在离根节点近的终端节点,所以其码长比较小,因此得到的编码整体平均码长就比较小。信息论与编码-信源编码

0.100.010.110.150.260.170.180.350.610.190.200.391011010011010信息论与编码-信源编码哈夫曼编码得到的码不是唯一的,因为每次对缩减信源中两个概率最小的符号编码的时候,“0”和“1”的安排是任意的。另外当两个符号的概率相同的时候,排列的次序也是随意的,所以可能导致不同的编码结果,但最后的平均码长一定是一样的。在这种情况下,怎么样来判断一个码的好坏呢?我们引进码字长度偏离平均长度的方差,即信息论与编码-信源编码方差越小,说明各个码的长度都比较接近平均长度,这样编码器和解码器就可以比较简单,这样的码就认为是好码。因此,在哈夫曼编码的过程中,当缩减信源的概率分布重新排列时,应使合并得来的概率和尽可能处于最高的位置,这样可使合并的元素重复编码次数减少,使短码得到充分利用。信息论与编码-信源编码例题:如下表是又一个哈夫曼编码的过程。编码方法1:信源符号符号概率

编码过程码字码长0.4110.20120.200030.1001040.1001140.40.20.20.2010.40.40.2010.60.40101信息论与编码-信源编码编码方法2:信源符号符号概率

编码过程码字码长0.40020.21020.21120.101030.101130.40.20.20.2010.40.40.2010.60.40101信息论与编码-信源编码两种方法比较:两种方法得到的码具有相同的平均码长和效率但是两种码的质量不完全相同,即码方差不同:一个是,另一个是信息论与编码-信源编码从以上的编码实例中可以看出,哈夫曼编码具有以下三个特点:(1)哈夫曼编码方法保证了概率大的符号对应于短码,概率小的符号对应于长码,且短码得到充分利用。(2)每次缩减信源的最后两个码字总是最后一位码元不同,前面各位码元相同。(3)每次缩减信源的最长两个码字有相同的码长。这三个特点保证了所得的哈夫曼编码一定是最佳码。信息论与编码-信源编码变

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论