数字图像处理-编码_第1页
数字图像处理-编码_第2页
数字图像处理-编码_第3页
数字图像处理-编码_第4页
数字图像处理-编码_第5页
已阅读5页,还剩47页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

霍夫曼编码香农编码编码实例一数据压缩的发展PCM编码(PulseCodeModulation)1948年Huffman编码LempelZiv压缩技术1977年1984年第一个专门用于数据压缩的集成电路1989年理论研究和实验阶段实用性阶段二数据压缩的应用领域1、图像信号、视频信号和音频信号的压缩编码;2、文件存储系统和分布式系统的数据压缩编码;3、为数据安全保密而开发的数据压缩编码;4、压缩数据快速算法的研究。三数据压缩的条件3、数据冗余度1、人类不敏感因素人类对某些频率的音频信号不敏感;人眼存在所谓的“视觉掩盖效应”,即对亮度比较敏感,而对边缘的强烈变化并不敏感。2、信息传输与存储数据有损压缩数据无损压缩数据解压缩数据解压缩数据储存数据传输四数据冗余1、冗余的基本概念冗余:指信息所具有的各种性质中多余的无用空间,其多余的程度叫做“冗余度”信息量、数据量和冗余量之间的关系:信息量数据量冗余量[实例]:播音员的播音语速一般为每分钟180字,计算机中用两个字节表示一个汉字,因此,播音员一分钟阅读的汉字共占用360个字节。现将播音员的声音数字化,需要以高出播音员声音频率的一倍的频率进行采样。一般播音员的播音频率为4KHz,采样频率即为8KHz。当采用8bit的采样精度进行采样时,得到的一秒种数字音频信号的数据量为:8KHz

8bit=64kb/s(合8KB)一分钟的数据量为:8KB/s60s=480KB信息量:0.36KB数据量:480KB数据量是信息量的100余倍!2、冗余分类(1)空间冗余

同一景物表面上各采样点的颜色之间存在着空间连贯性,但是基于离散像素采样来表示物体颜色的方式通常没有利用景物表面颜色的这种空间连贯性。(2)时间冗余

序列图像位于一时间轴区间内的一组连续画面中相邻往往包含相同的背景和移动物体,这种共同性导致了时间冗余。(3)结构冗余

具有规则纹理的表面、大面积相互重叠的相同图案、规则有序排列的图形等结构。(4)知识冗余

掌握知识,凭借经验可辨别事物,无须进行全面的比较和鉴别。而在利用计算机在处理数据时,没有经验可循,只是按部就班地处理数据,即与人类差异而造成的数据冗余。

人类的视觉敏感度一般小于图像的表现力,图像的微小色彩变化、亮度层次的细腻变化以及轮廓的细微差别不易察觉。(5)视觉冗余

人类的视觉系统对图像场的敏感性是非均匀和非线性的。五数据压缩算法1、数据的压缩处理过程:编码过程——将原始数据进行压缩,形成压缩编码,然后将压缩编码数据进行传送和存储。解码过程——将压缩编码数据进行解压缩,还原成原始数据,提供使用。2、数据压缩算法分类(1)无损压缩编码——解码后的数据与压缩之前的原始数据完全一致。(2)有损压缩编码——解码后的数据与压缩之前的原始数据不一致。

压缩比不高!数据压缩技术霍夫曼编码行程编码LempelZiv编码算术编码无损压缩有损压缩(2)有损压缩编码——解码后的数据与压缩之前的原始数据不一致。2、数据压缩算法分类(1)无损压缩编码——解码后的数据与压缩之前的原始数据完全一致。

压缩比不高!数据压缩技术无损压缩有损压缩PCM编码预测编码量化与向量量化编码频段划分编码变换编码知识编码编码方法介绍之一——熵编码方法一、信息量和信息熵其中:X是消息集,由几个信号单元构成Z是输出集,由几个码字构成,与一一对应;是符号集,由m个码元构成,符号集中的码元组成输出码字。

一个消息的可能性越小,其信息越多;而消息的可能性越大,则其信息越少。在数学上,所传输的消息是其出现概率的单调下降函数。信息量:是指从N个相等可能事件中选出一个事件所需要的信息度量或含量。设从N个数中选定任一个数x的概率为p(x),假定选定任意一个数的概率都相等,则信息量为:

信息熵概念的提出:含义:信源X发出xj这个消息后,接收端收到信息量的度量。信息熵(entropy):

在图像编码中,

取2。二、平均码字长度设为数字图像第k个码字的长度,其相应出现的概率为,则该数字图像所赋于的码字平均长度R为:三、编码效率

注意:1、R>>H,则编码效率很低,有冗余,不是最佳编码;2、R=H,最佳编码;3、R<H,则丢失信息而引起图像失真。.霍夫曼编码霍夫曼(Huffman)编码编码原理:对于出现频率高的信息,编码的长度较短;而对于出现频率低的信息,编码长度较长,使处理全部信息的总码长一定小于实际信息的符号长度。最佳编码定理:在变字长码中,对于出现概率大的信息符号编以短字长的码,对于出现概率小的信息符号编以长字长的码,如果码字长度严格按照符号概率的大小的相反顺序排列,则平均码字长度一定小于任何其他符号顺序排列方式得到的码字长度。证明:设最佳排列方式的码字平均长度为,则有其中:为信源符号出现的概率;是符号的编码长度;规定,如果将的码字与的码字互换其余码字不变,经过这样的互换以后,平均码字长度变成,即:由于所以即:是最短的。可变长度最佳编码的平均码字长度设第i个符号出现的概率为Pi,与其对应的码子长度为ti,则对二进制码存在下列关系:由此:码字的长度是由信息符号的出现概率来决定的。续长代码和非续长代码非续长代码:若代码中任何一个码字都不是另一个码字的续长,也就是不能在某一码字后面添加一些码元而构成另一个码字。单义代码任意有限长的码字序列,只能被唯一地分割成一个个码字,这样的码字序列称为单义代码。

非续长代码一定是单义码,但单义码不一定是非续长代码。Huffman编码方法:(1)把信源符号按概率大小顺序排列,并设法按逆序分配码字的长度;(2)在分配码字长度时,首先将出现概率最小的两个符号的概率相加,合成一个概率;(3)把这个合成概率看成是一个新组合符号的概率,重复上述做法,直到最后只剩下两个符号的概率为止;(4)反过来逐步向前进行编码,每一步有两个分支,各赋予一个二进制码。Huffman编码具体步骤:(1)概率统计,得到n个不同概率的信息符号;(2)将n个信源信息符号的n个概率,按概率大小排序;(3)将n个概率中,最后两个小概率相加,使概率个数减为n-1个;(4)将n-1个概率,按大小重新排序;(5)重复(3),将新排序后的最后两个小概率再相加,相加和与其余概率再排序;(6)如此反复重复n-2次,得到只剩两个概率序列。(7)以二进制码元(0,1)赋值,构成霍夫曼码字,编码结束。例题:设有信号源s={x1,x2,x3,x4,x5}对应的出现概率为p={0.25,0.22,0.20,0.18,0.15},用霍夫曼编码进行数据压缩。x1x2x3x4x50.250.220.200.180.150.330.420.581.00x1x2

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论