数字图像处理10-图像编码1_第1页
数字图像处理10-图像编码1_第2页
数字图像处理10-图像编码1_第3页
数字图像处理10-图像编码1_第4页
数字图像处理10-图像编码1_第5页
已阅读5页,还剩56页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

110图像编码

10.1图像编码概述10.2编码方法10.3JPEG编码10.4图像编码新技术2模拟图像与数字图像:噪声、图像处理及信息交换信息论中的通信过程:–

信源编码:有效性压缩、扰乱、加密、力求用最小的数目传输最大的信息–

信道编码:可靠性–

尽量在传输过程中不出错或少出错。图像编码属于信源编码范畴图:图像传输与存储原理3•1843年莫尔斯最早的电报码的变长压缩。•1938年里夫斯⎯脉冲编码调制器(PCM)。•1939年达德利通道声码器⎯语音压缩系统。•1946年德劳雷恩⎯增量编码调制器(ΔM)•1948年信息率失真函数。•1952年卡特勒⎯差分脉冲编码调制器(DPCM)•1952年霍夫曼⎯最优变长码的构造。•1965年安德鲁斯⎯二维离散傅立叶变换沃尔什-哈达码变换、斜变换、K-L变换、离散余弦变换•1984年法国数学家Morlet小波变换•1988年曼德尔勃罗特⎯分形历史综述4图像压缩的必要性图像数据的特点之一是数据量庞大。给存储和传输带来许多困难1.彩色视频信息例1.1:对于电视画面的分辨率640*480的彩色图像,每秒30帧,则一秒钟的数据量为:

640*480*24*30=221.12M所以播放时,需要221Mbps的通信回路。5例1.2:实时传输在宽带网上(10M)实时传输的话,需要压缩到原来数据量的0.045。即0.36bit/pixel。例1.3:存储:

1张CD可存640M

如果不进行压缩,1张CD则仅可以存放2.89秒的数据。存2小时的信息则需要压缩到原来数据量的0.0004,即:0.003bit/pixel。221.12M62.传真如果只传送2值图像,以200dpi的分辨率传输,一张A4稿纸的数据量为:

1654*2337*1=3888768bit按目前14.4K的电话线传输速率,需要传送的时间是:270秒(4.5分)按每分钟4元计算:18元7图像压缩的可能性数据冗余例1:你的妻子,Helen,将于明天晚上6点零5分在上海的虹桥机场接你。

(23*2+10=56个半角字符)你的妻子将于明天晚上6点零5分在虹桥机场接你(20*2+2=42个半角字符)Helen将于明晚6点在虹桥接你

(10*2+6=26个半角字符)结论:只要接收端不会产生误解,就可以减少承载信息的数据量。8描述语言

1)“这是一幅2*2的图像,图像的第一个像素是红的,第二个像素是红的,第三个像素是红的,第四个像素是红的”。

2)“这是一幅2*2的图像,整幅图都是红色的”。由此我们知道,整理图像的描述方法可以达到压缩的目的。例2:9图像冗余无损压缩的原理RGBRGBRGBRGBRGBRGBRGBRGBRGBRGBRGBRGBRGBRGBRGBRGB16RGB从原来的16*3*8=284bits压缩为:(1+3)*8=32bits例3:10图像冗余有损压缩的原理3635343434343432343433373034343434343434343534343134343434343434343434343434343434343434343434343434253411图像压缩的可能性数量可观的冗余信息及不相关信息,为数据压缩技术提供可能。如果能够消除一种或多种冗余,就可取得数据压缩效果。空间、时间、视觉、信息熵、结构、知识冗余图像压缩的可能性图像中存在很大的冗余度。用户通常允许图像失真。12图像压缩的主要应用很多领域,都会遇到对大量图像数据进行传输和存储的问题,没有图像压缩技术的发展,大容量图像数据的存储与传输难以实现。多媒体电视会议、数字电视,可视电话遥感图像医学图像教育商业管理等图文资料……13图像压缩的主要应用存储:在存储时压缩原始数据,而在使用时再解压缩,这样能够大大增加存储介质的存储量。传输:在发送端压缩原始数据,在接收端将压缩数据解码,减少传输时间在现代通信中,图像传输已成为重要内容之一。采用编码压缩技术,减少传输数据量,是提高通信速度的重要手段。14图像压缩的技术指标1.图像熵与平均码长图像熵:图像含有的平均信息量。

编码后的平均码长:要保持信源的全部信息就必须有:否则解压时,一定会产生图像的失真。N种灰度灰度xi出现的概率为p(xi)152.编码效率:对于无失真编码来说,平均码长越接近图像熵,编码效率就越高。3.压缩比:压缩前图像的平均码长与压缩后的平均码长之比,即若Cr>1,则Cr值越大,压缩效率越高。164.压缩后图像的质量:均方误差MSE和峰值信噪比PSNR1710.2编码方法根据压缩编码后的图像进行重建的准确度,图像编码方法分为三类:信息保持编码——无失真编码保真度编码特征提取1810.2编码方法根据编码原理,图像编码可以分为:熵编码: 霍夫曼编码、费诺编码、香农编码、算术编码等预测编码: 脉冲编码调制PCM,差分脉冲编码调制DPCM等变换编码混合编码: JPEG编码、MPEG编码1910.2.1.Huffman编码(霍夫曼编码)TheHuffmancode,developedbyD.Huffmanin1952,isaminimumlengthcode思想:根据信源数据符号发生的概率进行编码。在信源数据中出现概率越大的符号,相应的编码码长越短;出现概率越小的符号,其码长越长。

从而达到用尽可能少的数据表示信源。2010.2.1.Huffman编码(霍夫曼编码)步骤:把输入符号按出现的概率从大到小排列起来,接着把概率最小的两个符号的概率求和;把它(概率之和)同其余符号概率由大到小排序,然后把两个最小概率求和;重复②,直到最后只剩下两个概率为止。在上述工作完毕之后,从最后两个概率开始逐步向前进行编码。对于概率大的消息赋予0,小的赋予1。21

信源A={a1,a2,a3,a4,a5,a6},其概率分布为 p1=0.1 p2=0.4 p3=0.06 p4=0.1 p5=0.04 p6=0.3, 求Huffman码。霍夫曼编码的例子22输入a2a6a1a4a3a5输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1霍夫曼编码的例子23Huffman编码输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1霍夫曼编码的例子输入a2a6a1a4a3a524Huffman编码输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3霍夫曼编码的例子输入a2a6a1a4a3a525Huffman编码输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.4霍夫曼编码的例子输入a2a6a1a4a3a526Huffman编码输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101霍夫曼编码的例子输入a2a6a1a4a3a527Huffman编码输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101a2=1霍夫曼编码的例子输入a2a6a1a4a3a528Huffman编码输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101a6=00霍夫曼编码的例子输入a2a6a1a4a3a529Huffman编码输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101a1=011霍夫曼编码的例子输入a2a6a1a4a3a530Huffman编码输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101a4=0100霍夫曼编码的例子输入a2a6a1a4a3a531Huffman编码输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101a3=01010霍夫曼编码的例子输入a2a6a1a4a3a532Huffman编码输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101a5=01011霍夫曼编码的例子输入a2a6a1a4a3a533霍夫曼编码的例子34Huffman编码步骤根据待编码的符号串,统计各个符号的概率;根据符号的概率统计特征,构建Huffman编码表,即计算每个符号的编码结果;用得到的编码表对符号序列进行编码。Huffman解码例:010100111100 a3a1a2a2a635Huffman编码的优点1.短码得到了充分利用。2.每次缩短信源的最后两个码字总是最后一位码元不同。3.每次缩短信源的最后两个码字有相同的码长。4.一种最佳变长码。缺点1.当信源数据成分复杂时,庞大的信源致使霍夫曼码表较大,码表生成的计算量增加,编译码速度相应变慢。2.不等长编码致使硬件译码电路实现困难。

a2a6a1a4a3a5

1000110100

0101001011

3610.2.2.费诺编码步骤:1.将图像灰度按其概率从大到小降序排序;2.将排序后的图像灰度分成两组,使每组的概率和尽量接近,给第一组灰度分配代码“0”,第二组分配代码“1”;3.若每组还是由两个或两个以上的灰度组成,重复上述步骤,直至每组只有一个灰度为止。信源S={S0,S1,S2,S3,S4,S5,S6,S7},其概率分布为

p0=0.4 p1=0.18 p2=0.1 p3=0.1 p4=0.07 p5=0.06 p6=0.05 p7=0.04

求费诺码。3710.2.2.费诺编码步骤:1.将图像灰度按其概率从大到小降序排序;2.将排序后的图像灰度分成两组,使每组的概率和尽量接近,给第一组灰度分配代码“0”,第二组分配代码“1”;3.若每组还是由两个或两个以上的灰度组成,重复上述步骤,直至每组只有一个灰度为止。38输入输入概率第一步费诺编码的例子S0S1S2S3S4S5S6S70.40.180.10.10.070.060.050.040.580.4239输入输入概率第一步费诺编码的例子S0S1S2S3S4S5S6S70.40.180.10.10.070.060.050.040.580.42第二步0.40.180.200.2240输入输入概率第一步费诺编码的例子S0S1S2S3S4S5S6S70.40.180.10.10.070.060.050.040.580.42第二步0.40.180.200.22第三步0.10.10.130.0941输入输入概率第一步费诺编码的例子0.580.42第二步0.40.180.200.22第三步0.10.10.130.09第四步0.070.060.050.04S0S1S2S3S4S5S6S70.40.180.10.10.070.060.050.0442输入输入概率第一步0.580.42第二步0.40.180.200.22第三步0.10.10.130.09第四步0.070.060.050.04010000001111110.40.180.10.10.070.060.050.04S0S1S2S3S4S5S6S7S0=00费诺编码的例子43输入输入概率第一步0.580.42第二步0.40.180.200.22第三步0.10.10.130.09第四步0.070.060.050.04010000001111110.40.180.10.10.070.060.050.04S0S1S2S3S4S5S6S7S1=01费诺编码的例子44输入输入概率第一步0.580.42第二步0.40.180.200.22第三步0.10.10.130.09第四步0.070.060.050.04010000001111110.40.180.10.10.070.060.050.04S0S1S2S3S4S5S6S7S2=100费诺编码的例子45输入输入概率第一步0.580.42第二步0.40.180.200.22第三步0.10.10.130.09第四步0.070.060.050.04010000001111110.40.180.10.10.070.060.050.04S0S1S2S3S4S5S6S7S3=101费诺编码的例子46输入输入概率第一步0.580.42第二步0.40.180.200.22第三步0.10.10.130.09第四步0.070.060.050.04010000001111110.40.180.10.10.070.060.050.04S0S1S2S3S4S5S6S7S4=1100费诺编码的例子47输入输入概率第一步0.580.42第二步0.40.180.200.22第三步0.10.10.130.09第四步0.070.060.050.04010000001111110.40.180.10.10.070.060.050.04S0S1S2S3S4S5S6S7S5=1101费诺编码的例子48输入输入概率第一步0.580.42第二步0.40.180.200.22第三步0.10.10.130.09第四步0.070.060.050.04010000001111110.40.180.10.10.070.060.050.04S0S1S2S3S4S5S6S7S6=1110费诺编码的例子49输入输入概率第一步0.580.42第二步0.40.180.200.22第三步0.10.10.130.09第四步0.070.060.050.04010000001111110.40.180.10.10.070.060.050.04S0S1S2S3S4S5S6S7S7=1111费诺编码的例子50S70.0411110.40.180.10.10.070.060.050001100101110011011110S0S1S2S3S4S5S6信源概率码字费诺编码的例子5110.2.3.香农编码香农在1948年提出了将信源符号按其概率降序排列,用符号序列累积概率的二进制表示作为信源的唯一可译编码。理论基础是符号的码字长度Ni完全由该符号出现的概率来决定,即

5210.2.3.香农编码步骤:1.将N个灰度xi按其出现概率从大到小排序;2.计算编码后表示概率Pi的第i个灰度所需的二进制位置ni;3.计算与Pi相对应的累积概率Ai,即

Ai=Ai-1+Pi-1i=1,2,…,N-1;A0=0,P0=0;

4.把累积概率Ai由十进制转化为二进制。取该二进制数的小数点后的前ni位作为对应Pi信源符号的码字。5.重复2、3、4,直到把输入的所有符号都处理完。53信源S={S0,S1,S2,S3,S4,S5,S6,S7},其概率分布为 p0=0.4 p1=0.18 p2=0.1 p3=0.1 p4=0.07 p5=0.06 p6=0.05 p7=0.04 求香农码。香农编码的例子54信源符号出现概率Pi累积概率Ai转换为二进制码字长度Ni码字S00.4000200S10.180.40011003011S20.100.581001041001S30.100.681010041010S40.070.781100041100S50.060.851101100511011S60.050.911110100511101S70.040.961111010511110香农编码的例子5510.2.4.算术编码基本原理:

按照符号序列的出现概率对概率区间分割用一个单一的算术码字代表一个数据流的输入符号把这个实数转化成二进制代码优点:在未知信源概率分布的大部分情形下,算术编码要优于Huffman编码。在JP

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论