医学图像压缩技术_第1页
医学图像压缩技术_第2页
医学图像压缩技术_第3页
医学图像压缩技术_第4页
医学图像压缩技术_第5页
已阅读5页,还剩45页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

MedicalImageCompression医学图像压缩专题详细讲座1整理ppt1、图像数据压缩的概念图像数据压缩,就是以尽量少的比特数表征图像数据信号,减少容纳给定消息集合或数据采样集合的信号空间,同时保证重建图像的质量。所谓信号空间,亦即被压缩对象,是指:物理空间,如存储器、磁盘、磁带、光盘等数据存储介质;时间区间,如传输给定消息集合所需要的时间;频谱区域,如为传输给定消息集合所要求的带宽等。也就是指某数据信号集合所占的空域、时域和频域空间。信号空间的这几种形式是相互关联的,存储空间的减少也意味着传输效率的提高与占用带宽的节省。这就是说,只要采用某种方法来减少某一种信号空间,都能压缩数据。MedicalImageCompression2整理ppt2、医学图像数据压缩的必要性多种成像方式,如X线图像、CT、MRI、US、ECT(PET、SPECT)等,且成像速度和分辨率逐渐提高,层厚逐渐减少;常规X线正在从胶片转向无胶片化的计算机放射摄影(ComputedRadiography,CR)或更为先进的数字化放射摄影(DigitalRadiography,DR)的数字化时代。医学图像的数字化使得图像的数据量呈几何级数地增长。表1列出了目前医学成像设备及其生成的图像数据量大小。MedicalImageCompression3整理ppt表2图像压缩编码分类MedicalImageCompression图像压缩编码方法无失真编码(熵编码)统计编码霍夫曼编码、Shannon-Fano编码、游程编码算术编码基于字典的编码:LZW编码等其它编码完全可逆的小波变换+统计编码等限失真编码(熵压缩)特征提取分析/综合编码子带、小波、分形、模型基等其它量化无记忆量化均匀量化、Max量化等有记忆量化序列量化预测编码线性预测、非线性预测、自适应预测其它方法序贯量化分组量化直接映射矢量量化、神经网络、方块截尾编码变换编码正交变换:KLT、DCT、DFT、WHT非正交变换其它函数变换4整理ppt统计编码—根据像素数据出现概率的分布特性而进行的压缩编码。编码思想:在原始数据和编码数据之间找到明确的一一对应关系,以便在恢复时能准确无误地再现出来,使平均码长或码率压低到最低限度。预测编码—预测编码法主要是在时域内进行的一种压缩编码法。大致过程:先对下一个采样值预测,并把该预测值与下一个采样的实际值之差进行编码。理由是:大部分信号集合中,用上述方式得到的差值的方差总小于原始信号的方差。这样可藉较小的量化级进行有效量化,获得较大的压缩比。MedicalImageCompression5整理ppt变换编码—先对像素数据进行某种函数变换,从一种信号空间变换到另一种信号空间,然后再对变换后的数据进行编码。通常存在反变换,以恢复原来的数据。主要目的:把统计相关的采样值变换成“某种程度上统计独立”的系数。大多数变换属线性正交变换。变换本身并不提供压缩,而只是将信号映射到另一域内,在所映射的域中压缩较易实现。随后通过比特分配的量化过程,把变换后的采样值进行压缩,以供存储或传输。混合编码—对图像数据同时使用两种或两种以上的编码方法,能大大提高数据压缩的效率。MedicalImageCompression6整理ppt数据的冗余

冗余概念

人为冗余

在信息处理系统中,使用两台计算机做同样的工作是提高系统可靠性的一种措施

在数据存储和传输中,为了检测和恢复在数据存储或数据传输过程中出现的错误,根据使用的算法的要求,在数据存储或数据传输之前把额外的数据添加到用户数据中,这个额外的数据就是冗余数据。

视听冗余

由于人的视觉系统和听觉系统的局限性,在图像数据和声音数据中,有些数据确实是多余的,使用算法将其去掉后并不会丢失实质性的信息或含义,对理解数据表达的信息几乎没有影响。

数据冗余

不考虑数据来源时,单纯数据集中也可能存在多余的数据,去掉这些多余数据并不会丢失任何信息,这种冗余称为数据冗余,而且还可定量表达。MedicalImageCompression7整理ppt数据的冗余决策量(decision

content)

在有限数目的互斥事件集合中,决策量是事件数的对数值

在数学上表示为H0=log(n)其中,n是事件数

决策量的单位由对数的底数决定

Sh(Shannon):用于以2为底的对数Nat

(natural

unit):

用于以e为底的对数

Hart

(hartley):用于以10为底的对数MedicalImageCompression8整理ppt数据的冗余信息量(information

content)

具有确定概率事件的信息的定量度量

在数学上定义为I

(x)

log2[1/

p(x)]

log2

p(x)其中,p(x)是事件出现的概率

举例:假设X={a,b,c}是由3个事件构成的集合,p(a)=0.5,p(b)=0.25,p(b)=0.25分别是事件a,b和c出现的概率,这些事件的信息量分别为,I(a)=log2(1/0.50)=1shI(b)=log2(1/0.25)=2shI(c)=log2(1/0.25)=2sh

一个等概率事件的集合,每个事件的信息量等于该集合的决策量MedicalImageCompression9整理ppt数据的冗余

数据的冗余量MedicalImageCompression10整理ppt统计编码

统计编码

给已知统计信息的符号分配代码的数据无损压缩方法

编码方法

香农-范诺编码

霍夫曼编码

算术编码

编码特性

香农-范诺编码和霍夫曼编码的原理相同,都是根据符号集中各个符号出现的频繁程度来编码,出现次数越多的符号,给它分配的代码位数越少

算术编码使用0和1之间的实数的间隔长度代表概率大小,概率越大间隔越长,编码效率可接近于熵。MedicalImageCompression11整理ppt统计编码——香农-范诺编码香农-范诺编码(Shannon–Fanocoding)

在香农的源编码理论中,熵的大小表示非冗余的不可压缩的信息量

在计算熵时,如果对数的底数用2,熵的单位就用“香农

(Sh)”,也称“位(bit)”。“位”是1948年Shannon首次使用的术语。例如

最早阐述和实现“从上到下”的熵编码方法的人是Shannon(1948年)和Fano(1949年),因此称为香农-范诺(Shannon-Fano)编码法MedicalImageCompression12整理ppt2.2.1香农-范诺编码

香农-范诺编码举例有一幅40个像素组成的灰度图像,灰度共有5级,分别用符号A,B,C,D和E表示。40个像素中出现灰度A的像素数有15个,出现灰度B的像素数有7个,出现灰度C的像素数有7个,其余情况见表2-1。(1)计算该图像可能获得的压缩比的理论值(2)对5个符号进行编码(3)计算该图像可能获得的压缩比的实际值表2-1符号在图像中出现的数目MedicalImageCompression符号ABCDE出现的次数157765出现的概率15/407/407/406/405/4013整理ppt香农-范诺编码(1)压缩比的理论值按照常规的编码方法,表示5个符号最少需要3位,如用000表示A,001表示B,…,100表示E,其余3个代码(101,110,111)不用。这就意味每个像素用3位,编码这幅图像总共需要120位。按照香农理论,这幅图像的熵为nH(X)

p(xi)log2p(xi)i1

p(A)log2(p(A))

p(B)log2(p(B))

p(E)log2(p(E))=(15/40)log2(40/15)+(7/40)log2(40/7)+ +(5/40)log2(40/5)2.196这个数值表明,每个符号不需要用3位构成的代码表示,而用2.196位就可以,因此40个像素只需用87.84位就可以,因此在理论上,这幅图像的的压缩比为120:87.84≈1.37:1,实际上就是3:2.196≈1.37MedicalImageCompression14整理ppt香农-范诺编码(2)符号编码对每个符号进行编码时采用“从上到下”的方法。首先按照符号出现的频度或概率排序,如A,B,C,D和E,见表2-2。然后使用递归方法分成两个部分,每一部分具有近似相同的次数,如图所示.MedicalImageCompression15整理ppt香农-范诺编码图2-1香农-范诺算法编码举例(3)压缩比的实际值按照这种方法进行编码需要的总位数为30+14+14+18+15=91,实际的压缩比为120:91≈1.32:1MedicalImageCompression16整理ppt统计编码——霍夫曼编码霍夫曼编码(Huffman

coding)

霍夫曼(D.A.Huffman)在1952年提出和描述的“从下到上”的熵

编码方法

根据给定数据集中各元素所出现的频率来压缩数据的一种统计压缩编码方法。这些元素(如字母)出现的次数越多,其编码的位数就越少

广泛用在JPEG,

MPEG,

H.26X等各种信息编码标准中MedicalImageCompression17整理ppt霍夫曼编码—CaseStudy2

霍夫曼编码举例2

编码前N=

8

symbols:

{a,b,c,d,e,f,g,h},3

bits

per

symbol

(N=23=8)

P(a)=0.01,P(b)=0.02,P(c)=0.05,P(d)=0.09,P(e)=0.18,P(f)=0.2,P(g)=0.2,

P(h)=0.25

计算(1)该字符串的霍夫曼码(2)该字符串的熵(3)该字符串的平均码长(4)编码效率MedicalImageCompression18整理ppt霍夫曼编码—CaseStudy2MedicalImageCompression19整理ppti1L 2.63bits/symbolHufMedicalImageCompression霍夫曼编码—CaseStudy2(1)Averagelengthpersymbol(beforecoding):8i13P(i)3bits/symbolL

82H

P(i)log P(i)2.5821bits/symbolH/L 98%Huf(2)Entropy:(3)Averagelengthpersymbol(withHuffmancoding):(4)Efficiencyofthecode:20整理ppt5、压缩图像质量的评价和压缩技术比较方法对压缩图像质量评价和压缩技术比较方法,主要分两种:主观和客观。常见的客观方法有归一化的均方差(NormalizedMeanSquaredError,NMSE)、峰值信噪比(Peak Signal-to-NoiseRatio,PSNR)、比特率(BitRate)和压缩比(CompressionRatio,CR)。对于医学图像,主观评价方法有主观分级(SubjectiveRating)评价、双盲双选项强迫选择(Double-blindedtwo-alternativeforced-choice)和诊断精确性(DiagnosticAccuracy)评价。客观评价方法所得到的结果与人眼评定结果并不总是一致,因此主观评价方法也就成为不可缺少的方法。诊断精确性评价在医学图像中作用很重要,最常见的方法是接受者工作特性曲线(ReceiverOperatingCharacteristicCurve,ROC),这是一种统计分析方法,针对不同的任务决定哪些图像压缩效果更好或更差。对于有损图像压缩的评价,上述方法都可以使用,但对于无损压缩的评价,则主要使用比特率和压缩比方法。MedicalImageCompression21整理ppt对于医学图像,总希望使用无损压缩。但是,无损压缩压缩比低,一般只有2~7:1,而有损压缩压缩比则比较高,随着有损压缩技术的发展和进步,当压缩比为10~30:1,一般还能保证诊断精确性。所以总是根据临床使用的具体情况选择使用无损压缩还是有损压缩,以及合适的压缩比。6、静止图像数据压缩系统一般框架按照压缩后图像能否被精确重建,图像压缩系统分为两大类:无损压缩系统和有损压缩系统。6.1无损压缩系统现代的无损压缩系统一般由两个不同的相互独立的阶段组成:建模(modeling)和编码(encoding),如图1所示。图1无损压缩系统编码一般过程MedicalImageCompression22整理ppt建模阶段又分为以下三个部分:预测当前像素值,即基于已有像素值的有限子集(Causal Template,因果模板)估计出当前像素值;确定当前像素所在的上下文(Context),上下文同样也是某一(可能不同)因果模板的函数;给出预测残差(Prediction Residual)的概率模型,它以当前像素所在的上下文为条件。编码阶段一般使用的是游程编码和基于上下文的熵编码。MedicalImageCompression编码误差建模预测残差误差值概率压缩比特流源图像预测值建模预测23整理ppt6.2有损压缩系统典型的有损压缩系统主要由三阶段组成:变换阶段(Transformation)、量化阶段(Quantization)和编码阶段(Coding),如图2所示。MedicalImageCompression正变换量化熵编码逆变换逆量化熵解码编码器存储介质/通信信道源图像重建图像解码器图2有损压缩系统编码与解码一般过程24整理pptMedicalImageCompression变换阶段—变换将空间域的像素灰阶值转换成其它变换域的系数,它减少了图像中的冗余信息,与原始图像数据信号相比,变换后的数据信号提供了一种更易于压缩的数据表示形式。这是一个无损处理阶段,但是如果考虑计算机存储的有限精度,这个阶段会有信息的损失。图像压缩中,使用更多的是离散余弦变换(DCT)和离散小波变换(DWT)。N1N1

f(x,y)cosx0y02(2x1)u

(2y1)vF(u,v)cos2N 2NN25整理ppt量化阶段—量化阶段把变换后的重要系数保留下来,而把其它不重要的系数进行粗略地近似,经常的情况是被近似为0。一般而言,这一步会带来信息的损失,但是会使得信息损失尽可能的少,而这也恰是有损压缩方法和无损压缩方法之间主要的区别。这是一个不可逆的过程,原因就在于这是多到一映射。存在有两种量化类型:标量量化与矢量量化,前者是在单个像素的基础上量化,而后者对多个像素构成向量进行量化。编码阶段—这是压缩过程中最后一个阶段,用来消除符号编码冗余度,是一个无损压缩阶段。这个阶段采用定长编码或变长编码将经过量化后的系数编码为二进制比特流。前者对所有符号赋予等长的编码,而后者则对出现频率较高的符号分配较短的编码。变长编码也叫熵(Entropy)编码,它能把经过变换得到的图像系数数据以较短的信息总长度来表示,因而在实际应用中,多采用此类编码方式。常见的编码方法有游程编码(RunLengthCoding,RLC)、变长编码(VariableLengthCoding,VLC)和算术编码(ArithmeticCoding,AC)。MedicalImageCompression26整理pptMedicalImageCompression8.1JPEG2000随着多媒体和因特网应用的持续的扩展,人们对所用技术的需求与日俱增和发展,已有的静止图像压缩标准JPEG和JPEG-LS已不能满足人们的要求。制定新的静止图像压缩标准是在1996年瑞士日内瓦的一次会议上提出,1997年3月,发起了制定静止图像压缩新的国际标准的征稿活动。这个新标准就是JPEG2000,它的目标是在一个统一的集成系统中,可以使用不同的成像模式(客户机/服务器、实时传输、图像数据库存档、有限缓存和宽带资源等),对不同类型(二值图像、灰度图像、彩色图像、多分量图像、高谱图像等)、不同性质(自然图像、计算机生成图像、医学图像、遥感图像、复合文档等)的静止图像进行压缩。与前面介绍的JPEG和JPEG-LS不同,它使用离散小波变换和EBCOT嵌入式编码技术,生成的码流具有较强的功能。27整理pptMedicalImageCompression其主要特点如下:●出色的低比特率压缩性能。在保证失真率和主观图像质量优于现有标准的条件下,能够提供对图像的低比特率压缩,以适应网络、移动通信等有限带宽的应用。●按照图像像素精度或分辨率进行渐进式传输。解码时允许用户根据需要对图像传输进行控制,在获得所需的图像质量后终止解码而无需接收整个图像压缩码流。●统一的算法和单一的码流实现无损压缩和有损压缩。●感兴趣区域(ROI)的编码。利用小波变换的局部分辨率特性和嵌入式编码,可以定义一个感兴趣的区域,采用低压缩比或无损压缩以获取较好的图像质量,而对其它部分采用高压缩比以节省存储空间或提高传输速度。28整理pptMedicalImageCompression●对码流的随机存取和处理。在传输中可以对ROI部分进行随机解压缩,而其余码流仍处于压缩状态。在不解压全部码流的前提下对ROI对应的图像进行平移、旋转、缩放等常见操作。●较强的抗误码能力,适用于低信噪比(如无线通信)信道的传输。●图像安全性,包括鉴别图像的来源,核查数据的完整性,以保护图像不被非法使用、复制、修改等。可以用多种方法对数字图像进行保护,如,数字水印(digitalwatermarking)、标签(labeling)、签章(stamping)、加密(encryption)等。数字水印指的是在图像内部设置的不可见标记。标签已在静态图像文件交换格式(SPIFF)中实现。签章和加密可以针对图像的全部或其中的一部分进行。总体来说,JPEG2000的应用领域可分成两部分,一部分是传统JPEG的市场,如打印机,扫描仪,数码相机等;另一部分是新兴应用领域,如网络传输、无线通信、医学图像等。29整理pptMedicalImageCompression标准的正式代号为ISO/IEC15444-1或者ITUREC.T.800,截止到目前,制定中的标准共有10部分,其中前六个部分已经成为正式的国际标准,见下表。序号标题说明成为标准时间ⅠCorecodingsystem核心编码系统2000.12ⅡExtensions核心系统功能的扩展2001.10ⅢMotionJPEG2000动态图像压缩2001.10ⅣConformancetesting符合性测试,以促进具体实现的兼容性和互操作性2002.03ⅤReferencesoftware提供Java和C两种语言实现的参考软件2001.12ⅥCompound image fileformat文本、图形、图像组成的复合文档的压缩和解压缩2002.05ⅧJPSEC(Security)安全性,用于验证数据的完整性,保护知识产权待定ⅨJPIP(Interactivitytools,API,protocol)交互工具、应用程序接口和协议待定ⅩJP3D三维静止图像的压缩和解压缩ⅪJPWL(Wireless)无线通信中的应用30整理pptMedicalImageCompression8.3.1JPEG2000的编码过程JPEG2000编解码系统如图7所示。编码时,对源图像数据依次进行预处理、离散小波变换,变换系数量化和熵编码,最后形成码流(比特流)。压缩图像数据(码流)通过存储或传输后,进行熵解码、反量化和离散小波逆变换,经后处理后重建出图像。由于解码只是编码的逆过程,这里只详细介绍编码过程。预处理分量间正变换DWT正变换量化Tier-1编码器Tier-2编码器后处理分量间反变换反量化失真率控制编码器源图像DWT逆变换Tier-1解码器Tier-2解码器重建图像编码图像解码器图7 JPEG2000编解码方框图31整理pptMedicalImageCompression8.3.1.1预处理在进行离散小波变换之前,可能需要对图像进行必要的预处理,如图8所示。图8JPEG2000预处理32整理pptMedicalImageCompression预处理之一是:对彩色图像或多分量图像进行分量变换(componenttransformation)。分量变换有两种:不可逆分量变换(IrreversibleComponentTransformation,ICT)和可逆分量变换(ReversibleComponentTransformation,RCT),如下表所示。前者用于有损压缩,后者用于无损压缩和有损压缩。对于彩色静止图像,分量变换实现RGB色彩空间和YCbCr色彩空之间的转换,见下表所示。RGB到YCbCr的不可逆分量转换:Y=0.29900R+0.57800G+0.11400BCr=0.50000R-0.41869G-0.08131BCb=-0.16875R-0.33126G+0.50000BYCbCr到RGB的不可逆分量转换:R=0+1.40200Cr+0G=0-0.71414Cr-0.34413CbB=Y+ 0 +1.77200CbRGB到YCbCr的可逆分量转换:Y=(R+2G+B)/4Cb=B-GCr=R-GYCbCr到RGB的可逆分量转换:G=Y-(Cr+Cb)/4R=Cr+GB=Cb+G33整理pptMedicalImageCompression预处理之二是:对图像分量进行分块(imagetiling)处理。分块是指将大图像分割成互不重叠、大小一致(图像边缘分块可能除外)的矩形块,矩形块的最大尺寸可至整幅图像分量的大小。把每一块看作一幅完全独立的图像,以块为单位独立进行编码。采用分块处理能够减少对内存的要求,并且易于并行处理,而且在解码端可以有选择地对图像分块进行解码。预处理之三是:直流电平移位(DCLevelShifting)。编解码器希望输入的采样值的动态范围以0为中心。采样值有可能是有符号或者无符号型的,如果每个采样值由p个比特的二进位表示,则对应的理论动态范围是[-2p-1,2p-1]或者[0,2p-1]。假如采样值是无符号型,取值范围不是以0为中心,编码器就要对采样值进行直流电平移位,即每个采样值都减去2p-1;如果取样值是有符号型的,则无需预处理。34整理pptMedicalImageCompression8.3.1.2离散小波变换(DiscreteWaveletTransformation,DWT)预处理后的数据将进行离散小波变换,以进一步降低数据之间的相关性。离散小波变换的是现代谱分析工具,它既能考察局部时域过程的频域特征,又能考察局部频域的时域特征,能弥补JPEG在非平稳过程上的不足。简单来讲,一维DWT即是对源信号进行了一系列的高通和低通滤波。二维DWT是对一维DWT的简单扩充,分别在水平和垂直方向使用一维小波变换。每次使用二维小波的分解部分可以得到4个子带:水平和垂直都低通(LL),水平低通垂直高通(LH),水平高通垂直低通(HL),水平和垂直都高通(HH),其中唯一的一个低频子带仍可以继续分解,如图9.a、9.b所示。JPEG2000第一部分的核心编码系统支持两种滤波器组:一种是具有较高有损压缩性能的浮点型的Daubechies9/7双正交滤波器组,另一种是可同时满足有损和无损压缩需求的可逆整数型的LeGall5/3双正交滤波器组。35整理pptMedicalImageCompression图9.a三阶子带分解图9.b三阶子带分解示例36整理pptMedicalImageCompression计算小波可以采用传统的卷积运算或者采用构造第二代小波的提升算法(LiftingScheme)。基于卷积的滤波将扩充后的源信号与高、低通滤波器作基于内积的点运算,其缺点在于无法即时用离散小波变换系数替换对应点的源信号数据,因此要占用更多的内存。基于提升小波的滤波计算简单,不论是分解或重建都不涉及复杂的内积运算,实现方法比传统的卷积实现算法的乘法运算量将近减少一半,有利于硬件实现,且能进行快速原位运算,不需要额外的内存空间,是一种快速的小波变换实现算法。对于基于卷积的滤波,即使是采用整数型的5/3滤波器组,随着分解层数的加深,由于计算机无法为完整地表示滤波系数提供足够的精度,运算过程中会丢失信息;而基于提升小波的滤波则可以和量化器结合,一起提供一个整数到整数的压缩框架,以实现无损压缩。提升算法可分为三个阶段:信号分裂(Split)阶段、提升阶段(包括预测和更新)和规范化阶段。图10.a、10.b给出了有损压缩提升方案计算过程示意图。无损压缩与有损压缩相比,则稍有不同。 37整理pptMedicalImageCompression图10.a有损压缩提升算法实现方框图图10.b9/7滤波器提升算法实现示例38整理pptMedicalImageCompression8.3.1.3量化小波变换本身不具有压缩能力,它的作用是使图像能量重新分布。变换后,图像能量主要集中在低频区(LL),而水平、垂直和对角线部分的高频能量相对较小。量化允许在不影响图像主观质量的前提下,减小量化系数的精度,把大量幅度较小的系数抑制为零,用最少的位数来表示量化后不为零的系数,以达到最大的压缩比。变换系数的量化是编码过程中丢失信息的原因之一。若采用整数5/3小波变换进行无损压缩,量化步长△b应为1。JPEG2000的量化与JPEG量化基本相同,总体上都是采用均匀标量量化,不同子带的量化步长一般不同。39整理pptMedicalImageCompressionJPEG2000的量化器的一个特殊之处在于它引入了一个“死区”(deadzone)概念,标准的第一部分规定,每个子带的量化器的“死区”宽度都是其步长的2倍,这意味着如果采用步长为△b的这种量化器并得到长为Mb的量化索引值,那么在解码过程中,我们可通过选用步长为△b×2Mb-Ma的量化器来恢复原来的索引值最重要的前Ma。这样做的优点就是为我们提供信噪比分级的一个手段:先用较小的步长对信号进行细致的量化,然后依据用户的需求,采用不同的宽步长(一般为量化步长的2的幂次方倍),仅解码原索引中重要性较高的若干位,以提供给用户不同质量的图像。40整理pptMedicalImageCompression量化器的量化规则为其中:y是量化器的输入,q是计算得到的量化索引,sign(y)表示y的符号,floor函数 表示的是不大于x的最大整数。JPEG2000量化器的另一个不同在于,解码时量化索引的逆量化值可取量化器允许范围中的某个值而不是仅局限在中值点。如果取值策略正确,将有助于提高解码性能。。量化器的去量化规则为:,当q≠0时;z=0,当q=0时。其中:z表示的是重建的信号值;γ表示的是重建偏差(Reconstructionbias),γ=0.5,得到的是中值点重建(midpointreconstruction)。41整理pptMedicalImageCompression8.3.1.4熵编码JPEG2000中的熵编码采用了优化截取的嵌入式块编码(EmbeddedBlockCodingwithOptimizedTruncation,EBCOT)算法和MQ自适应算术编码器。EBCOT算法是基于小波变换的嵌入式编码的方法之一。基于小波变换的嵌入式编码:指编码器将等待编码的、经过小波变换后的比特流按重要性不同进行排序,提供多个满足不同目标码率或失真度的截取点,利用率失真最优原则对每一码块产生的码流按照对恢复图像质量的贡献进行分层截取,最后按逐层逐块的顺序输出码流,以获得分辨率渐进特性和SNR渐进特性。42整理pptMedicalImageCompression进行EBCOT编码之前,先将每个图像分块(tile)的子带划分为更小的矩形码块(codeblock),如64×64或32×32,码块的宽度和高度必须是2的整数次幂且宽高乘积不能超过4096,如图11.a所示。使用码块使得生成的比特流能够灵活的组织。每个码块编码是独立进行的。编码时,编码算法以码条(Stripe)方式对码块内的量化系数扫描编码。所谓的码条指的是码块被划分成4倍采样点高的多条水平编码条。如果码块的高度不是4的倍数,那么最底部条的高度会小于这个数值。在码条内,先垂直方向从上到下,然后水平方向从左到右进行扫描编码,如图11.b所示。图11.a子带与码块的关系100图11.b码条的扫描方向43整理pptMedicalImageCompression码块的编码以比特平面为单位从最高权位的比特平面到最低权位比特平面独立地进行。假设编码块中数据的位长为N,对其进行位平面分解后,相应地会产生N个位平面。每个位平面都可以看作一个二值图像,即只有0和1,可以用二值图像的编码方法进行处理,如图11.c所示。使用的编码器是基于上下文的自适应二进制算术编码器(Contextbasedadaptivearithmeticcoder)。各个比特平面的编码又按照三个扫描(pass)顺序依次进行,此编码过程也称作第1层编码(Tier1coding)。三个扫描顺序如下:图11.c比特平面44整理pptMedicalImageCompression“显著性传播”(SignificancePropagation)扫描:本次扫描的编码对象是当前状态位为0,且其直接相邻8个系数的状态位至少有一个为1的采样值,即在当前位平面中最有可能成为“显著”(显著位为1)的那些“不显著”样本。这些样本直接相邻的8个样本的状态位作为“上下文”提供给编码器,编码器根据“上下文”选择一种预测概率对其进行算术编码。●

“幅度细化”(Magnitude

Refinement)扫描:对当前状态位为1,但没有被第一次扫描编码过的样本进行编码,这些样本的高位字节是“显著”的,包含的信息量也较大。编码过程类似于“显著性传播”扫描。●

“清除”(Cleanup)扫描:将所有剩下的未编码的样本进行编码。由于本次编码的数据都是“不显著”的,所以可采用一种称为“游程模式”的编码模式。当在编码过程中某样本成为“显著”时,同样需对其进行正负号编码。有一点要注意,由于编码最开始时所有的状态位均“0”,因此没有前两次扫描,只有“清除”扫描。以上三种扫描的次序是固定的,它反映的核心思想是把位平面上不同位置的样本按其包含的信息量分级,然后依次编码。这种编码方式是码流可支持多失真度的基础,如图12.a所示。45整理pptMedicalImageCompression图12.a子带、码块、比特平面、三个扫描编码之间的关系 图12.b子带、码块、区域之间的关系经过第一层编码后,需要对编码后的码流(CodeStream)进行组织,也称作第2层编码(Tier2coding)。JPEG2000采用层(Layer)来组织码流,各层摘取了每一编码块中的某一部分,并满足当总长度受限的情况下,各块失真度之和最小。为了更好地表达这种分层的思想,引入了区域(Precinct)和包(Packet)两种中间逻辑结构,如图12.b所示。Precinct指的是某一分辨率下空间某连续区域在所有子带中对应码块的集合;而包则包括由某个precinct中所有码块的一次或者几次扫描后得到的码流中的一个连续片段,它是编码的逻辑单位。每个包由两部分构成:头(head)和体(body)。包头指明必要的逻辑信息,而体包含的是真正的编码数据本身。 46整理pptMedicalImageCompression图13.a码流的分层综上所述,层就是以包为单位组成的,如图14.a所示。包的组织顺序可由4个参数来指定,即分量(Component)、分辨率(Resolution)、层(Layer)和区域位置(Precinct),也称作渐进方式(Progression),如图14.b所示。JPEG2000的第1部分定义了五种组织顺序:层-分辨率-分量

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论