可伸缩视频编码技术研究_第1页
可伸缩视频编码技术研究_第2页
可伸缩视频编码技术研究_第3页
可伸缩视频编码技术研究_第4页
可伸缩视频编码技术研究_第5页
已阅读5页,还剩21页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、26可伸缩视频编码中时间维分级编码技术的研究学号:091307100 姓名: 研究生 指导教师: 博士 第一章 绪 论1.1 研究背景及意义 伴随着因特网和多媒体通信技术的飞速发展,单纯的的文本和图像信息已经不能满足人们的需要,取而代之的是将数据、文字、声音、音乐、动画、视频、图像等融合于一体,并通过计算机进行数字化处理、传输与显示多种媒体信息技术来实现。由于网络服务器中的视频媒体信息越来越丰富,因此促进了视频流传输技术的应用。同时伴随着移动通信和无线网络的迅猛发展,如3G 、WIMAX、LTE(长期演进,即3.9G无线通信标准)、4G等新的技术应用之后,无线网络为视频应用和信息的交互提供了新

2、的场景和可能。通过这些应用,人们可以使用移动设备直接浏览最新视频,查询和检索资料,拨打可视电话,甚至进行远程的视频会议等等。总之,随着多媒体通信技术的发展,视频应用的领域越来越广泛。然而,Internet是一个异构性网络,对于视频服务而言,它体现在网络中通信网络的异构性和接收方的异构性。由于各子网的网络资源(如处理能力、传输带宽、存储能力等)分布不均匀,以及服务器的传输吞吐量、延时、丢包率等各不相同,从而造成了通讯子网的异构性。而接收方的异构性则体现在用户不同的使用偏好,以及接收和播放设备的不同的分辨率和处理器的能力上。网络终端的异构性造成了视频形式的多样性。因此用户可能通过高速的以太网(Et

3、hernet),WIMAX、LTE等服务的接入,也可能通过中等速度的调制解调器获取视频(如个域网,WIFI),还有一些用户通过低速的无线网络(如3G,EDGE,GPRS)进行视频传输。这些众多因素导致用户通过不同的网络所能得到的带宽不尽相同,甚至同一个用户所能得到的带宽也因时而变(它可能会受到多径衰落和快衰落等影响)。因此恒定速率的视频流难以在带宽波动比较大的网络环境下进行高效传输,网络终端视频的重构质量也就受到了一些影响。网络的异构性、信道带宽的波动和信道的误码等因素的存在,使得原来面向存储的压缩算法已经很难满足实时传输的要求。因此可伸缩视频编码方案成为了人们关注的焦点,并且占有越来越重要地

4、位。其核心问题之一就是如何让视频编码器提供既有高压缩率,又有良好的容错性和可伸缩性的视频码流,以适应不同的网络环境和用户终端的需求,如图1-1所示。目前,解决这一问题的较好方法就是可伸缩视频编码(Scalable Video Coding,SVC)。 视频 图1_2 网络的异构性及终端的异构性信道异构性 终端异构性图1-1 视频传输的异构性可伸缩视频编码(Scalable Video Coding, SVC)技术就是首先把视频信号编码成分层的形式,即一个基本层和多个增强层。当带宽不足时,只对基本层的码流进行传输和解码,因此这时解码的视频质量不高;当传输带宽变大和信噪比提高时,就可以对增强层的码

5、流来进行传输和解码,以此来提高视频的解码质量。显然,可伸缩视频编码主要体现在码率的控制上。而视频数据的分层编码和选择性传输是实现可伸缩的主要手段。 所谓分层编码,就是在时间、空间、质量或者频率上进行分层,即一个基本层和多个增强层。其中基本层的数据可以解码恢复出视频的基本内容。尽管此时的视频图像可能帧率较低、分辨率较低、质量较低,但是这却是一种很实用的和有效的方案,因为当信道带宽受限或信道环境复杂时,低帧率传输可以保证解码端能够接收到可以观看的视频图像。当信道带宽足够或信道SNR(信噪比)较大时,我们可以一次传输多个增强层数据流,以此来提高帧率、分辨率、视频质量。对于增强层,我们知道,它是由多层

6、编码组成的,我们可以通过改变其层的多少,来改善传输的视频的质量。对于原来的视频编码标准,一次编码后视频码流就固定了,无法适应终端的异构性;而可伸缩视频编码则有效的解决了编码标准输出码流的不灵活性,一次编码,可以适应多种不同信道和终端,如图1-2。其码流具有良好的适应性、鲁棒性及容错性,并可以根据不同的网络和用户的需求在任意点截断。 视频流 不同帧率 不同尺寸 一次 可伸缩视频编码 不同质量图1-2 可伸缩视频编码示意图1.2国内外的研究现状 可伸缩视频编码由于可以解决视频应用中面向传输的这一难题,引起了国内外众多学者的研究与探讨。 现有的可伸缩视频编码方案一般认为有以下两种:第一种是在可伸缩视

7、频编码标准的基础上,实现分级码流的可伸缩。如图1-3所示的时间维可伸缩性视频编码方案;另外一种是基于三维小波变换的可伸缩视频编码方案,如图 1-4所示。 输出码流基本层编码 运动补偿 帧内预测C 复 用 器时间维的上采样时间维抽取c基本层编码 运动补偿 帧内预测图1-3 时间维可伸缩编码方案输出码流输入视频三维小波分解分解子带数据编码可伸缩视 频 码 流运动估计运动信息编码 图 1-4 基于三维小波变换的可伸缩视频编码1.3 论文章节安排本文共分为五章,具体安排如下:第1章 为全文的总述,大致介绍了可伸缩视频编码的研究背景及其意义以及对国内外的研究现状分析。第2章 主要讲述了时间维可伸缩编码方

8、案以及两种主流的编码技术,即运动补偿时域滤波和等级B帧预测。然后对这两种技术进行了详细的说明,并给出了编码技术的框图。第3章 主要讲述了MCTF(运动补偿时域滤波)的算法设计以及程序的实现,最后通过C语言编写实现了Haar小波的五级提升。在本章节中,重点讲述了如何实现视频的低频和高频的分离,从而可以实现单独地对低频和改频进行处理。第4章 为软件的仿真,通过改变丢弃的层数进行对比和分析视频帧,最后证明了Haar小波技术确实可以实现时间维的可伸缩性。 第五章对全文进行了总结,并对进一步的工作进行了展望。第2章 时间维可伸缩视频序列是由一系列连续的的图像组成的,并且帧率越高,即每秒包的图像帧数越多,

9、视频流给人的感觉就越流畅,视觉效果也就越好。例如,每秒30帧,每秒15帧以及每秒7.5帧的视频对比,如图2-1所示。时间维可伸缩是指视频码流在时间维度可以分为一个基本层和多个增强层,不同的时间维层次对应不同的视频帧速率,获取的时间维层次越多,则解码得到的视频帧速率越高,同时付出的代价也越大。但是,通过时间维的可伸缩方式,可以满足不同终端对视频帧速率的要求,并且,对于不同的用户,对视频序列的帧率也会有不同的要求。时域可伸缩性就是为了满足对视频序列显示帧率的不同需求而提供的一种扩展方式。 每秒30帧 每秒15帧 每秒7.5帧图2-1 不同帧率的视频对比目前实现时间维可伸缩的技术主要有运动补偿时域滤

10、波(Motion Compensating Temporal Filter,MCTF)技术和等级B帧预测技术。2.1 MCTF基于运动补偿时域滤波(Motion Compensated Temporal Filtering ,MCTF)的可伸缩视频编码方案因为能有效的消除视频序列的帧间相关性,并且提供灵活的时域可伸缩性,因此成为了当前的主流的时间维可伸缩技术的研究重点。MCTF 其关键思想在于将一组图像中连续的各帧看成一个三维信号,除了空间上的 x 轴和 y 轴之外,增加了一个时间 t 轴。通过时间轴上的滤波去除视频序列时间轴上的相关性,即消除了各视频帧之间的冗余性,提高了压缩效率。MCTF

11、的思想首先由 Ohm 提出,并由 Choi 和 Woods 等人逐步进行了改进。运动补偿时域滤波是指在时间维度对视频序列进行基于小波的提升,在提升的过程中,考虑到视频序列运动的连续性和相关性,因此加入运动估计过程,以提高视频的压缩效率。通过小波提升过程最终生成一个低频子带(基本层)和多个高频子带(增强层)的过程。低频子带代表了当前视频序列的低频部分,高频子带则代表了当前视频序列的高频部分,即不同视频帧之间的差值。低频子带作为时间维的基本层,而高频子带则对应于各个层次的增强层。MCTF 对若干连续的视频帧组成的图像组( Group of Pictures , GOP) 进行时域分解形成时域小波树

12、,这种在运动方向上进行的时域滤波是一个开环过程,滤波后的时域相关信号再进行空域变换和嵌入式编码,最后形成满足网络特性的具有可伸缩性的码流。在当前的可伸缩视频编码研究中,MCTF 都是基于小波提升方法来实现的。MCTF的实现方法由基于 Haar 小波的提升算法发展为基于 5/3 小波和 9/7 小波的提升算法。采用 Haar 小波时预测操作就是传统意义上的单向预测,而采用5/3 小波时预测操作就是传统意义上的双向操作。当图像内容比较连贯一致时,采用拍数更长的 5/3小波就能够更好地利用图像间的相关性,能够获得更大的编码性能,而当图像中的场景发生变化时,采用单向的 Haar 小波就更为有利。此处以

13、基于Haar小波的提升过程为例对MCTF过程进行介绍。图2-2以一个包含8帧图像的图像组(GOP)为例,进行三级小波提升,最后生成的8个小波子带,即LLL0、LLH0、LH0、LH1、H0、H1、H2、H3,其中LLL0子带是低频子带,对应于基本层,而LLH0、LH0、LH1、H0、H1、H2、H3为高频子带,对应于增强层,其中LLH0对应于第一增强层,LH0、LH1对应于第二增强层,H0、H1、H2、H3对应于第三增强层。这样分组的好处是简单明了,易于实现,计算效率高。坏处是帧之间的相关性不强,重构信号的时候连续性会降低,出现块效应和边缘效应的概率变大。帧0帧1帧2帧3帧4帧5帧6帧7H 0

14、L 0H 1L 1H 2L 2H 3L 3LH0 0000000LL0 0000000LH 1LL1LLH0LLL0图2-2 基于三级哈尔小波的提升过程2.2 等级B帧预测等级B帧预测结构是指SVC中典型金字塔式可分级B帧预测结构。尽管这种结构在SVC里面有非常好的特性,并且这种结构已经兼容到 H.264/SVC相应的JSVM软件模型中,遗憾的是在JSVM中只是对传统的编码结构IPPP/IBP/IBBP 进行了一定的码率控制,却没有对等级B帧这种预测结构进行很好的码率控制。在JSVM中,等级B帧的量化参数只是根据前面帧的量化参数进行简单加减,却不能根据不同时间层上的视频帧的不同特性计算其目标比

15、特数和量化参数来达到精准的码率控制。如图2-3,SVC 中典型金字塔式的等级B帧预测结构。等级B帧预测技术通过限制运动补偿过程中参考帧的选取来实现视频序列在时间维的分级特性。在等级B帧技术中,进行运动补偿过程只能选取时间维层次的小于或等于当前帧的视频帧作为参考帧,这样可以使预测帧对参考帧有依赖性,而参考帧对预测帧没有依赖关系,因此可以重建出相应帧率的视频,实现时间维的可分级特性。图2_3 金字塔式等级B帧预测图 典型的等级B帧预测过程如图2-4所示,图中三种预测结构因为预测顺序的不同,因而具有不同的时延和编码效率:图(A)和图(C)用将来的视频帧做为参考帧,因而视频解码时具有一定的时延,但是预

16、测帧和参考帧之间的相关性较好,因而编码效率较高;而图(B)中,没有用到将来的视频帧做为参考帧,因而没有时延,但是预测帧和参考帧之间的相关性相对较小,因而编码效率相对较低。在图2-4(A)中,第0、8、16帧属于T0层,第4、12帧属于T1层,第2、6、10、14帧属于T2层,第1、3、5、7、9、11、13、15帧属于T3层。此时较高层次的T3层解码依赖于较低层次的T2、T1、T0层,而较低层次的T0层解码则无需依赖高层次的T1、T2、T3层,通过这种预测关系的分级来实现时间维视频帧的分级特性。图中均以图像组GOP为编码单元,实现时间可伸缩性编码的分级预测。每个图下面的数据显示了编解码顺序,T

17、k则代表了时间等级,其中k对应着时间标识符。 如果某一帧图像前的所有被编码图像在显示顺序上都先于这帧图像,那么我们就称这帧图像就叫关键帧。如图(A)中,第0、8和16帧就是关键帧。某一个关键帧图像和位于其前面的最近一个关键帧之间的所有图像,合起来组成一个图像组(GOP)。视频序列给每帧视频图像都分配一个时间等级,然后按照预先制定的规则,逐步丢弃对视频译码几乎没有影响的时间等级帧。通过丢弃不同数目的时间等级的帧,可以实现不同等级的时间维可伸缩。若某视频码流支持时间上的可伸缩性,则该码流必能分割为时间上不同层次的子码流。假设不同数据的时间等级由时间层标识符T表示,最基本的时间等级T=0,而其他时间

18、层的时间等级则依次递增。当解码端需要某个时间层k(k为自然数)的数据时,那些时间层标识符T>k的所有数据将被丢弃。这样,通过时间层标识符的应用,就可以实现时间可伸缩性。图2-4 等级B帧预测体系对于联合编码模式,时间可伸缩性编码通过限制运动补偿预测的参考帧的选取来实现,即只能选取小于或等于当前视频帧作为参考帧。SVC的等级B帧与传统帧不太一样,传统帧为后向预测,而它为双向预测帧,并且,等级B帧可以作为后续的B帧的参考帧。为了保证高时间层帧的丢弃不会影响低时间层帧的解码,因此SVC只允许选取大于或等于它的时间层的数据作参考帧。编码的顺序也是按照时间层标识符从低到高的顺序编码,这样就保证了当

19、时间层较高的数据被丢弃后,时间层较低的数据仍然得以保留,不会出现参考帧被丢弃的现象,从而保证了时间层较低的数据的解码的正确性。第三章 MCTF算法的设计及实现3.1 MCTF算法设计 运动补偿时域滤波包括三个基本的过程,即相位分解、预测、更新。它的框架结构如图3-1所示:Hk-2K+1帧视频S视频S预测更新Lk预测更新2 K帧图3-1 MCTF的结构框架MCTF的功能可以分为三步:第一步为时间维的分解,即把视频流分成帧格式,先将输入信号 Sk 在时间域上分解为奇采样值n和偶采样值n;第二步为预测编码,偶采样值n经过预测模块后,作为奇采样值n的预测值,得到的预测残差是高通信号n;最后一步为更新预

20、测值,将预测残差n经过更新模块作用后加到偶数采样值n上,得到低通信号。由于预测和更新是可逆的,所以S k可以由n和完全重构,即恢复出了原来的视频流。 令n 表示从第i帧到第j帧做运动估计得到的运动矢量,则对于第i帧的位置n,第j帧对应的匹配位置为n+n。当i<j时,n为前向运动矢量;当i>j时,n为后向运动矢量。 因此基于Haar小波的提升公式为: (3-1) (3-2) 其中,Sn为原始视频,为高通视频,为低通视频。 Haar小波的主要重构公式为: (3-3) (3-4)根据公式(3-1)和(3-2),即可获取视频帧中的低频部分和高频部分,低频对应于视频中的基本层,高频则相对于视

21、频中的增强层。基本层是在视频可伸缩处理中必须保留的关键帧,通过改变高频帧的多少可以改变视频的清晰度,保留的高频帧越多,还原出来的视频和原始视频越相似,清晰度越高,否则,还原出来的视频流越模糊。视频公式(3-3)和(3-4)为视频的重组,通过此公式可以对得到的低频和高频帧进行重组,得到奇数帧和偶数帧,进而可以还原出原始视频序列。3.2 程序设计流程由MCTF的算法设计的讨论以及分析,可以设计图3-2程序流程: 开 始打开文件失败打开文件读取GOP中一幅帧 处理一幅 GOP获取低频帧 和 高 频 帧 解 码 失 败写入文件 结 束图3-2 MCTF的程序设计流程3.3 核心代码简介 下面是对设计程

22、序中的一些核心代码的简要分析,在本章节中主要是如何实现低频和高频帧的分离。 首先,初始化文件指针为NULL,防止在操作中出现一些随机错误。FILE *p_in = NULL ;FILE *p_out = NULL;FILE *text = NULL;然后进行文件以二进制写入测试,如果写入失败,输出文件不存在,然后程序正常退出。 if (p_in=fopen("crew.yuv","rb")=NULL) printf( "Input file %s does not existn","crew.yuv"); exit

23、(1); if (p_out=fopen("crew_left.yuv","wb")=NULL) printf( "can't creat file %s","crew_left.yuv"); exit(1);主函数: int main(void) for(i=0;i<GOPNUM;i+) prosessOneGOP(); printf("完成第 %d 个GOP的处理,所使用的时间:%lf seconds.nn",i+1, cost); total_cost += cost; pr

24、intf("总共耗时:%.4f secondsn",total_cost); printf("程序运行结束!n"); return 0;获取视频中的低频和高频帧:void getLH(int src,double*sy,double*su,double*sv,double*py,double*pu,double*pv) unsigned char bitvecUVLENGTH/2WIDTH/2;for (y=0; y<LENGTH; y+) for (x=0; x<WIDTH; x+) bitvecYyx=0; for(a=0;a<MA

25、XSIZE/(BLOCKTYPE*BLOCKTYPE);a+) /获得高频子带 pic_xref=pic_x+MVXsrc-1a; pic_yref=pic_y+MVYsrc-1a; for(j=0;j<BLOCKTYPE;j+) for(i=0;i<BLOCKTYPE;i+) *(sy+(pic_y+j)*WIDTH+pic_x+i)=(*(sy+(pic_y+j)*WIDTH+pic_x+i)-*(py+(pic_yref+j)*WIDTH+pic_xref+i)/2; pic_xuvref=pic_uvx+(MVXsrc-1a)/2; pic_yuvref=pic_uvy+(

26、MVYsrc-1a)/2; for(j=0;j<(BLOCKTYPE/2);j+) for(i=0;i<(BLOCKTYPE/2);i+) *(su+(pic_uvy+j)*WIDTH/2+pic_uvx+i)=(*(su+(pic_uvy+j)*WIDTH/2+pic_uvx+i)-*(pu+(pic_yuvref+j)*WIDTH/2+pic_xuvref+i)/2; *(sv+(pic_uvy+j)*WIDTH/2+pic_uvx+i)=(*(sv+(pic_uvy+j)*WIDTH/2+pic_uvx+i)-*(pv+(pic_yuvref+j)*WIDTH/2+pic_x

27、uvref+i)/2;/参考中心更新 pic_x+=BLOCKTYPE; if(a+1)*BLOCKTYPE)%WIDTH=0)pic_x=0; pic_y+=BLOCKTYPE;pic_uvx+=BLOCKTYPE/2;if(a+1)*BLOCKTYPE)%WIDTH=0)pic_uvx=0; pic_uvy+=BLOCKTYPE/2; pic_x=0; pic_y=0; pic_xref=0; pic_yref=0; pic_xuvref=0; pic_yuvref=0; pic_uvx=0; pic_uvy=0;for (y=0; y<(LENGTH/2); y+) for (x=

28、0; x<(WIDTH/2); x+) bitvecUVyx=0; /获得低频子带 for(a=0;a<MAXSIZE/(BLOCKTYPE*BLOCKTYPE);a+) pic_xref=pic_x+MVXsrc-1a; pic_yref=pic_y+MVYsrc-1a; for(j=0;j<BLOCKTYPE;j+) for(i=0;i<BLOCKTYPE;i+) /bitvecYpic_yref+jpic_xref+i用来作为标志位if(bitvecYpic_yref+jpic_xref+i=0) *(py+(pic_yref+j)*WIDTH+pic_xref+

29、i)=*(py+(pic_yref+j)*WIDTH+pic_xref+i)+*(sy+(pic_y+j)*WIDTH+pic_x+i); bitvecYpic_yref+jpic_xref+i=1; pic_xuvref=pic_uvx+(MVXsrc-1a)/2; pic_yuvref=pic_uvy+(MVYsrc-1a)/2; for(j=0;j<(BLOCKTYPE/2);j+) for(i=0;i<(BLOCKTYPE/2);i+) if(bitvecUVpic_yuvref+jpic_xuvref+i=0) *(pu+(pic_yuvref+j)*WIDTH/2+pi

30、c_xuvref+i)=*(pu+(pic_yuvref+j)*WIDTH/2+pic_xuvref+i)+*(su+(pic_uvy+j)*WIDTH/2+pic_uvx+i); *(pv+(pic_yuvref+j)*WIDTH/2+pic_xuvref+i)=*(pv+(pic_yuvref+j)*WIDTH/2+pic_xuvref+i)+*(sv+(pic_uvy+j)*WIDTH/2+pic_uvx+i); bitvecUVpic_yuvref+jpic_xuvref+i=1; /参考中心更新 pic_x+=BLOCKTYPE; if(a+1)*BLOCKTYPE)%WIDTH=0

31、)pic_x=0; pic_y+=BLOCKTYPE;pic_uvx+=BLOCKTYPE/2;if(a+1)*BLOCKTYPE)%WIDTH=0)pic_uvx=0; pic_uvy+=BLOCKTYPE/2; 低频和高频帧的获取是本章节主要内容,也是运动补偿时域滤波的关键技术之一。通过C语言编程,实现了视频流低频和高频帧分离。 第四章 仿真结果及分析由第三章实现低频和高频帧的分离以及第二章中哈尔小波的提升过程图2-2,我们得知,在五级哈尔小波的提升时,第一次提升可以分离出8个低频和8个高频,第二次提升从8个低频帧中再次分离出4个低频和4个高频帧,第三次提升可以从4个低频帧中再次分离出2个

32、低频和2个高频帧,以此类推,最终我们可以得到15个高频和1个低频帧,这个低频帧就是我们说的关键帧。通过改变丢弃的层数,我们可以实现视频的时间维可伸缩,由于第一次提升之后有8帧高频,第二次提升之后有12(8+4=12)帧高频,第三次提升之后有14(8+4+2=14)帧高频,第四次提升之后有15帧高频,下面将分别丢弃8帧,12帧,14帧,15帧高频帧进行分析和对比验证。4.1软件仿真 下面将对crew.yuv和flower.yuv分别进行五级哈尔小波提升。首先根据第三章程序对原始视频crew.yuv、flower.yuv进行处理,依次选择丢弃8个、12个、14个、15个高频子带,然后对应丢弃不同的

33、高频子带即可重构出不同的crew_lift.yuv、flower_lift.yuv。最后通过原始视频与重构的视频进行清晰度对比。4.1.1 crew.yuv的仿真(1)原始视频和丢弃8个高频子带后重建的视频对比,如图4-1 原 始 图 像 丢弃8个高频子带之后重构的图像 图4-1 丢弃8个高频子带前后前后视频图像对比(2) 原始视频和丢弃12个高频子带后重建的视频对比,如图4-2: 原 始 图 像 丢弃12个高频子带之后重构的图像 图4-2 丢弃12个高频子带前后前后视频图像对比(3) 原始视频和丢弃14个高频子带后重建的视频对比,如图4-3: 原 始 图 像 丢弃14个高频子带之后重构的图像

34、 图4_3 丢弃14个高频子带前后前后视频图像对比(4) 原始视频和丢弃15个高频子带后重建的视频对比,如图4-4: 原始图像 丢弃15个高频子带之后重构的图像 图4-4 丢弃15个高频子带前后前后视频图像对比 4.1.2 flower.yuv的仿真(1)原始视频和丢弃8个高频子带后重建的视频对比,如图4-5: 原 始 图 像 丢弃8个高频子带之后重构的图像 图4-5丢弃8个高频子带前后前后视频图像对比(2)原始视频和丢弃12个高频子带后重建的视频对比,如图4-6: 原 始 图 像 丢弃12个高频子带之后重构的图像 图4-6 丢弃12个高频子带前后前后视频图像对比(3)原始视频和丢弃14个高频

35、子带后重建的视频对比,如图4-7: 原 始 图 像 丢弃14个高频子带之后重构的图像 图4-7 丢弃14个高频子带前后前后视频图像对比(8) 原始视频和丢弃15个高频子带后重建的视频对比,如图4-8: 原 始 图 像 丢弃15个高频子带之后重构的图像 图4-8 丢弃15个高频子带前后前后视频图像对比4.2 结论在本章中,以crew.yuv和flower.yuv为例,通过丢弃8帧、12帧、14帧、15帧高频子带前后视频清晰度的对比,由以上图片对比,可知,对于同一个视频流,丢弃的帧数越多时,其清晰度越差。通过学习与研究五级哈尔小波提升技术,实现了视频在时间维的分层编码。第五章 总结与展望5.1 全

36、文总结随着计算机通信和多媒体技术的飞速发展,视频聊天、视频点播、视频会议以及实时视频监控等视频应用的迅速增长,可伸缩视频由于具有可分级特性,并且对信道的异构性具有很强的适应性,因此受到了广泛的关注。本论文的研究与学习了时间维可伸缩的两种技术,即MCTF和等级B帧,重点探究了MCTF技术的实现流程,随后通过C语言编程实现了五级哈尔小波提升,最后,通过软件仿真对比,验证了该方案的可实施性。5.2展望 科技是向前飞速发展的,可伸缩编码方案也不会停留在原地不动。伴随着越来越高速的处理器的出现,嵌入式技术的普及,人们对视频分辨率的越来越高的要求,以及无线网络技术的发(3G,LTE,4G,以及三星的5G技术),可伸缩编码方案也会随之发生巨大的改变。然而,由于技术水平和时间的限制,未能进行更深入的研究。如何充分利用视频帧之间的相关性,在消除帧之间的冗余度和对视频分辨率的要求的前提下,实现真正的智能化视频可伸缩是进一步研究的重点。 目前视频可伸缩编码技术的并不太成熟,但是随着越来越多的人的参与和集思广益的研究,我相信不远的未来,真正的智能化的视频可伸缩技术

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论