视频编码技术(共9篇)
视频编码技术 篇1
1. 引言
近年来,视频编码技术得到了迅速发展和广泛应用,并且日臻成熟,其标志是多个关于视频编码的国际标准的制定。其可分为两大系列:即国际标准化组织(ISO)和国际电工委员会(IEC)的运动图像专家组MPEG(Motion Picture Expert Group)关于活动图像的编码标准MPEG系列,以及国际电信联盟(ITU)的视频编码专家组VCEG(Video Coding Expert Group)制定的视频编码标准H.26X系列。
H.261,H.263,MPEG-1,MPEG-2等视频编码标准已经应用多年,可以称为第一代的编码标准。H.264,MPEG-4等新一代编码标准可以称为第二代编码标准。
2. 视频编码方法
2.1 预测编码
预测编码可以在一幅图像内进行,也可以在多幅图像之间进行。预测编码实际上是基于图像数据的空间和时间冗余特性,用相邻的已知像素(或图像块)来预测当前像素(或图像块)的值,然后再对预测误差进行量化和编码。
2.2 变换编码
变换编码的目的是对解相关变换系数进行量化和编码操作,著名的变换技术离散余弦变换DCT使用在JPEG和MPEG标准上,离散小波变换DWT使用在MPEG-4和JPEG2000标准上。DCT是以8×8大小的像素块为单位的,DWT是以帧为标准的方式。对于视频压缩,变换编码经常和运动补偿估计结合在一起,发展出一种非常有效的混合MC变换方法,即对图像先进行带有运动补偿的帧间预测编码,再对预测后的残差信号进行DCT变换。这种混合编码方法已成为许多视频压缩编码国际标准的基本框架。
2.3 图像序列的混合MC/DCT编码
在视频编码中,DCT算法比DWT算法获得的压缩增益更大。在基本的MPEG和ITU-T视频编码方案中,视频序列的第一帧(I-图像)以帧内模式编码,不用过去和未来的任何帧来作参考。对于运动预测编码(P图像),先前已编码的第N-1帧中的I或P图像帧存储在一个帧存储器(FS)中。在第N帧和第N-1帧之间,我们只能得到一个运动矢量被传输到接收端。运动补偿预测误差是对相邻两帧中对应宏块中的每个像素运动位移差计算得到的。N×N DCT算法应用到每一个N×N块(MPEG标准是8×8像素)中,输出的N×N DCT系数再经过量化,可变长的霍夫曼熵编码,量化步长可以根据宏块进行调整,解码端则进行反相操作。
2.4 基于内容的图像编码
把视频帧分成对应于不同物体的区域,然后分别对其进行编码,即对不同物体的形状、运动和纹理进行编码。比如,在比较简单的情况下,可以利用尔维轮廓描述物体的形状;利用运动适量描述其运动的形状;用颜色的波形描述纹理。
3. 视频编码标准
(1)MPEG-1编码。MPEG-1标准主要针对SIF标准分辨率(NTSC制为352X240;PAL制为352X288)的图像进行压缩,压缩位率主要目标为1.5Mb/s,相比MJPEG技术,MPEG1在实时压缩、每帧数据量、处理速度上有显著的提高。但MPEG1也有较多不利的地方:存储容量还是过大、清晰度不够高和网络传输困难。
(2)MPEG-2编码标准。MPEG-2在MPEG-1基础上进行了扩充和提升,和MPEG-1向下兼容,主要针对存储媒体、数字电视、高清晰等应用领域,分辨率为:低(352x288),中(720x480),次高(1440x1080),高(1920x1080)。MPEG-2视频相对MPEG-1提升了分辨率,满足了用户高清晰的要求,但由于压缩性能没有多少提高,使得存储容量还是太大,也不适合网络传输。
(3)H.261,又称为P*64,其中P为64kb/s的取值范围,是1到30的可变参数,它最初是针对在ISDN上实现电信会议应用特别是面对面的可视电话和视频会议而设计的。此算法为了优化带宽占用量,引进了在图像质量与运动幅度之间的平衡折中机制,也就是说,剧烈运动的图像比相对静止的图像质量要差。因此这种方法是属于恒定码流可变质量编码而非恒定质量可变码流编码。
(4)H.263。H.263是国际电联ITU-T的一个标准草案,是为低码流通信而设计的。但实际上这个标准可用在很宽的码流范围,而非只用于低码流应用。它一方面以H.261为基础,以混合编码为核心,其基本原理框图和H.261十分相似,原始数据和码流组织也相似;另一方面,H.263也吸收了MPEG等其它一些国际标准中有效、合理的部分,如:半像素精度的运动估计、PB帧预测等,使它性能优于H.261。H.263使用的位率可小于64Kb/s,且传输比特率可不固定(变码率)。H.263支持多种分辨率:SQCIF(128x96)、QCIF、CIF、4CIF、16CIF。
(5)H.264。H.264代表了当前业界最先进的视频压缩技术,且具有以下无可比拟的优越性。1)码率低:和MPEG-2等压缩技术相比,在同等图像质量下,采用H.264技术压缩后数据量只有MPEG-2的1/2-1/30。显然,H.264压缩技术将大大节省用户的下载时间和数据流量收费。2)图像质量高:H.264能提供连续、流畅的高质量图像。3)容错能力强:H.264解决了在不稳定网络环境下容易发生的丢包等问题。4)网络适应性强:H.264提供了网络适应层,使得H.264的文件能容易地在不同网络上传输。
H.264标准算法复杂,对解码芯片的要求很高,但由于H.264标准提供稳定的图像质量,提高视频传输质量的可控力,并具有较强的差错处理能力,适用范围更广阔,因此成为关注的重点。
(6)MPEG-4编码MPEG-4的编码理念是:MPEG-4标准同以前标准的最显著的差别在于它是采用基于对象的编码理念,即在编码时将一幅景物分成若干在时间和空间上相互联系的视频音频对象,分别编码后,再经过复用传输到接收端,然后再对不同的对象分别解码,从而组合成所需要的视频和音频。这样既方便我们对不同的对象采用不同的编码方法和表示方法,又有利于不同数据类型间的融合,并且这样也可以方便地实现对于各种对象的操作及编辑。例如,我们可以将一个卡通人物放在真实的场景中,或者将真人置于一个虚拟的演播室里,还可以在互联网上方便的实现交互,根据自己的需要有选择地组合各种视频音频以及图形文本对象。
4. 视频编码技术比较
4.1 H.264与MPEG-4的比较
在极低码率(32-128Kbps)的情况下,H.264与MPEG-4相比具有性能倍增效应,即:相同码率的H.26L媒体流和MPEG-4媒体流相比,H.26L拥有大约3个分贝的增益(画质水平倍增)。32Kbps的H.26L媒体流,其信躁比与128K的MPEG-4媒体流相近,即在同样的画面质量下,H.264的码率仅仅为MPEG-4的四分之一。
H.264在中低码率下与MPEG-4比较:在中低码率(32-128Kbps)的情况下,H.264与MPEG-4相比具有性能倍增效应。
4.2 应用方面的比较
大多数标准,例如JPEG2000,H.263/264,MPEF-1/2/4和H.264实现先进的压缩技术,所有这些视频压缩标准都是围绕基于块的混合MC/DCT算法,基于静态图像的小波变换是应用在JPEG2000和MPEF-4的静态图像部分编码。
在数字电视领域,虽然当前多采用MPEF-2编解码技术,但随着数字高清电视、数字移动电视、IPTV、手机电视等新技术的发展,带宽限制的矛盾必将越来越突出,采用更高压缩率的编码技术是必然趋势,因此,这一领域也必然成为下一代音视频编解码标准的焦点。
作为最新一代的视频编码标准,H.264在追求更高编码效率和简洁的表达方式的同时提供了非常好的视频质量,它是当前最高效的视频压缩技术。与目前广泛应用的MPEF-2、MPEF-4相比,同样的图像质量情况下,它的编码效率提高了30%-40%,相应地节约了30%的网络带宽。在当今网络带宽越来越宝贵、高清需求强烈的情况下,采用H.264标准已成为在有限带宽下满足用户需求的理想方案,虽然其复杂的编解码算法在实际应用中还不能发挥出全部优势,但其最终将成为高清时代编解码技术的主力军。
参考文献
[1]Wiegand T,Sullivan GJ,Bjntegaard G,Luthra A.Overview of the H.264/AVC Video Coding Standard.IEEE Trans,Circuits Sys t,Video Technol.,2003,1(7):560—578.
[2]Draft ITU-T recommendation and final draft international standard o f joint video specification(ITU-T Rec.H.264/ISO/IEC14496-10AVC.in Joint Video Team(JVT)of ISO/IEC MPEG and I-TU-TV CEG,J VTG050,2003.
[3]毕厚杰.新一代视频压缩编码标准-H.264[M].北京:人民邮电出版社,2005.
[4]袁显等.对H.264中的多参考帧预测技术的评测[J].电子学报,2004,9.
视频编码的新探索 篇2
传统的视频编码就是综合考虑采集来的视频信息,但是有没有可能考虑一些其它的视频或者图像,以此来进一步提高编码效率?这是一个值得深究的问题。当前的视频发生了诸多变化,如分辨率不断提高、维数越来越多、信息源不断增加、数据多样化。我们还赋予了视频新职能,期待它能提供更优质的服务。此外,不断提高的存储和处理能力给视频编码带来哪些深远影响?近几年,我们对视频编码方面进行了积极探索。
1 国际视频编码标准HEVC
通常情况下,新一代视频编码效率都比原来的视频编码效率提高一倍,即用一半的比特数代表原来同样的视频质量。最新的标准HEVC(HighEfficiency Video Coding)有望于今年成为最新的国际标准,其设计的初衷就是针对超高清视频进行有效编码,鉴于其复杂度,在开发标准的同时,就考虑能够支持并行编码,其目的在于用一半的比特数达到同样的视频质量。与H.264相比较而言,HEVC多了一个自适应的环过滤器,由于支持超高清,相应的块的大小也向上进行了延伸。与此对应,其角色变换向更大的块进行延伸。同时,还加入了新模式,如对于一些特定的视频内容处理,尤其是文字,因为文字或者是在清晰边界内容较多的情况下,做了相应的变换,反而将这些边界模糊化。在这种情形下,HEVC可以将这个变换省略。在做运动补偿的时候,它也增加了更为复杂的滤过器,最后在编码的时候,去掉了CAVLC(适应性变动长度编码法,是H.264的算法机制)。
HEVC在工业界受到了广泛的欢迎,预计其在工业界应用普及的速度有望超过H.264,原因在于很多厂商从一开始就参与HEVC的设计,并研发设计了相关芯片。当前,HEVC面临的发展瓶颈不是解码的问题,而是由于其编码复杂度很高,亟待厂商和并行算法的专家对其进一步优化。
2 “云”时代的新思维
传统的视频压缩方法无外乎基于变换、模式匹配或者模型这些类别,并且这些方法已经被大家熟知、研究多年,现在面临的问题是能否寻求到更好的方法。例如想了解一个网站,无需别人将这个网站所有的内容拷贝并且打包转发给我们,只需要一个网址即可。有了搜索引擎后,仅用关键词,就可以轻易搜索到网站。视频编码可以借鉴这个思想。“云”的图像压缩基于同样的出发点,无需传送视频内容,而是传送对图像的法还局限于单一的视频本身,然后将相关性去除,再进行有效压缩。而新思路借助一些外在的,可能跟本身视频不是同时采集的内容,通过在云端搜索其特征来找到,如在对一幅图像进行视频分析的时候,提取它的细部特征和缩略图,并将这两方面内容压缩后传输给云服务器进行存储。根据细部特征和缩略图,可以在云端搜索到跟现在图像类似的一组图像,再找到跟每个块相似的部分,去除这些块的非相关部分,进行信息整合,重构图像。因此尽管只是传输了图像的细部特征和缩略图,但是可以利用“云”端上的各类资源,将这个图像复原。
也许大家认为这种方法切实可行,但是里面受到了诸多的限制。如果搜索不到相似图,那么还是需要传输原来的一些像素。当前互联网上的信息内容泛滥,搜索相似内容的难度增加。同时,由于没有相应反馈机制,难以有效评估编码质量的好坏,这是其最大的致命点。
3 一种新的视频编码范式——NSVS
3.1NsVS(Near-lossless sematicvideo summarization)简介
若对图像进行分析得到的总结,并不是依靠原来像素的传输,这将会产生什么样的结果?这里面涉及到视频压缩和视频总结对比问题。通常,视频压缩的目的主要是为了查看,通过像素压缩的方式,将压缩后的图像给观察者,但是如果把图像压缩到很低的码数率,质量会降低。若将质量差的压缩图像传输给机器进行分析,其效果就可想而知。传统的视频压缩方法遗弃了很多细节,但是这些细节可能至关重要。在监控方面,安全要求零的漏检率,即绝对不允许遗漏重要细节,所以在进行视频压缩的时候,应在尽可能保持原来视频特征信息的情况下进行。
而视频总结是将很多不相关或者重复的信息去除,目的在于进行分析。我们可以采用视频分析的方式,将一个视频分成不同的场景、不同的块,并且预测后期的一些帧的运动情况。同时,将视频的关键帧或者几个关键帧组合起来,将不同的镜头进行分类,并对其采用高层次的语意进行描述。在这些操作过程中,不遗漏任何的运动信息,因为这些运动信息至关重要。如将视频分成四个不同类型的模块对其进行分析,可以分析拉远拉近的视频场景,同时进行描述,然后对平移的场景可以将其提取出来,用相关的语义描述。对一些显著物体的场景,不仅将其提取,还提取其运动信息,便于进行更为有效的描述。最后,分析一些静止的场景,这些场景的描述相对容易。
上述我们可以看出,这种NSVS不是从像素上进行编码,而是从描述方面进行编码,可以实现小空间对视频进行有效的描述。
3.2NSVS的优势
传统的视频监控,基本上首先把视频信息采集、压缩,然后传送到监控中心储存,事情发生后再调取,这就要求必须实时监控。同时,需要大量的人力去甄别信息,不仅效率低下,而且失去了时效性。
新的视频监控方法有所区别,首先数据源需要高清的分辨率,摄像头的位置、方向、参数等信息,同时还有摄像头与其它摄像头物理位置之间的联系,以及感兴趣的物体,比如人脸、车牌等重要信息。我们将这些信息收集在一起,对其进行特殊处理。考虑后期的后台分析,所以压缩的衡量标准可能与传统视频压缩有所不同。
其实,在视频采集的时候,对视频内容进行检索,将一些特征提取,然后对其特征进行检索。同时把当时摄像头的位置、方向、参数等信息同时关联到当时视频,并将这些信息存储,这对后期的信息提取有很大帮助。这样等同于把视频采集、分析与编码同时进行,在编码之前,已经对视频进行了分析,然后把后面会用到的信息提取,跟原来的视频信息一起进行编码,甚至还可以将摄像头与其它摄像头的关系图也编码,同时将这些内容全部传送到服务器或者监控中心,这样该视频将会自动按照提前分析的情况显示。若再有突发事件的发生,可以马上调用自动分析机制,相应的信息马上就可以锁定。NSVS的优势主要表现在以下方面:
1、将视频分析庞大的计算任务分散到各个采集点,减少后台的工作量;
2、在原始图像上进行建模分析,避免因压缩图像引起的误差:
3、提取信息后,马上就可以进行相关分析,大幅提高分析效率:
4、提取ROI(前景对象)信息后,可以对特定区域进行特殊编码,确保了最优质量;
5、大幅减少储存时间,通过提高视频检索的能力,迅速提取所需信息,无需长期储存。
4 小结
可分级视频编码技术的研究 篇3
关键词:精细粒度可分级,时域,空域,视频编码
由于网络的异构性,各网络终端的处理能力各不相同,需要为不同的环境提供不同的视频压缩和传送系统,而且当环境改变时,不能复用已有的资源,这造成资源的极大浪费。另外,网络带宽在不同的时间或空间内随着用户数量的变化而变化,能传送的视频数据也随之变化着。这对视频编码技术提出了新的要求,可分级视频编码技术就是为解决这些问题而提出的。
分级编码的码流包括一个基本层码流和多个增强层码流。基本层码流包含了最基本的视频信息;增强层中保存着基本层的量化差值。解码器可以从基本层解码出基本图像质量,基本层和增强层组合解码得到质量更高的图像。用户终端可以根据自身的处理能力和网络带宽选择传送基本层码流和若干个的增强层码流,以获得最佳的视频效果,解码越多个增强层码流,视频的质量越好。分级编码技术分为空域可分级编码、时域可分级编码、质量可分级(信噪比/SNR可分级)编码、频率可分级编码和精细粒度可分级等。在H.264标准中[2,3],使用分辨率分层的方法实现空域可分级;使用等级B图像编码和运动补偿时间滤波(MCTF)技术实现时域可分级;使用粗粒度可分级和精细粒度可分级实现质量(SNR)可分级。
1 空域可分级编码
空域可分级编码是指对视频中的每一帧图像创建多层空间,基本层的码流信息描述了低分辨率图像,增强层的码流包含了高分辨率图像的信息。逐渐解码更多增强层的码流使得图像的分辨率增加。其基本原理:首先使用下采样将原始视频图像分解成多种分辨率的图像,对最低分辨率的图像DCT变换、量化、熵编码得到基本层码流,同时解码基本层码流得到基本图像,并对该图像插值得到次低分辨率图像;然后,将次低分辨率图像和最低分辨率图像相减得到差分图像,对其进行DCT变换、量化、熵编码得到第一个增强层码流,用同样的方法在上一层图像的基础上编码得到下一个增强层码流。
2 时域可分级编码
插值帧是根据时间上与它相邻的两帧(I帧或P帧)预测得到的B帧,预测帧可以作为更细一层插值帧的参考帧[1]。预测帧可以不用直接传输,而是在接收端根据相同的生成规则解码得到,这样可以只传输有关参数和误差补偿。在H.264中,时域可分级编码可以通过等级B图像编码结构[1,6]和运动补偿时域滤波(MCTF)[1]两种技术来实现的,两种技术的编码思想如图1所示。
3 质量可分级编码
质量可分级编码又称为信噪比可分级(SNR可分级)编码,其编码思想是:对原始图像进行DCT变换之后进行一次较粗的量化、熵编码形成基本层码流,同时反量化系数与原始图像DCT变换系数形成频率域的差分信号再进行一次量化、熵编码形成增强层码流,重复以上过程可以得到多个增强层码流。在解码端,越多的增强层被使用,视频的信噪比越高,质量就越好。
4 精细粒度可分级编码
为了支持信道特性多变的包交换网上多媒体应用和服务,适应带宽的变化,精细粒度可分级编码被提出来了。FGS提供的嵌入式特性使得具有不同带宽和处理能力的终端能够享受到相应不同的视频服务质量。精细粒度可分级编码的原理[1]是:编码时产生一个基本层码流和一个嵌入式的增强层码流。基本层码流包含了质量较低的的视频信号,可以在最小的网络带宽下传输;增强层的码流包含了与基本层的量化差值信息,嵌入式指的是码流可以在任意位置截断而不影响解码器解码,从而得到渐进平滑的视频质量。FGS的基本层编码和普通的非分级编码一样,也是使用运动估计、运动补偿、DCT变换、标量量化和变长编码等技术;把原始的DCT系数减去基本层逆量化后重建的DCT系数得到DCT残差,然后对每一个8×8的块按从上到下、从左到右的顺序使用位平面编码得到增强层[6]。
FGS采用的位平面编码方法使得视频质量在信道带宽变化是平滑改变。有实验表明[6],FGS的编码效率比多层SNR分级编码高,单层编码的效率最高,而FGS比它低2dB。与两到三个码流的单播相比,FGS在最低和最高码率时都有较好的编码效果。FGS还可以和时域可分级编码相结合(FGST),即对B帧中的DCT系数都使用位平面编码技术,因而FGST不仅保持了FGS的精细粒度特性,而且支持帧频的变化。FGS允许编码和传输分离,这使得服务器可以在一定的范围内以任意速率传输增强层码流而不需要进行码流切换。
然而FGS也存在着致命的弱点,其编码效率太低,在同等码率下FGS的质量要比MPEG-4中的非分级编码低2~3dB[6]。对比可知,SNR可分级编码和FGS编码是两个极端,SNR分级编码保证了编码效率,但对误码极为敏感,而FGS保证了对错误的恢复能力,它可以从前一帧增强层的任何错误中恢复过来,但视频质量偏低。为了在编码效率和错误恢复能力之间取得平衡,很多改进的方法[4]被提出来:
4.1 渐进的精细粒度可分级编码(PFGS)
与FGS类似,PFGS将视频编码为两层:一个基本层和嵌入式的多个增强层。与FGS不同的是,PFGS在对增强层编码时,不是一直把基本层作为预测的参考层,而是把几个质量更高的增强层作为参考层。如图2所示。
4.2 MC-FGS
PFGS使用的参考帧比较多,因而使用的缓存也相应扩大,多个参考帧中只有少部分是有用的,因此,可以考虑选择最少的参考帧进行预测将大大提高编码效率。基于这种考虑,MC-FGS对FGS的增强层编码中引入运动补偿技术,充分利用时间相关性。MC-FGS有两种:1)只针对B帧的双循环MC-FGS,增强层差值并不只是原始图像减去恢复的基本层图像,而是还要用到增强层参考图像与运动补偿后的差值。只对B帧做运动补偿避免了I、P帧受到错误传播的影响,且在保持FGS框架的前提下提高了视频质量;2)整个帧是基于基本层和增强层进行预测的,从而改变了基本层的性能,尽管基本层编码在运动补偿循环中采用了增强层的信息,但基本层的编码解码过程是不变的。增强层仍采用FGS编码。这种方法引入了扩展基本层的概念,主要是指基本层集成了部分增强层的信息,当码率下降到扩展基本层不能完全传输时,被截断的基本层数据将会受到误码的影响,一直要到下一个I帧出现才会停止。为减少错误传播的影响,还可以只对B帧采用上述结构,这样可以使得错误不会影响到I、P帧。
4.3 ALL FGS
FGS框架中包括了SNR分级,时域分级以及二者结合的可分级方式。但是在当前的FGS框架中没有空域分级。Philip公司利用了FGS的灵活特性,将其扩展到空域分级。他们提出了两种方案:首先对原始信号下采样得到低分辨率的信号,再对采样得到的信号用FGS编码;另外是在高分辨率帧中进行运动补偿以提高编码效率。这种空域分级也能很好地跟具有时域分级特性的FGS相结合,从而构成ALL FGS[4]。
5 总结
H.264可分级视频编码尤其是其中的FGS编码技术有着很好的应用前景,在具有较大噪声干扰的信道,易丢包的信道,网络带宽经常变化的信道和异构网络中进行视频通信中尤为重要,如无线网络或IP网络传输视频流,网上直播,移动电子商务等等。
参考文献
[1]wiegand T,Sullivan G J,Schwarz H,et al.Joint Draft11of SVC Amendment,Joint Video Team,Doc.JVT-X021,July.2007.
[2]何书前,张学平.一种高效率的快速块匹配运动估计算法[J].计算机工程与应用,2006(32):27-30.
[3]何书前.H.264预测编码关键技术的研究分析[J].海南师范学院学报,2006,3(19):229-233.
[4]陈丹,罗忠,何华灿.精细粒度分层编码技术综述[J].小型微型计算机系统,2002,23(8):1018-1021.
[5]Li W.Fine granularity scalability in MPEG-4for streaming video[C].Geneva:IEEE international symposium on Circuits and Systems,May,2000(1):299-302.
视频编码技术 篇4
【关键词】线性网络编码;网络编码
【中图分类号】TN919.3+1【文献标识码】A【文章编号】1672-5158(2013)07-0096-01
1、引言
网络编码是一种基于网络本身而诞生的编码技术,这种技术出现的初衷是为了解决日益拥堵的互联网流通问题。人类信息时代的开启,使互联网成为改变人类社会最积极的动力之一。但互联网的使用和发展受到客观环境的限制,包括硬件和软件在内的客观工具的完备与否,都决定了互联网能在多大程度上发挥作用。自本世纪初开始,陆续有学者提出了网络编码的理念,希望通过网络编码的方式解决互联网拥堵的问题,提高互联网使用效率。这一概念的提出,立刻引起诸多学者和科研机构的高度关注。目前通过网络编码技术解决互联网拥堵问题已经成为国内外学界的共识,国外多所著名大学或是科研机构都已展开了网络编码的开拓性研究,如MIT、哈佛大学、多伦多大学和微软实验室等。
2、网络编码研究现状
早在上世纪五十年代,就有学者提出,通信网络端对端的最大信息流是由网络有向图的最小分割决定的,但传统路由器的存储转发模式难以达到最大流最小分割定理的上界。根据传统的理论,网络节点只是对收到的信息进行存储和转发,扮演着转发器的角色,但是从信息理论的观点来说,没有理由让节点只能进行存储转发,可以让节点对多条输入边上收到的信息进行一定的线性或非线性操作(编码),然后再发送出去,这样起着编码器的作用,网络编码正是由此思想产生的,在接收节点上,通过一定的运算,译出信源所发的信息。
本世纪初,学者R.Ahlswdee 等人发表的一篇名为“网络信息流”的文章中提出了网络编码的概念,作者提出,对于已知的网络流图,从发点到收点的流量的最大值小于或等于任何一个割切的容量,而网络编码提出了一个组播传输,信源为S,接收节点集合为无穷,那么可达最高组播速率C。而如果采用传统传输方法,可能无法达到最高组播速率。事实上,近年来对于网络编码的实证性研究也充分证明了这一点,这也从另一个方面佐证了网络编码在客观上的可行性。此外,在R Ahlswede 等人提出网络编码这一概念不久,又有学者证明了目前的网络编码技术已经能够达到网络组播的条件,同时,还用实验证明了存在着基于网络特性的组播方式的线性网络编码。随后的研究深入到了随机网络编码的研究中,Medard等人曾提出如拓展网络编码使用范围的想法,并通过代数计算框架给出了可行的路径。而随机网络编码的出现则更将非线性研究和网络编码研究融为一体,提高了网络编码研究的理论深度[1]。
目前,对网络编码的研究主要以国外的科研机构和大学研究机构为主导,其研究领域已经足够深入,研究框架得到了初步的建立,国内对于网络编码的研究尚处于起步阶段,在实际运用中也不是很多。
3 、基于线性网络编码技术的网络编码研究
网络编码之所以得到众多学者和科研机构的高度关注,不仅在于其手段和理念上的程度比较新,更体现在其独特的功用上。一般来说,通过网络编码技术,科研使组播传输速率达到最大,从而拓展了网络容量的上限,这对于目前拥堵的互联网通道而言是极为重要的;其次,它还可以节省网络带宽资源消耗,正是通过线性编码技术,提高了网络节点的使用效率和功用,减少了网络资源的消耗;另外,网络编码技术还能均衡网络负载,平衡繁忙的网络线路与相对宽 松的网络线路之间的差异,提高网络的鲁棒性。
3.1 网络编码的分类
网络编码可以分为线性网络编码和非线性网络编码两种,前者是研究的重心。在组播和非组播网络传播体系中,网络编码也有不错的应用。组播传输技术指在发送者和每一接收者之间实现点对多点网络连接,如果一个发送者同时给多个的接收者传输相同的数据,也只需复制一份的相同数据包,它提高了数据传送效率,网络编码与组播传输技术的综合,减少了骨干网络出现拥塞的可能性。目前,在组播网络传输中使用的网络编码技术一般有代数构造方式和多项式时间算法两种处理方法,在实际运算中我们需要根据实际情况而定[2]。
3.2 基于现行网络编码技术的网络编码
(1)线性网络编码原理
网络编码技术看似复杂,其原理其实不难,以线性网络编码的编码译码原理为例,其基本思想就是在编码时根据每个节点的每个相邻链路对的局部编码标量,得到每个节点的局部编码矩阵,将局部编码标量和局部编码矩阵的线性组合,得到关于每条链路的全局编码向量,在此基础上,得到实行网络编码后各条连接线路的具体编码信息。在译码时,需要考虑的是译码矩阵,这需要将所有节点受到的全部信息加衣汇总,并对信息进行分析处理,从而译出信源节点所存储和收发的全部信息。综上所述,线性编码的思路其实还是比较简洁的,一般只要确定了局部编译矩阵,便可以确定全局编码向量,然后通过对破译矩阵的运用,剖析信源节点发出的信息,从而实现网络通信中信息的收发。线性网络编码技术提高了网络运行的安全性,提高了网络的总体容量,具有较高的可行性。
(2)网络编码的线性多播性质
在向量空间的一组元素,如果其中没有向量可表示成有限个其他向量的线性组合,则称为线性无关,反之称为线性相关。有向无环网络中,对于任何非信源节点T,输入链路为n,均存在由其所有输入链路d的全局编码向量fS*1集合组成的向量空间vs*n。若n≥s,则vs*n秩的最大值为s。已知全局编码向量均是从s个标准基的线性组合的,所以,向量空间vs*n的每个列向量均是s个标准基的线性组合,所以vs*n的秩为s。在有向无环网络中,对于非信源节点T,当其最大数据流大于等于网络信息输入信息量时,其所有输入链路全局编码向量所生成的向量空间的秩为网络输入信息量,即向量空间中线性无关的全局编码向量的个数为网络信息输入量。
4、结束语
网络编码是近年来兴起的一个新的研究领域,由于其在解决网络拥堵,克服传统网络传输模式方面具有较高的优越性,正在引起人们越来越多的重视。但随着对网络编码研究的深入,一些问题也随着浮出水面,需要得到重视并有待进一步解决。其中包括了网络编码在传输速率、负载消耗、负载均衡、鲁棒性等方面带来的收益需要进行更加深入的研究,而且网络编码需要网络路由器具有编码功能,且现有路由算法、传输协议等需要改变和更新;此外,基于网络编码的差错控制是一种新的差错控制思想,可以为将来的研究提供更多的借鉴。在可以预见的将来,网络编码必然是一种能得到广泛应用与推广的互联网革新力量,将会对整个网络世界的发展产生深远的影响。
参考文献
[1] 吴艳,杨有龙,刘三阳.基于网络流矩阵求解网络最大流[J].系统工程,2007
小波可分级视频编码技术综述 篇5
为适应复杂多变的异构环境,视频编码引入了可分级编码的概念,可分级视频编码(Scalable Video Coding,SVC)可以使视频流较好地适应各种不同的网络环境和用户终端,并具有一定的容错性和可分级性。但在现有的视频编码标准中,采用的都是基于运动补偿的分块离散余弦变换(Discrete Cosine Transform,DCT)编码技术,其运动预测环路中的递归结构,易在编解码器间产生漂移,使得解码后的视频图像具有明显的块效应和飞蚊噪声,降低了编解码器的性能。基于运动补偿时域滤波技术和小波变换的可分级编码方案采用了开环结构并克服了块效应,其较好的可分级能力,受到广泛关注[1]。
2 小波图像编码
目前小波已经在二维图像压缩中显示了优势,并且正在被越来越多地运用于三维图像压缩。小波在图像编码问题中之所以有吸引力,是因为解码器对收到的码流进行图像重构时,有较好的率失真性能,并具有以下良好的特性[2]:1)信号能量大多分布在低分辨力的子带上,因为大部分图像本质上都是低通的;2)高频子带上的系数大都为零;3)小值或者零值的系数(即不重要的系数)聚集在一个给定的子带上;4)在一个子带上的不重要系数串和相同方向的下一高分辨率子带上的相似串有相同的相关位置。
小波图像编码的基本思路是,经过离散小波变换(Discrete Wavelet Transform,DWT)之后,系数值是由符号和幅度构成,且分别对符号和幅度进行编码。当所有系数的幅度值的大多数重要的比特被编码时,系数的幅度通过比特面编码(bitplane coding)逐步近似得到。而比特面编码由两个编码通道实现———有效值通道和精细值通道。本质上,有效值通道描述的是在离散小波变换中,对所有系数保持非零比特的第一比特面;而精细值通道是在最重要的非零系数编码后,产生对每个系数的连续逼近。有效值通道是通过对系数的有效值映射(significance map)进行连续的编码,其系数是偏离阈值较远的;基于小波的编码器之间的主要区别就是在于怎样执行有效值映射编码[2],根据执行的策略不同,可以分为零树(Zerotrees)、集合分裂(Set partitioning)、条件编码(Conditional coding)等3种编码策略,如表1所示[2]。
1993年,J.M.Shapiro提出的嵌入式零树小波(Embedded Zerotree Wavelet,EZW)算法[3],是小波视频编码中最经典的算法。EZW利用小波图像中各级子带间的相似性,对系数按重要性进行排序,然后对系数进行逐级量化,最终得到按系数重要性排序的比特流。1996年,A.Said与Pearlman提出的集合分裂零树(Set Partitioning In Hierarchical Trees,SPIHT)算法[8],也是基于树的结构的算法,而且其效率要优于零树编码算法,是对零树编码的更一般化的表述,并且被认为是目前效率较高的算法之一。SPIHT算法不仅采用了树的结构,还提出了集合的概念,把两者结合起来对小波系数进行描述,并根据其重要性进行标记。若一棵树里的每个系数都是不重要的,则这颗树的集合就用一个比特表示;若有重要系数,则对构成这棵树的小波系数所形成的集合进行划分,划分成几个单独的系数和一个子集合,进行反复判断直到不再有集合,编码结束。它更加合理地利用了小波分解后的多分辨率特性,即使不采用算术编码器进行熵编码,编码效率仍然很高。
1999年,A.Islam和W.A.Pearlman提出了集合分裂嵌入块(Set Partitioning Embedded Block Coder,SPECK)算法[5]。EZW算法和SPIHT算法主要是利用树结构来表示不重要系数的,但没有充分利用同一子带中不重要系数的相关性。SPECK利用零树和方向树结构表示这些不重要系数,可以充分利用同一子带中不重要系数的相关性,消除块间冗余。SPECK算法是继EZW算法、SPIHT算法后性能更好、速度更快的一种图像压缩算法。SPECK算法采用易于计算和并行处理的块结构,提高了编码速度;动态存储需求小,有较强的容错性;因为块间独立编码,传输错误时只影响误码所在块[9]。
另一种利用子带内部相邻节点之间关系的编码策略扩张了条件编码策略,即使用基于上下文模型的块编码。Taubman在2000年提出了优化截断点的嵌入块编码(Embedded Block Coding with Optimized Truncation,E-BCOT)算法[10],同时提出了一种被称为压缩后率失真(post-compression rate-distortion,PCRD)的优化算法。EBCOT产生的码流具有分辨率可分级性、SNR可分级性、支持随机访问处理等特性;另外,由于EBCOT码流采用的是独立分块编码方法,所以其抗误码能力强[11]。因此EBCOT最终成为新一代静止图像压缩标准JPEG2000的核心算法。
传统小波变换采用的是卷积运算方法,过程复杂,运算量大,实时性差,不利于硬件实现,且不能对所有尺寸图像进行变换,因此在JPEG2000中采用了小波提升算法[12],该算法不仅具有原来小波变换的优点,还可以实现更快速的小波变换算法;可以实现完全的同址运算;正变换和反变换仅有正负号的区别;描述非常简单,可以避免使用傅立叶变换。
3 小波视频编码
目前基于小波的视频编码技术还不像图像编码技术那么成熟,也没有形成相应的标准,很多问题还有待于进一步研究。虽然由基于块的运动估计(Motion Estimation,ME)和运动补偿(Motion Compensation,MC)在离散余弦变换(DCT)之后的反馈回路的传统视频结构仍然广泛使用在现代视频压缩系统中,但小波视频编码技术仍然受到广泛关注。从运动补偿的角度,可以分为两类,即基于传统运动估计与运动补偿(ME/MC)的小波视频编码方法和基于运动补偿时域滤波(Motion-Compensated Temporal Filtering,MCTF)技术的小波视频编码方法。同时从时间域处理的顺序来看,第一类方法,有ME/MC+2D-DWT和2D-DWT+ME/MC两种实现方式;第二类方法也可分为MCTF+2D-DWT和2D-DWT+MCTF两种实现方式。
3.1 基于ME/MC的小波视频编码技术
在视频中,相邻帧之间的一些变化是由场景内各物体的变化产生的,检测物体的运动参数,并通过运动参数从前一帧预测当前帧,这就是运动补偿预测,简称运动补偿,而其中最主要的就是检测物体的运动参数,即运动估计。ME/MC+2D-DWT方式,就是在传统的ME/MC反馈回路中使用离散小波变换,替换原来的DCT,即先采取空域ME/MC消除时间冗余,而后对运动估计预测残差帧进行小波变换,以去除空间冗余。该方案使用一个冗余变换以提供小波域的ME/MC处理的必要平移不变性,并使用重叠块运动补偿技术以降低块效应,改善视频编码器的性能[13];该方案和传统可分级编码相比,优势是可以提供空域可分级等多种可分级方式[14]。
而2D-DWT+ME/MC方式是先对视频帧进行二维小波变换,然后在小波变换域进行运动估计以去除时间冗余,最后再对运动估计预测残差进行编码。该方案的特点是,由于小波具有良好的多分辨率特点,很容易在小波变换域中进行多分辨率运动估计(Multi-resolution Motion Estimation,MRME),而同传统的时域运动估计方法相比,这种方案可以节省大量的搜索时间[14]。
3.2 基于MCTF方法的小波视频编码技术
传统的ME/MC反馈回路影响了视频编码器的可分级性能,目前基于开环回路(open-loop)的MCTF小波视频编码方法受到广泛关注。MCTF主要基于帧间小波变换和提升结构,在可分级视频编码系统中,MCTF是一个重要组成模块,它能有效地实现时间(帧速率)的可分级性。在一般的MCTF分解中,MCTF对若干连续的视频帧组成的GOP进行时域分解形成时域小波树,其中源视频帧通过时域滤波形成高频和低频帧,通过时域分解形成了两组正交视频子序列:低频子序列和高频子序列。如图1所示[2],是基于Haar的MCTF,描述的是三级时域分解。
大部分基于MCTF的编码器都是先对空域帧使用MCTF,其后再对每个时域子带进行二维DWT。这通常被称为帧间小波滤波编码系统,即“MCTF+2D-DWT”方案。帧间小波滤波编码步骤[15]:1)对一组连续图像进行时间维滤波;2)再对滤波后的数据进行空间二维小波分解;3)对变换后的小波系数进行熵编码。帧间小波滤波编码由于经过了时间维滤波,所以视频帧之间的关系是交互的,不存在单一关键帧的概念。
该方案的优点是对在运动图像中,各图像中包含的运动轨迹之间的冲突进行处理,以降低残差帧信号,提高编码效率。并且应用该方案小波编码技术所获得的编码质量和H.264编码器最优化编码效果非常接近;并且该方案可以提供码流的可分级性[16]。但是该方案中,若运动补偿是在不同分辨率下进行编解码,则会造成所谓的子采样相位漂移(sub sampling phase drift),且会降低运动补偿效率。
另一种基于MCTF的方法是先进行二维DWT,然后再在小波域帧中进行MCTF。这通常被称为小波子带预测编码系统,即“2D-DWT+MCTF”方案。小波子带预测编码主要步骤[17]:1)对每一帧图像进行二维空间小波变换;2)再对所得的各子带小波系数值进行帧间预测去处冗余;3)对变换后的小波系数进行熵编码。整个处理流程是分子带进行的,子带与子带之间互不影响。
该方案的优点是运动补偿是在各级小波子带中进行,使得小波本身多分辨率特点解决了MCTF+2D-DWT结构问题,使得空间可分级性能增强;并且该方案中的运动估计精度是自适应的,各个子带采用不同的运动估计块尺寸,对最低级的分辨率使用最粗糙的运动估计,反之则提高运动估计的精度[16]。但因为运动部分的系数模式在连续帧间是变化的,导致在严格采样细节子带中的运动估计是不可靠的;并且2D-DWT+MCTF方案比MCTF+2D-DWT的编码性能低,特别是在较高分辨率下[18]。
3.3 MPEG小波可分级视频编码模型
2004年10月,ISO/MPEG选择德国HHI(Heinrich Hertz Institute)图像通信小组提出的基于运动补偿时域滤波技术的H.264/MPEG-4 AVC可分级视频编码扩展方案[19]作为基础,开始制定新的可分级视频编码标准[20],2007年已完成该标准的草案工作。然而,基于传统技术改进的可分级视频编码方案目前还没有得到工业界的广泛认可,因此在对HHI方案测试完善的同时,ISO MPEG组织将小波可分级视频编码技术作为将来长期的目标来研究,并以微软亚洲研究院等研究机构和公司提出的方案为基础,建立了小波可分级视频编码参考模型和参考软件[1],对小波可分级视频编码技术进行更加深入的研究。
MPEG WSVC参考模型(VidWav)如图2所示[18],其主要组件有:1)运动估计和编码(Motion Estimation and MV&Mode Coding):运动估计采用H.264/AVC的宏块分割模式,支持多种块结构的预测,运算精度能精确到1/4像素。对于运动模式、运动矢量及运动补偿中非连接块的标识采用H.264/AVC中的可变长编码方式;2)时域变换(Temporal Wavelet Decomposition):时域变换模型实现一个在提升结构中的帧方法运动补偿(或者运动排列(aligned))小波变换;3)空域变换(Pre(Post)-2D Spatia Wavelet Decomposition):这里允许实现MCTF+2D-DWT和2D-DWT+MCTF方案,但是不同的空域分解有着不同的编码效率;4)熵编码(Entropy Coding):在空域-时域模块之后,系数由三维EBCOT编码,每个空域-时域子带被分解为三维块分别独立进行编码。
4 小结与展望
由于传统的小波基不能同时具有正交性、正则性、高消失矩、紧支性和对称性等特性。此外,DWT还有变化敏感、方向性差、没有相空间信息,运算复杂,数据冗余多等缺陷。研究人员也提出了许多对小波视频编码的改进方法,如文献[21]提出了基于冗余离散小波变换(RDWT)平移不变特性的LBS(Low-Band-Shift)方法,该方法利用参考帧的RDWT多相位子带提高运动补偿的效率,使小波域中的运动补偿效率得到了较大的提高。再如复数双树离散小波变换(dual-tree discrete wavelet transform,DDWT)形式下的MCTF方法。三维条件下,DDWT是一种冗余变换,产生4倍于离散小波变换的子带数量,每个子带位于不同的时空方向上。当应用于视频信号时,这些定位能帮助运动到不同方向的图像特征孤立起来,提供固有的运动选择性。Geronimo等人应用分形插值的方法构造出著名的GHM多小波[22],这种多小波能同时兼顾正交性、正则性、高消失矩、紧支性和对称性等特性。多小波变换理论的提出,为视频可分级编码方案提供了一种新的思路。研究人员已提出将多小波变换与多描述编码技术、多分辨率运动估计及快速运动估计技术相结合,应用于可分级视频编码[23,24];文献[25]则对三维多小波视频编码技术进行了分析。
笔者等人提出了一种基于MCTF的多小波视频编码方案,取得了较好的编码效果[26,27]。但在研究过程中,发现多小波变换虽然具有很多优势,但其运算复杂度较高,从而制约了多小波的推广应用;如何构造适合于视频图像编码的多小波的提升算法,降低复杂度是一个亟待解决的问题;针对现有多小波变换编码无法有效地逼近(刻画)图像或视频中多方向信息的缺陷,如何构建一种新的自适应方向多小波变换框架是一个值得深入研究的问题;如何将多小波变换与其他优秀的嵌入式编码算法结合,寻找一种更优的多小波嵌入式图像编码算法;为了满足工业化的需要,对多小波的视频图像编码算法进行优化使其易于硬件的实现,这也是有待进一步研究的关键问题。
摘要:主要对小波图像视频可分级编码方法进行了分析和评述,并探讨了目前小波可分级视频编码技术的研究热点和今后的发展方向。
视频编码技术 篇6
1 对高清数字电视视频压缩编码的概述
在对高清数字电视视频压缩编码色度采样为例进行概括, 我们对高清数字电视视频压缩编码技术有效研究的目的是更新视频压缩标准, 用新的压缩标准来满足宽带传输高标准要求, 这样可以提高数字电视画面的分辨率。我们在平时用电视在接收4K信号图像的时候, 这个时候我们电视接收到的这个信号图像, 它的用一个原始数据率, 通过原始数据率我们可以归总出来一个结果:2.78Gbit/s。假如我们接收到一个8K的图像信号, 它相应的也应该有一个原始数据率, 这个原始数据率是11Gbit/s, 我们在运用传统的视频压缩标准的时候, 在一定程度上我们用H.264的形式对4K进行模式图像, 然后对其开始压缩, 在对4K图像进行压缩的时候, 它的压缩量会变小。这样的话就不能满足视频图像处理要求, 但是这种压缩方式对宽带传输有很大的要求。降低宽带传输时的限制要求, 世界研究人员经过精心的研究, 研究出了HEVC技术, 它是从264/AVC新一代视频编码技术, 它的主要功能是在对其压缩的时候, 这样电视会给电视一个很好的视频压缩效率, 它与原来的视频图像压缩效果相比不仅性能提高了, 而提高了一倍。所以, 它在领先于其他编码技术的同时, 也在高清电视压缩技术上取代了传统视频编码技术。
2 电视压缩编码技术
2.1 HEVC编码结构技术
电视编码技术主要是HEVC编码技术, 它采用的是H.264中的编码框架, HEVC编码采用H264的同时在内容结构上也运用先进的技术得到了更新, 让他在性能上更具有应变度。有关人士通过研究, 在HEVC编码技术的基础上通过精心研究, 发明了新型的, 在新能上更具优势的超大尺寸的编码结构, 该编码还加入了三种不同的结构方式, 并且还运用这三种方式来进行有效的分隔、编码, 这样做的好处是很大程度上保障了的编码压缩后的效果。还有就是HEVC编码技术在结构上要比H.264编码结构很大程度上大很多。有了HEVC编码结构, HEVC编码结构中的CU代表的是编码单元, CU的内部结构方式和整体上的结构是相同的, 在整个CU编码中, 最大的CU是64×64, 最小的CU甚至可以达到8×8。这就说明了划分出的CU单元它的形状应该都是正方形。TU的作用和CU相关, 它的功能是是对预测CU。TU在预测CU时, TU单元的大小要小于CU的大小, 在划分中可以成为任何形状, 完全不受限制。
2.2 帧内预测编码技术
HEVC不单单是只有压缩编码的功能, 它还有帧内预测编码的技术, 就是可以对高清电视视频进行编码。它的这种功能, 也是在H.264编码技术的基础上发展出来的。在HEVC帧内预测编码技术中, 在HEVC编码中, 预测单元的PU大小是不相同的, 他们的分布分别在一个规中规矩的位置。但是在实际预测的过程中, HEVC对大小不同的PU提供出了相应的非方向性预测方法, 并且它还为此提供了多方向性帧内预测的有效方法, 很好的为PU预测单元操作成功提供了有利条件。
2.3 编码环路滤波技术
提到环路滤波技术, 我们就必须要提到SAO了。SAO在类型方面有两种类型:一种是带状补偿;另一种是边缘补偿。边缘补偿是把一种像素和它旁边的像素, 两者充分的进行优势对比, 完成之后, 要把像素分类标识的方法进行合理的分类。解码的过程应该根据对应的分类标识有效的补偿。各个模板只对相邻的像素产生相比较现象, 因此在实际操作的时候非常简单。LCU能够在一定环境下进入独立解码状态, 在顶行和底行的LCU像素一般不对模板进行有效处理;根据这个现象我们可以看出, 任何一个LCU的左右两列, 它们的像素也不对模板进行信息处理工作。一般重建图像很容易在一定环境下失真, 为了避免这种失真现象进一步发生, 科技人员用HEVC引入了一项自适应环路滤波器技术。这种技术是采用了一种叫树形的自适应环路滤波器, 科技人员采用这种形式的滤波器主要是为了防止编码图像产生噪声。自适应环路滤波器对于亮度分量来说, 滤波器在形状上是以点对称的二维滤波器;在色度分量上, 滤波器形状又变为一个正方形点对称矩形二维滤波器。
3 结语
高清数字电视在技术已经发展到领先地位, 在短时期内不会有更新的产品, 但是IVIPEG2在数字电视上还会起很长时间的作用。高清数字电视内部结构标准有很大的开放性, 所以它有非常广泛的应用, 在高清数字电视方面有很大的竞争力。它在很长一段时间内不管是在多媒体领域还是在移动视频领域都会有个一很好的前景。
参考文献
[1]王玉柱.浅析超高清数字电视视频压缩编码技术[J].黑龙江科技信息, 2014, (4) :17.
[2]李强, 贺晓华.数字电视视频压缩标准[J].湖南人文科技学院学报, 2006, (3) :82.
高性能视频帧内编码技术研究 篇7
1 高性能视频编码技术的现状
随着人们通信量的增多,图像信息的存储和传递产生了一定的矛盾,而视频编码技术正好能够解决这一问题。
视频编码技术是根据视频数据和人类的视觉系统而来,将比较引人注意的信息进行保存,忽略一些多于的信息并将其进行压缩,有利于存储和传递。视频编码技术主要利用视频自身的统计性特征和人体眼部的视觉特征,并通过空间区域和时间区域等方法来除去信息的多余部分,从而在质量上达到主观需求,存在有限的失真比例。由于视频编码技术存在一定的失真度,所以需要对压缩后的信息进行评价,其评价方法主要有主观和客观之分。由于很多拍摄的信息不能根据标准的数学模型进行区分,所以需要主观进行评价。主观评价指的是运用人的视觉进行观察,评价出来的结构一般会符合人类视觉特征。对于制作出来的图像质量主要划分为5个等级,分别为较好、好、一般、差和较差。客观评价指的是运用某些算法来对制作出来的图像进行评价,这种评价方法依据一定的评价标准进行。
视频编码技术在提高视频编码效率方面占据十分重要的地位,国内外对于一些技术在相关领域的研究也十分普遍。预测和变换技术是编码技术中十分重要的部分。预测技术能够根据图像自身的纹理特征进行十分灵活的适应,并达到更加标准的预测效果,且其具有更强的压缩性能。变换技术能够对多种帧内的模式进行相应的变换,能够很好的去除相关性能。但是,因为变换模式变化多样,所以其对于不同的图像不具备自适应性。
2 高性能视频帧内编码技术研究
在视频传输过程中由于视频占据的数据空间较大就必须要对其进行压缩,以此来降低传输宽带的使用率;同时,让储存空间得到释放,这样便能够从一定幅度上增强视频传输的稳定性。在进行视频压缩的过程中视频压缩编码是其中较为重要的环节,也是保证视频质量的关键之所在。以预测法为例,其实现基础是视频之间的相关性,在实际预测过程中并不需要对像素进行用预测,由于从重构像素与原像素间会具有一定的差值,以此差值作为参考便可以实现“预测”。由差值得到的信号较实际信号而言占用空间较小,这也就实现可视频信号的压缩。另外,在这个过程中帧内编码技术无疑也是核心技术之一,采用该技术可以让信号误码得到有效控制从而增强信号的准确性。
由于高分辨率的视频中的空间的相关性进行了一定程度上的提高,导致高效的帧内预测对于提高整个视频的编码效率有很大的作用。目前,很多国内预测的改进算法已经对帧内预算编码技术产生一定的积极作用。
亚像素帧内预测主要是根据帧间运动的时候,使用亚像素运动可以对帧间预算的准确性得到一定程度的提高的原理,认为使用临近的亚像素来进行相关的帧内预测,相对整个像素来说具有更强的空间相关性。帧内预测的相关模式组合起来有很多种,BIP模式就有36种。在进行帧内编码的时候,如果对所有的模式进行思考以选择最佳的模式,会在很大程度上增加编码的复杂度,而浪费不必要的时间和资金。针对这种情况,选择一些使用频率较高的模式进行组合,组成了7种模式,大大减少相关的工作量。这7种模式的组合是为了减少编码技术工作的繁杂程序,在提高视频帧内编码技术质量的同时,能够节约一定的工作时间,具体的名称和代码参照表1。
3 结语
视频编码技术在提高清晰度和达到更优质的编码性能等方面已经取得了十分显著效果,在近年来的使用中,不断得到技术方面的改进,对视频的压缩等方面有十分显著的作用。目前,高性能的视频帧内编码技术取得了十分显著的成绩,能够十分有效并高质量的完成视频的编码,帮助视频和图像等资源在存储和传送的过程中更加便利而高速。本文对高性能视频帧内编码技术进行了全面的分析,为帧内编码技术在相关领域的研究和应用提供借鉴。
参考文献
[1]刘达.基于双参考帧运动补偿的视频编码研究[D].哈尔滨:哈尔滨工业大学,2010.
视频编码技术 篇8
关键词:高清数字,电视视频,压缩编码
随着人们对精神生活的要求不断提高,电视产品不断更新换代。高清数字电视具有较高的分辨率,能满足用户对画质的要求,丰富了人们的精神生活。视频压缩编码技术则在高清数字电视中具有重要作用,下面对此加以研究,旨在提高压缩效率及质量。
1 高清数字电视视频压缩编码的概述
本文以高清数字电视视频压缩编码色度为4:2:0的色度为例,对高清数字电视视频压缩编码技术有效研究的目的是更新视频压缩标准。用新的压缩标准来满足宽带传输高标准要求,可以提高数字电视画面的分辨率。平时用电视在接收4K信号图像时,所接收到的信号图像,用的是一个原始数据率即2.78Gbit/s。假如接收到一个8K的图像信号,相应的也应有一个原始数据率是11Gbit/s。在运用传统的视频压缩标准时,采用H.264的形式对4K进行模式图像,然后对其开始压缩。在对4K图像进行压缩时,压缩量会变小,不能满足视频图像处理要求,但这种压缩方式对宽带传输有很大的要求。降低宽带传输时的限制要求,已有研究人员对其加以研究表明HEVC技术是从264/AVC新一代视频编码技术,主要功能是在对其压缩时,会提供一个较好的视频压缩效率,与原来的视频图像压缩效果相比使性能提高了一倍。因此,在领先于其他编码技术的同时,也在高清电视压缩技术上取代了传统视频编码技术。
2 电视视频压缩编码技术
2.1 HEVC编码结构技术
电视编码技术主要是HEVC编码技术,采用的是H.264中的编码框架。HEVC编码采用H264的同时,在内容结构上也运用了先进的技术,使其在性能上更具有应变度。已有学者在HEVC编码技术的基础上研究发明了在新能上更具优势的超大尺寸的编码结构,该编码还加入了三种不同的结构方式,即CU、PU、TU,来进行有效的分隔、编码,保障了编码压缩后的效果。HEVC编码技术在结构上要比H.264编码结构大很多。在HEVC编码结构中CU代表的是编码单元,CU的内部结构方式和整体上的结构是相同的,同样采用四叉树递归方式加以划分,最小块的CU为8×8,最大块的CU是64×64,说明划分出的CU单元的形状应该都是正方形。TU的作用和CU相关,其功能是预测CU。TU在预测CU时,TU单元的大小要小于CU的大小,在划分中可以成为任何形状,完全不受限制。较为常用的TU划分方法主要有不对称或对称分割,其形状可以为长方形,也可以为正方形。
2.2 帧内预测编码技术
HEVC不单单是只有压缩编码的功能,还有帧内预测编码的技术,可以对高清电视视频进行编码。它的这种功能,也是在H.264编码技术的基础上发展出来的。在HEVC帧内预测编码技术中,预测单元的PU大小不同,且分布位置中规中矩。但在实际预测的过程中,HEVC对大小不同的PU提供出了相应的非方向性预测方法,且为此提供了多方向性帧内预测的有效方法,为PU预测单元操作成功提供了有利条件。
2.3 编码环路滤波技术
提到环路滤波技术,就必须提到SAO。SAO在类型方面有两种类型:一种是带状补偿,另一种是边缘补偿。边缘补偿是把一种像素和它旁边的像素,两者充分的进行优势对比,完成之后,要把像素分类标识的方法进行合理的分类。解码的过程应根据对应的分类标识有效的补偿。各个模板只对相邻的像素产生相比较现象,所以实际操作时非常简单。LCU能够在一定环境下进入独立解码状态,在顶行和底行的LCU像素一般不对模板进行有效处理;根据这个现象可看出,任何一个LCU的左右两列,其像素也不对模板进行信息处理工作。目前,HEVC主要有像素与区域的ALF分类方法。一般重建图像很容易在一定环境下失真,为了避免这种失真现象的发生,科技人员可采用HEVC引入自适应环路滤波器技术。这种技术是采用了一种叫树形的自适应环路滤波器,科技人员采用这种形式的滤波器主要是为了防止编码图像产生噪声。自适应环路滤波器对于亮度分量来说,滤波器在形状上是以点对称的二维滤波器;在色度分量上,滤波器形状又变为一个正方形点对称矩形二维FER滤波器。
3 结语
总之,随着科学技术不断发展,视频压缩编码技术也在不断进步。当前,国际间加强了合作交流,新的研究成果已逐渐得到应用。在今后一段时期内,在高清数字电视中仍具有较大作用。当然,在今后一段时间内,还应不断创新,研究出更好的视频压缩编码技术,提高电视视频质量。
参考文献
[1]阮若林,胡瑞敏.数字视频压缩编码技术标准现状与展望[J].电视技术,2014,38(3):7-11.
视频编码技术 篇9
关键词:H.265,四叉树编码,环路滤波
1 前言
随着互联网时代的来临, 人民群众对视频业务清晰度的要求也越来越高, 高清、4K等已经成为当前视频业务的主流发展方向。视频清晰度的提升带来了数据量的大幅增长, 而现有的编码标准 (如H.264、MPEG-2等) 的数据压缩能力却难以同步增长, 高清、超高清视频业务给广电和互联网的传输带来了越来越大的压力。在此背景下, 市场呼吁一种新的能够提供更高压缩比例的视频编码技术, 以应对当前视频业务的发展, H.265视频编码标准应运而生。
2 H.265的发展历程
ITU与ISO/IEC是当今世界上制定视频编码标准的两大组织, ITU制定的标准包括H.261、H.263、H.264, 主要应用于实时视频通信领域, 如会议电视;MPEG系列标准是由ISO/IEC制定的, 主要应用于视频存储 (DVD) 、广播电视、互联网或无线网上的流媒体等。
这两大组织并非完全相互独立, 在2001年第四季度, 由来自ISO/IEC组织的MPEG小组以及来自ITU组织的VCEG小组共同发起成立了JVT (联合视频编码组) , 致力于新一代数字视频压缩标准的制定。JVT小组在2003年第二季度发布了统一的视频编码标准, 即H.264/AVC标准。
在H.264的应用范围不断扩展之时, ITU开始对视频编码技术提出了更为长远的设想, 并开始规划推出新一代的视频编码标准H.265。2010年, ITU和ISO/IEC共同成立了JCT-VC (视频编码联合小组) , 正式将H.265标准制定提上了日程。根据JCT-VC的规划, H.265标准主要面向高清、超高清视频的应用, 可同时支持从QVGA到1080P, 甚至4K (3840×2160) 和8K (7680×4320) 的不同级别的视频应用。H.265的核心目标在于:在H.264的基础上, 数据压缩的效率再提高一倍, 即在保证视频图像质量相同的前提下, 视频传输占用的带宽减少一半。
3 H.265的关键技术
H.265标准沿用了和H.264类似的混合编码框架, 但是在此基础上, H.265进行了大量的技术改进, 其中比较有代表性的包括:基于大尺寸四叉树编码结构、多角度帧内预测技术、运动估计融合技术、自适应运动矢量预测补偿技术、环路滤波、熵编码技术。
3.1 四叉树编码结构
此编码结构使用了CU (编码单元) 、PU (预测单元) 和TU (变换单元) 三个概念来描述整个编码过程。
其中, CU是H.265编码的基本单元, 相当于H.264编码中的宏块或子宏块。CU支持的可变范围为128×128至8×8, 相较于H.264, 宏块类型有所增加, 同时宏块的大小也相应地扩大了。图像首先以最大编码单元 (如128×128块) 为单位进行编码, 然后根据需要可对最大编码单元按照四叉树结构进一步划分子块, 直至成为最小编码单元 (如8×8块) 。在实际编码过程中, 可对图像细节不多的区域划分大而少的CU, 那么编码后的数据则较少;而细节多的地方划分较小而多的CU, 那么编码后的数据则较多, 这样就对图像进行了有重点的编码, 提高了编码效率。
PU是H.265标准中进行预测的基本单元, 对于每个CU, H.265编码均使用PU来实现其预测过程, PU尺寸由其所属的CU单元大小所决定。
H.265标准TU为基本单元进行变换和量化, 变换同样采用四叉树型的变换结构。图1为CU、TU的四叉树结构关系图示例, 其中虚线为TU四叉树分割, 实线为CU四叉树分割, 编号为各CU的编码顺序。
CP、PU、TU这三个单元的分离, 使得变换、预测和编码各个环节更加灵活, 也有利于各个单元更优化地完成各自的功能。
3.2 多角度帧内预测技术
相比于H.264, H.265将帧内预测的预测方向进行了扩展, 增加了帧内预测的精细度, 目前可支持35个不同的帧内预测模式, 包括DC模式、Planar模式和33个方向的模式。
3.3 运动估计融合技术
H.265将以往运动估计的跳过预测模式和直接预测模式进行了整合, 形成融合模式。采用此模式时, 当前PU块的运动信息 (如运动矢量、参考索引、预测模式) 可通过相邻PU块的运动信息推导得到, 那么在编码时, 则只需要传送当前PU块的融合标记 (Merge Flag) 和融合索引 (Merge Index) 即可, 而无需传送其运动信息, 从而有效地减少了数据量。
3.4 自适应运动矢量预测技术
自适应运动矢量预测技术通过空域相邻PU以及时域相邻PU的运动矢量信息构造出一个预测运动矢量候选列表, PU遍历运动矢量候选列表选择最佳的预测运动矢量。利用自适应运动矢量预测技术可充分发掘图像的时域相关性和空域相关性, 提高编码效率。
3.5 环路滤波
H.265环路滤波过程共包含三个环节。
(1) 去块滤波
H.265标准的去块滤波技术, 以H.264的去块滤波技术为基础, 取消了对4×4块的去块滤波, 降低了系统的复杂度。
(2) 采样点自适应补偿
这是H.265标准采用的新技术, 应用在去块滤波之后, 主要通过对重现图像的分类, 根据其类别对图像像素值分别进行补偿, 以达到减少重构图像与原图像之间失真的目的。
(3) 自适应环路滤波
这也是H.265标准采用的新技术, 应用在去块滤波和采样点自适应补偿之后。自适应环路滤波技术采用二维维纳滤波器, 滤波系数根据局部特性进行自适应计算获得, 通过滤波实现重构图像与原图像之间的均方差最小, 以达到减小失真的目的。
3.6 熵编码技术
相较于H.264标准的熵编码采用串行处理的方式, H.265标准提供了两种并行处理方式的熵编码方案:用于低复杂度编码场合的可支持上下文自适应变长编码和用于高效编码场合的基于语法元素的上下文自适应二进制算术编码。通过采用并行处理方式的熵编码方案, 有效地降低了H.265解码器的功耗和硬件实现复杂度。
4 H.265的应用展望
虽然目前H.265标准尚未在视频行业实现规模化普及推广, 但是随着通信和广电网络的宽带IP化, 移动多媒体的互联网化以及高清、超高清视频的日益丰富, H.265标准必将在未来的诸多领域得到广泛应用。
参考文献
[1]SUZUKI Y, TAN T, CHIEN W, et al.Extension of uni-prediction sim plification in B slices.JCTVC-D421[R].[S.l.]:JCT-VC, 2011.
[2]SZE V, BUDAGAVI M.Parallelization of HHI_TRANSFORM_CODING.JCTVCC227[R].[S.l.]:JCT-VC, 2010.
[3]SZE V, BUDAGAVI M, CHANDRAKASAN A.Massively Parallel CABAC.ITU-T SGI6/Q.6VCEG-AL21[R].[S.l.]:JCT-VC, 2009.
[4]蔡晓霞, 崔岩松, 邓中亮, 常志峰.下一代视频编码标准关键技术.电视技术, 2012.
[5]宋春晓.H.265的关键压缩技术和应用展望.城市建设理论研究, 2013 (19) .