图像的拆分压缩

2024-06-19

图像的拆分压缩(共12篇)

图像的拆分压缩 篇1

Camera Link[1]是工业高速串口数据和连接协议,它由世界数码相机供应商和图像采集公司在2000年10月联合推出,旨在为数码相机和PC机间的高速、高精度数字传输提供一种标准连接。本设计就是基于Altera公司的StratixTMⅡ系列芯片中的FPGA EP2S30F484I5芯片和数码相机CV-A1OCL[2]设计的一个可以实时显示的图像传输系统。由于ADV202所能压缩的每幅图像最大样本数为1.048 M,即1 024×1 024分辨率的图像。对于本设计中的4 008×5 344分辨率的图像进行传输必须要对图像进行分割压缩,然后在接收端合并恢复出完整的图像。在本设计中,FPGA的作用是对通信的所有过程进行控制和对数据进行处理。

1 高分辨率图像拆分与合并传输原理

由于ADV202[3]所能压缩的每幅图像最大样本数为1.048 M,即1 024×1 024分辨率的图像。所以4 008×5 344分辨率的图像进行传输必须要对图像进行分割压缩,然后在接收端合并恢复出完整的图像。

按照ADV202的技术手册,在采用低压缩比对图像进行压缩时,在解压端可以不考虑图像拆分时的边界效应,直接对图像进行合并。但是在本项目中,必须支持8~80倍的图像压缩。而在80倍图像压缩时,还是会明显感觉出图像间的拼接效果,所以必须要考虑图像的边界效应。

针对以上分析,将4 008×5 344分辨率的图像水平方向拆分成4幅图,垂直方向拆分成6幅图,总共拆成24幅1 024×1 024分辨率的图像进行传输。拆分方法如图1所示。

为了解决图像间水平方向的边界效应,水平方向上每幅图都需要和相邻的图像有一定的图像数据冗余。在接收端,通过冗余的图像数据来覆盖掉边界图像。例如Pic1和Pic2为水平方向相邻的两幅图像,在它们之间引入水平方向24个像素的图像冗余。在接收端,将Pic1每行的最后12个像素点用Pic2的对应像素点替换,这样就可以消除图像间的水平边界效应。每幅图像水平方向的起始像素点和结束像素点如图1(a)所示。

同理,也可以在垂直方向采用相同的方法,每幅图像垂直方向的起始像素点和结束像素点如图1(b)所示。

采用以上方法就可以将4 008×5 344分辨率的图像拆分成如图1(c)所示的24幅具有冗余度的图像。

对于任意一幅图像Pic(x)(x∈[1,24]),其第i行(i∈[0,1 023])和第j列(j∈[0,1 023])像素点对应于原始4 008×5 344分辨率图像的第y个像素点,y值的计算符合式(1)。

其中4 008是水平方向的分辨率;864是每幅图像相对于其垂直方向上一幅图图像的偏移量;,是对(x-1)/4取整数部分,代表Pic所在的行号;n∈[0,5];Bm为每幅图像水平方向的偏移量,B0=0,B1=1 000,B2=1 984,B3=2 984;m=(x-1)/4,对(x-1)/4取余获得。

例如对于Pic(10)中第5行第6列的像素点,其n=2,i=5,j=6,m=1,Bm=B1=1 000,对应于4 008×5 344图像中的第6 946 870个像素点。

2 系统整体设计方案

图像传输系统由数码相片压缩单元和数码相片解压缩单元组成[4,5]。数码相片压缩单元通过Camera Link接口连接数码相机接收数码相片原始数据,并对数码相片原始数据进行压缩,然后将要测数据与压缩数据合成为数码相片数据流,最后将数码相片数据流和码同步时钟通过RS422同步接口输出到下一个设备;数码相片解压单元接收到数码相片数据流后,通过RS422同步接口传送给解压卡,解压卡进行解压后,通过PCI总线把数据传输到PC机上,最后进行数据显示、存储和网络发送等。压缩与解压缩单元组成框图如图2所示。

3 系统工作原理

3.1 图像压缩单元工作原理

即使同时使用两片图像压缩芯片ADV202,也仅仅能够支持一路高清电视的分辨率的图像,与4 008×5 344仍然存在较大差距。因此,考虑采用将一幅图片进行拆分,分为多帧压缩传送,保证整幅照片的数据传送。工作逻辑框图如图3所示。

从Camera Link接收的数据在SDRAM[6,7]中缓存,当数据存满一张完整照片时,采用连续发送的方式将数据送入ADV202压缩,ADV202返回的数据与遥测数据混合成帧,然后发送到AHA4501[8]芯片完成信道编码编码的数据,在FPGA控制下,采用同步方式从RS422数据口输出。

3.2 图像解压缩单元工作原理

在接收端,采用如图4的结构。接收到的信道数据,首先在FPGA内部进行信道解码恢复成图像数据和遥测数据帧,将遥测数据从RS422接口输出,完成遥测数据的处理。

对于接收的图像数据,则通过ADV202进行解压缩,解压缩之后的数据在SDRAM中缓存,一张照片的数据完整后,通过PCI接口将数据发送给计算机主机。

4 图像传输演示

由于4 008×5 344分辨率的Camera Link接口数码相机价格十分昂贵,因此本设计无法采用该相机来进行演示验证。为了证明设备的工作状态,可以首先采用RS422串口来传递高分辨率(4 008×5 344)图像的方法来验证图像压缩和解压缩的功能和效果,如图5(a)所示;然后再利用低分辨率(782×582)的Camera Link接口相机来演示验证Camera Link接口功能,如图5(b)所示。

4.1 串口高分辨率图像传输演示方法

目前图像压缩模块除了Camera Link接口,只有RS422接口可用来接收图像数据。因此,可以利用接收遥测数据的RS422接口来进行高分辨率图像数据的接收,具体连接关系如图5(a)所示。

如图5(a)所示,利用电脑的RS232串口向图像压缩模块发送4 008×5 344分辨率的BMP格式图像,经RS232/RS422转换器变为RS422接口数据由图像压缩模块接收。接收后,图像压缩模块对图像进行分割压缩,然后通过另一个RS422接口传递给图像解压模块。图像解压模块将接收到的图像进行解压,然后通过PCI接口传递给电脑。最终由电脑进行图像的合并及储存显示。图6为图像传输效果图,其中图6(a)为原始图像,图6(b)为接收端解压后拼接恢复的图像。

4.2 Camera Link接口图像传输演示方法

采用串口进行高分辨率图像传输大约需要30 min,而且不能验证Camera Link接口的功能是否正常。所以在通过串口完成高分辨率图像演示验证后,需要利用低分辨率(576×768)的Camera Link接口相机进行Camera Link接口的功能验证。具体连接如图5(b)所示。

如图5(b)所示图像压缩模块通过控制Camera Link接口相机的参数和快门,可以实现对该相机的操作。相机在响应快门操作后,可以利用Camera Link接口将图像数据传递给图像压缩模块。然后图像压缩模块进行图像压缩和传输;图像解压模块在完成图像解压后将图像数据通过PCI接口传递给电脑,并由电脑进行图像存储和显示。图7为图像传输效果图,其中图7(a)为原始图像中拆分后的第一张图(分辨率1 024×1 024),图7(b)为经过8倍压缩/解压后合并回复后的图像(分辨率4 008×5 344)。

本设计实现了基于Altera公司的StratixTMⅡ系列FPGA EP2S30F484I5芯片和数码相机CV-A10CL的高分辨率数码照片的图像传输系统。通过FPGA对数码相机CV-A10CL、压缩/解压缩芯片ADV202、信道编码芯片AHA4501、存储芯片SDRAM和PCI总线的控制和数码照片图像数据的处理,完成数码照片的压缩、传输、解压缩及显示的全过程。高分辨率图像的拆分和合并技术解决了高分辨率数码照片传输难和芯片处理能力有限的问题,也利用冗余的图像数据消除了图像在拼接时的边界效应。串口高分辨率图像传输演示和Camera Link接口图像传输演示结果验证了本设计的可靠性和实用性。

摘要:应用Altera公司的Strati(TM)Ⅱ系列FPGA EP2S30F48415芯片和基于Camera Link接口的数码相机CV-A1OCL,设计实现了对高分辨率黑白数字图像进行拆分压缩、解压缩及PCI总线接入拼接恢复的系统。系统分为数码相片压缩单元、数码相片解压缩单元和基于MFC的图像拼接恢复程序。数码相片压缩单元完成对来自相机Camera Link接口数据的接收、缓存、图像数据压缩并发送,数码相片解压缩单元完成对接收到的已压缩的图像数据进解压缩,并将解压缩后的图像数据通过PCI总线传输至PC上显示。

关键词:FPGA,Camera Link,ADV202,PCI总线,图像的拆分压缩,解压缩拼接

参考文献

[1]PULNiX.Camera Link Specifications[S].2000.

[2]The Mechademic Company.Digital monochrome and color progressive scan cameras CV-A10CL and CV-A70cCL operation manual[S].2005.

[3]ANALOG DEVICES.ADV202 JPEG2000 Video Processor User's Guide(Revision 3.3)[S].2005.

[4]张德联,张帆.基于Camera Iink的高速数据采集压缩系统[J].科学技术与工程,2008,8(18):5253-5255.

[5]何中翔,杨世洪.基于Camera Link的实时显示技术研究[J].现代显示,2008(93):31-35.

[6]杨海涛,苏涛,巫蠓.基于FPGA的SDRAM控制器的设计与实现[J].电子技术应用,2007,33(1):8-12.

[7]Micron Technology.Synchronous DRAM[S].2000.

[8]Comtech AHA Corporation.Product Specification AHA4501 Astro[S].2002.

图像的拆分压缩 篇2

小波分析用于图像去噪处理,主要是针对图像信号与噪声信号经小波变换后在不同的分辨率呈现不同的规律,在不同的分辨率下,设定阈值门限,调整小波系数,达到图像去噪目的。

在小波系数进行取舍之前,实际上按照一定准则(或者阈值化)将小波系数划分为两类:一类是重要的、规则的小波系数;另一类是被看作非重要的或者受噪声干扰较大的小波系数。通常以小波系数的绝对值作为小波系数的.分类单元。小波系数绝对值趋向于零,意味道着小波系数所包含的信息量并且强烈地受噪声干扰。最常用的阈值化去噪方法:一是默认阈值消噪处理,即在消噪处理过程中采用程序中设定的阈值,对分解信号进行分类处理,以求消除噪声;二是给定软(或硬)阈值消噪处理,阈值通过某一个经验公式获得,该阈值比默认的阈值去噪效果更有说服力。

对于“软阈值化”,绝对值小于阈值δ的小波系数数值用零代替;绝对值大于阈值δ的小波系数数值用δ来缩减。如下所示:

式中,W表示小波系数的数值;sgn(・)是符号函数,当数值大于零,符号为正,反之符号为负。对于“硬阈值化”,仅仅保留绝对值大于阈值δ的小波系数,并且被保留系数与系数相同(没有被缩减),如下式所示:

两种方法各有差异,前者具有连续性,在数学上容易处理,后者更接近实际应用。

阈值化处理的关键在于选择合适的并值δ。如果阈值门太小,处理后的信号仍有噪声存在;阈值太大,重要的图像特征将被滤掉,引起偏差。大多数阈值的选取过程是针对一组小波系数,即根据本组小波系数的统计特性,计算出一个阈值δ。Donoho等提出了一种典型的阈值选取方式,从理论上说明阈值与噪声的方差成正比,为:

其中,Nj表示第j层子带上小波系数的个数。

图像的拆分压缩 篇3

摘要:以压缩感知理论为基础,将匹配追踪(Matching Pursuit,简称MP)算法运用到图像的压缩编码中.首先,阐述了原子库的构建方法,之后,采用分块感知压缩图像分解方法,降低了分解的运算复杂度,最后,针对传统MP算法编码率不高的问题,利用MP原子能量与位置分布特点,对原子系数和位置参数进行编码,并提出了MP原子编码方法.实验结果表明,采用分块感知压缩图像分解方法,能有效地降低稀疏分解的计算复杂度,其压缩编码方法在保持传统MP图像编码优势的前提下,能有效地提高编码性能和编码率,体现了稀疏分解较传统分解方法的优势.endprint

摘要:以压缩感知理论为基础,将匹配追踪(Matching Pursuit,简称MP)算法运用到图像的压缩编码中.首先,阐述了原子库的构建方法,之后,采用分块感知压缩图像分解方法,降低了分解的运算复杂度,最后,针对传统MP算法编码率不高的问题,利用MP原子能量与位置分布特点,对原子系数和位置参数进行编码,并提出了MP原子编码方法.实验结果表明,采用分块感知压缩图像分解方法,能有效地降低稀疏分解的计算复杂度,其压缩编码方法在保持传统MP图像编码优势的前提下,能有效地提高编码性能和编码率,体现了稀疏分解较传统分解方法的优势.endprint

图像的拆分压缩 篇4

经过近几年的研究,经验模态分解(Empirical Mode Decomposition,EMD)算法逐步形成了独立的理论体系。一维EMD作为一种新的分析方法在非平稳信号分析中的作用和优势已初见端倪[1,2]。2003年开始一维EMD方法先后被国内外研究人员推广到二维,提出了二维经验模态分解方法(Bidimensional Empirical Mode Decomposition,BEMD)思想[3,8]。BEMD与传统多尺度分析技术区别主要在于:首先,极值点距离被引入进行局部尺度的确定从而使分解具有自适应和完全数据驱动的特性;其次,每一成分的提取都使用迭代计算方法,并使用某种准则确定迭代的终止。由于这些原因,BEMD在自适应的提取图像符合视觉感知的成分上有其独特的优势。图像压缩一直是人们不断探求的领域。图像压缩技术的发展有赖于人们对新的压缩方法的探求。这里我们将这种多尺度分析方法BEMD应用于图像压缩,给出基于BEMD的新的图像压缩理念。图像经BEMD后可以分解成一系列的固有模态函数(Intrinsic Mode Function,IMF)和残余(Residue),换言之,这一系列IMF和残余之和就可以描述原图像。而这种描述是非常充分的而且是存在冗余的。这里基于BEMD给出一种图像编码方法获得合理的压缩结果。

2 二维经验模态分解(B E M D)

二维EMD方法的实现过程:

步骤1:对所给图像曲面Iori求取曲面的局部极值点,包括所有局部极大值和极小值。

步骤2:求取均值包络曲面。极值点找出来之后,要对各极大值点和各极小值点分别进行曲面拟合,经插值后得到极大值点曲面包络Emax和极小值点曲面包络Emin,将两曲面数据求平均,得到均值包络曲面数据Emean。

步骤3:用原始曲面减去均值包络曲面。

步骤4:与一维相似需计算终止条件,计算终止条件:

重复步骤1~步骤3,直到满足给定的终止条件得到第一层二维固有模态函数IMF,用原图像减去第一层模态函数得到第一层残余Ires。对残余重复步骤1~步骤4,依次得到图像的N层固有模态函数和第N层残余。

3 特征点编码

以往研究结果发现,对图像的BEMD分量进行量化编码,可以在相近比特率下用图像BEMD分量描述原图像[9,10]。以此为根据,提取图像BEMD分量的特征点,提出基于图像BEMD特征点的压缩方法,实现图像压缩目的。

图像的BEMD分解系数做量化、编解码的过程如下:用BEMD把图像分解成各IMF和剩余项,然后对各项分别做均匀量化[46],用Haffman非定长编码对量化了的各I M F和剩余项进行熵编码,将这些熵编码合成起来,形成最后的编码。解码过程是编码的逆过程,首先通过解码器解码,然后将获得重建的各IMF和剩余项,求和后重建原图像。

图像可以由它的各IMF和残余之和得以重建。但是这种通过对图像的各IMF和残余分别量化编码来重建原图像的方法被编码的系数数量太多,所需要传递的数据量依然很大。图像BEMD分解获得的各固有模态分量有着突出的特点:极值点和过零点的数目相等或之多相差一个,极大值点定义的上包络曲面和由极小值点定义的下包络曲面的平均值为零。所以,这里我们提出基于图像BEMD特征点的压缩思想,不再直接对各IMF分量和残余进行量化编码,提取他们的极值点和过零点,将极值点和过零点视为特征点,对特征点系数做量化编码,接收端解码,再对特征点插值分别重建各IMF和残余分量,进而重建原图像。实现过程如图1所示。

4 实验结果

在matlab7.1环境下,对标准图像Lena及Lena局部细节图像基于以上编解码过程进行实验验证,如图2所示。对图像均做4层BEMD分解,得到4个固有模态分量IMF1,IMF2,IMF3,IMF4及残余residue4;提取各BEMD分解分量的特征点分别如图3和图6所示。接收端分别重构,重构结果如图4和表1所示,从左到右依次是原BEMD分量图像,重构图像,重构参数。

Lena原图像的熵为7.1216bpp,经过特征点插值拟合得到重构图像,如图5所示,熵为2.3899bpp,信噪比PSNR是23.4882dB,系数压缩比约为4.9:1;图2(b)所示Lena局部细节图像经过特征点插值拟合得到重构图像,如图7所示,熵为4.2493bpp,信噪比PSNR是2 67980dB,系数压缩比约为2.4:1,如表1所示。实验结果表明,只对图像BEMD分量的特征点做量化编码可以达到压缩目的。

5 结束语

本文研究了BEMD在图像压缩方面的应用,提出了基于BEMD提取图像分解分量的特征点的图像压缩理念。对各IMF分量和残余提取他们的极值点和过零点将极值点和过零点视为特征点,对特征点系数做量化编码,接收端解码,再对特征点插值分别重建各IMF和残余分量,进而重建原图像。通过实验证明其可行性。

参考文献

[1]NORDEN E.HUANG,Z.SHEN,S.R.LONG,M.C.WU,SHIH,H.H.SHIN,Q.SHANG,N.C.YEN,C.C.TUNG,H.H.LIU.The Empirical Mode Decomposition Method andthe Hilbert Spectrum for Non-Stationary Time SeriesAnalysis[J].Proc.Royal.Soc.London A,1998,454(A):903-995.

[2]PENG SHICHUN,LIU JIAN YAN GUOPING.Medi-cal Image Edge Detection Based on EMD Method[J].WuhanUniversity Journal of Natural Sciences.2006,11(5):1287-1291.

[3]J.C.NUNES,O.NIANG,Y.BOUAOUNE,et al..Bidimensional Empirical Mode Decomposition modified fortexture analysis.Scandinavian Conference on Image Analysis[D].SCIA June 29-July 2,2003:171-177.

[4]J.C.NUNES,Y.BOUAOUNE,E.DEL′ECHELLE.Texture analysis based on the bidimensional empiricalmode decomposition[J].Machine Vision and Applications,2005(16):177-188.

[5]J.C.NUNES,Y.BOUAOUNE,E.DELECHELLE.Imageanalysis by bidimensional empirical mode decomposition[J].Image and Vision Computing,2003(21):1019-1026.

[6]J.C.NUNES,S.GUYOT,E.DEL′ECHELLE.Tex-ture analysis based on local analysis of the BidimensionalEmpirical Mode Decomposition[J].Machine Vision andApplications,2005(16):177-188.

[7]徐冠雷,王孝通,徐晓刚,朱涛.基于限邻域EMD的图像增强[J].电子学报.2006,(9):1635-1639.

[8]LIU ZHONGXUAN,AND SILONG PENG,Bound-ary Processing of Bidimensional EMD Using TextureSynthesis[J].IEEE Signal Processing Letters,2005,12(1):33.

[9]ANNA.LINDERHED,2D Empirical Mode Decom-position in the spirit of image compression[M],Wavelet andIndependent Component Analysis Application IX,SPIEProcessings.2002,4738:1-8.

图像的拆分压缩 篇5

摘要:H.263是面向运动图像远程实时传输的压缩方法。基于大量实际研究,分析了H.263的算法流程,从色彩空间转换函数、DCT、IDCT、运动估计和运动补偿等多方面提出并实现对H.263的优化策略,采用增强PB帧模式提高压缩比,最后给出了定量测试结果。

关键词:H.263 CIF DCT IDCT运动估计与运动补偿

运动图像远程实时传输系统的网络传输部分架构在Internet之上,则现阶段Internet的状况是带宽小、延迟大、不稳定。所以为了获得良好的实时传输效果,除了改善传输控制机制之外,还需要实现高压缩比、低耗时、能达到实时压缩和解压缩效果的运动图像压缩方法。H.263是国际电信协会-电信标准化部门ITU-T(The International Telecommunications Union-Telecom-munication Standardization Sector)于1995年通过的用于低比特率实时传输的视频编码协议。其设计初衷是满足带宽低于64kbps的低带宽视频应用需求,如视频会议、可视电话等。现在H.263也被应用于运动图像远程实时传输系统中,但原始的H.263在实时性和压缩比等方面还有不少可优化余地。本文针对具体的运动图像远程实时传输系统应用,在大量研究工作基础上提出多个H.263的优化策略,并取得了相当好的效果。

1 H.263压缩算法的分析概要

H.263的输入视频帧格式为QCIF(Quarter Common Intermediate Format,大小为176×144)、CIF(Common Intermediate Format,大小为352×288)等。将每个视频帧分成许多宏块(MB-Micro Block),每个宏块由4个Y亮度块、1个Cb色度块和1个Cr色度块组成。块(Block)的大小为8×8。H.263以宏块为单位进行视频帧的压缩。

H.263使用离散余弦变换DCT(Discrete Cosine Transform)减小空间冗余,使用运动估计和运动补偿(Motion Estimation and Motion Compensation)减小时间冗余。H.263有两种编码方式,一种是Intra方式,帧内编码,产生的帧作为关键帧-I帧;另一种是Inter方式,帧间编码,产生的帧作为非关键帧-P帧。

通过分析,将H.263压缩算法的流程图归纳为如图1所示。

通过分析和测试表明,DCT、运动估计和运动补偿是H.263最重要的部分,同时也是H.263实现中最耗时的`运算环节。要提高H.263的运算速度,就要针对这些环节进行优化。

图1 H.263压缩算法流程图

2 转换函数、DCT和运动估计环节的优化

2.1 色彩空间转换函数的优化

CIF格式基于YUV色彩空间,而应用程序中,大多数视频采集程序只提供RGB色彩空间的视频帧,因此需要建立从RGB色彩空间到YUV色彩空间的转换函数。

RGB到YUV的转换函数如下所示,其中Y为YUV色彩空间的亮度值,U(Cb)和V(Cr)为YUV色彩空间的色度值。

Y=0.299×R+0.587×G+0.114×B;

Cr=V=(R-Y)×127/179;

Cb=U=(B-Y)×127/226;

H.263原有的色彩空间转换算法采用浮点运算,但浮点运算会消耗较多的CPU周期。为了加快视频处理速度,采用整形乘法和向右移位来代替浮点乘除,从而有效缩短了转换时间。

优化后的转换函数如下:

Y=((R×313524)>>20)+((G×615514)>>20)×((B×119538)>>20);

Cr=V=((R-Y)×743962))>>20;

Cb=U=((B-Y)×589244))>>20;

2.2 DCT、IDCT算法的优化

二维DCT公式为:

(本网网收集整理)

二维IDCT公式为:

上述两式中,,n取8。

通过分析得出,DCT快速算法的实现可以有两种方式。一种方法是把已有的快速变换算法(如FFT、FHT等)映射到DCT计算中,这种方式多了一个映射环节,增加了计算的复杂度;另一种方法是从DCT变换本身寻找规律进行改进。

在H.263应用中,注意到两条规则:一是能量集中在少部分DCT系数上;二是随着量化步长的增大,被量化为零的DCT系数增多,而且对DCT计算的精度要求降低。于是,采用一种零系数预测策略,即根据量化步长,首先对DCT变换的输入数据分类,对于给定的量化步长,如果输入数据将要被量化为0,那么这些数据就不必做DCT运算,而直接将变换结果置为0。这样只需对部分数据进行DCT变换,因此节省了大量无效运算。另外,利用DCT的局部并行性,使用Intel的多媒体处理指令集-MMX来实现DCT计算,大幅度提高了运算速度。

2.3 运动估计与运动补偿算法的优化

运动估计是指在参考帧中搜索一个与当前帧图像块最相似的图像块,即最佳匹配块,搜索结果用运动向量来表示。运动补偿是指利用参考帧和已求得的运动向量重构当前帧,氢重构帧和当前的差值作为当前帧的补偿值进行压缩编码。两者互相配合,共同实现压缩效果。

运动估计算法的研究从两方面着手:快速搜索算法和块匹配准则。

最简单的搜索算法是全搜索法(FS),这种算法精度高,但计算量过于庞大。为了加快运算速度,保证精度,人们提出了很多快速搜索算法:三步法(TSS)及基于三步法的改进算法、二维对数法(LOGS)、交叉搜索法(CS)、四步法(4SS)、预测搜索法(PSA)、钻石搜索法(DS)等。钻石搜索法是迄今为止综合性能最优的快速搜索算法之一,用于本次项目研究中。

块匹配准则决定何时找到最佳匹配块,从而终止搜索进程。传统的准则有绝对平均误差函数(MAE)、互相关函数(CCF)、均方误差函数(MSE)、最大误差最小函数(MME)等。由于传统方法没有考虑人眼的视觉特性,所以判断结果和人眼的感知相差较大。实际H.263采用的块匹配准则为MSE的替代准则SAD(绝对差和),两者的公式如下:

其中:F0和F-1分别代表当前帧和重构帧(参考帧);k,l为待编码宏块在当前帧中的坐标;x、y为重构帧中参考宏块的坐标;N表示宏块的尺寸,此处为16。从公式中可见,SAD用绝对值运算代替了MSE的乘方运算,明显降低了运算量,从而可以加快计算速度。

测试表明,SAD的计算量要比MSE的计算量减少三分之一,而它们的图像效果相当。

此外,还可以利用硬件特性加速块匹配准则的运算速度,Intel的MMX技术提供了这种特性。SAD等块匹配准则主要针对短数据的重复计算,MMX增加了系统单个指令操作数据的数目(SIMD),从而可以在一个指令中完成多组数据的计算,实现并行机制,从而加快运算速度。

3 提高压缩比的选择

H.263提供了许多高级模式来提高视频压缩比。从对压缩效率的贡献角度看,大运动向量模式、高级预测模式、PB帧模式和增强PB帧模式是最重要的4个高级模式。

在大运动向量模式和高级预测模式下,运动向量可以指到图像边界以外,增大了运动向量的表达范围,从而在本质上提高了运动补偿的精度以改善编码效率。

基本PB帧模式下,一个PB帧是一个P帧和一个B帧组成的整体。当前P帧由前一个P帧预测得到,B帧则由单一个P帧和当前P帧预测得到(见图2)。PB帧模式在增加较少比特数的情况下,将帧率提高了近一倍。

增强PB帧模式的主要改进点在于预测方式的增强。基本PB帧模式对B帧图像(或宏块)仅允许使用双向预测,而增强的PB帧模式对B帧图像则允许使用前向预测(见图3)、后向预测(见图4)和双向预测(见图2)三种手段。这样,在压缩过程中,有机会选择更适合的预测方法处理B帧图像(或宏块),从而提高B帧的压缩效率。基本PB帧模式的B帧只能通过双向预测获得,这对慢速运动图像效果较好。当输入运动图像存在快速不规则的运动时,B帧质量会急剧恶化,而增强PB帧模式的B帧有三种预测方式可选,可以解决这一难题。通过分析和测试表明,增强PB模式比基本PB帧模式有更强的鲁棒性,更适用于运动图像远程实时传输

大运动向量模式和高运动预测模式由于增大了运动向量的表示范围,可以增强运动补偿的精度,从而提高压缩比;而增强PB帧模式引入B帧,有三种预测方式可以生成B帖,在相同帧率的情况下,将压缩比提高近80%,压缩效果明显。在实际程序设计中,笔者配合传输环境测试模块,在网络带宽较低时实现这三种方式的配合使用,发挥了更大的压缩效率,达到更高的压缩比。

4 实验数据和性能分析

4.1 算法优化测试

分别取100帧三种不同格式(SUB-QCIF:88×72,QCIF:176×144,CIF:352×288)的视频值,每20帧取1个关键帧,视频帧质量取6000,比较优化前和优化后算法的时间效率,结果如(图5)所示。

纵轴单位为毫秒,表示压缩完成所需时间。可见,要处理的视频帧越大,优化后的算法取得的加速效果越明显。

4.2 增强PB帧模式压缩效果测试

分别取100帧三种不同格式(SUB-QCIP:88×72,QCIF:176×144,CIF:352×288)的视频帧,每20帧取1个关键帧,视频帧质量取6000,比较使用增强PB帧模式前和使用增强PB帧模式后算法的压缩效率,结果如(图6)所示。

纵轴为压缩比。要处理的视频帧越大,冗余信息越多,增强PB帧模式的压缩效果越明显。

★ 一种基于航摄图像特性的H.263压缩算法的改进

★ 图像记忆法与右脑教育法

★ 技术生态化及其社会实现

★ 基于虚拟现实技术的自行车漫游系统的研究与实现

★ 蓝牙技术硬件实现模式分析

★ 简析图像检索系统中的CBIR技术

★ 光学遥感图像星上实时处理技术的研究

★ 金刚石合成控制系统中多串口通信技术的设计与实现

★ 施工技术与施工个人简历

图像的拆分压缩 篇6

摘 要:DICOM图像文件的储存和传输一直是近代医学图像处理中一个比较热门的研究话题,其中较好的解决方案就是对DICOM图像进行压缩处理。文中通过对DICOM文件的数据结构进行分析,将DICOM文件拆分成图像数据部分和文本信息部分,然后采用9/7提升小波变换对拆分出来的DICOM图像数据进行图像变换,最后对变换后的小波系数进行SPIHT编码完成DICOM图像压缩。主客观对图像的评价表明SPIHT算法在高压缩比时仍能保证图像较好的质量。该方法能够对DICOM图像的存储和传输带来便利也将产生一定的影响。

关键词:医学数字图像通信协议标准;图像压缩;9/7提升小波变换;多级树集合分裂排序

中图分类号:TP391 文献标识码:A

1 引 言

影像储存和通信系统(PACS,全称Picture Archiving and Communication System)广泛应用于我国医院影像管理事业中[1]。PACS主要用来解决CT(计算机断层扫描)、MRI(核磁共振)、US(超声成像)等成像设备产生的图像数据传输和储存的问题。1985年ACR和NEMA联合建立了医学数字成像的DICOM(Digital Imaging and Communications in Medicine)标准[2]。DICOM文件的一个特点就是数据量巨大,其中图像数据占90%以上并且图像的数据量要比普通图像要大得多[3]。文中对DICOM文件的数据结构进行了分析并结合现代图像压缩技术,在确保一定图像质量的情况下,完成大压缩比的DICOM图像压缩工作。

2 DICOM图像压缩原理

DICOM标准的数据结构部分中定义了DICOM如图1所示的文件结构。DICOM图像文件是由文件序言、首缀组成的头文件部分和由多个数据元素组成的数据集部分构成[4],每个数据元素由标识符(Tag)、数据类型(VR)、数据长度(VL)和数据组成。DICOM图像文件包含了许多图像的附加信息,如设备信息、图像所属患者信息、图像的窗位窗宽大小等,这些信息和图像数据一起存放在各个数据元素中。DICOM数据字典对每个数据元素都分配了一个唯一的Tag,其中图像数据的Tag为(7FE0,0010)[5]。对DICOM图像压缩的本质是将DICOM图像文件中的文本数据和图像数据分离出来并对DICOM文件中的图像数据进行压缩。在对DICOM图像文件解码的过程中,通过对图像数据Tag的定位可以将DICOM文件中的图像数据分离出来并转换成适合图像压缩的BMP文件。

图1 DICOM图像文件结构

此时,DICOM文件的压缩就变成了针对从DICOM文件中分离的出来的BMP文件进行压缩处理,经典图像压缩技术的一般步骤如图2中所示。首先是对原始图像进行变换,然后对变换系数进行量化编码得到压缩图片文件,这时就可以方便快捷的对压缩文件进行存储或者传输。解码器和编码器是一个互逆的过程,通过解码、去量化、反变换可得到压缩重构的图像文件。JPEG标准中使用的是DCT(离散余弦变换)变换,但由于DCT不能很好的处理它自身引起的方块效应和在保证图像质量的前提下不能达到更高的压缩比等原因而逐渐被舍弃[6]。因离散小波变换具有优良的时频特性(能够将低频和高频的信息进行分离)被JPEG2000标准所采纳[7]。

3 图像变换与编码方法

3.1 9/7提升小波变换

小波理论的思想来自伸缩与平移变换,将满足一定条件的小波基本函数Ψ(x)构造成形如(1)公式的构造函数。用尺度因子a将Ψ(x)做伸缩处理,小波函数图像会随a的变小而缩短,随着a的变大而伸长;用b控制Ψ(x)水平移动。

小波变换(Wavelet Transform,简写WT)与FT(Fourier Transform)在某种程度上类似,其定义如公式(2)中所示。小波变换可以看成把一个信号(信号也可以看作一种函数)表示为由多个或者无穷个经过伸缩平移变换而得到的小波信号的叠加。信号作小波分解实际上相当于用具有选择性的滤波器对信号进行滤波处理,它的要点就是对于平稳变化的信息(对应于信号低频部分)可以在大区域上查看;对于快速变化的信息(对应于信号的高频部分)可以在小区域上放大查看。

对于图像信号,可以抽象成二维离散函数F(x,y),二维离散函数的WT就可以通过一维离散行WT和一维离散列WT来实现二维离散一级WT,如图3所示。图像通过一维行WT就可以获得行低频(L)和行高频(H)的小波系数,再经过一次一维列WT就可以将图像的最低频系数集中在左上角LL1处,最高频系数集中在右下角HH1处,此时也就完成了图像信号的一级WT。二级WT就是在原来变换的基础上单独对LL1处的信息进行一次一级WT,多级WT则以此类推就可得到。WT都必须用到了小波函数,而对于二维离散函数的WT则是由小波基来完成。但由于这些小波构造多依赖于FT,构造过程繁杂且算法复杂占用较大内存。因此,1995年,Sweldens W.博士创造性地提出了在时域中采用lifting scheme方法构造小波函数的方法即第二代小波(second generation wavelet)构造方法[8]。这种构造小波方式与第一代小波不同,它不需要通过FT或者基于FT尺度伸缩,而是快速便捷的利用Split,Predict和Update等方法来完成对数字离散信号的小波变换。JEPG2000标准中采用了9/7提升小波和5/3小波提升小波来完成对图像的变换[9]。在确保图片质量的前提下,9/7提升小波变换获得时频特性更好的小波系数,所以这里选用双正交9/7提升小波。

9/7提升小波正变换也是分别通过小波行变换和小波列变换来完成小波变换的,小波行变换和小波列变换的公式相同都是分别通过四步提升步骤(预测1,更新1,预测2,更新2)和一个尺度变换来完成的。具体步骤如下:endprint

①分裂(split):For[-1≤n≤(N/2)+1] do: { s_0(2n±1)=x(2n±1); d_0(2n)=x(2n)};

②预测1(predict1):For[-1≤n≤(N/2)+1] do: d_1(2n)=d_0(2n)+[α(s_0(2n+1)+s_0(2n-1))];

③更新1(update1): For[0≤n≤(N/2)+1] do: s_1(2n-1)=s_0(2n-1)-[β(d_1(2n-2)+d_1(2n))];

④预测2(predict2): For[0≤n≤(N/2)] do: d_2(2n)=d_1(2n)-[γ(s_1(2n-1)+ s_1(2n+1))];

⑤更新2(update2): For[1≤n≤(N/2)] do: s_2(2n-1)=s_1(2n-1)-[δ(d_2(2n-2)+d_2(2n))];

⑥尺度变换: For[1≤n≤(N/2)] do:

L(2n-1)= ε s_2(2n-1);H(2n)=(1/ε) d_2(2n)

表中的相关系数α=-1.58613432, β=-0.05298011854,γ=0.8829110762,δ=0.443506822,ε=1.149604398,s_0和d_0表示原始像素值中的奇数部分与偶数部分。通过一级提升WT后得到了如图1中LL1、LH1、HL1、HH1频率高低不同的子带。图4所示,(a)为经典Lena图片,作为9/7提升小波变换的实验图片;(b)为Lena图片经过一级9/7提升小波变换而得到的分解图。

3.2 SPIHT编码算法

图像经WT后得到的的小波系数在各级子带中存在树状构架,如图5中所示。在这些小波树中,相同空间位置和相同方向上的小波系数有很强的相似性,HH3中的小方格里的的小波系数可以看成是HH2在相应位置小方格里的小波系数的父系。零树编码思想就是将量化后为0的小波系数的所有子孙小波系数都归为0,进而简化小波编码的过程。但是这种算法存在很大缺陷,因为并不

是父系小波系数为0的小波系数其子孙的小波系数都为0,仅仅通过零数编码可能会导致图像的失真比较严重。一种改进的方法是EWZ(嵌入零树编码)算法,它提出将每层小波变换设置一个阈值T(i),如果第i层的小波系数的绝对值大于该阈值,则认为这个小波系数的重要的,相反则认为该小波系数不重要。如果父系的小波系数为非重点小波系数,而且它的全部子孙小波系数都相应的被判为非重点小波系数,故此命名该父系小波系数是关于阈值T的零树根,进而将该父系小波系数的全部子孙小波系数不不列入小波编码的范围。

由于EWZ编码需要设置每层小波的阈值并且要搜索扫描每层小波系数绝对值小于阈值的所有后代,这样就导致了计算量很大,编码速度慢的后果。因此EWZ编码还需要进一步的改进,在目前所有改进的算法中,多级树集合分裂排序(Set Partitioning in Hierarchical Tree,简写SPIHT)算法是较为成功的一种[10]。

SPIHT算法的零树构架中则认定LLN没有子带。SPIHT算法中划分了两种零树,第一种零树有根系数构成,并且该根系数在给定位平面中它的全部子孙都为0;第二种零树与第一种零树相似,不同之处在于它排除了根系数的四个子带。SPIHT算法将这两种零树类型分别标记为类型A和B不重要集合,SPIHT算法还规定了三个有序表用来存放重要信息,分别是LSP(显著系数表)、LIP(不显著系数表)、LIS(不显著子集表)。三个表中的元素都采用(x,y)坐标来标记,C(x,y)表示(x,y)坐标处的小波系数值,H表示所有树根的集合。

具体算法的流程如下:

①初始化:设阈值T=2n,其中

n=log2(max|C(x,y)|)、LSP为空、LIP={(x,y)|(x,y)∈H}、LIS={(x,y)A|(x,y)∈H且都具有孩子};

②依次对LIP表和LIS表中元素进行排序扫描并编码。对LIP编码只要判断其中的每个元素是否为显著系数,若是则输出1及其符号码、将该系数从LIP表中剪切到LSP表的尾部,否则输出0;对LIS编码的流程比对LIP编码复杂,在判断表中元素属于类型A还是类型B之后还要对其子孙系数进行编码,具体见图6的流程结构图。

③当LIS集合中的最后一个编码完成后,对上一级的得到的LSP表进行精细扫描:对表中每项对应的小波系数进行二进制转换、将该二进制数的第N个重要的位输送到精细位流中。

④完成后将T除以2,重新进入第二步并进行下一级的编码,直到T为某一设定值为止。

4 DICOM图像压缩实现与分析

文中选用了一个DICOM文件Ankle.dcm作为实验文件进行说明。如图7所示,通过VC++语言,根据DICOM文件的数据元素中的标识符、数据类型、数据长度、数据值,来对DICOM文件进行读取,并将DICOM图像文件中的图像数据和文本数据分离出来。图7的左边为DICOM文件Ankle.dcm中分离出来的部分文本信息,图7的右边为DICOM文件Ankle.dcm中的分离出来的格式为.bmp的图像文件。

将分离出来的BMP图像进行双正交9/7提升小波变换,并将小波分解后的系数取整量化、SPIHT编码。表1是在同为三级小波变换,压缩比不同情况下,压缩后图像的PSNR(峰值信噪比)的值。图8为压缩比率为30:1时候的Ankle压缩图像。

图像客观评价的标准有很多种,比较常见的有MSE(Mean square error)、NMSE(Normalized mean squared error)、SNR(Signal Noise Ratio)、PSNR(Peak Signal Noise Ratio)。它们之间有一定的转换关系,这里采用PSNR这个参数作为对图像客观评价的一个标准。如表2中所示,随着压缩比率的增加图像的PSNR值也逐渐降低,事实上,人眼很难观察出PSNR超过30dB的解码图像与原图像的差异[11],由图8亦可观察出压缩比在30:1时仍能保证图像的清晰度。endprint

5 结 论

文中通过采用了双正交9/7提升小波变换得到较好时频特性的小波系数再结合更为先进的SPHIT算法对小波系数进行了编码进而完成了对从DICOM文件中分离出来的图像信息的压缩,并最终实现了DICOM图像的压缩工作。实验表明这种方法实现了在较高图像质量的条件下可以获得较大压缩比的图像文件,这也在一定程度上提高PACS系统中对图像数据储存和传输的效率。

参考文献

[1] 曹奕雯, 陶蔷. PACS关键技术及国内应用[J]. 医疗卫生装备, 2011,32(1):77-80.

[2] 梁存升, 冯骥. DICOM标准分析及其应用[J]. 中国医学装备, 2006,3(2):18-20.

[3] 赵越, 韩滢, 王之琼. DICOM技术在PACS系统中的应用综述[J]. 中国数字医学, 2009,4(2):57-60.

[4] BIDGOOD W D J, HORII S C,PRIOR F W, et al. Understanding and using DICOM, the data interchange standard for biomedical imaging.[J]. Journal of the American Medical Informatics Association : JAMIA, 1997,4(3):199-212.

[5] 李自胜, 肖晓萍, 龚伟. 基于.NET框架的DICOM协议设计与实现[J]. 计算机应用与软件, 2009,26(10):19-23.

[6] 王海松, 赵杰. 数字图像压缩技术的现状及前景分析[J]. 科技信息, 2010(3):53-54.

[7] 胡高军, 吴芝路, 高真真, 等. 自适应小波变换及其在JPEG 2000中的应用[J]. 光电子·;激光, 2006,17(9):1114-1118.

[8] HUI F,LANYING G,JINSHENG X. The Lifting Scheme Based on the Second Generation Wavelets[J]. Wuhan University Journal of Natural Sciences, 2006,11(3):503-506.

[9] CHEN T,LIN S,LIN Y, et al. JPEG2000 Still Image Coding Quality[J]. Journal of Digital Imaging, 2013,26(5):866-874.

[10]SAID A,PEARLMAN W A. A new, fast, and efficient image codec based on set partitioning in hierarchical trees[J]. IEEE Transactions on Circuits and Systems for Video Technology, 1996,6(3):243-250.

关于图像压缩编码的研究 篇7

1 图像压缩编码的可行性研究

图像数据的压缩机理来自两个方面:一是利用图像中存在大量冗余度可供压缩;二是利用人眼的视觉特性。

1.1 图像数据的冗余度

1) 空间冗余:在一幅图像中规则的物体和规则的背景具有很强的相关性;

2) 时间冗余:电视图像序列中相邻两幅图像之间有较大的相关性;

3) 结构冗余和知识冗余:图像从大面积上看常存在有纹理结构, 称之为结构冗余;

4) 视觉冗余:人眼的视觉系统对于图像的感知是非均匀和非线性的, 对图像的变化并不都能察觉出来。

1.2 人眼的视觉特性

1) 亮度辨别阈值:当景物的亮度在背景亮度基础上增加很少时, 人眼是辨别不出的, 只有当亮度增加到某一数值时, 人眼才能感觉其亮度有变化。人眼刚刚能察觉的亮度变化值称为亮度辨别阈值;

2) 视觉阈值:视觉阈值是指干扰或失真刚好可以被察觉的门限值, 低于它就察觉不出来, 高于它才看得出来, 这是一个统计值;

3) 空间分辨力:空间分辨力是指对一幅图像相邻像素的灰度和细节的分辨力, 视觉对于不同图像内容的分辨力不同。

2 图像压缩编码方法研究

图像编码的过程可以概括成图1所示的3个步骤, 原始图像经映射变换后的数据, 经量化器和熵编码器成为码流输出。目前, 常见的编码方法有如下几种:

2.1 预测编码

预测编码是根据某一模型利用过去的样值对当前样值进行预测, 然后将当前样值的实际值与预测值相减得到一个误差值, 只对这一预测误差值进行编码。预测方法:1) 帧内预测帧内预测利用图像信号的空间相关性来压缩图像的空间冗余, 根据前面已经传送的同一帧内的像素来预测当前像素;2) 帧间预测:电视图像在相邻帧之间存在很强的相关性;3) 预测系数的选择:预测系数的选择通常采用最优线性预测法, 选择预测系数a1, a2, …, an-1使误差信号en的均方值最小;4) 自适应预测:自适应预测又称为非线性预测。可以利用预测误差作为控制信息, 因为预测误差的大小反映了图像信号的相关性。

2.2 正交变换编码

变换编码 (Transform Coding) 的基本思想是将在通常的欧几里德几何空间 (空间域) 描写的图像信号变换到另外的向量空间 (变换域) 进行描写, 然后再根据图像在变换域中系数的特点和人眼的视觉特性进行编码。

2.3 哈夫曼 (Huffman) 编码

Huffman编码方法就是利用了这个定理, 它是一种效率高、方法简单的编码。信源中符号出现的概率相差越大, Huffman编码效果越好。

Huffman编码步骤:1) 把信源符号xi (i=1, 2, …, N) 按出现概率的值由大到小的顺序排列;2) 对两个概率最小的符号分别分配以“0”和“1”, 然后把这两个概率相加作为一个新的辅助符号的概率;3) 将这个新的辅助符号与其他符号一起重新按概率大小顺序排列;4) 跳到第2步, 直到出现概率相加为1为止;5) 用线将符号连接起来, 从而得到一个码树, 树的N个端点对应N个信源符号;6) 从最后一个概率为1的节点开始, 沿着到达信源的每个符号, 将一路遇到的二进制码“0”或“1”顺序排列起来, 就是端点所对应的信源符号的码字。由于Huffman方法构造出来的码不是惟一的, 主要有两个原因:一是在两个符号概率相加给两条支路分配“0”和“1”时, 这一选择是任意的;二是当两个消息的概率相等时, 0, 1分配也是随意的。Huffman编码对不同的信源, 其编码效率是不同的。7) Huffman编码中, 没有一个码字是另一个码字的前缀。因此, 每个码字惟一可译。

2.4 子带编码

子带编码的基本思想是利用带通滤波器组将信道频带分割成若干个子频带 (Subband) , 将子频带搬移至零频处进行子带取样, 再对每一个子带用一个与其统计特性相适配的编码器进行图像数据压缩。另外, 子带编码还有以下优点:1) 一个子带的编码噪声在解码后只局限于该子带内, 不会扩散到其他子带。这样, 即使有的子带信号较弱, 也不会被其他子带的编码噪声所掩盖;2) 可以根据主观视觉特性, 将有限的数码率在各个子带之间合理分配, 有利于提高图像的主观质量;3) 通过频带分解, 各个子带的抽样频率可以成倍下降。

3 结论

图像编码是各类图像信息传输、存贮产品的一项核心技术。图像编码技术的进展已使那些制约因素不再成为瓶颈, 从而推动了各类图像通信系统的推广和应用。

摘要:图像信息占据大量的存储容量, 而且传输的带宽有限, 因此, 对图像进行压缩编码已经变得非常重要了, 本文笔者首先分析了图像压缩编码的可行性, 然后详细的对当前较常用的压缩编码方法进行了探讨。

关键词:图像,压缩编码,冗余度,预测编码

参考文献

[1]董士海.图像格式编程指南.北京:清华大学出版社, 1994.

[2]张远鹏, 董海, 周文灵.计算机图像处理技术基础.北京:北京大学出版社, 1996.

[3]章毓晋.图象处理和分析, 北京:清华大学出版社, 1999.

一种图像压缩的改进方法 篇8

对于平稳信源来说过去符号与当前符号之间具有很强的相关性, 可将图像局部看成平稳信源, 利用已知信源符号对当前像素进行预测的过程称为context建模[1], 再用算术编码对信源符号编码, 其压缩率远远比普通算术编码好。

2自适应加权Context编码

2.1 加权Context编码

对于大部分的图像信号, 人们通常不能提前知道图像的信号结构。由于信源的相关性, 可以根据先前信源的统计特性, 对后续信源进行预测[2]。选取与当前像素空间位置相邻的已知像素作为条件, 对当前像素进行统计, 能够得到与当前像素相关性较大的条件概率, 将所有条件概率分布合并起来对下一段信源符号进行预测, 能够降低图像的不确定度, 从而达到压缩的效果。

合并这些条件概率分布应最大限度地利用其特点和相关性, 其所占比重应不尽相同, 由此提出了对条件概率分布进行加权求和的方法来合并条件概率分布。假设共寻找了与当前符号空间位置不同的z个已知符号作为观察点, 表示第i个位置已知的当前符号的k阶条件概率分布, i表示的就是当前条件下的相应权值, 可知。如公式1:

由此所得到加权后的条件概率分布包含了多个观察点的条件概率分布, 利用了图像的相关性, 从而大大提高了编码效率和压缩效果。

2.2 自适应加权编码

在图像中信源符号是一直改变的, 如内容变化缓慢的平坦区, 细节丰富的纹理区, 亮度突变的边缘和轮廓, 分别具有不同的统计特性[3], 如果我们使用先前求出的权值, 长期用来预测接下来条件概率分布, 会使编码效果变差, 因此对权值应进行适当的更新, 使权值适应图像符号的改变。

3 权值的选取

3.1 基于最短自适应码长的权值

由于图像有很强的相关性, Minh Duc Cao等人根据贝叶斯平均提出:权值正比于条件概率的自适应码长[3], .这种方法利用平均简单计算出了权值, 却忽略权值选择的最优性。可以根据前一段的统计特性来预测下一段的概率分布。此权值选取改进方法是:下一段的权值是使上一段概率分布的自适应码长最短时的权值, 用上一段的最优权值对下一段的概率分布进行预测。此种方法采用了寻优的办法, 最大限度的使用了条件概率分布。

3.2 权值的具体选择办法

本文采用多元化算法 (MOV) 对权值进行寻优, 该算法是基于计算机队列、堆栈数据结构的特点而提出的一种离散的多种群启发式搜索算法。多元优化算法的全局搜索元和局部搜索元协同合作交替地进行全局和局部的搜索。多元优化算法具有较强的全局和局部搜索能力, 并且能够同时发现多个最优解, 适用于多模态环境下多个最优值求解[4]。

利用MOV算法, 找到最短自适应码长所对应的权值。

4 实验方法及分析

4.1 实验方法

选取512×512格式为raw的原始图像, 为了更好提高压缩效果, 首先将图像进行了8级量化, 可知量化后的每像素需要2个比特。为了降低计算的复杂度, 接下来两个实验都只采用两位条件, 即用两个条件概率分布来进行加权合并。

4.1.1 实验一

实验一中, 分别用贝叶斯平均求出的权值和最短自适应码长求出的权值进行编码的结果如表1所示, 压缩结果分别为每幅图的第一列和第二列, 单位为符号每比特 (bps) , 同时该实验对权值的更新频率进行了对比。

由此表得知改进后压缩效果比先前明显增强, 并且更新的越快压缩效果也就更加明显, 但是更新过于频繁难免会消耗太多的时间和计算量, 造成浪费。

4.1.2 实验二

实验一中采用100阶条件概率分布进行编码, 实验二研究阶数对实验结果的影响。表2表示别用100阶, 50阶, 20阶条件概率, 每20行更新一次对图像进行编码的结果。

由表2可知, 三种选择阶数的方法对压缩效果影响不是很大, 再次说明了图像之间存在着很强的相关性。采用50阶条件概率进行压缩, 得到的压缩值最小, 并且与100阶相比, 计算复杂度也降低了。

4.2 实验结论

由上诉实验结果对比分析之后可以得出结论, 采用寻优的方法求得的权值进行压缩, 其效果比用贝叶斯平均计算权值进行压缩的效果要好, 在阶数方面采用50阶进行概率统计, 计算复杂度适中且压缩效果良好。

摘要:提出了一种自适应最短码长熵编码方法, 用加权后的条件概率分布进行Context建模, 最后用算术编码对图像进行编码, 从而达到压缩效果。

关键词:Context熵编码,自适应加权,算术编码

参考文献

[1]陈旻.一种图像自适应小波压缩算法[N].昆明学院学报, 2013, 35 (6) :96-99

[2]张春田, 苏育挺.数字图像压缩编码[M].清华大学出版社, pp:2-5

[3]Minh Duc Cao.Data Compression Conference, A Simple Statistical Algorithm for Biological Sequence Compression, 2007.DCC''07

[4]Changxing Gou, ICMEME.A novel Multivariant Optimization Algorithm for Multimodal Optimization[M].pp:458-464

面向边缘特征保持的图像压缩 篇9

一些图像传输应用场合由于传输带宽、实时性要求等限制,要求对图像进行低比特率压缩并传输,图像低比特率压缩会严重损失图像边缘、纹理等几何特征。当解压图像用于目标识别等任务时,需要进行特征提取,那么解压图像边缘等特征损失过多会严重干扰后续图像探测识别等任务,降低目标识别率[1]。因此在图像压缩技术发展迅速的同时,如何在图像低比特率压缩的同时将图像边缘等特征保留下来成为迫切需要解决的问题。

图像的大部分信息是由图像的特征如边缘和纹理表示的,单纯靠有损压缩提取和保持特征信息有一定困难。现有的应对边缘等特征损失的方法有图像增强后再压缩[2,3];图像解压后增强,对于边缘保持有一定效果。Dirck Schilling等人提出图像压缩编码与图像边缘特征保持相结合的图像压缩思想[4],适用于低比特率图像压缩传输。

近年来出现的基于小波的Contourlet变换(WBCT)[5,6,7]是一种方向性多尺度几何分析工具,它对图像边缘纹理等特征保持的性能优于小波变换,非常适合于低比特率图像压缩,因此,本文借鉴Dirck Schilling等人思想,考虑用基于小波的Contourlet变换压缩和边缘特征保持相结合的图像压缩方法进行低比特率图像压缩,以期达到图像压缩同时保留边缘特征的目的。

1 面向边缘特征保持的图像压缩方法

1.1 总体思想

我们的目的是在低比特率压缩条件下,解压图像可以更快地被人们所识别。因此面向边缘特征保持的图像压缩方法包括两个部分:图像压缩和边缘保持。方法流程如图1所示。源图像Io通过边缘检测器,检测出可能帮助人们识别图像的显著边缘E。然后对提取出的边缘通过标准边界链码,如Freeman链码,进行编码。编码后的边缘信息作为压缩信息的一个组成部分进行传输。源图像Io还需进行普通图像压缩,变换方式选取基于小波的Contourlet变换(WBCT)。最终的压缩图像包含边缘编码信息和图像变换压缩信息两部分。解码器通过结合边缘定位信息E和WBCT解压图像Ir的像素灰度信息,通过边缘保持重建,最终得到边缘信息保持的解压图像Ie。

下面将对面向边缘特征保持的图像压缩方法中的WBCT变换、边缘编码和边缘保持重建等主要环节的关键技术进行详细阐述。

1.2 基于小波的Contourlet变换(WBCT)

二维离散小波变换只能表示水平、垂直、对角三个方向的细节信息,不能分析其他方向。而方向性是图像的一个重要特征,如果对方向性分析不全面,就会导致它对图像边缘和纹理的表示效率不高。为了能更好的分析图像中的方向性,2002年Do和Martin Vetterli提出轮廓波(Contourlet)变换[8,9,10,11],它是一种多分辨率、多方向性的图像表示方法。Contourlet分解变换的实现分为两个步骤:拉普拉斯金字塔(Laplacian Pyramid,LP)分解和方向滤波器组(Directional Filter Bank,DFB)分解。其原理如图2(a)所示。每一次LP分解比Mallat分解[12]多出1/4的冗余信息,不利于图像压缩。因此Eslami等人提出了基于小波的contourlet变换(Wavelet-based Contourlet Transform,WBCT),一种非冗余版本的Contourlet变换。WBCT的基本思想是用小波变换的Mallat塔式分解代替Contourlet变换的LP分解,然后使用DFB分别对Mallat分解中的高频子带进行方向分解,其原理如图2(b)所示。

相同比例的WBCT系数和小波系数重建Barbara图像局部效果如图3所示,其中M表示重建所用系数个数。从图中看出,WBCT重建图像纹理特征较小波重建图像保持的更好,其信噪比高于小波重建图像。

1.3 边缘编码

对于边缘保持的处理,首先需要利用边缘算子检测出图像边缘,然后需要对边缘位置进行压缩编码,以确保图像解压缩后进行边缘保持操作时提供准确边缘位置。

链式编码是一种边界的编码表示法,是用曲线起始点的坐标和边界点方向代码来描述曲线或边界的方法。链式编码对多边形的表示具有很强的数据压缩能力,能够使数据量大为减少。Freeman链式编码[13]是二值图像的无损压缩编码算法,其基本编码规则是,对每个连通区域,首先选择一个边界点并记录下坐标,然后编码器沿着边界移动,每移动一步记录下本次移动所对应的方向码,直到编码器回到初始点结束,则这个连通区域被完全编码。然后对下一个连通区域同样编码。Freeman 4方向链码的方向数定义顺序如图4(a)所示。相应地,链码定义如图4(b)所示,即根据当前边界点相对于上一个边界点像素的坐标增量(Δx,Δy)来确定当前边界点的Freeman编码,编码取值分别为1、2、3、4,取代边界点原像素坐标,从而达到压缩目的。本文选取Freeman 4方向链码对边界编码。

1.4 边缘保持重建

低比特率压缩图像解压缩后,得到边缘损失的WBCT解压图像和边缘位置两部分信息,通过边缘保持重建得到最终边缘保持的解压图像。边缘保持重建示意如图5(a)(g)所示。图5(a)中显示的是原始图像边缘。重建流程参见图6,具体如图5。

1)解压缩:解码器通过解码得到WBCT逆变换结果,如图5(b)所示,同时解码器通过解码得到边缘位置;

2)平滑:图5(b)经过平滑得到平滑后边缘图5(c);

3)计算:根据平滑边缘图5(c)距离边缘位置两侧处的灰度值,计算得到理想边缘图5(d);

4)(d)-(c):理想边缘图5(d)与平滑边缘图5(c)之间相减得到灰度差值图5(e),这个差值是边缘保持重建所需的重要信息;

5)(b)+(e):差值图5(e)叠加在重建边缘图5(b)上,得到增强后的边缘图5(f);

6)平滑:最后,为消除增强边缘的突兀性,对增强边缘图5(f)进行平滑得到最终保持良好的边缘图5(g),完成边缘保持重建过程。

2 仿真实验结果

为验证基于WBCT的面向边缘特征保持的图像压缩算法的效果,以标准图像Rice和自选图像Road和Airport为例进行了仿真,并与基于普通WBCT压缩算法的结果进行了比较。对于检验指标的选取,由于图像对比度[14]通常表现了图像画质的清晰程度,边缘保持完整的图像较边缘模糊的图像对比度高,层次感强,清晰度高,因此用它来检验解压图像边缘保持程度。两种算法的重建结果比较见图7和表1。其中图7是对系数比例为1%的本文算法压缩重建结果和相同压缩比下普通WBCT压缩重建结果的比较。可以看出图7(g)~(i)相对于(d)~(f)边缘轮廓更加完整和清晰。

重建结果的对比度比较见表1。从表中数据可以看出,相同比特率下(对应本文算法WBCT系数分别为1%和0.5%)面向边缘特征保持的WBCT图像压缩算法相对于普通WBCT压缩算法的重建结果普遍具有更高的图像对比度。

3 结论

图像的拆分压缩 篇10

利用目前最流行的图片编程语言LabVIEW软件平台,以及其便捷的编程环境和友好的人机界面,对图像进行DCT变换和逆变换运算,并对DCT系数进行调整,尽量保留低频分量,忽略高频分量进行分析图像,使其尽量在不损失信号所携带的信息的前提下,尽可能地减小用于存储信号的开销,从而大大提高图像的压缩比。

1 基本原理

离散余弦变换(DCT)是一种实数域变换,其变换核为实数的余弦函数,计算速度较快,而且对于具有一阶马尔柯夫过程的随机信号,DCT十分接近于Karhuncen-Loeve变换,也就是说它是一种近似最佳变换,很适于做图像压缩和随机信号处理。

二维离散余弦变换换[1](DCT)和反变换定义为:

undefined

二维离散余弦变换对数字图像压缩算法的研究在利用离散余弦变换DCT对数字图像进行处理时,把每一帧内各小区的住处加以比较,找出相似性,只剩下那些不同的信息。进而,利用彩色和运动补偿技术,减少表示图像各相继帧中相似部分所需的信息量。在利用二维离散余弦变换进行图像数据压缩时,首先要将输入图像分成若干N×N的图像块。由于N取值小到一定程度时采用变换处理可能带来块与块之间边界上存在着被称为“边界效应”的不连续点,而且当N<8时,边界效应比较明显,所以正确的选择应是N≥8,一般取N=8。将N的值代入,即可得到相关的变换式。

二维快速余弦变换是把8×8块不断分成更小的无交叠子块,直接对数据块进行运算操作。8×8数据块输入分解成64个正交基信号,每个基信号对应于64个独立二维空间频率中的一个,这些空间频率是由输入信号的“频谱”组成。在压缩时,将原始图像数据分成8×8数据单元矩阵,当图像数据分成一个8×8矩阵后,还必须将每个数值减去128,然后分别代入DCT变换公式中,即可达到DCT变换的目的。图像数据值必须减去128,是因为DCT转换公式所接收的数字范围是在-128~+127之间。经过FDCT变换后输出的矩阵数据自然数为频率系数,它们是64个基信号的幅值,称为“DCT系数”,即DCT变换系数值。这些系数以F(0,0)的值最大,称为DC,它代表直流分量“DCT系数”,其余的63个频率系数则多半是一些接近于0的正负浮点数,一概称之为“AC”,代表交流分量的“AC系数”。IDCT是FDCT的逆过程,它把64个DCT变换系数经逆变换运算,重建一个64点的输出图像。DCT系数的频带和方向信息如图1所示。

由于余弦变换具有把高度相关数据能量集中的趋势,DCT变换后矩阵的能量集中在矩阵的左上角,右下大多数的DCT系数值非常接近于0。对于通常的图像,舍弃这些接近于0的DCT的系数值,并不会对重构图像的画面质量带来显著的下降。所以利用DCT变换进行图像压缩可以节约大量的存储空间。压缩应该在最合理地近似原图像的情况下使用最少的系数,使用系数的多少也决定了压缩比的大小[2]。

2 软件系统

LabVIEW是实验室虚拟仪器集成环境(Laboratory Virtual Instrument Engineering Workbench)的简称,是美国国家仪器公司(National Instrumentstm,NI)的创新软件产品,也是目前应用最广、发展最快、功能最强的图形化软件开发集成环境。作为编写应用程序的语言,除了编程方式不同外,LabVIEW具备语言的所有特性,因此又称为G语言。它与传统高级编程语言最大的差别在于编程方式,一般高级语言采用文本编程,而G语言采用图形化编程方式。G语言编写的程序称为虚拟仪器VI(Virtual Instruments),因为它的界面和功能与真实仪器十分相像,在LabVIEW环境下开发的应用程序都被冠以VI后缀,以表示虚拟仪器的含义。一个完整的程序由前面板、数据流框图和图标连接端口组成[3]。

利用G语言模块化编程思想,可以将一个应用分解为一系列任务,再将每个任务细分,将一个复杂的应用分解一系列简单的子任务,为每个子任务建立一个VI,然后,把这些VI组合在一起完成最终的应用程序,这十分有利于程序的快速开发和后期的维护。

3 实现过程

(1) 前面板设计

在前面板设计中,要考虑主要考虑可控性和美观性。通过可选择框,选择要处理的图片。这里图像处理中4张经典图片(Camerman,Couple,Colubia和Baboon)。在系数表中,设置二极管变亮代表为1,灯灭代表为0;在手动点击这些二极管的亮与灭来设置1或0的同时,可以分别设置了全清除键和全部设置键,方便实现鼠标点击该键就实现相应的全清零或者全部设置为1的功能。设置2个输出数字指示器来显示相应的计算结果。以图片显示控件分别显示对应的图片。以直方图来分析图像前后的灰度分布信息。以一个系统停止按键方便实现系统的关闭。从前面板的这些快捷方便设置充分体现LabVIEW的人机交互的友好性。

(2) 程序框图

程序设计流程图如图2所示:

LabVIEW是一种图片式编程语言,处理的是数据流。程序设计采用模块化设计概念,自下而上设计,将每个功能模块形成子VI,分别调试;然后把各个SubVI做成模块,最后在总程序中调用各个模块进行连接,完成最终的应用程序,实现整体功能。

系统设计主程序图如图3所示。

(3) 实验结果及分析

先将系数表全清除,则系数表中的二极管全灭(对应为全0)。压缩图像一片黑,没有任何效果,均方误差达到最大134.097。对系数表进行斜45°直线方式从系数表左上角顺序点击方法(当然可以换其他的方法点击实现)点击发光二极管的亮与灭进行改变系数表,同时进行主观评价图片效果。保留系数百份比越小,被抛弃的图像信息就越多,则图像压缩比就越大,但同时均方误差就会越大。表1为按上述方法改变系数表下的均方误差和图像效果变化。

可见,保留系数百分比(即相当于图像压缩比)与均方误差是有矛盾,必须在两者之间有所折中。实验结果表明:在改变系数表过程中,如图4所示这种情况是在图像效果可以接受的情况下,保留系数百份比和均方误差的值是最佳的,压缩后图像的直方图是十分接近与原始图像的直方图。

在省去将近85%的系数的情况下,图像的效果几乎没有差别。从压缩图像的直方图和原始图像的直方图比较可以看出,经压缩后的图像的直方图和原始图像的直方图差别不大,同时在被抛弃的图像信息可以看出只是在非常细节的部分上损失了一些细节信息,总体能量更是几乎没有损失。8×8的图像块经过DCT变换后,其低频分量都集中在左上角,高频分量分布在右上角(DCT变换实际上是空间域的低通滤波器)。由于低频分量包含了图像的主要信息(如亮度),而高频与之相比,就不是很重要了,所以可以忽略高频分量,从而达到压缩的目的。将高频分量去掉需要用到量化,这是产生信息损失的根源,这里的量化操作,是将某一个值除以量化表中对应的值。由于量化表左上角的值较小,右上角的值较大,这样起到保持低频分量、抑制高频分量的目的。而且由于DCT系数能量往往主要分布在低频区域,这样在保证压缩图像的质量的同时还可以提高计算速度。

4 应用

离散余弦变换在图像压缩中有很多应用,它是JPEG,MPEG等数据压缩标准的重要数学基础。在JPEG压缩算法中,首先将RGB分量转化为成亮度分量和色差分量,同时丢失一半的色彩信息(空间分辨率减半);然后将输入图像划分为8×8或16×16的图像块,对每个图像块做二维离散余弦变换;然后舍弃高频的系数,并对余下的系数进行量化以进一步减少数据量;传输后,JPEG接收端解码量化了的DCT系数,计算每一块的逆二维离散余弦变换,然后重组这些小块成为一幅图像。因为经过变换后大部分DCT系数都近似为0,因此,这些系数对重构的影响很小,在视觉效果上不明显,进而可以忽略不计,最终实现JEPG的压缩。

视频编辑技术主要利用DCT变换线性性质,文献[4]综述DCT域可行的视频编辑技术,如图像渐变、添加字模、加膜处理、人物-背景合成、变速处理等操作,都可以通过简单的DCT线性变换和矩阵操作实现,且计算复杂度不大,与传统的空域操作相比,将节省75%(DCT)或23%(MC-DCT)的计算量[5]。

5 结 语

离散余弦变换是一种实数域变换变换,由于因此计算速度较快,且十分接近于Karhuncen-Loeve变换,是一种近似最佳的变换而广泛的应用于做图像压缩和随机信号处理。本文实现了在LabVIEW软件平台下,利用其强大的计算能力和友好的编程环境对图像进行DCT变换和逆变换。仿真实验结果表明,选取适当的DCT系数,尽量保留低频信息分量,抛弃图像信息的高频分量,能达到均方误差小、压缩比高的、图像效果高的最佳点,同时,运算速度快的特点,在JEPG图像压缩和视频编辑技术等方面应用具有良好的发展前景。

摘要:DCT(Discrete Cosine Transform,离散余弦变换)是目前应用最为广泛的多媒体数据压缩技术之一,是近年来国际上高速海量的数据处理领域研究的热点之一。利用LabVIEW软件平台及友好的界面实现图像压缩编程。实验表明,适当选取DCT系数,能得到小的均方误差、压缩比高,同时图像效果好,符合图像与视频信息在大量存储以及传输的要求。

关键词:图像压缩,DCT,JPEG,均方误差

参考文献

[1]Chtprasert B,Rao K R.Discrete Cosine Transform Filtering[J].Signal Processing,1990,19(3):233-245.

[2]董长虹,赖志国,余啸海.Matlab图像处理与应用[M].北京:国防工业出版社,2004.

[3]杨乐平,李海涛,杨磊.LabVIEW程序设计与应用[M].2版.北京:电子工业出版社,2005.

[4]Chang S F,Messerschmt D G.Manipulation and Composi-ting of MC2DCT Compressed Video[J].IEEE Journal of Se-lected Areas in Communications,Special Issue on IntelligentSignal Processing,1995,13(1):1-11.

图像的拆分压缩 篇11

【关键词】二维信号 二维离散 傅里叶变换 傅里叶反变换 图像压缩 MATLAB

一、引言

对信号的分类,可以从不同的角度进行,通常可以分为时域信号、频域信号,一维信号、二维或多维信号,连续信号、离散信号等。将信号采用数学函数表达式表示,给信号的连续性、确定性的研究提供了必要的研究基础,而常见的一维或二维的信号,如连续的一维声音信号、连续的二维图像信号,它们在时域上离散表示时,通常采用相关的数据表示。本文研究的内容,主要是时域上离散的二维图像信号数据与其频域信号的变换、处理问题。

二、二值化离散

对于二维离散数据可以理解为:它们原先是时间函数在一定采样频率下离散的结果。对一张图像、一个指纹、一个汉字等二维平面上的信息采样,可得到二维离散数据。离散后的数据,一般为正实数内的数据,为简便起见,下面对一个汉字进行二维数据进行二值化离散,即非0即1的离散。

将汉字“王”字的二维二值化数据,可用如图1(a)所示的矩阵描述,在f(m,n)矩阵中,将汉字中的笔画上的点用“1”表示,无笔画的地方用“0”表示。图1(b)为将图1(a)中“0”去掉以后的情形,由此可见,图1(a)所示的矩阵能基本表示出“王”字的信息。当然,点阵数越多,所描述出的汉字信息也越多,准确性越好,失真越小。

图1 “王”字的16*16点阵矩阵

对二维连续信号的傅里叶变换,定义为

(1)

其中p、q为空间频率,通常f(m,n)为空间频率的复数值函数,它也有模值与相角,其模值为二维幅度谱(能量谱、密度谱)。由于式(1)可表示为

因此,对二维连续信号f(m,n)的傅里叶变换可视为先沿一个方向进行一维的傅里叶变换,再沿另一个方向进行一维的傅里叶变换。同理,对傅里叶反变换也可以两次按一维进行。

与一维连续傅里叶变换相似,式(1)为二维连续信号的傅里叶变换,要想用计算机处理,必须将其离散化,二维离散傅里叶变换为

(2)

式(2)中,离散矩阵f(m,n)的行与列为M行、N列,M与N可以不相等,但都为正整数。如在图1中M=N=16。

三、软件实现

在MATLAB软件中,对一维数组a进行傅里叶变换使用函数fft(a)进行,对二维数组c进行傅里叶变换,可以利用对一维数组进行傅里叶变换的函数,进行二维数组的傅里叶变换函数,其形式为:fft(fft(c).′).′,也可以直接利用对二维数组的傅里叶变换函数fft2(c)进行;对二维数组c的傅里叶反变换函数,其形式为ifft2(c)。下面的MATLAB程序实现对图1所示的二维离散数据的进行显示、傅里叶变换、能量谱的显示、频谱压缩、傅里叶反变换、还原显示等处理,程序行右边以“%”开头的是程序的注释。

imshow(f,'notruesize')%显示矩阵f点阵图,如图2所示。

a=input('aaaaa=')%等待从命令窗口输入任意数,目的是看清图2结果。

F = fft2(f);%对矩阵f进行2维傅里叶变换,赋值到F中

F0=F;%将F保存到F0中,后续还要用到F

F1 = log(abs(F));%对变换结果取模值,并取常用对数,数越大,幅度越强

imshow(F1,[-1 4],'notruesize');%以五种颜色显示频谱,

colormap(jet); colorbar%结果如图3所示

a=input('bbbbb=') %等待从命令窗口输入任意数

由图3可知,频谱的中心部分对应图像的高频分量,其能量较低,它们在傅里叶变换反变换中作用较小,为此,可将中心部分的频谱去掉,清空为零,,然后进行傅里叶变换反变换,得到点阵图案。为此,可继续执行如下程序。

for i=8:1:10;%对第8到第10行

for j=6:1:12;%对第6到第12列

F( i,j )=0;%频谱的中间清空(为0)

end%列循环结束

end%行循环结束

f1=ifft2(F)%对中空的频谱做傅里叶反变换

f2=abs(f1)%对变换结果取绝对值,因为变换结果为有正、负的实数

imshow(f2,'notruesize') %将矩阵f2中的数据显示出来,结果与图2完全相同

a=input('cccccc=')%等待从命令窗口输入任意数,目的是看清图的结果

从中空的频谱的反变换所得到的点阵图像与原点阵图像相同这一点说明,二维数据的频谱从能量上看,主要分布在边缘部分,如果将原频谱F0的四角重新组织在一起,从16*16频谱矩阵F0生成一个新的8*8频谱矩阵F2。

这样处理,实际上就是实现了频谱压缩,将压缩的频谱进行傅里叶变换反变换,得到压缩一般的点阵图案,为此,可继续执行程序(程序略)。

由图4可见,这是一个非二值化的灰度图象,已基本上看不清是一个“王”字,因为在f4矩阵中的数据尽管是实数,但并非是非0即1的数据,为此,要进行二值化处理,将高于某个数值的认为是1,而低于某个数值的认为是0,这个数值即阈值。对阈值的选择,可取f4矩阵中的数据的平均值。

四、结论

通过程序执行发现,用平均值作阈值所得到的图像并不是十分理想,而当阈值y=2.53~2.71时,形成的压缩图像保持一致,如图6所示。比较图2原16*16点阵图与图6压缩8*8点阵图,压缩图笔画信息稍有失真。可见,还原阈值的选择十分重要。

以上例子显示了利用傅里叶变换与反变换函数,对二维图像信息的压缩处理与还原的具体应用,展示了傅里叶变换与反变换在信号的时域、频域处理方面的作用。

参考文献:

[1]程佩青.数字信号处理教程[M].北京:清华大学出版社,2001,8.

一种新的彩色图像压缩方法 篇12

由于彩色图像存在着三原色,因而在Internet和移动通信对于彩色图像的使用日益扩大的同时,对设备的传输速率和存储量的要求也在不断增加。这就要求人们寻找更好的彩色图像压缩方法。

基于小波的彩色图像压缩近年来已被进行了深入的研究[1,2,3,4],文献[1]中研究了压缩的对比敏感度和空间频率之间的反向关系并引入对比敏感性方程(CSF)对这一关系进行了描述。文献[5]和文献[6]中提出将适于硬件实现、基于最高有效位(MSB)的自组织映射(SOM)算法用于数字彩色图像压缩,文献[5]中还提出了一种频率敏感自组织映射(FS-SOM)方法。而在文献[7]和文献[8]中则使用矢量量化(VQ)方法处理不同的色彩空间。文献[5]中的处理结果显示 FS-SOM方法优于VQ方法。文献[9]和文献[10] 参考等腰三角形分割思想,基于RGB分量和分形图像压缩算法提出了一种新的彩色图像压缩方法,但该技术仍存在着复杂性过高的缺点。

基于离散小波变换,提出了一种新的用于图像压缩和增强的方法。其中将每种颜色分解为低频和高频分量,因而可不考虑文献[1]中的对比问题。图像处理结果显示,所使用的技术相比于向量量化方法和文献[5]中的FS-SOM方法均显更优。随后使用YUV、YIQ和CIEXYZ 3种色彩空间进行了试验,结果同样显示,本文方法相比于文献[7]中所描述的技术也更有优势。

1 图像压缩方法

众所周知,彩色图像均由红色、绿色和蓝色3种分量组成,将每种分量均分解为LL(低-低)、LH(低-高)、HL(高-低)和HH(高-高)频率分量。LL分量是低频分量,未进行处理。LH、HL和HH分量则使用YUV(或是YIQ、CIEXYZ)色彩空间进行映射,由此得到3幅图像,或称3个分量。对红色、绿色和蓝色等每一分量均重复这一过程。在获得了红色分量的3幅图像之后,加上红色分量的LL,即可将DWT取逆就得到了新的红色分量。相同的过程再用到绿色和蓝色分量上,最后即得到被压缩的彩色图像数据。小波的类型是一个参数,可以对它进行修改以获得不同的图像压缩结果。与此相似,色彩空间也可以根据需要选用不同的类型。

对高频分量进行映射,即LH、HL和HH三者。因为这些分量的值都较小,所以在不转回RGB空间的前提下将它们映射进另一个色彩空间不会影响到最终结果。映射的过程其实就是实现2项任务,即压缩图像和消除高频形式的噪声,这就可以起到增强图像和增强信噪比的作用。

如式(1)和式(2)所示,本文对于图像数据应用了一系列方程组来进行离散小波变换,这一系列方程以尺度函数为起始,该函数可以在穿过各行时对各种类型的小波起到高通和低通的滤过作用:

然后再将它们应用到各列上,随后使用基本采样样例,就得到了细节的系数估算如式(3)所示:

这些方程组在每一层上都要进行递归运算。

2 图像处理结果

为了最后获得结果,有2个参数可以更改,就是小波变换的类型和颜色空间的类型。同时,采用3项性能指标对图像处理结果进行评估,即信噪比、压缩率和比特率。在下面的图片和表格中,将给出不同参数对应的算例结果,同时还给出了这些算例对应的某些性能指标。表1是本文所提出方法同其他文献中另外2种方法的对比(即SOM和FS_SOM)。由表1可以看到本文方法的压缩率有较大提高。表2则反映出本文方法获得的压缩图像的信噪比也有所增加,而这一点在SOM和FS_SOM方法中则未有提及,应该可以证明对图像的压缩有所增强。注意到从Mandril图像中获得的信噪比增量并没有YUV和YIQ色彩空间中获得的那么高,而在这一方面CIEXYZ则被证明是最好的。这是因为Mandril图像的边缘比其他图像多得多,而且能够存储图像的细节,所以其中的高频噪声可以被消除,因此其信噪比不会有较大的增加。从RGB向YUV、YIQ或者CIEXYZ色彩空间的映射可以降低高频分量噪声。噪声的降低在蔬菜图像中反映很清晰,因为它当中到处都是图像边界,使该图中的高频噪声高出一般图像很多,这就导致其压缩比较一般图像明显增加。YUV色彩空间对应的图像性能(比特率和SNR)都大致跟YIQ色彩空间相同,但是在CIEXYZ色彩空间中图像处理表现得更好。

表2、表3和表4中的对比是以本文提出的方法获得的,类似对比在文献[3]中没有给出。如果使用如db4等其他小波变换方式,则会获得不同的表格数据。

图1显示了原始的Lena图像,图2显示了本文方法的处理结果,而图3则显示了文献[9]中算法的处理结果。使用文献[9]中方法对Lena图像进行处理得到的压缩率是4.88,高于本文方法的对应值(3.8)。但是本文方法对图像的压缩质量却更好——由图2和图3可以看出,其中没有出现锯齿形区域。另外,文献[9]中的方法较本文方法更为复杂,导致计算量更大。图4显示了一幅原始蔬菜图片,图5显示了该图片在使用YUV色彩空间和db4小波转换后的结果。

3结束语

在使用本文方法伴以YUV色彩空间对小波变换中高频分量的处理结果进行压缩和增强时,虽然得到的信噪比更低,但获得了更高的压缩率和比特率。当采用YIQ色彩空间处理图像时,影像质量略有提高。而应用到CIEXYZ色彩空间上时,影像质量则有大幅提升。

参考文献

[1]MARCUS J,NADENAU J R,MURAT K.Wavelet-BasedColor Image Compression:Exploiting the ContrastSensitivity Function[J].IEEE Trans.On ImageProcessing,2003,12(1):99-101.

[2]胡兴堂,张兵,张霞,等.基于小波变换的海量高光谱遥感数据分形编码压缩算法研究[J].中国科学E辑:技术科学.2006,(S1):23-24.

[3]徐敬,付炜,胡彩宁,等.基于小波图像编码算法的改进及实现[J].无线电通信技术,2008,34(5):62-64.

[4]黄波,王煜坚.一种基于对象的可伸缩小波编码器[J].无线电通信技术,2009,35(6):35-38.

[5]CHANG Chip-Hong,RUI Xiao,THAMBIPILLAI S.AMSB Biased Self Organizing Feature Map for Still ColorImage Compression[D].Singapore:NanyangTechnological University,2002..

[6]黎洪松,许保华.一种用于视频对象编码的运动模式识别算法[J].电子学报,2007(12):122-123.

[7]DANDAWATE Y H,JOSHI M A,UMRANI S M.Performance Comparison of Color Image CompressionBased on Enhanced Vector Quantizer Designed UsingDifferent Color Spaces[C]∥International Conference onIntelligent and Advanced System,2007:64-65.

[8]张传生,丁承民,刘贵忠.一种新的基于Kohonen网络的图像矢量量化[J].系统工程与电子技术,1997(3):133-134.

[9]ZHAO Yu-li,LIANG Zhi,YU Hai.Fractal Color ImageCoding Based on Isosceles Triangle Segmentation[C]∥2010 International Workshop on Chaos-Fractal Theoryand Its Applications:54-55.

上一篇:创意与专利的关系下一篇:《中国实用内科杂志》