图像多区域

2024-08-08

图像多区域(精选7篇)

图像多区域 篇1

图像融合是数据融合的一个重要分支, 是20世纪70年代后期提出的概念。该技术综合了传感器、图像处理、信号处理、计算机和人工智能等现代高新技术。Pohl和Genderen将图像融合定义为:“图像融合就是通过一种特定的方法将两幅或多幅图像合成一幅新图像”[1], 其主要思想是采用一定的方法, 把工作于不同波长范围、具有不同成像机理的各种成像传感器对同一个场景成像的多幅图像信息融合成一幅新的图像, 其实质是利用待融合图像的信息在时空上的互补性、冗余性, 使融合图像对场景和目标的表达更加全面, 更加有利于人们分析和理解。

根据图像处理所处阶段和数据抽象程度的不同, 现有的图像融合算法通常在如下三个层次进行:像素级、特征级和决策级[2]。像素级图像融合是最为广泛研究的一个融合层次, 也是取得研究成果最多的一个层次。像素级图像融合方法主要有两种:一种是基于单个像素的融合方法, 如像素值取大或加权平均等方法, 这些方法虽然计算简单, 但是其融合效果较差。这是因为在某个局部窗口中, 像素之间有很强的相关性, 图像在某个像素点的特征不是由单个像素体现的, 而是与其周围的像素共同体现的, 而像素级融合割裂了领域像素之间的相关性, 会在融合图像中产生一些虚假信息。另一种方法是基于区域特性的融合方法。它是一种基于局部窗口活性测度 (ActivityMeasurement) (如能量, 方差及对比度等) 的融合方法, 这种方法充分考虑了人类视觉系统 (HumanVisualSystem, HVS) 对局部敏感的特性, 在融合过程中考虑了邻域像素间的关联性, 这种融合规则的融合效果在绝大多数情况下都比基于单个像素的融合规则的效果好。

小波变换由于具有良好的时频局部化性能, 能为一维分段光滑信号提供最优表示, 并且其拥有树状分解的快速算法, 所以在图像处理领域得到了广泛的应用。但遗憾的是小波分析在一维时所具有的优异性能并不能简单地推广到二维或更高维由一维小波扩展的二维小波只具有有限的方向, 不能“最优”表示含线或者面奇异的高维函数。而事实上具有线或面奇异的函数在高维空间中非常普遍。这些缺点表明小波变换并不是最适合的图像稀疏表示方法。

为了克服小波变换的这些不足, 近年来, 在数学分析、计算机视觉、模式识别以及统计学等领域各自独立地发展出一系列高维信号分析方法。与小波变换相比, 这些方法更适合视觉系统的感知特性, 能更有效的捕获和表示自然图像的边缘和纹理等几何特征, 从而对分片光滑二维函数获得更为“稀疏”的表示。研究表明, 人类视觉系统 (HVS) 具有方向性、多尺度、局部化、相似性和各向异性的特性, 能够使用最少的视觉神经细胞捕捉自然场景的本质信息, 即对自然场景进行最稀疏的编码[3]。研究者们根据人类视觉系统的这些特性提出了一种“多尺度几何分析” (MultiscaleGeometricAnalysis, MGA) 理论, 其目标是对具有高维奇异性函数进行有效的检测、表示和处理, 这些数据的重要性又集中体现于其低维子集中 (如曲线、片状面等) , 能够利用较大的系数来逼近原始信号。

近年来, 基于MGA的分析方法得到了飞速的发展。1998年, E JCandes提出了一种非自适应的高维函数表示方法—脊波理论, 给出了脊波变换的基本理论框架[4]。1999年, Candes和Donoho提出了连续Curvelet变换[5], 其由脊波理论衍生而来。由于Curvelet变换需要进行极坐标转换的复杂操作, 而这些操作在计算机处理的离散域上很难实现, 限制了它的应用。2002年DoM N和VeterliM提出了一种“真正”的二维图像表示方法—Contourlet变换, 也称塔形方向滤波器组 (PDFB, Pyramidal DirectionalFilterBank) , 它是Curvelet变换的另一种低冗余度离散实现, 能够很好地抓住图像的几何结构, 提供了一种灵活的多尺度、布局的、方向性的分析方法, 是一种二维分段光滑信号的稀疏表示方法。但由于变换过程中采用了下采样滤波器, 使得变换缺乏平移不变性 (Shift-invariance) , 这将导致边缘处的失真。为此, Cunha等人于2005年利用类似àtrous的算法实现了一种具有平移不变性的Contourlet变换—非采样Contourlet变换 (nonsubsampled contourlettransform, NSCT) [6], 很好地弥补了Contourlet变换的缺陷, 从而使其在图像融合领域的应用成为可能。

1 NSCT变换

NSCT变换包括两个步骤:第一步采用拉普拉斯金字塔 (Laplacianpyramid, LP) 来实现多分辨率分解, 第二步通过方向滤波器组 (Directionalfilterbank, DFB) 来实现方向分解。NSCT借鉴了àtrous算法的思想, 与Contourlet变换不同的是, NSCT并不对LP分解后的分量和DFB分解后的分量进行下采样, 而是对滤波器进行上采样, 使得该变换满足平移不变性。

1.1非下采样LP分解

非采样的LP分解不同于Contourlet变换中的LP分解。在Contourlet变换的LP分解中, 首先对上一尺度低频图像用低通滤波器进行低通滤波, 然后进行下采样, 得到低频图像;再对该低频图像进行上采样, 然后用高通滤波器对上采样后的图像进行高通滤波, 并将高通滤波后的图像与上一尺度的低频图像进行差分, 得到塔式分解后的高频部分。而在NSCT中, 采用àtrous算法的思想, 对低通滤波器和高通滤波器分别进行上采样 (对于第J尺度上的分解, 在相邻两个滤波器系数间插入2j-1个零) , 然后对上一尺度低频图像采用上采样后的低通滤波器进行低通滤波, 得到低频图像, 对上一尺度低频图像用上采样后的高通滤波器进行高通滤波, 得到LP分解后的高频图像。如图1所示。

其中, xj+1表示第j+1尺度上的低频信号, yj+1表示第j+1尺度上的高频信号。Hj, Gj分别表示H0, G0的2j尺度膨胀 (即在相邻两个滤波器系数间插入2j+1个零) 。

1.2非下采样DFB分解

对于NSCT中非下采样的DFB分解而言, 也是采用à trous算法的思想, 即对级联的每级滤波器进行上采样, 来获得平移不变性。在第一级分解中, 采用标准的扇形滤波器K0, K1来获得图像频谱的“水平”分量和“垂直”分量。在第二级分解中, 对扇形滤波器K0, K1进行梅花形上采样, 以得到象限滤波器K2和K3, 其采样矩阵Q

从第三级开始, 对8个菱形滤波器进行上采样以得到滤波器P0—P7。其分解过程如图2所示。对于0—3通道, 分别对菱形滤波器S0—S3进行上采样。对于第1级, 第k个通道上的采样矩阵为

以后各级对频率子带的划分过程类似第三级的划分过程。

对于4—7通道, 分别对菱形S4—S7进行上采样。对于第1级, 第k个通道上的上采样矩阵为

以后各级对频率子带的划分过程类似第三级的划分过程。

综合1.1和1.2节分析, NSCT变换的两部分分别实现了多尺度分解和多方向多分辨率分解, 可以通过迭代的方式对非下采样金字塔分解的高频分量进行非下采样方向滤波器组以得到不同方向的子频带。分解的总体框架如图3所示。

2NSCT融合方法

由于NSCT变换具有平移不变性, 消除了频谱泄露和频谱重叠, 同时又继承了多尺度、多分辨率和多方向分解的特性, 从而使图像在同尺度变换下的高频分量表现了多个方向的细节信息, 因此能够更好地捕捉图像的细节, 这就为图像融合提供了很好的条件, 有利于图像细节信息的融合。考虑到人类视觉系统 (HVS) 对图像清晰与否无法通过单个像素进行判断, 其主观视觉效果是通过特定区域内的像素联合体现的。若采用单个像素的融合规则, 没有考虑变换系数邻域特性在融合中的作用, 则不能有效利用源图像中的清晰信息进行整合, 其效果往往不够理想。因此, 本文中采用基于区域方差和区域能量的NSCT融合方法, 现以两幅多聚焦图像A、B为例说明具体的融合过程:

a) 对图像A、B进行J级NSCT变换, 得到的高低频子带分别为{aJA, dj, kA}和{aJB, dj, kB}。其中aJX表示图像X分解J层的低频系数;dj, kX表示图像X第j层第k方向的高频系数 (X=A, B) 。

b) 对于分解后的低频子带, 采用区域方差函数提取多分辨率分析系数的特征信息, 由于清晰或模糊的特征往往存在于一定的区域, 因此必须由基于区域的函数表达式来决定如何合成变换系数, 得到融合图像的多分辨率分析系数。局部区域方差反映了该局部区域内图像灰度变化的剧烈程度, 从而在一定程度上反映了该区域内图像的清晰程度。多聚焦图像即便经过多级分解之后, 其低频子带中的非聚焦区域仍然不够清晰, 因此选取其余源图像中聚焦清晰区域的相应变换系数才是较好的选择。在融合时先将低频子带进行划分, 分割为相互独立的N×N正方形子块aJ (m, n) , 随后计算所有子块的区域方差参数。

CX (x, y) = (x, y) Ω (m, n)

(aJX (m, n) (x, y) -a¯JX (m, n) (x, y) ) 2 (8)

式 (8) 中, Ω (m, n) 定义了矩形局部区域, 一般为3×3或5×5的模板。a¯JX (m, n) (x, y) 表示源图像X低频子带 (m, n) 子块的系数均值。本文采用模取大的融合规则, 即区域方差值越大表明对应源图像的局部对比度越大, 特征越明显, 即可认为清晰度越高。低频子带的整体融合过程可以表示为:

aJF (m, n) ={aJA (m, n) , CA (m, n) CB (m, n) aJB (m, n) , CA (m, n) <CB (m, n) (9)

式 (9) 中aJF (m, n) 融合图像的低频系数。

c) 对于NSCT分解后的高频子带, 根据人类视觉系统 (HVS) 的特性, 我们利用像素的窗口特性和区域特性进行联合分析。为此我们将NSCT分解得到的高频系数的区域能量作为高频子带的图像清晰度准则。

首先将高频子带进行分块, 依据式 (10) 计算每个独立子块的区域能量:

Ej, kX (m, n) = (x, y) Ω (m, n) γ (x, y) dj, kX (x, y) 2 (10)

式 (10) 中dj, k (m, n) 表示高频子带系数, Ω (m, n) 定义了矩形局部区域, 一般为3×3或5×5的模版。γ (x, y) 表示权值。离模板中心越近权值越大, 反之则越小。

聚焦清晰图像有较大的高频系数, 对应于能量较高的块所含的图像高频信息较多, 即原始图像更为清晰。因此融合规则只需选择区域能量较大的源图像信息即可, 表示为

dj, kF (m, n) ={dj, kA (m, n) , Ej, kA (m, n) Ej, kB (m, n) dj, kB (m, n) , Ej, kA (m, n) <Ej, kB (m, n) (11)

式 (11) 中dj, kF (m, n) 表示融合图像的高频系数。

d) 对根据融合规则得到的高频和低频系数进行NSCT反变换, 就可以得到所求的融合图像。

3实验及融合图像的评价

3.1融合图像结果

本文中的多聚焦图像采用256×256的钟表图像。对于本文提出的方法, 分别采用NSCT, 小波变换和Contourlet变换变换三种方法进行了比较, 在这三种方法中均采用三级分解, 在方向分解阶段, 采用2, 4, 8的方向数进行分解, 小波变换中的小波基采用db4, 融合阶段高频采用中心系数为2, 边缘系数为1的3×3的区域模板, 低频采用5×5的区域模板。另外为了验证本文的算法比基于像素的方法优越, 本文进行了基于像素的NSCT多聚焦图像实验, 基于像素的融合规则为低频系数采用系数平均的方法, 高频系数采用取大的方法获得。上述方法的融合图像结果如图4 (a) — (e) 所示。为了表示方便, 将基于区域的NSCT融合方法记为NSCT+R, 基于区域的小波融合方法记为DWT+R, 基于区域的Contourlet融合方法记为Contourlet+R, 最后, 对于基于单个像素的NSCT融合方法记为NSCT+P

3.2融合图像的评价

对融合效果的评价分为主观评价和客观评价。

主观评价:通过比较图4 (a) — (e) 可以看到, 使用本文方法得到的融合图像明显好于相同融合规则下使用其他变换方法得到的融合图像。基于小波和Contourlet变换的融合图像边缘处都出现了假边缘和光谱扭曲现象, 这是由于其变换缺乏平移不变性引起的, 而NSCT由于具有平移不变性, 使得融合图像的边缘都较清晰, 同时基于Contourlet变换的融合方法明显好于基于小波的变换方法, 说明了多方向分解的变换方法对于表示二维图像是非常适用的。比较图4 (a) 和 (f) 可以看到, 在NSCT变换下, 使用基于区域的融合方法由于考虑了区域像素之间的关联性, 效果明显好于基于像素的方法。

客观评价:为了进一步对融合效果进行客观评价, 本文采用了最常用的信息熵和方差两个参数作为融合图像定量的评价标准。

3.2.1 信息熵

信息熵能够较好的描述图像所含信息量的大小。图像中高频细节信息越丰富, 其信息熵就越大, 说明图像所含的信息量越大。信息熵是常用的评价图像融合方法的一个重要指标, 其定义为

H=-i=0L-1PilgPi (12)

式 (12) 中, H表示图像的熵, L为图像总的灰度级数, Pi表示灰度值为i的像素数Ni与图像总像素数N之比。H越大表明融合图像所包含的信息量越大。

3.2.2 方差

方差D是计算图像像素灰度值与图像均值之间的偏离程度的一个重要指标, 它能反映图像的对比度。方差越大说明融合后的对比度越大, 图像信息越丰富, 其表达式为

D=1ΜΝi=Μj=1Ν|A (i, j) -A¯ (i, j) |2 (13)

式 (13) 中:D为方差, A (i, j) 为图像的灰度值, A¯ (i, j) 为图像的平均灰度值, MN为图像的大小。

本文对上述各种融合方法的信息熵和方差进行了计算, 结果如表1所示。

从表1可以看出, 采用本文方法得到的融合图像其信息熵和方差均高于其他方法得到的数据, 证明了NSCT变换相比于其他传统变换方法的优越性, 也证明了基于区域特性融合方法的可行性。

4结论

本文对NSCT图像变换方法进行了研究, 提出了一种基于区域特性的NSCT多聚焦图像融合算法。NSCT继承了多尺度、多分辨率的优点, 且满足平移不变性, 是一种非常好的图像变换方法;考虑人类视觉系统 (HVS) 对于区域敏感的特性, 本文采用基于区域的方法进行融合。从实验结果来看, 本文的融合方法较大程度上消除了其他方法带来的假边缘和光谱扭曲现象, 且比基于像素的方法优越。

参考文献

[1]Pohl C, Van Genderen J L.Multisensor image fusion in remote sens-ing:Concepts, methods and applications.International Journal of Remote Sensing, 1998;19 (5) :823—854

[2] Hall D L, Linas J. An introduction to multisensory data fusion. Proc. of the IEEE, 1997;85 (1) :6—12

[3] Normann R A, Maynard E M, Rousche P J. A neural interface for a cortial vision prosthesis. Vision Research, 1999;39:2 577—2 587

[4] Candes E J. Ridgelets: Theory and application . USA: Department of Statistics, Stanford University, 1998

[5]Candes E J, Donoho D L.Curvelet-A surprisingly effective non-adap-tive representation for objects with edges.In:Curves and Surfaces.Nashville, TN:Vanderbilt Univ.Press, 2000:105—120

[6]Cunha A L, Zhou Jiangping, Do M N.Nonsubsampled contourlet transform:Filter Design and Application in Image Denoising.Interna-tional Conference on Image Processing, 05, 2005

图像多区域 篇2

图像融合是指按照一定的规则,把同一目标或同一场景的多个传感器的成像或单一传感器的多次成像进行一定的处理,生成一幅新的图像。新图像与原图像相比,信息更全面、精确和稳定,新图像包含了原图像的冗余信息和互补信息,具有更大的应用价值。因此,图像融合在军事领域和非军事领域如遥感图像、医学图像、机器视觉上得到了广泛的应用[1]。通常图像融合可分为三个层次,像素级融合、特征级融合和决策级融合[2]。本文的研究把图像的像素级融合与特征级融合结合起来。

在小波图像处理中,正交性确保图像分解系数不具有冗余性;光滑性可以减少高频带通滤波各个子带的频间相关干扰;紧支性保证了滤波器的有限响应,便于工程应用;而对称性(线性相位)既适合于人眼的视觉系统,又使信号在边界易于处理。但Daubechies已证明正交、紧支的单小波除Haar小波外都不具对称性[3]。然而Harr小波过于简单,多数应用场合其性能不佳。也就是说,除了Harr小波外,与其它单小波对应的高通滤波器H和低通滤波器G不可能具有线性相位特性[4],其产生的相位失真将会引起图像中边缘的失真。采用多小波技术,构造一个满足正交、紧支、对称性的小波基[5],可以克服单小波的缺陷,将光滑性、紧支性、正交性、对称性完美地结合在一起。理论上分析,在图像处理中,任何单小波能应用的领域多小波也同样适用。多小波在理论上所表现出的优越性,使之受到广泛重视。

本文提出了一种基于区域方差的多子带联合判决的多小波融合算法。实验结果的主客观评价分析表明,该方法的融合性能比基于单小波的融合方法的融合性能好。

1 多小波变换分析

类似于标量小波,根据多分辨率分析的思想,由多尺度函数和多小波函数在尺度j和位移k上的扩展构成了两个互补的函数子空间:Vj=span{2-j/2Oi(2-j,-k):1≤i≤r,k∈Z}和Wj=span{2-j/2hi(2-j,-k):1≤i≤r,k∈Z},其中Oi和hi分别是多小波和多尺度矢量的第i个分量,因此这里的尺度和小波都是有如H=[O1,…,Or]T和J=[h1,…,hr]T形式的矢量[6]。

其中,hk和gk分别是高通滤波系数和低通滤波系数,m是尺度系数的个数。

1.1 多小波算法

一维信号f0(x)∈V0可以表示为下面的多小波扩展形式:

L是分解层数.系数dik,L,…,dik,1,cik,L(i=1,2)完全刻画了函数f在空间W1,…,WL,VL的投影,这样就可以通过函数和每一个空间的基分量的内积计算出函数的投影。系数的计算由多小波分解与重构的Mallat快速算法给出,对于给定的滤波器系数hkij,gkij,分解方程为:

相应的重构方程为:

以上是一维信号的情况,对二维图像阵列信号,只需对一维算法作矢量积。具体做法为:设A为一幅M×N的维图像。首先对每一行作预处理,得到M×2N的阵列B1和B2,图像变换为B=[B1 B2]。然后分别对B1和B2的每一列进行预处理,得到(M/2)×(N/2)的阵列c11,c21和c12,c22,最后得到如下的4个子阵列作为多小波分解的初始输入:

把这个分块矩阵代入式(4)即可进行多小波分解,对于重建后的分块子矩阵,再进行上述计算的逆过程,即可完成算法的后处理。

1.2 基于多小波变换的图像融合处理过程

多小波变换图像融合处理过程见图1,多小波分解示意见图2。在用矢值滤波器组来实现离散多小波变换时,由于矢值滤波器组处理的对象是矢值信号,因此在对图像进行多小波分解前,需要先将原始图像转化为矢量图像,使之变成2×2矩阵块,如式(5)所示,这个步骤是由预滤波器完成的,称为预滤波。预滤波器的设计是多小波中特有的问题,是实现多小波分解的关键,文献[7]详细说明了预滤波方法。经过预滤波后,原图像被分为4幅大小相同的子图像。每个子图像在多小波变化后有2×2个子图像。在第一层多小波分解后,原始图像变为16个子图像,如图2所示。在进行第二层成分解时,只是将低频部分进一步分解,高频图像部分保持不变。以此类推,分解完成后,只有最高层的4个低频图像是完全的低频图像,其余子图像中均含高频成份。多小波重构以与分解相反的方向进行,从最高层开始,按先垂直后水平的顺序,依式(4)进行重构,再进行后滤波处理,得到重构图像。

2 融合规则

图像融合没有统一的规则,对不同的融合对象应采用不同的融合规则。但以下三个因素应该加以考虑:(1)变换域在同一尺度上包含有多个子带,这些子带共同描述了源图像在该尺度上的特征表现,它之间必然具有较强的相关性,因此变换域内的特征提取和融合应该联合多个子带进行;(2)变换域的子带内系数之间存在较强的空域聚焦特性,即相邻系数之间具有一定的相关性,因此在确定某一变换系数的性质时,应该将其相邻系数的信息也考虑在内,利用该系数的窗口特性或区域特性来进行变换域内的特征提取和融合;(3)多小波分解有方向性,利用这一特性就有可能针对人眼对不同方向的高频分量具有不同分辨率这一视觉特性,获得视觉效果更佳的融合图像。

综合考虑以上三个因素,采取一种基于尺度内多子带联合窗口特性的融合规则进行融合。其规则为:

(1)对变换域的低频信息,采用加权平均算子进行融合

式中,ALiLj、BLiLj、FLiLj为图像A、B和融合图像F的低频信息;

(2)对于变换域的高频信息,基于变换域特性进行融合。在各个尺度内的所有高频子带上,首先基于3×3的窗口W获得对某一像素的区域方差,然后合并该尺度上所有子带在对应空间位置处的区域方差来衡量该系数的重要程度,通过比较所有源图像在各个尺度内不同空间位置上变换系数的重要程度,完成变换域内系数的融合,即:

(1)分别计算两幅图像对应尺度、对应方向、对应子带上局部区域的方差WXj,k,A及WXj,k,B:

式中,X=1,2,3为水平、垂直和对角3个方向;k=1,2,3,4为各方向上的4个子带;L、M为局部区域的大小;WXj,k(m,n)为2-j尺度下,X方向上,k子带上,以(m,n)为中心位置的局部区域差;DXj,k为2-j尺度下,X方向上,k子带上的高频分量;DXj,k为2-j尺度下,X方向上,k子带上以(m,n)为中心位置的L×M区域上的DXj,k均值。

(2)在对应尺度、对应方向上计算图像A的局部区域方差大于图像B的局部区域方差的个数mjX。

(3)确定融合算子:

3 仿真实验分析

实验采用GHM多小波[8]和DB2单小波,分别对一组多聚焦图像和一组医学图像进行了融合。GHM多小波采用本文的融合方法,DB2单小波分别采用高频系数取大和平均两种融合方法。GHM滤波器组系数为

预滤波器系数:

后置滤波器系数:

为客观评价融合效果,选取融合图像F的熵(Entropy)、交叉熵(Cross Entropy)、均方误差(Mean Square Error)、清晰度(Sharpness)等指标对融合过程的特征提取能力和信息损失程度进行量化[9]。

融合图像熵越大,表明融合图像从源图像中提取的信息越充分;与清晰图像之间的交叉熵越小,表明融合过程中的信息损失越少;与清晰图像之间的均方误差越小,表明融合效果越接近清晰图像;融合图像清晰度越大,表明融合图像越清晰。

3.1 多聚焦图像融合实验

图3为多聚焦图像及融合图像,从图3中可以看出,图3(a)和图3(b)是聚焦不同的两幅图像,图3(c)是一幅清晰图像。图3(d)与图3(f)相比,图3(d)的边缘不连续,有方块相应。图3(e)与图3(f)相比,图3(e)比较模糊。

实验1融合性能的量化评价见表1。从表1中可以看出,GHM融合图像与Db2融合图像相比,融合图像熵更大、交叉熵更小、均方误差更小、清晰度更大,表明融合效果更好。

3.2 可见光与红外融合实验

图4为可见光与红外图像及融合图像,从图4中可以看出,图4(a)和图4(b)是待融合的源图像。图4(c)~(e)都将源图像的信息结合在一起。但图4(c)不连续,有方块效应;图4(d)比较模糊;图4(e)的轮廓更加清晰,更好地融合了源图像的信息。实验2融合性能的量化评价见表2。从表2可以看出:GHM融合图像熵更大,清晰度更大,表明融合效果更好。

4 结束语

多小波图像融合与单小波图像融合有所不同,首先多小波变换在分解之前要对图像数据进行预滤波,图像重构时需要做后置滤波;其次由于有多个尺度函数和多个小波的存在,在图像的多小波变换系数中同一尺度且同一方向上存在r2个对应不同小波细节的子图(r是矢量小波的维数),各子图可以有不同的融合规则,子图增多使得处理更加灵活。采用多小波技术可以构造一个满足正交、紧支、对称性的小波基,相应的滤波器组具有线性相位特性,将会减少图像中边缘的失真。

参考文献

[1]王玲,钱华林.计算机取证技术及其发展趋势[J].软件学报,2003,14(9):1635-1644.

[2]江东,王饪,王建华,等.多源图像信息融合的理论与技术[J].甘肃科学学报,2002,14(l):41-45.

[3]Daubechies I.Ten lecture on wavelets[M].Philadephies:Capi-tal City Press,1992.

[4]崔锦泰.小波分析导论[M].西安:程正兴,译.西安交通大学出版社,1995.

[5]Goodman T N T,Lee S L.Wavelets of multiplicity[J].IEEETrans on Amer Math Soc,1994,34(2):307-324.

[6]Geronimo J S,Hardin D P,Massopust P R.Fractal functionsand wavelet expansions based on several functions[J].Journalof Approximation Theory,1994,78(3):373-401.

[7]Strela V,Hellers P N,Strang G,et al.The application ofmultiwavelet filter banks to signal and image processing[J].IEEE Transactions on Image Processing,1999,8(4):548-563.

[8]Strela V.Multiwavelets:theory and application[D].Mas-sachusetts,USA:Department of Mathematics,Mas-sachusetts Institute of Technology,1996.

图像多区域 篇3

图像融合规则是图像融合的核心, 规则的好坏直接影响图像融合质量。目前常用的融合规则包括基于像素的图像融合规则和基于窗口的图像融合规则。基于像素的融合规则仅是以单个像素作为融合对象, 它并未考虑图像相邻像素间的相关性, 融合性能不佳。基于窗口的融合规则由于考虑相邻像素的相关性, 因此减少了系数的错误选取, 融合效果得到提高。

但是图形的局部特征往往不是由单个像素或者局部窗口内的像素的图像变换系数所能表示的, 它是由某一局部区域的多个像素的图像变换系数来表示和体现的[1]。通常图像中某一局部区域内的各像素间具有较强的相关性。基于此, Zhang Z.、Piella G.[2]等人提出了基于区域的融合规则。

1 基于区域的图像融合方法

基于区域的多传感器图像融合算法结构如图1所示。图像融合处理前先对2幅待融合图像IA和IB分别进行图像分割以得到各图像的区域表示RA和RB (区域表示中不同标记表示不同区域) , 通过对两图像的区域表示RA和RB进行叠加获得2图像的共同区域表示R。对区域表示进行叠加时, 2个区域表示中重合的区域或交叉的区域作为共同区域表示中的一个区域。对2个区域表示进行叠加的示例如图2所示, 图2a的区域表示中包含2个区域, 图2b的区域表示中也包含2个区域, 通过对这2个区域表示叠加产生4个交叉区域, 从而得到图2c的共同区域表示。对输入图像进行融合处理时, 先采用方向金字塔框架变换[3]或方向可调的不可分离小波框架变换对2幅待融合图像分别进行多尺度分解, 并根据2幅图像的共用区域表示R计算2幅图像区域相似度MAB, 根据2幅图像的各自区域表示计算融合量测指标。融合决策是根据MAB进行制定:对于2图像中相似区域的融合采用系数加权平均的方法, 而对于两图像中非相似区域的融合采用系数选取的方法, 加权平均时的权值以及系数选取时的优先性由各系数的融合量测指标的大小决定[4]。

2幅待融合图像IA和IB经多尺度分解后, 令表示两图像fNA (x, y) 和fNB (x, y) 经分解后的最低频子带系数, N为多尺度分解的层数, (x, y) 表示系数坐标;令giA (x, y) 和giB (x, y) 表示两图像经分解后的各高频子带系数, i=1, 2, ⋯, NH (NH为图像经分解后的高频子带的个数) 。令giF (x, y) (i=1, 2, ⋯, NH) 、fNF (x, y) 表示经融合处理后的图像变换系数。

1.1 低频系数融合处理

对于低频图像fNA和fNB的融合处理一般采用按区域进行加权平均或直接选取的方法。

根据区域表示RA和RB计算两待融合图像经多尺度分解后的低频系数的融合量测指标, 该指标由两部分组成:区域的标准差σ和区域的突变度τ。首先根据区域突变度找出2幅图像中灰度突变程度比较大的区域:如果τA (rA) >τT (τT为阈值, 一般取0.8左右) , 则对于rA区域, 融合后的低频图像取IA的低频图像;如果τB (rB) >τT, 则对于rB区域, 融合后的低频图像取IB的低频图像。对于突变度变化不大的区域, 则对于任意区域r∈R, 如果相似性测度MAB (r) <α, 则对低频系数的融合处理采用系数选取的方法

式中, σA (r) =σA (r A) , 其中r A为RA中包含r的区域;σB (r) =σB (r B) , 其中r B为RB中包含r的区域。

如果对于任意区域r∈R有MAB (r) α, 则采用加权平均的融合策略

式中, 和为权系数, 有

1.2 高频系数融合处理

区域边界上的高频系数融合处理:图像经多尺度分解后的高频子带系数包含了图像中诸如边缘、区域轮廓等的细节信息。图像分割后的各区域边界往往对应于图像中的边缘以及区域轮廓。所以在融合处理时, 对于公共区域边界上的高频系数选取较大的高频系数, 非公共区域边界上保留各自的高频系数;对于非区域边界上的高频系数则根据相似性测度进行加权平均或系数选取, 相似性测度高的进行加权平均, 相似性测度低的做系数选取。

对组合后的图像变换系数进行图像逆变换即可得到融合后的图像IF。

2 区域分裂合并算法

在区域融合算法中, 对待融合图像的区域分割对图像融合的结果起到关键性的作用。对于图像的分割, Frank N.等人提出了基于区域生长与区域合并的方法。在这类方法中, 常需要根据图像的统计特性设定图像区域属性的一致性测度, 其中常用的测度多基于灰度统计特征, 例如同质区域中的方差 (variance within homogeneous regions, VWHR) 。算法根据VWHR的数值确定分裂和合并各个区域。

一般有代表性的, 采用图像四叉树表达方法对图像做简单分裂合并[4]。设R代表整个矩形图像区域 (见图3) , P代表逻辑谓词。从最高层开始, 把R连续地分裂成越来越小的1/4的矩形子区域Ri, 并且始终使P (Ri) =TRUE。换句话说, 如果P (R) =TRUE, 那么就将图像分成四等分。如果P (Ri) =FALSE, 就将Ri分成四等分。如此类推, 直到没有P (Ri) =FALSE。同时, 在每次分裂后允许其后继续分裂或合并。这里合并只合并那些相邻且合并后组成的新区域满足逻辑谓词P的区域。换句话说, 如果能满足条件P (Ri⋃Rj) =TRUE, 则将Ri和Rj合并起来。

利用图像四叉树表达方法可将图像以金字塔数据结构形式组织起来。理论和实验都表明, 在分割时, 从金字塔结构的中间层开始可节约计算时间, 具体计算步骤为:

(1) 初始化:从中间某层k开始, 方块的边长是n=N/2k, 求出块内最大灰度Mk和最小灰度mk。

(2) 分裂:设e为预定的允许误差值, 如果Mk-mk>2e, 则将节点分裂为4个小方块, 并计算各小方块的Mki和mki, i=1、2、3、4, 分裂最多进行到像素级。

(3) 合并:反过来, 如果4个下层节点bki, i=1、2、3、4, 有公共父节点, 且max (Mk1, Mk2, Mk3, Mk4) -min (mk1, mk2, mk3, mk4) <2e, 则将它们合并成一个新节点, 合并最多进行到图像级。

(4) 组合:在非共父节点的相接节点间进行合并。具体是先建立一个堆栈S, 初始为空;再建立一个辅助的邻接矩阵A, 开始时其元素aij=a (xk, yk) =k。然后依次检查每个像素, 如果像素fij属于节点bk所代表的方块, 对应的矩阵元素aij保持原值。组合以标记方法实现, 对结点bk的标记策略为: (1) 未标记过和未扫描到的, 用标记Fk>0表示; (2) 标记过但未扫描到, 用标记Fk<0表示, 并将结点bk放入S; (3) 既标记过也扫描到, 用标记Fk>0表示, 但结点bk不放入S中。用标记法将已标记过的结点顺序放入区域表中, 并给区域表加上一个终结标记。根据以下算法进行组合 (u和v为暂存器) :令S为空, 若Fk>0, 则压bk到S中, u←Mk, v←Mk;如果S非空, 则从S中弹出bk, 将bk装入R, 再对所有的bk∈A判断Mk-mk, 如果结果小于2e, 将bk装入S, 循环以上步骤, 最后将零装入R, 结束。

3 试验结果及评价

试验中, 运用Matlab7.4实现图像的融合。如图4、图5所示。。在融合的过程中, 采用方向可调的不可分离小波框架变换对2幅待融合图像分别进行多尺度分解, 分解为3层。

表1是对上述图像的客观数据统计, 采用基于Region的图像融合算法融合后的图像, 其熵、空间频率、平均梯度相对源图像都有提高。从视觉上也可以看出采用基于区域的方法融合后的图像融合了2幅图像的细节信息, 取得了很好的效果。这表明采用基于区域的图像融合算法能较好地综合源图像信息。

4 结束语

针对双波段红外图像的特点, 采用基于区域的图像融合算法得到的实验数据和图像都表明, 该融合算法能有效地保留图像信息。不过分裂合并算法的关键是如何对区域进行初始化划分和分裂合并准则的设计。该算法对复杂图像的分割效果较好, 但算法复杂, 计算量较大, 分裂还可能破坏区域的边界。

参考文献

[1]Piella G.A general framework for multiresolution image fusion:from pixels to regions[J].Information Fusion, 2003, 4 (4) :259-180.

[2]Zhang Z, Blum RS.A categorization of Multiscale-de-composition-based image fusion schemes with a perfor-mance study for a digital camera application[J].Proceed-ings of the IEEE, 1999, 87 (8) :1315-1326.

[3]陈浩, 王延杰.基于拉普拉斯金字塔变换的图像融合算法研究[J].激光与红外, 2009 (4) :439-442.

[4]章毓晋.图像分割[M].北京:科学出版社, 2001:67-74.

[5]张雷, 高桦, 杨风暴.双波段红外图像辐射特性分析及在图像融合中的应用[J].光电技术应用, 2006, 21 (5) :54-57.

基于区域的图像检索算法 篇4

基于区域的图像检索技术是一门被广泛研究的信息检索技术。该项检索技术由系统对图像进行提取与识别, 解决了传统的基于关键词检索中的各种问题。特别是随着网络技术与多媒体技术、数据库技术相互融合, 检索系统开发需求的不断扩大, 是一个颇具生命力的研究方向, 针对这一方向深入研究, 将具有很大的理论价值和广泛的应用前景。

1 基于区域图像检索综述

常用的图像检索技术大致可以分为基于边界检测和基于区域两种方法。包括:边界检测分割法和区域检测法。边界法先检测出图像中的边缘点, 然后按照一定的策略把这些边缘点连接成轮廓, 封闭边界所包围的像素就组成了相应的区域。

基于区域的方法是把图像中的各个像素依据一定的规则分到各个区域中, 这些区域的外围像素就会构成了区域的边界, 所以关键是如何确定像素分类的规则。实际规则中应用的区域分割技术主要有两种:一种是阈值化算法, 另一种是特征空间聚类。特征空间聚类的方法是对阈值分割的一种推广方式。它采用特征空间点来表示图像空间中的元素, 通过将特征空间的点聚集成团, 然后再将它们映射回原图像空间, 来达到取得分割的结果。通常在高维特征空间的聚类, 如果只用一个特征往往不能解决的问题, 所以, 特征空间聚类通常采用多个特征。通常采用的方法有K-均值、模糊聚类、ISODATA聚类、概率聚类等。区域分割技术有两种基本形式, 一种是根据单个像素, 逐渐合并以形成所需的分割区域, 另一种是从全局的出发, 逐渐分裂切割到所需的分割区域, 对应的两种典型算法分别是区域生长和分裂合并。

2 基于区域的图像特征的提取

在众多提取参数中, 可以选择颜色特征作为K-均值聚类的中心, 根据每一个小的区域的颜色的均值和标准差的平均值, 可以计算出它的纹理特征, 进而对图像进行提取, 计算的步骤如下:

(1) 在图像中, 选择一个点作为提取点, 然后将其他点都设置为黑色。

(2) 通过转换, 将图像的颜色模式转变成灰度图像。

(3) 在刚才的灰度图像上, 根据算法, 作四层小波变换。

(4) 在变换后的每个高频子带上, 计算他们的平均能量, 如公式1所示。

(5) 做四层小波变换后, 获得的12个能量值, 用合适的比例, 组成一个纹理特征向量。

式中, X (i, j) 表示纹理图像, E表示能量, M、N是纹理图像的维数。

每一个单体特征可以定义为, 如公式2所示:

式中, rij表示在区域j特征i的向量, 维数为K。

图像的特征定义为, 如公式3所示:

3 基于区域的图像特征的相似性检测

在进行图像匹配的时候, 可以获得各种不同的特征值, 但是对于图像检索的共享大小不同, 所以我们需要对他们进行进一步的归一化处理, 规定相似度S都在0到1之间, 并且在某个特征rij内部进行。并且, 在计算S之前, 同时要求将特征向量的各分量rijk (表示第i种方法, 第j个区域, 第k个分量) 统一进行归一化操作, 否则采用S的线性组合来计算总体相似度S就变得没有意义。把这种对rijk的归一化称为特征内的归一化。

特征内部的归一化可以使特征向量rij与的各分量与rijk具有同等的重要性。因为特征向量的不同分量, 都具有不太相同的含义, 所以, 经过归一化之后, 它们各自的变化幅度也可能有很大不同, 如果直接用来计算相似度就会引起很大偏差。所以必须要将特征向量的各分量, 都统一的归一化到一定的范围中去。所以, 我们定义特征向量V=rij, 则每一特征向量rij的归一化过程可以如下:

假设数据库中共M幅素材, 而m为素材的索引值, 可以这样定义, 如公式4所示:

表示第m幅素材的特征向量, 而K是特征向量V=rij的维数。如果我们将所有素材的Vm累积在一起, 就能获得维数为M×K的矩阵, 如公式5所示:

其中vm, k是特征向量Vm (对应于第m幅素材) 的第k个分量。为了保证个分量能有相同的重要性, 矩阵的第k列是维数为M的一个列向量, 记为vk。最终将每列中的元索, 都统一归一化到指定的值域标准内, 这样就可以保证在计算两个向量之间的相似度。

根据以上计算, 如果能够融合高斯归一化方法, 可以获得更好的结果。假设列向量vk是一个高斯数列, 可以首先计算该数列的标准方差σk和平均值声μk, 然后式6来实现高斯归一化, 公式定义如公式6所示:

通过结果分析, 将公式6的分母部分, 都替换为经过σk单独归一化后, 数列中的某个值位于区间[-1, 1]范围中的概率大约为68%。如果用式6, 则根据高斯归化后, 其数值在区间[-1, 1]范围中的概率已经达到了99%。所以可以认为数列, 通过该方法所有值都己经在[-1, 1]范围中了, 高斯归一化方法的优点在于, 即便是数列中存在一些异常的数值, 比如过大或者过小, 在计算向量间的相似度时, 也不会导致分量rijk重要性有所偏差, 达到了预期的效果。

4 结束语

通过使用的图像库SIMPLIcity系统提供的测试集。它是从Core图像库中抽取的500幅图像, 分为:人、医疗器械、建筑物、老虎、山峰、食物等, 每类一百幅。分别是使用基于区域的方法对其进行检索, 结果均达到了理想的要求。

摘要:本论文主要针对现在日益增长的多媒体信息检索需求, 以及目前国内外现有的基于区域的图像检索算法的局限性, 深入地探讨了基于区域的图像检索的通用技术问题, 提出了解决方案, 着重于新的图像特征描述方法, 相似度检测、特征提取与快速检索算法等方面的研究, 构建了一个基于区域的图像检索通用模型, 通过大量实验, 验证了方案的合理性。

关键词:基于区域的图像检索,特征提取与匹配,图像分割方法

参考文献

[1]吕英华, 唐昌华, 孔俊, 等.A Content-Based Image Retrieval System Using RBF Neural Network[C]//DCDIS国际会议.2007, 10.

[2]章毓晋.图象工程——图象理解与计算机视觉[M].北京:清华大学出版社, 2000.

基于区域极值的图像数字水印算法 篇5

随着多媒体技术和网络技术的迅速发展, 图像、音频和视频等多媒体数字信息更易于存储和发布, 也能容易地传播和复制, 由此而引发了关于多媒体信息的传输安全问题和数字产品的版权保护问题。数字水印技术就是在这种情况下发展起来的一门技术, 它通过在原始数字作品中嵌入一些有意义的信息来达到保护版权的目的[1]。一个优秀的数字图像水印技术应具有透明性、稳健性和安全性等几个基本属性[2]。

数字水印技术根据算法工作域的不同可分为空间域和变换域两种。针对数字图像在空间域嵌入水印的稳健性较差[3]等问题, 提出一种基于区域极值的算法:将数字图像分成几大块, 再将每块分成许多区域, 然后将水印同时嵌入各块每个区域的极值中;在提取水印时按嵌入的逆过程进行, 不需要原始图像的参与, 可实现水印图像的盲提取。通过Matlab实验结果表明, 该算法不但水印的隐藏效果好, 又可以抗裁剪攻击以及噪声干扰, 嵌入及提取水印过程均只需要数秒钟, 具有较高的执行效率。

1 水印算法描述

1.1 嵌入水印的方法

如果f (x, y) 为原始灰度图像, 其大小为M×M;W (x, y) 为二值水印图像, 其大小为N×N;g (x, y) 为嵌入水印后的图像。若M=2m×N×n (其中M, N, m, n均为正整数) , 则水印嵌入过程可表述为:

(1) 将二值水印图像W进行置乱, 生成新的二值水印图像W′ (其大小仍为N×N) ;

(2) 将原始灰度图像f进行偶数量化后的变为f′, 再分成相等的2m×2m个大块;

(3) 将f′的每一块进一步分成N×N个区域, 每个区域的大小为n×n;

(4) 将W′中每一位水印信息按一定位置对应关系根据如下规则同时嵌入各块的某一个区域中极大值所在的位置:

g (x, y) ={f (x, y) +1, ifw=1f (x, y) , ifw=0

整个嵌入过程如图1所示 (为图示方便, 此处设M=24, N=4, m=1, n=3) 。

由于水印信息嵌入到每个区域的最大值之中, 而且灰度值变化幅度最大为1, 对256级灰度图像按平均值计算, 亮度变化率仅为1/128=0.007 8<0.02, 符合Weber定律[4], 从而保证了水印的不可见性;对于噪声干扰而言, 干扰信号出现在每个区域极大值所在位置的几率只有1/n2, 按噪声信号亮度大于区域极值的概率50%计算, 噪声能够干扰水印信息的概率只有0.5/n2, 只要n足够大, 就可有效地抵抗噪声干扰;由于水印信息同时嵌入到图像的各块 (共嵌入2m×2m=22m次) , 在原则上, 图像在经过裁剪后只要保留部分能够达到原图的1/22m像素, 便可获得完整的水印图像, 从而提高了图像的抗裁剪能力。

1.2 提取水印的方法

水印的提取是嵌入算法的逆过程, 大致表述如下:

(1) 将待检测图像g分成相等的2m×2m个块, 每块进一步分成N×N个区域, 每个区域的大小为n×n;

(2) 找出每个区域中的极大值, 并根据其奇偶性提取所需信息, 即:

W (x, y) ={1if (gmaxmod2) =10if (gmaxmod2) =0

(3) 按嵌入顺序及对应位置关系将从各块小区域的极大值中提取的信息W″进行组合形成W′, 如果各部分对应位置区域提取的∑W″≥ 22m-1, 则W′=1,

否则W′=0 (即取多数) 。

(4) 通过反置乱等操作从W′中恢复二值水印图像W

2 实验测试结果

2.1 原始图像及水印

本测试中采用M=512, N=32, m=1, n=8。测试用原始图像如图2 (a) 所示, 它以“.png”格式存储的256级灰度图像 (512×512) ;待嵌入的水印为图3 (a) 所示以“.bmp”格式存储的二值图像 (32×32) 。所有实验测试均在Windows XP Professional中文版+Matlab 7.1软件环境下完成。

2.2 嵌入与提取水印

对图3 (a) 原始水印进行Arnold二维变换[5]置乱后, 嵌入到图2 (a) 原始图像中, 得到如图2 (b) 所示的含水印图像, 从图2 (b) 中提取的二值水印如图3 (b) 所示。

2.3 抗攻击能力检验

在图2 (b) 所示的含水印图像中同时加入强度为1%, 3%和5%;灰度分别为40%, 60%和80%三种噪声斑点, 形成如图4 (a) 所示的含噪声图像, 从中提取的二值水印如图3 (c) 所示。

对图2 (b) 所示的含水印图像四周同时剪切掉64像素, 形成如图4 (b) 所示的384×384剪切后图像, 从中提取的二值水印图像如图3 (d) 所示。

2.4 实验结果分析

从实验结果可以看到, 图2 (a) 的原始图像和图2 (b) 含水印图像肉眼几乎看不出什么区别, 说明该水印算法的隐蔽性很好;从图2 (b) 含水印图像中提取的二值水印图像图3 (b) 和原始二值水印图像图3 (a) 完全一致。从图4 (a) 的含噪声图像和图4 (b) 的被剪切图像中提取的二值水印图像均可清淅地看出水印信息, 说明该水印算法的抗噪声干扰和抗裁剪性能均很好。通过图4 (b) 在提取水印的步骤 (3) 中, 如果条件改为∑W″≥ 1, 则提取的水印更接近原始水印。水印的嵌入和提取时间均不到10 s。

另外通过对含水印图像图2 (b) 实验测试, 在±30%范围内改变图像亮度, 均能很好地提取水印;但在改变图像的对比度时, 提取的水印质量很差, 甚至不能正确提取。说明该水印算法对亮度改变攻击的抵抗能力很强而对对比度的改变很敏感。

3 结 语

提出了一种基于区域极值的数字图像二值水印嵌入与盲检测算法, 该算法在对图像分块并划分区域的基础上, 用置乱后的水印信息对每个区域的极值进行奇偶调整, 从而实现了二值水印的嵌入。

水印的提取过程与嵌入过程相反, 通过判断各区域极值的奇偶性即可确定嵌入的水印信息是0或1, 然后对各块对应区域提取的信息进行多数综合并反置乱还原得到二值水印图像。实验结果表明, 该算法具有较好的视觉质量和较强的稳健性;当水印检测时, 不需要原始图像的参与, 有效地实现了水印的盲检测。但该算法对对比度改变攻击的抵抗能力较弱, 还需要进一步分析研究。

基于感兴趣区域的弹丸图像压缩 篇6

文中要解决的是高速线阵CCD交汇测试中因图像数据传输率高、数据量大而导致的一系列问题。例如不利于实现前后两级分布式测试系统,以及不利于数据的有效存储和传输。为了解决系统数据量大的问题,数据压缩是一种有效的手段,但测试系统是以弹丸目标信息的准确获取为目的的,所以获得高压缩比的同时还必须保证好的图像恢复质量[1,2],尤其是弹丸区域。因此,文中将弹丸区域作为弹丸图像中的感兴趣区域,设计用边缘检测及区域延扩实现弹丸区域(即感兴趣区域)的原始恢复,从而保证感兴趣区域信息的完整性;对弹丸区域以外的背景区域则采用小波压缩以保证高的压缩比[3]。

1 弹丸图像压缩特性仿真实验分析

表1~表4分别给出了某具体的原始弹丸图像中,弹丸目标区域压缩前和压缩后的部分数据以及弹丸目标区域外的背景区域在压缩前和压缩后的部分数据。

表4中的高频系数普遍很小,而表3中的则很大。由此就可以根据变换压缩编码方法所依据的基本原理,得到弹丸图像很明显的压缩特性:弹丸目标区域更容易产生压缩失真,而背景区域则更可以在保证压缩恢复质量的同时保证高压缩比。

基于弹丸图像上述的压缩仿真结论,文中设计采用基于感兴趣区域的压缩方法对原始弹丸图像进行压缩:小波变换实现对非弹丸目标区域的有效压缩,边缘检测实现对感兴趣区域(弹丸目标区域)的检测从而完成弹丸目标区域的原始恢复。这样,一方面小波变换就可以保证对几乎占满整幅原始弹丸图像的非弹丸目标区域的有效压缩,从而获得高压缩比;另一方面边缘检测可以获得弹丸目标区域的具体定位,实现弹丸目标区域的原始恢复,从而解决弹丸目标区域容易产生压缩变形的问题,保证弹丸图像的压缩恢复质量。

2 弹丸图像中非弹丸目标区域小波压缩

双正交小波降低了一部分正交性要求,但保证了滤波器的线性相位,在无须相位补偿的情况下就能精确重建图像[4]。由此,在综合了上述影响因素之后,文中对弹丸图像的小波处理选取了CDF9/7。

不同的弹丸图像所包含的图像信息是不同的,尤其是弹丸目标区域的信息量,如采集到的弹丸图像中可能包含2个、1个,甚至根本没有弹丸目标。对于没有弹丸目标的弹丸图像和毫无图像信息的全黑或全亮弹丸图像,如果也按照同其他弹丸图像一样的方法进行压缩处理,必然会在很大程度上影响到存储和传输的效率,从中获取的有用信息也很少。为了解决这个问题,实现对不同弹丸图像的不同程度地压缩,文中选取了优化截断嵌入式块编码算法完成对弹丸图像的压缩编码[5]。

3 弹丸图像中弹丸目标区域的原始恢复

考虑到小波方法计算复杂度较高,系统耗时较长,所以弹丸边缘检测应采用算法简单、执行速度快的方法。但是,此类算法的检测效果往往不是很理想,这对准确度要求较高的弹丸目标参数的获取非常不利。为此,文中设计采用将简单的边缘检测算法与检测目标区域实际结果的有效延扩以及原始恢复相结合的方法,以实现对弹丸目标区域的处理。

在现有的边缘检测算法中,对比于传统边缘检测算法,其他算法都有相对高的复杂度且不易于实现,有的甚至是难以解决的问题,如神经网络边缘检测算法中的获得先验知识问题。传统边缘检测算法最大的优点就是简单易行、执行速度快,最明显的缺点就是检测结果往往不够准确[4],但弹丸目标区域的完整性可以通过对实际边缘检测结果的延扩来保证。同时,由于弹丸目标区域本身很小(行、列像素个数分别不超过20和5)且一副弹丸图像中的弹丸区域个数也很少,所以对实际弹丸区域的上、下、左、右4个方向分别延扩5、5、20、20个像素并不会降低弹丸图像的整体压缩比。解决了这个问题,对于弹丸图像中弹丸目标区域的检测就可以采用简单易行、执行速度快的传统边缘检测算法。

4 实验结果分析

弹丸目标区域采用的是基于边缘检测的原始恢复,所以弹丸目标区域的压缩恢复结果与原始弹丸图像中的弹丸目标区域数据相比没有变化。背景区域采用的是CDF9/7方法实现了弹丸图像的渐进式压缩,可以满足对不同类型弹丸图像的不同程度压缩。表5和表6给出了其中一类弹丸图像采用傅里叶方法和本文设计方法的压缩结果。

5 结束语

对比表5和表6的结果,文中设计的基于感兴趣区域的方法相比傅里叶直接整体压缩方法,不但将压缩比再提高2倍而且可以始终保证弹丸目标区域的完整性。

摘要:设计将弹丸区域作为感兴趣区域,实现了对弹丸图像的有效压缩。解决了高速线阵CCD交汇测试中,图像数据量大而不利于实现前后两级分布式测试系统,以及不便存储和传输等问题。

关键词:感兴趣区域,弹丸图像,高速线阵CCD交汇测试

参考文献

[1]雷志勇,姜寿山.线阵CCD技术及其在靶场测试中的应用[J].西安工业大学学报,2002,3(22):119-224.

[2]雷志勇,刘群华.线阵CCD图像处理算法研究[J].光学技术,2002,5(12):91-93.

[3]彭玉华.小波变换与工程应用[M].北京:科学出版社,2000.

[4]李建平.小波分析与信号处理—理论、应用及软件实现[M].重庆:重庆出版社,2001.

图像多区域 篇7

在相关的研究中,人们发现SIFT描述子在各种图像转换条件下,鲁棒性非常好。但SIFT描述子所占用的空间非常大,运行速度也慢,这是非常大的缺点。

1 学习图像特征描述子

在灰度图像补丁x当中,采用D维的向量来对其进行描述。也就是说,图像补丁特征数据映射到D维的向量空间Y。

在上面这个式子中,X指的是图像补丁的集合,也就是测试补丁以及训练补丁。向量C(x)=[c1(x),……,CD(x)]也属于补丁x的描述子。需要用一部分相应函数[hm(x)Mm=1,在这个式子里,hm必须是属于0 和1 之间的自然数,可以被当成补丁来获得描述子。

补丁x的描述子是这样的:C(x)=ATHT(x)。在这个式子当中, AT属于D×M的矩阵,可以被记作:A等于。其中,是描述子第d维对应的弱分类器系数向量。H(x)=[h1(x),……hM(x)]是由响应函数所组成的向量。因此描述子第d维的值应该是:。描述子的每一个维数都能够使其发生变化。笔者采用Ada Boost的办法,分析出了描述子每一维数的图像特征分类器的选择以及权重系数。

采用上面所说的Ada Boost方法来进行计算,先要开始确定训练样本。所谓的训练样本指的是有标记符号的补丁,[(x1,y1)],lj]Nj=1,在这个式子里,lj∈[- 11,] 。lj等于-1,这个代表的是两个不一样的补丁,同时这两个补丁也是相似的。有研究者采用Ada Boost来进行计算,发现Ada Boost方法实际上是对指数型损失函数优化的一种办法。学习目标函数应该是这样的:。

在上面这个式子当中,f(xi,yi)是补丁对相似性函数。笔者使用了描述子表示图像补丁特点,因此两个图像补丁互相的相似性度量就是两个相对的描述子之间的相似性度量,其流程图如图1所示。

在分析几个图像补丁的相似点的时候,必须要有两个流程,第一个是由图像补丁到描述子。第二个是将两个描述子的相似性进行对比,其需要建立在相似性度量函数上面。因此这样的描述可以被看成是一个二层神经网络。

1.1 特征响应函数

在这个过程中,可以将基于梯度的响应函数用来当作弱学习器。整个弱学习期是由三个参数组成,也就是说,在补丁x上,可以确定一个方向e,一个阀值T,以及矩形区域R。最后,响应函数可以这样被定义:

在这个式子当中,。另外,εe(x,m)=max(0,cos(e-0(x,m))。在这个式子当中,o(x,m)指的是补丁x在m处的像素梯度方向。方向,在这里面,q指的是梯度方向Bin的个数。采用积分图像来进行计算,效率会非常高。

1.2 学习特征的浮点描述子

采用以上方法,分析响应函数的在图像里的局部特征上作用结果乘积的权重和,运用另外的函数。。

在上面这个式子当中,∂d代表的是描述子的权重,从而得到浮点型描述子。此外,描述子的每一维对应一个响应函数。

把上面这个式子代入进去,可以得到目标函数:

响应函数空间也许属于无限的,因此如果要对OBssc进行优化,就存在一定的难度。但是可以采取Boosting来进行解决。这种算法具备贪婪的特性,可以构建弱学习器,但是效率却不高。需要对Boosted SSC的相似性函数进行修改。使用Ada Boost算法来修改相似性函数,从而算出低维数的图像特征浮点描述子,这个浮点描述子的构建方式可以被看成Ada Boost -Float - Point 。

笔者也是采用的这样的方式来对描述子进行计算,由于系数矩阵A一般都是浮点数。最后所得出的描述子也是浮点描述子。对图像补丁的相似性进行描述,需要计算出补丁对应的描述子的关联度。可以将相似性函数这样进行定义:

在上面这个式子里,C(x)以及σx都属于补丁x的描述子维数上的均值以及方差,也就是说:

在上述式子里,补丁y的表达式和x的表达是一样的,因为不是直接的对描述子的维度进行操作,所以其相似性的度量比维数值度量的鲁棒性更高。

将上面的式子代入进去,可以得到这样的目标函数:

这个目标函数属于凸函数,因此在进行优化的时候,可以找到最优解。在进行优化的时候,采用两步学习方式。第一步是在训练样本的基础上,利用Ada Boost将其最小化,从而得到M个弱学习器的权重。采取合理的方式对目标函数进一步的优化,最后再利用梯度下降法最小化OF,从而得到每一个弱学习器的权重。采取第一个算法对目标函数进行优化,从而得出配置优化的特征弱学习期非线性组合。在这个算法里,使用Ada Boost方法获得响应函数和相应的权重系数,从而构建补丁的特征描述子。这个算法对Boosted SSC进行了拓展。而且还要按照补丁的像素水平来分析相似性,使其被补丁描述子用来估算相似性。

2 怎样对描述子进行评估

在不同的数据集当中,对特征描述子的性能实施评估。第一种则是采用了Brown数据集进行评估。其包含了三组不同目标的图像补丁集,每一组有四十万个64 乘以64 补丁。这部分补丁是以Do G检测子检测出的兴趣点来作为中心。每一个数据集里的补丁有不同视角和灯光变化,其补丁数是十万、二十万以及五十万。一般采用32 乘以32 的降采样补丁,其中二十万补丁用作获取描述子,剩下的十万补丁用作测试集。

经过评估后,得出的结果是采用ROC曲线以及95%差错率来描述。

3 描述子性能对比实验

采用上面所说的描述子评估方式,在Brown中,利用3 个数据集对笔者提出的描述子进行性能评估。为了能够更好的了解实验结果,可以把结果分为两种,一种是进制描述子、浮点描述子。在本文中,将Yosemite看成训练集,将Liberty作为测试集。从而对描述子进行评估。

从图中可以看出,二值描述子是最快的,是浮点描述子中的几个数量级。这是因为弱分类器选择的响应函数组合形式不一样。这是由参数的选择所决定的。

5 总结与体会

本文提出了基于Ada Boost算法的一种框架。通过实验后发现,这样的学习架构所获得的特征描述子,在全部的描述子里面的图像局部匹配查准率最高。因此,这种方式也是合理的。

参考文献

[1]惠国保,童一飞,李东波.基于改进的图像局部区域相似度学习架构的图像特征匹配技术研究[J].计算机学报,2015.

[2]张芬.肇事车辆刹车痕迹图像特征匹配技术仿真[J].计算机仿真,2015.

[3]刘丽晖.基于不变量理论的遥感图像特征匹配技术[J].知识经济,2010.

[4]云延进,郭永彩,高潮.基于图像局部区域梯度特征描述的红外人体识别算法[J].光学技术,2008.

[5]罗楠,孙权森,耿蕾蕾等.一种扩展SURF描述符及其在遥感图像配准中的应用[J].测绘学报,2013.

上一篇:高速公路绿化下一篇:多媒体学前教育