图像篡改取证

2024-09-27

图像篡改取证(精选3篇)

图像篡改取证 篇1

0 引言

现有的数字图像技术提供了复杂的处理工具,这种工具可以产生不易被识别的伪造,一般视觉上很难辨别出图像的异常情况,如果这些被篡改的图像被人们错误使用,将会带来较大的危害[1]。图像篡改检测是一种新兴技术,可以直接通过数据本身对图像的真实性进行检测[2],因此对其进行研究具有很重要的现实意义。

数字图像篡改手段多种多样,其中Copy-Move(复制-移动)是一种简单高效的图像篡改方法[3],即首先从一幅图像中复制部分图像区域,然后将复制区域粘贴到相同图像的其他区域。同时为了掩盖痕迹,篡改者还会在复制粘贴操作后进行加噪、模糊、JPEG压缩以及几何形变处理操作以达到掩盖篡改的痕迹[4]。已有很多研究者对其进行相关研究,一般可以分为变换域[5,6]和非变换域方法[7,8,9,10]。

文献[5]将低分辨率小波系数的重叠区域映射到对数极坐标,由此产生的块按字母顺序储存并分析,以识别相近的字母组。在随后的小波分辨率水平中,通过丢弃不满足相近条件的字母方式,迭代过滤成对的字母。文献[6]将重复的像素块映射到来源于傅里叶-梅林变换(FMT)的缩放不变映射符上。然后,将哈希函数应用于每个描述符以确定相同的匹配。然而,这种严格的检测机制使得系统对超过10°的旋转比较敏感。

文献[7]通过相关图来限定副本的区域,并且计算重叠像素块的zernike矩以产生旋转不变特征向量,这种方法按照字母顺序发现潜在的重复。然而,不管是缩放的还是反射的复制图像都不能被这种方法检测出来。文献[8]提出一种不同的方法,即旋转缩放不变描述符通过尺度不变特征转换(SIFT)方式提取。然而,这种算法仅限于寻找近似描述符,且会限定复制检测区域。文献[9]提出一种基于圆谐-傅里叶矩(Radial-Harmonic Fourier Moment,RHFM)的图像篡改检测方法,这种方法对区域旋转和信号处理操作具有一定鲁棒性,然而,其没有对匹配结果进行后处理,检测结果图中含有较多噪声点,且精确度不高。文献[10]利用Krawtchouk矩提取区域块的特征,并按照字典排序,计算矩阵相邻行间的相关系数确定篡改区域,该方法对旋转缩放比较敏感。

本文方法可以检测那些已经经历过几何转换,尤其是反射、旋转和缩放的篡改区域,其中像素的重叠块独立地映射到对数极坐标的一维反射/旋转不变描述符。此外,本文还提出了细化机制来识别那些受几何失真影响的复制块。实验结果也证明了本文方法的有效性。

1 反射、旋转和缩放的问题

为了处理反射、旋转和缩放,像素块被映射到对数极坐标的一维描述符,具体如下:

考虑点(x,y)∈ R2,该点可用对数极坐标表示为x = exp(ρ)cos θ,y = exp(ρ)sin θ,ρ ∈ R,0 ≤ θ ≤ 2π。让(x′,y′)表示坐标的反射、旋转和缩放点,该点可用对数极坐标表示为:

对于像素块Bi(x,y) 及它的极坐标Bi(ρ,θ),一维描述符可以计算为:

反射、旋转和缩放的像素块Bi可以用对数极坐标表示为B′i(ρ,θ)=Bi(ρ+logμ,φ-θ)。该块的描述符可用下式计算获得:

式中由于余弦和正弦是周期函数,对于一个周期的变化,加之中的变化是线性的,所以式(3)可以改写为:

当Bi′是Bi的反射版本或旋转版本时,描述符对于反射和旋转是不变的,也就是说当Bi′是Bi的 μ 倍缩放版本时,然而,在离散信号中,由于插值和舍入误差,于是运用傅里叶关联描述符[11,12],即:

式中:c是相关系数;和分别是和的傅里叶变换。

相比于对数极坐标图,本文的一维描述符简化了反射复制块的识别。在搜寻阶段之前,每一块仅对某一个长度为mρ的存储向量是必要的,并不是针对每个向量。另外,整个系统的计算开销也减少了,因为它只需要计算每个一维描述符的快速傅里叶变换(FFT),其复杂度约为O(mρlog2mρ),而不是对整个对数极坐标图进行快速傅里叶变换(对整个极坐标图的时间复杂度为O((mρnθ)log2(mρnθ)))。

2 提出的方法

输入颜色图像X,尺寸为n1× n2,通过滑动、逐像素方式选择像素块,在光栅扫描排序中,窗户从左顶部角落到右底部角落的尺寸为q × q。Ai表示第i个像素块,i = 1,2,⋯,m,m =(n1- q + 1)(n2- q + 1) 。该算法的框架结构,如图1 所示。

2.1 特征提取

本文算法依赖每个块的颜色和亮度分量计算特征向量,该算法的原理是将重复的块被映射到相似的特征向量上。每一个块Ai的中心是直径为q的圆盘的圆心,f1i,f2i和f3i分别为圆盘里面红色、蓝色和绿色像素点的平均个数的三个特征量,经实验表明,颜色通道的平均值不会被JPEG压缩和高斯模糊修正[13,14]。第4 个特征量f4i计算如下。

给出一个颜色的像素,它的亮度计算为:

式中:r,g和b分别为红色、绿色和蓝色分量。概率分布函数用圆盘内所有像素的亮度计算。 由此,熵的计算为:

其中pk为圆盘内每个亮度值的概率。

本文方法的特征量f4i可用来识别结构信息不足的块,即低熵值的块。因此,熵值低于用户给定的阈值emin的块很容易被丢弃,最后特征向量( f1, f2, f3, f4) 形成列表L。

2.2 搜索相近的块

Bi是L中与第i个特征量相关的第i个块的亮光通道,定义为此外,定义(xi,yi)为图像X中Bi的坐标,定义为来源于Bi的一维描述符的傅里叶级数。

为了搜索块Bi的潜在副本,本文利用式(5)计算关联系数对于每个j > i都满足下列条件:

其中:τd,τh为预定阈值;第一个条件对于丢弃靠近Bi的块很重要,该条件很可能导致错误匹配的增加。另外两个条件被用于决定特征向量和是否互相相近。

这个过程可以通过穷尽性地比较特征向量和L中其余m - 1 个特征向量实现。然而,在初步搜索阶段,这个过程可以通过按字母排序列表L的方式被显著优化,从而让类似的特征向量更接近对方。因此,一旦到达则的比较停止,因此有

设cir为计算出的针对Vi的较高相关系数。如果cir比预定义的相近度阈值 τsim较大,则偏移量的计算为xδir= |xi- xr|,yδir= |yi- yr|。然后,如果xi< xr,则生成一个多元组(xδir,yδir,xi,yi,xr,yr) ;否则,生成多元组(xδir,yδir,xr,yr,xi,yi) 。为了方便起见,多元组的第一和第二对坐标将分别参考“根源”和“目标”坐标。最后,用所有生成的多元组形成列表Q。

2.3 精细化

在这个阶段,Q通常包含许多错误的匹配。例如,图2 是伪造中检测出来的所有未定义的匹配(“根源”和“目标”坐标分别被描绘成暗灰色和淡灰色斑点)。由图可观察到,错误的匹配明显渲染了无用的位图。这说明细化机制对生成合理的结果非常重要。

文献[7-8]均假设复制的区域未受到几何变换的影响,如图3(a)所示。当复制图像区域经历了几何扭曲时,将非常严重,这是因为每一个重复块的坐标几乎都被不同的穿线坐标分离,如图3(b)所示。

“根源”坐标深灰色斑点,“目标”坐标淡灰色斑点

在接下来的细化机制中,Q中的坐标通过给出的相近元组开始检查点集群。为了优化上述过程,Q按字母排序与偏移量相近的元组带给每个块,从而减少了需要比较的次数。令 Δ 为下面算法的每次迭代中检测的最大偏移量;系统执行的经验值为 Δ = 32。

步骤1:将偏移量xδa1,b1和yδa1,b1代到Q的元组顶部作为参考,选择所有偏移量范围为[xδa1,b1- Δ,xδa1,b1+ Δ]和[yδa1,b1,yδa1,b1+ 2Δ] 的元组。图2(b)是伪造被相近偏移量分离的斑点对。

步骤2:考虑F中只有“根源”坐标,识别尺寸为ω × ω 的窗口中多于tmin个斑点的群集。如果群集的“目标”坐标也形成了尺寸为w × w的窗口中多于tmin个斑点的包装组,如图2(c)所示,则该群集则是一个有效的复制,且相应的元组被附加到最后一个列表S。相反,如果“目标”坐标形成了一个分散点云,如图2(d)所示,则该集群被丢弃。

步骤3:从Q中移走F中所有的元组,并且当Q不是空的时候,重复步骤1~3。最后,位图与S中元组中的坐标编码。

用来优化本文方法的操作概括如下:

(1)丢弃低熵亮度的像素块,从而减少巨大平面像素区(例如天空)典型错误匹配的出现;

(2)避免计算相互接近的像素块的特征向量距离;

(3)避免计算耗时的穷举搜索,对颜色/亮度特征向量列表进行排序,以减少搜索阶段需要比较的数量;

(4)在细化阶段,排序元组列表(例如Q),找出偏移相近的块,从而减少需要比较的数量。

3 实验结果与分析

本文利用真阳性和假阳性进行定量地评估,其中真阳性率定义为:

假阳性定义为:

式中:TP是被复制部分的像素点的数目;TN是被当作没有重复部分的像素点的数目;P是属于任何重复的像素点的实际数目;N是属于没有重复的像素点的实际数目。一个理想的检测将同时出现TPR=1,TNR=1。

3.1 结果评价

利用前面部分讨论的参数设置对尺寸为24×24 和32×32 的块进行检测;其他参数通过经验参数设置为:emin= 2,τd= 40 。实验对象为100 张图像,尺寸为400×600,首先分析在非压缩格式和JPEG压缩格式下的原始的、未篡改的图像。 表1 给出了被误认为包含重复(TNR≠1)的图像个数。与实验尺寸为24×24 的块获得的结果相比较,利用尺寸为32×32 的块实验时,错误匹配的数目大约降低10%。可得被检测的JPEG压缩格式并没有对错误检测的数目产生重大的影响。

为了评价本文方法的稳定性,本文从每个测试图像随机位置处选择了一个正方形的区域;测试尺寸为80×80 和120×120。在被粘到其他随机位置之前,在同一图像中,对该选择区域进行后处理操作。分别测试下面的操作:没有进一步的扭曲(简单的复制粘贴);水平反射;旋转:5°,20°,40°,80°,100°,140°,160°,175°和180°;缩放因子:0.96,1.03 或1.05。因此,每张图像都用来生成36 处篡改,每张图像通过本文提出的检测器在非压缩和JPEG压缩格式(质量因子为80 和100)中被检测。

利用24×24模块,正确检测到伪造的数目如表2,表3和图4 所示。利用32×32 模块检测获得的结果如表4,表5和图5 所示。大体上,通过本文方法获得的性能在较大的重复情况下较好。然而,对于尺寸为80×80 的较小重复,24×24模块的利用会导致错误检测数目的略微增加。

比较利用24×24 获得的定位结果和用32×32 获得的定位结果,得出导致较高的真阳性率的测试同时也是导致较低的假阳性率的测试。例如:TPR的最高平均值(0.96)是从反射测试中获得的,而140°的旋转测试则获得TPR的最低平均值(0.58)。另一方面,平均TNR从反射中获得,而评估140°的旋转分别为0.98 和0.99。

3.2 与其他算法的测试比较

块尺寸设为24×24,将一套尺寸为300×400 的自然图像作为检测图像。其中,半数图像用于展示特性,其余半数图像包含相对粗糙结构的大区域。实验平台:2.80 GHz CPU,RAM为2.0 GB的Intel i3 双核处理器,仿真平台为Matlab(2011b)。尺寸为300×400 的一张图像的分析时间:文献[9]的方法为195 s,文献[8]的方法为5 s,本文的方法为37 s。

3.2.1 对于伪造的图像

首先比较对于伪造图像的检测效果,每次伪造都包含了不同的失真,如图6 是旋转30°,缩放1.05 的测试结果,图7 是水平反射,缩放0.96 的测试结果,图8 是旋转15°,水平反射的测试结果。实际复制区域用白色轮廓表示,灰色区域是检测算法检测出的伪造区域,且灰色区域的尺寸及形状依赖于算法本身。对于图6~图8,文献[8]的算法只有图6 和图7 较为清楚地检测出,文献[9]的算法几乎没有给出准确的检测,本文方法在三个图像均能大概检测出伪造位置。从这3 幅小尺寸图像可以得出平均TPR和平均TNR分别为:应用文献[9]方法,TPR=0.29,TNR=0.98;应用文献[8] 方法,TPR=0.48,TNR=0.94;应用本文的方法,TPR=0.79,TNR=0.18。

3.2.2 对于未篡改图像

本文中的20 张未篡改的检测图像均利用上述三种方法进行分析。这20 张图像中,被误认为是伪造的图像数目如表6 所示。不同于其他两种方法,本文方法设法正确地验证所有包含对称结构的图像,如图9 所示,图9(a)包含大量的纹理和图案,图9(b)具有大面积光滑的区域,从检测结果可以看出,本文方法不能验证包含大面积光滑区域的图像。然而,文献[8]和文献[9]在这方面稍微好点,不过依然有一些区域被这两个算法误认为伪造区域。图9(a)充分说明了本文算法对于复杂纹理的图像检测效果比较好,优于其他两种算法,这充分说明了精细化过程的作用。

4 结论

本文提出了一种新的自动定位重复区域的数字图像取证方法,可有效检测和定位JPEG压缩。本文方法的主要创新点总结如下:将像素点的重叠块映射到对数极坐标图的一维描述符上,可有效地执行搜索;从每个单独块中提取的特征向量,减少了每个阶段的计算时间;提出了一个细化阶段来复制经历过几何变换的重复区域。实验结果表明,综合考虑检测/准确定位和计算花费,本文方法优于其他方法。

作为现有的图像取证方法,本文的结果仍需要一些限制性的条件。未来主要是将细化机理作为减少错误报警的方法进行深入研究。

摘要:现存的大部分篡改检测方法对篡改区域的几何变化检测比较敏感,针对该问题,提出一种利用特征图像块精细化自动检测篡改区域的数字图像取证方法,该方法适用于反射、旋转、缩放区域和JPEG压缩定位。首先将重复区域的像素映射到对数极坐标上。然后沿轴,利用反射和旋转产生一维不变描述符。此外,运用每个单独块中提取的特征向量来减少每个阶段的计算时间。最后利用一个精细化阶段复制几何变换后的重复区域。实验对尺寸为24×24和32×32的块进行检测,比较两种情况下获得的定位结果可知,导致较高的真阳性率的测试同时也会导致较低的假阳性。此外,对篡改和未篡改的图像分别进行检测实验,结果表明,与其他算法相比,该算法对几何变换后的图像具有较高的篡改定位准确率和较低的错误匹配率。

关键词:篡改检测,几何变换,精细化,数字图像,计算机取证,一维不变描述符

基于LBP的图像复制篡改检测 篇2

计算机、数码产品早已进入我们的生活中, 像photoshop等图像处理软件技术也逐渐被大家所掌握, 使用者可以轻松地对图像进行复制-粘贴、合成、图像渲染效果处理等各种操作, 推翻了人们“眼见为实”的传统理念。各种图像伪造和篡改技术被广泛应用于新闻编辑、学术研究、医学、军事等, 对社会的发展产生不良的影响, 那么怎么去杜绝这种现象呢?我们要利用新的技术对图像进行检测, 检查图像是否为真实的没有经过处理的图像, 这一步非常重要。这种技术就是图像取证技术。现有的数字图像取证分为:主动取证和被动取证。主动取证是指提前在图像中嵌入了数字水印、数字签名等, 而被动取证则相反, 在没有添加任何的水印情况下对图像的出处和真伪进行鉴别, 这种方式因为操作性强, 使用灵活, 所以成为图像检测的主流方向。

数字图像的篡改方法有很多, 因为复制-粘贴篡改最为容易, 所以应用也最为广泛。数字图像的区域复制-粘贴篡改主要是把同一幅图像中某一个区域复制粘贴到其他的区域, 可以增加一些图像物体信息, 也可以覆盖掉这个区域人或物体, 从而达到篡改的目的。在同一幅图像中, 颜色和亮度不会产生很大的跳跃, 因此较容易避过人的眼睛, 被察觉的几率很小。针对这种复制-粘贴的篡改操作的取证很重要的依据是就是看图像中是否存在两个区域完全相同[1]。

最近很长一段时间, 数字图像的复制粘贴取证技术已经受到了越来越多人的关注, 并取得了一定的研究成果。在文献[2]中Jessica Fridrich等人提出了基于量化DCT系数的模糊匹配法, 此方法是将图像分块后, 计算DCT量化系数, 然后对DCT字典排序, 用来检测图像中被篡改的部分。

在文献[3]中Alin C Popescu和Hany Farid提出了基于主成分分析法PCA (Principal Component Analysis) 的检测算法, 该算法利用PCA对分块后的图像特征向量进行降维, 检测是否被篡改几率大大提高了。在文献[4]中, 图像被分割成为大小相同的小方块, Luo Weiqi和Huang Jiwu等人从中提取图像块的特征向量, 然后比较各小块间的相似性, 以此为依据检测出篡改区域。在实际的应用中, 简单的复制-粘贴无法满足篡改图片的要求, 人们往往会做进一步的处理, 比如放大或缩小、旋转90度、图像的渲染等等。但是遗憾的是, 当篡改图像区域被旋转后, 上述算法均不能检测出。针对以上不足, 本文提出一种基于旋转不变LBP的图像复制篡改检测算法, 增加对篡改区域的旋转操作的检测度, 健全鲁棒性。

1 复制-粘贴篡改模型

部分区域复制-粘贴是一种比较常见的图像篡改技术, 它是把图像中的一个部分或多个部分进行复制, 粘贴到同一幅图像中的其他不重叠的区域上, 以达到遮蔽或添加图像中某一重要目标或多个目标的目的。从篡改的操作过程中可以获知, 篡改图像后, 图像中会出现至少两个相同的区域。大量实验数据表明:在原始的图像中, 大面积相似区域在一幅图像里的概率很小[4]。因此, 如果鉴别出某一幅图像中出现较大范围的连通但不相交的相似区域, 那么这幅图像很可能已经被篡改了。

假设有一幅篡改图像I (D) , 大小为M×N, 若存在两个图像块, 两个区域间的位移向量表示为dx= (Δx, Δy) , 其中D1、D2面积相等。对于, 若I' (x1, y1) =I (x2, y2) , 有x2=x1+Δx, y2=y1+Δy, (x2, y2) ∈D2区域, 其中I (x, y) 为原始图像的灰度值, D={ (x, y) |1≤x≤M, 1≤y≤N}, D1是被复制的图像块D2是被粘贴篡改后的图像块, 因此, 篡改后的图像I' (x, y) 表示为:

部分区域复制-粘贴检测算法就是要找出在这一幅图像中有没有存在这种位置和形状未知的图像块D1、D2。如果有, 则将他们的位置找出来。倘若篡改后的图像没有做其他的处理, 则图像块D1、D2中的值完全相等。但是往往伪造者会在部分区域复制-粘贴篡改后, 还会对图像进行旋转等局部处理, 以达到掩盖真相的目的。此时, D1、D2图像块上对应的像素值就会不同, 检测出的难度被扩大很多。

2 复制篡改检测算法

2.1 重叠分块

定义一个滑动窗口, 大小为b×b, 从图像的左上角开始, 每次滑动一个像素点, 逐点扫描, 直到图像的右下角, 从而一个M×N大小的待检测图像被分割成了 (M-b+1) × (N-b+1) 个图像子块。

2.2 LBP纹理特征提取

待检测图像被分块后, 采用旋转不变的LBP算子来描述每个图像子块的纹理特征, 并得到图像子块的特征向量。局部二值模式LBP[5]最早由Ojala等人提出来的, 最初被应用于描述图像纹理特征。LBP算子一般定义为在一幅图像的任何3×3的窗口, 阈值为窗口中心点的灰度值, 对此窗口内的其他的像素做二值化操作, 大于等于中心点灰度值的为1, 否则为0, 从左上角开始, 顺时针得到一个8位的二进制字符串, 转换成十进制后赋值给LBP, 即作为该点的LBP值。如图1所示, 图中像素点灰度值为50, 其周边8个点灰度值分别66、80、42、35、41、30、78、50。LBP模式=11000011, LBP=128+64+2+1=195。

2002年, Ojala等人对LBP理论拓展提升, 并形成了比较完整的系统的理论体系[6]。计算LBP特征值不再仅仅局限于方形邻域上, 而是一个采样半径为R和采样点数为P的圆形区域中, 如图2所示。

定义T表示相邻的P+1个像素点的灰度值关系。T=t (gc, g0, …, gp-1) , 这里, gc表示局部中心像素点的灰度值, gp (p=0, 1, …, p-1) 表示围绕gc, 以R为半径的像素点的灰度值。一般要求R大于0, P随R的不同而不同。假如没有信息缺损, gp可以减gc, 表达式为:

考虑到对gc的依赖性很小, T被分解因式表示为:

由于t (gc) 表示的是图像的全部灰度值, 与局部图像的纹理特征相关度很小, 因此略去, 则为:

虽然gp-gc (p=0, 1, …, p-1) 之间的值不同, 但我们只要对它们的值的大小做比较, 表达式则为:

则以中心像素点为原点, LBP邻域的特征值计算公式变为:

其中:

从LBP的定义我们可以知道, LBPP, R对应有2P种不同输出, 形成了2P个不同的二进制数值, 如果图像发生旋转, 则在以gc为中心, 半径为R的圆周上, 灰度值gp不断变化。除非s (gigc) 全为0或者全为1, 否则就会得到旋转后的不同的LBP数值。因此, Ojala等提出了具有旋转不变性的LBP[7]。旋转不变的LBP特征值记为LBPriP, R, 也就是不断旋转圆形邻域, 得到一串初始的LBP值, 把最小值作为邻域的LBP值:

定义ROR (x, i) 为旋转函数, 意思是把x向右旋转, 旋转了次[8]。完成计算后, 把数据依次放在矩阵A的某一行, 得到矩阵A。

2.3 确定相似块

将对图像进行特征提取后得到的矩阵A进行字典排序, 即如果特征相同, 行就排一起, 因为图像的复制和粘贴块具有相同的纹理特征, 字典排序后这些被篡改的图像块将排在相邻的行上, 然后计算相邻的两行的坐标值对应的位移矢量, 并保存在计数器C中。两个匹配图像块的位置分别为 (i1, i2) 、 (j1, j2) , 则两者之间的位移矢量为:

不难看出位移矢量s和-s实际上位移是相等的, 因此对s求绝对值。在匹配过程中, 找到一个匹配的图像块, 则将计数器C加1:

如何计算s和C的值?开始时, 首先对C清零。若s大于标注的阈值T, 即:C (s) >T, 则认为检测出了产生位移矢量s的匹配图像块的粘贴区域, 并把位置记录下来。但是如果表示是跳跃的、孤立的, 则有可能是误判, 需要借助数学形态学滤波[9], 重新对检测的图像腐蚀、膨胀, 去掉误判的小区域。

2.4 篡改检测算法步骤

(1) 将待检测图像分成为大小相同的重叠图像块;

(2) 根据式 (8) 计算每个图像子块的旋转不变LBP纹理特征, 本文取P=8, R=1.0即LBP8ri, 1.0, 并使用统计直方图的形式作为特征向量, 得到一个P+2即10维的特征矩阵A[6];

(3) 对矩阵A字典排序, 根据式 (9) 、式 (10) 和阈值来确定复制和粘贴区域;

(4) 软件实现方法:仿真平台为Matlab 7.0。

以下为图像子块特征提取的核心源代码:

3 实验结果及分析

本实验环境参数为:CPU为Intel Pentium Dual-Core E67003.20GHz, 内存为2GB, 显存为1 GB, 操作系统为Vista, 仿真平台为Matlab 7.0。实验采用篡改区域Waterloo Brag Zone[10]标准图库中512×512像素的lake灰度图进行测试。

实验测试项目是: (1) 能否检测出篡改区域; (2) 在计算复杂度方面, 与前人的算法作比较是否降低。分块大小为16×16, T=1 400。

首先用Photoshop软件对原始图3 (a) 中的小船复制, 并把它粘贴在附近的湖面上, 效果如图3 (b) 所示。

图3 (c) 所示为经过LBP算法后检测出来效果, 图4 (d) 所示PCA算法所得到的实验结果, 以上两图可以得出以下结论:本文算法与PCA算法都能精准检测出篡改区域, 效果都很理想。

但是在具体的篡改时, 篡改者不是简单地复制粘贴, 而是对复制区域旋转来掩盖伪造操作。比如对图3 (a) 中的小船分别做90°、180°的旋转, 如图4 (a) 、图4 (b) 所示, 利用本文算法得到结果如图4 (c) 、图4 (e) , 利用PCA算法所得检测结果如图4 (d) 、图4 (f) 所示。对比可以得到以下结论:本算法对图像篡改旋转操作有较强检测能力, 鲁棒性强, 而PCA算法则无法完成此检测。

在图像区域复制-粘贴检测中, 计算复杂度也是衡量算法好坏的重要因素。该矩阵的行数为分块数目, 列数为图像特征维数。本文取P=8, R=1.0, 本文算法的图像块特征维数是10维, 而Jessica Fridrich[1]和Alin C Popescu[2]算法中图像块的特征维数分别是64维和32维。因此, 本文算法的运算量明显地减少了, 检测速度提升了, 如表1所示。

4 结语

图像部分区域复制-粘贴篡改是非常常见的篡改方式, 在日常生活、新闻媒体、医学、法律等方面都有应用。针对这种篡改操作手段, 本文提出了基于旋转不变LBP提取图像纹理特征的检测算法, 该算法能较好地检测经过平移、旋转、翻转等操作处理过的篡改图像, 并给出确切的篡改区域, 它检测能力较强, 定位比较准确, 运算量小。当然, 本文算法也有不足, 对图像的其他操作如模糊、渲染等没有很好的检测效果, 是笔者以后的重点研究所在。

摘要:针对比较常见的图像的复制-粘贴篡改技术, 提出一种基于局部二值模式LBP (local binary pattern) 的检测算法。首先把需要检测的已经被篡改的图像分成大小相同的重叠块, 每块的纹理特征用LBP (旋转不变) 向量去表示, 从而得到被检测图像的特征矢量;然后对得到的特征矢量进行字典排序, 并结合检测图像块的位移矢量, 准确定位并检测出图像中的被篡改区域。实验结果表明:在抗旋转处理和效率方面该算法均优于经典的基于PCA的检测算法。

关键词:图像区域复制粘贴篡改,旋转不变LBP,特征矢量

参考文献

[1]周琳娜, 王东明.数字图像取证技术[M].北京:北京邮电大学出版社, 2008:69-70.

[2]Fridrich J, Soukal D, Lukas J.Detection of copy–move forgery in digital images[C]//Proceedings of Digital Forensic Research Workshop.Cleveland OH, USA, 2003.

[3]Popescu A C, Farid H.Exposing digital forgeries by detecting duplicated image regions[R].Computer Science, Dartmouth College, Hanover, New Hampshire, USA:TR2004-515, 2004.

[4]Luo W Q, Huang J W, Qiu G P.Robust detection of region duplication forgery in digital image[C].The 18th International Conference on Pattern Recognition.HongKong, 2006:746-749.

[5]Ojala T.Gray scale and rotation invariant texture classification with local binary patterns[C]//Proc of 6thEuropean Conference on Computer Vision, 2000.

[6]Ojala T, Pietikinen M.Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24 (7) :971-987.

[7]Maenpaa T, Pietikainen M.Texture Analysis with Local Binary Patterns[M]//Handbook of Pattern Recognition and Computer Vision.3rd ed.World Scientific, 2005:197-216.

[8]王玲.基于LBP的特征提取研究[D].北京交通大学, 2009.

[9]何东健.数字图像数理[M].西安:西安电子科技大学出版社, 2003:65-73.

基于量化表的图像篡改检测算法 篇3

JPEG压缩技术十分先进, 应用也非常广泛。现实中照相机拍摄的图像、网络中传播的图像等大部分都是JPEG格式。因此检测JPEG图像是否经过photoshop、光影魔术手等软件的编辑具有十分重要的意义。并且JPEG是一种很灵活的格式, 具有调节图像质量的功能, 允许用不同的压缩比例对文件进行压缩, 支持多种压缩级别, 压缩比越大, 品质就越低;压缩比越小, 品质就越高。因此, 检测双重JPEG压缩图像是否经过篡改操作具有非常重要的应用价值。基于双重JPEG压缩特性的篡改取证技术是近年来数字图像盲取证技术的研究热点问题, 研究者提出了许多盲取证的方法。利用块效应来检测BMP图像的压缩历史被FAN Z等人[1]提出;同时以Farid为核心的研究团队[2]则利用JPEG图像经过压缩后其DCT系数直方图的DFT域有周期效应来检测图像压缩历史, 取得显著效果;Fridrich团队[3]也对其进行了深入研究;然而SHI Y Q等人提出了一种新的思路进行BMP图像压缩历史和JPEG图像重压缩检测[4,5];现在已有很多更优的方法[6,7]能够准确估计双重JPEG压缩图像第一次压缩量化步长的低频部分, 但是不能准确估计量化步长的高频区域;Peng Yuanyuan等[8]提出了一种新的方法来估计图像首次压缩量化表并具有很好的效果, 但是不能准确定位图像篡改区域。

本文利用一种简单的方法能够非常准确估计出量化表, 并定位篡改区域。首先对数字图像进行压缩消除图像本身的噪声, 然后利用图像压缩模型估计首次压缩量化表, 最后提出一种高效率的方法通过利用量化表来定位图像篡改区域。实验结果表明, 该算法能够有效地对双重JPEG压缩的图像进行检测和定位, 并具有很好的鲁棒性。

1 消除噪声

数字图像经过处理后变成JPEG图像的过程中产生大量噪声[9,10]。HUANG F等利用JPEG图像压缩过程中产生的噪声来检测图像是否经过二次JPEG压缩[9]。LI H等利用JPEG图像压缩过程中产生的噪声来检测图像是否反取证[10]。采用HUANG F的方法对图像进行多次压缩, 消除噪声对图像质量的影响。对Lena图像分别以质量因子为70、80、90进行压缩, 然后从图像文件头中得到压缩质量因子, 对其进行JPEG压缩, 得到图1所示结果。

从实验中发现, 质量因子越大, 经过压缩之后, 消除的噪声也大。重复压缩10次后, 噪声基本上完全消除。

2 图像压缩模型

对处理后的图像建立图像压缩模型并利用它们之间的关系来估计第一次压缩量化表, 在已准确估计出量化表的基础上提出了一种简单的方法来定位篡改区域, 令u1为未量化的数字图像的DCT系数, u2为第二次量化后的DCT系数, 图像压缩模型[8]描述如下:

其中, q1和q2分别为图像第一次压缩量化步长和图像第二次压缩量化步长, Qq1q2用来描述u1与u2之间的关系, 因此可以得到:

式 (2) 可转化为:

式 (3) 可以简化为:

其中, e、A、B分别代表q2/q1、u2-0.5和u2+0.5。显而易见, B与A的差为1。因为[u1/q1]是一个整数, 当e<1时, 得到如下结果:

其中, 分别是向下取整函数和向上取整函数。当e=1时, 得到与上述同样的结果。从而可以得到下面结论:在双重JPEG压缩图像中, 当第一次压缩质量因子小于第二次压缩质量因子时, 与一次压缩图像相比没有信息丢失;当第一次压缩质量因子大于第二次压缩质量因子时, 与一次压缩图像相比有信息丢失。为了更好地估计篡改后的图像的量化表, 因为「e A骎=骔e B」, 由:

利用上述原理和图像压缩规律, 可以从JPEG图像的头文件中得到第二次压缩的量化表。假设q1是1~100之间的整数, q1′是估计的量化步长, 当q1′=q1时, u的值全部为0。定义一个测量概率函数如下:

其中, num是量化步长在q1的情况下统计元素变量的数量, 当q1′=q1时, p达到最大值。但是对于一幅自然图像, 量化表高频区域中大量的DCT系数量化为0, 于是有很多点导致p最大, 并且把它们当作候选点, 仅把这些大于q2的候选点的中值当作q1′。实验结果如图2所示。

图2 (a) 和 (b) 的实验素材是Lena图像, 第一次压缩质量因子为80, 第二次压缩质量因子为90。图2 (a) 是p (q1) 函数, 量化步长q1=5和q2=3在量化表的低频区域, 图2 (b) 是p (q1) 函数, 量化步长q1=27和q2=14在量化表的高频区域。然后第二次压缩的量化表可以从图像头文件中得到, 从而可以准确估计出第一次压缩的量步长。

利用上述原理得到量化表的部分量化步长, 尤其是低频区域的量化步长, 然后利用下式:

其中Qij为量化表第i行j列的量化步长, Q (k) 为质量因子为k的量化表。利用式 (8) 得到第一次压缩的量化表。为了说明算法的有效性, 对一幅大小为512×512的Lena图像, 首次压缩质量因子80, 第二次压缩质量因子90, 其中m和n的取值为4, 估计的量化表实验结果如图3所示。

图3 (a) 是质量因子为80的量化表, 图3 (b) 是BIANCHI T提出的方法[7]估计的量化表, 图3 (c) 是本文提出的方法估计的量化表。通过对比发现, BIANCHI T对低频区域的量化表估计很准确, 却不能准确估计高频区域的量化表。本文提出的方法能够准确估计高频区域量化表。图3中可明显看出, 本文提出的方法估计量化表的误差小于参考文献[7]中的方法, 尤其在高频区域相对误差更小。

3 篡改区域定位

本文利用e A和e B的关系来定位图像篡改区域。Peng Yuanyuan等[8]利用块效应定位篡改区域, 即对篡改图像以首次压缩量化表再进行压缩, 此操作使得篡改图像有信息丢失, 不能准确定位篡改区域。利用e A与e B的关系来定位图像篡改区域, 篡改图像没有信息丢失, 因此能够准确定位图像篡改区域。得到u后对其进行分类:

M1:未经过篡改的u矩阵差异度

M2:经过篡改的u矩阵差异度

利用EM方法[7]得到其期望和方差如下:

得到特征矩阵AL如下:

将AL矩阵通过3×3中值滤波, 将滤波后的结果进行二值化处理, 从而得到模糊篡改区域。

4 实验结果

本文对提出的算法进行了验证, 若待测图像为彩色图像, 则将彩色图像转换为灰度图像进行检测。对一幅彩色图像利用Photoshop软件对图像中的部分数据进行篡改, 然后应用所研究的算法对篡改图像进行检测, 实验结果如图4、图5所示。

为了说明算法的有效性, 对另一幅图像进行篡改操作, 利用提出的算法对其进行检测, 实验效果如图5所示。

从图4、5中可以看出, 本文提出的方法对篡改图像具有很好的效果, 并且能够准确定位篡改区域。图4、5中, (a) 为原始图像, (b) 为篡改图像, (c) 是参考文献[7]检测结果, (d) 是提出方法检测的结果。由实验结果可以发现, 参考文献[7]中的算法可以比较准确地检测出篡改图像中的篡改伪造区域, 但其检测结果存在一些漏检区域与虚警区域。而本文算法可以对篡改图像中的篡改伪造区域准确定位, 同时检测精度要明显好于参考文献[7]中所提算法, 并且能够很好地定位图像篡改区域。

5 结论

针对双重JPEG压缩篡改操作, 本文提出一种高效率的方法定位图像篡改区域。首先对图像进行压缩消除图像自身的噪声影响, 然后利用图像压缩模型估计图像首次压缩量化表, 估计的量化表比参考文献[7]估计的量化表误差更小。最后提出一种高效率的方法定位图像篡改伪造区域, 检测结果优于参考文献[7]提出的方法。实验结果表明, 该算法能够有效地对篡改伪造的图像进行检测和定位, 并且具有很好的鲁棒性。

参考文献

[1]NEELAMANI R, QUEIROZ R L, FAN Z.JPEG compression history estimation for color images[J].IEEE Transaction on Image Processing, JUNE, 2006, 15 (6) :1365-1378.

[2]POPESCU A C.Statistical tools for digital forensics[C].December 2004.Dartmouth Computer Science Tech.Rep., 2005:128-147.

[3]PEVNY T, FRIDRICH J.Detection of double-compression in JPEG Images for applications in steganography[J].IEEE Transactions on Information Forensics and Security, 2008, 3 (2) :247-258.

[4]FU D D, SHI Y Q, SU W.A generalized benford’s law for JPEG coefficients and its applications in image forensics[Z].In:proc of SPIE Security, Steganography, and Watermarking of Multimedia Contents IX.B Ellingham, Washington:SPIE Press, 2007.

[5]Chen Chunhua, SHI Y Q, Su Wei.A machine learning based scheme for double JPEG compression detection[C].Pattern Recognition, 2008, The 19 international conferences on, 2008:1-4.

[6]LIN S, CHANG M, CHEN Y.A passive-blind forgery detection scheme based on content-adaptive quantization table estimation[J].IEEE Trans Circuits Syst Video Technol, 2011, 21 (4) :421-434.

[7]BIANCHI T, PIVA A.Image forgery localization via blockgrained analysis of JPEG artifacts[J].IEEE Transactions on Information Forensics and Security, June 2012, 7 (3) :1003-1017.

[8]Peng Yuanyuan, Liu Benyong.Accurate estimation of primary quantization table with applications to tampering detection[J].IET Electronics Letters, 2013, 49 (23) :1452-1454.

[9]HUANG F, HUANG J, SHI Y Q.Detecting double JPEG compression with the same quantization matrix[J].IEEE Transactions on Information Forensics and Security, 2010, 5 (4) :848-856.

上一篇:儿科急救下一篇:中医组方