图像局部纹理特征

2024-10-22

图像局部纹理特征(共7篇)

图像局部纹理特征 篇1

摘要:提出了一种新的且有效的单幅图像超分辨率算法, 该算法是基于自然图像中的局部缩放不变性原理。算法不需要额外的学习数据库, 相反, 只是从输入图像中的一个局部区域学习低分辨率图像块与高分辨率图像块之间的映射关系, 因此很大程度上缩短了学习时间。为了能够得到更真实自然的图像结果, 算法利用纹理上下文来搜索得到高分辨率图像块。实验证明, 算法可以得到比较理想的效果。

关键词:纹理约束,局部自学习,单幅图像,超分辨率,局部缩放不变性,纹理上下文

超分辨率算法的目的是利用一幅或者多幅低分辨率图像来获得一幅清晰的高分辨率图像。由于高分辨率图像在很多领域 (例如视频监控、高清电视等) 都有应用, 因此超分辨率一直是一个比较热门的研究话题。现有的超分辨率算法主要可以分为3类:基于插值、基于重建以及基于学习。

基于插值的超分辨率算法认为图像在空域里是平滑的, 并且可以通过多项式函数充分逼近, 例如双线性、双三次或者水平集函数[1,2]等。这种假设对自然图像通常是不准确的, 因此过平滑的边缘等缺陷经常出现在插值后的高分辨率图像中。基于重建的超分辨率算法利用多幅相同场景的低分辨率图像来恢复原始的高分辨率图像[3,4], 这种算法是基于图像的成像原理, 其中每一幅低分辨率图像对未知的高分辨率图像都有一组线性约束, 当有足够多的低分辨率图像时, 算法就可以恢复出相应的高分辨率图像, 然而这种算法受限于两倍的缩放因子[5,6]。基于插值的算法和基于重建的算法两者都需要比较多的先验知识, 其中与边缘相关的先验知识用的比较多[7,8,9,10,11], 这主要是为了能够得到比较清晰的边缘。然而, 边缘在平滑和降采样的过程中被削弱了, 除此以外, 在重建后的图像中, 一些边缘点在实际的高分辨率图像中根本不存在。

基于学习的超分辨率算法采用分块的思想, 并通过一组有代表性的图像集来学习低分辨率图像块与高分辨率图像块之间的映射关系, 利用这种映射关系得到高分辨率图像。Freeman等[12,13]首次提出了基于学习的超分辨率算法, 并且通过Markov网络学习低分辨率图像块与高分辨率图像块之间的映射关系。文献[14]采用了局部线性嵌入的方法。在文献[15-16]中, 学习的过程中融入稀疏表达的方法。由于超分辨率算法在重建纹理方面的不足, Sun等[17]提出了利用先验知识来重建纹理的方法, Xiong等[18]建议在超分辨率之前先对图像特征进行增强, 文献[19]利用了纹理上下文来学习重建超分辨率图像, 文献[20]在学习的过程中结合了纹理上下文与稀疏表达的方法。近几年, 文献[21-23]提出了基于自学习的超分辨率算法, 这种算法只需要一幅输入图像即可。Glasner等[21]结合了传统的和基于学习的超分辨率算法, Freedman等[22]发现并在超分辨率算法中运用了局部缩放不变性原理。

本文提出了一种新的基于自学习的超分辨率算法, 为了得到比较理想的纹理特征, 算法利用了纹理上下文来搜索得到高分辨率图像块。实验结果证明, 这种搜索方法可以引入更合理的纹理, 从而使得超分辨率重建后的图像看起来更自然真实。

1 局部自学习

Freeman等[22]发现, 在自然图像中很多奇异点 (例如边缘等) 在以很小的比例缩放后是不变的, 如图1所示 (原图为彩色图片) 。黄色框中的图像块在下采样之后与红色框中图像块很像。在算法中, 利用这种特性来学习低分辨率图像块与高分辨率图像块之间的映射关系。由于只是在一个局部区域进行学习, 因此很大程度上缩短了学习时间。

假设原始图像为I0, 首先用双三次插值函数u对其进行插值, 得到的插值图像为

其中, L1缺少高频成分, 这些缺失的高频成分将通过之后的局部自学习算法来获得, 学习的图像块从图像L0中得到

式中:D指的是降采样操作;G为高斯核。对于图像L1中的每一个图像块p, 在图像L0中对应的局部区域里搜索与之最为相似的图像块q (p) 。图像块q的高频成分为

式中:H0用于还原插值后图像中缺失的高频成分, 即

具体流程如图2所示。

2 纹理约束搜索

纹理上下文没有一个明确的定义, 它只是纹理特征的一种表现形式, 与文献[19-20]中纹理上下文定义不同, 受到文献[24]对生物视觉研究的启发, 本文定义一个图像块的纹理上下文为它对一个拥有4种滤波器的滤波器组的响应, 这4种滤波器分别为

这些滤波器可以有效地获取图像不同方向的空间结构, 如图3所示。图像块S1与S2的纹理相似度可以通过χ2来衡量

式中:R表示图像块对滤波器的响应。

针对每一个图像块p, 搜索找出与其纹理最为相似的5个图像块q, 利用这5个图像块来还原缺失的高频成分。

3 后处理

为了进一步保证重建后得到的高分辨率图像的准确性, 当获得一个高分辨率图像Ih后, 将其转换成相应低分辨率图像并与原低分辨率图像Il进行对比。若二者之间有很大的差异, 则说明得到的高分辨率图像中有错误。为了纠正这些错误, 首先构造了一个能量函数

其梯度为

式中:U为上采样操作, 然后通过梯度下降法对其进行优化求解, 从而保证得到的高分辨率图像与原低分辨率图像的一致性。

4 实验结果

为了验证算法的有效性, 在计算机上做了仿真实验, 对于彩色图像, 首先将它们从RGB空间转换成YIQ空间。对于Y通道用相应的超分辨率算法, 对于I和Q通道直接用双三次插值算法, 然后再重新转换成RGB空间。

以wheel和child两幅标准图像放大4倍为例来说明本算法的有效性, 其中分块大小7×7, 与5×5和9×9大小的分块相比, 7×7大小的分块比较适中, 重建后的效果更为自然真实, 如图4所示。为了保证图像块之间的兼容性和平滑性, 块间重叠3个像素。以下分别从重建图像的主观质量和客观RMSE这两个方面对本文算法加以分析。图5对比了本文算法与双三次插值算法以及文献[25]中提出算法的效果, 图6对比了本文算法与文献[10, 13]以及文献[21]提出的算法的效果。

由图5的对比效果可以看出本文算法可以重建得到比较清晰的边缘, 由图6的对比效果可以看出本文算法在重建纹理方面效果较好 (主要体现在帽子上) , 因此重建后的图像看起来更真实自然。

5 结语

纹理约束的局部自学习单幅图像超分辨率算法利用自然图像中的局部缩放不变性原理在输入图像中的局部区域学习低分辨率图像块与高分辨率图像块之间的映射关系, 从而很大程度上缩短了学习时间。同时, 为了更好地重建纹理特征, 算法利用纹理上下文来进行搜索, 实验结果表明算法重建的高分辨率图像在视觉效果上有明显的提高, 是一种简单有效的算法, 具有较高的实用价值。

面部图像纹理特征检测方法研究 篇2

面部图像特征检测问题是在图像分类识别的基础上发展起来的,由于人脸特征识别已经发展了到自动识别阶段,目前在特征检测方面已有许多成功的技术。早期的面部特征检测对面部图像具有很强的限制性和约束性,随着高清成像技术的飞速发展和人脸分类识别技术应用范围的日益广泛,面部高清图像特征检测算法急需要进一步开发与应用[2]。

当前,国外在人脸分类识别与特征检测领域投入较大,相关研究机构很多。其中比较有名的如卡内基梅隆大学(CMU)的机器人智能研究所、美国麻省理工大学(MIT)的媒体实验室和人工智能实验室等;国内主要研究机构有清华大学、西安交通大学、上海交通大学、中国科学自动化研究所、北京大学等[1]。面部图像特征检测是人脸识别系统中的重要组成部分,因此合理选择面部彩色图像特征,不仅能够检测到越来越完整的面部细节信息,而且能极大地提高疲劳检测系统的准确率和稳定性。现有文献主要基于灰度图像和二值图像,通过动眼频率及视频动态监测来判定疲劳,运算量较大,而且灰度图丢失了很多重要的面部生理信息,对面部图像特征检测有很大的局限性[3]。

1纹理特征

图像纹理特征是图像矩阵经过计算量化而来的图像特征。图像纹理用来描述图像或者其中较小区域的空间颜色和光强分布。图像纹理特征的提取有两种方法:基于结构和基于统计数据的方法。基于结构的纹理特征检测方法是将所要处理的图像进行建模,从而在面部图像中搜索重复的模式。该算法对人工合成的纹理特征识别效果较优。但基于面部图像中的纹理识别,基于统计数据的方法效果更好[4]。

2灰度共生矩阵法

共生矩阵是用两个位置的像素联合概率密度来描述, 它不仅反映了亮度的分布特征,也反映出具有相同亮度或接近该亮度的像素之间的位置分布特征,是有关图像亮度变化的二阶统计特性。共生矩阵是定义一组纹理特征的基础[5]。纹理是由于在空间位置上反复出现灰度分布而形成的,从而在图像空间中相间特定距离的两像素之间存在一定的灰度联系,即图像中灰度空间具有相关性。通过研究灰度的空间相关特征来描述纹理的常用方法就是灰度共生矩阵法。灰度直方图是用来对图像上单个像素具有的灰度级进行统计的分布图,而灰度共生矩阵是对图像上保持特定距离的两个像素分别所具有某灰度进行统计得到的。

取所选图像(N×N)中任一点(x,y)以及偏离它位置的另一点(x+a,y+b),设该点灰度值为(g1,g2)。令该点(x,y)在整个图像上移动,则会得到很多(g1,g2)值。对于整个图像,统计得到每一个(g1,g2)值出现的次数,然后排列成一个矩阵,再将它们归一化为该值出现的概率P(g1, g2),将这样的矩阵称为灰度共生矩阵。其中,差分值(a, b)取不同的值组合,可得到各种情况的联合概率方阵。 (a,b)的取值要根据纹理特征周期分布的特征来选择,对于相对很细的纹理,选取(1,0)、(1,1)、(2,0)等较小的差分值。当a=1,b=0时,像素对呈水平排列,即为0°角扫描;当a=0,b=1时,像素对呈垂直排列,即为90°扫描;当a=1,b=1时,像素对呈右对角线分布,即为45°角扫描; 当a=-1,b=-1时,像素对呈左对角线分布,即为135° 角扫描。

如两个像素灰度级发生的概率相同,就将(x,y)的坐标转化为“灰度级”对(g1,g2)的描述,就形成了灰度共生矩阵。图象的灰度共生矩阵能够反映出灰度图像关于其方向、相邻间隔、变化幅度的相关信息的组合,灰度共生矩阵是解释图像局部模式和它们组合排列规则的基础。

设f(x,y)为一幅二维数字图像,矩阵大小为M×N, 灰度级别为Ng,那么满足一定空间关系的灰度共生矩阵为:

式(1)中#(x)表示集合x中的元素总个数,其中P为Ng×Ng的排列矩阵,如果(x1,y1)与(x2,y2)间距离间隔为d,它们与坐标横轴的夹角为θ,那么可得到各个像素的间距及对应角度的共生矩阵P(i,j,d,θ)。

纹理特征提取的常用方法是以图像灰度共生矩阵为基础,因为图像像素点相距(Δx,Δy)的两个灰度像素同时出现的联合概率分布利用灰度共生矩阵来表述。对粗纹理的图像区域,其灰度共生矩阵的mhk值较集中于主对角线附近。因为对于粗纹理,像素对趋于具有相同的灰度。而对于细纹理的区域,其灰度共生矩阵中的mhk值则散布在各处。

为了能更直观地对共生矩阵的纹理状况进行描述,从共生矩阵中计算出反映共生矩阵状况的参数,有以下5个特征量:

(1)能量。为灰度共生矩阵每个元素值的平方和,也称为能量,反映了图像灰度的分布均匀程度和纹理粗细程度。若共生矩阵的所有元素值均相等,那么ASM值小; 相反,如果其中存在一些值大而有些值小,则ASM值大。 当灰度共生矩阵中元素集合分布时,此时ASM值为大。 ASM值大表示一种较均一和规则变化的纹理模式。

(2)对比度。反映了图像的清晰程度和纹理沟纹深浅。纹理沟纹越深,则其对比度越大,视觉特效越清晰;相反,对比度越小,则沟纹越浅,视觉效果模糊。灰度共生矩阵中离对角线远的元素值越大,CON越大。

(3)熵。对图像所拥有信息量的度量,纹理特征也属于图像信息,它是一个随机的度量,当共生矩阵中元素有最大的随机特性、灰度共生矩阵中每个值大体相等时,共生矩阵中的元素分散分布时,其熵较大,用来表示图像纹理的非均匀程度或复杂程度。

(4)相关性。它用来度量灰度共生矩阵的元素在行或者列方向上的相似程度,所以相关值大小反映了图像中局部的灰度相关性。当矩阵元素数值均匀相等时,其相关值就大;反之,如果矩阵元素数值相差很大则相关值较小。 若是图像有水平方向的纹理,则水平方向方阵的COR值大于其它方向矩阵的COR值。

(5)惯性矩。它是图像中局部区域灰度变化程度的度量。所谓变化包括数量和幅度两方面,其值的大小反映了皮肤纹理特征的深度和密度,在实际应用中哪一个占优要看具体情况。也可将其理解为图像的清晰程度,纹理的沟纹越深,则f2越大,效果越清晰:反之相反。当图像的光强范围变小时,其对比度值也变小。

3纹理特征提取及分析

3.1共生矩阵求解纹理特征流程

利用共生矩阵算法求解纹理特征的流程如下:读入面部RGB图像→颜色分量转换为灰度→压缩原始图像量化成16级→共生矩阵角度选取及归一化→对共生矩阵计算4个方向上的纹理参数→ 计算特征的均值和标准差作为最终8维特征。

3.2纹理特征检测与分析

通过采集不同测试者早(健康状态)、晚(疲劳状态)大量面部彩色图像,据此建立面部图像数据库,划分数据库为P(疲劳图)、Z(正常图)、R(结果)3类,根据建立的面部彩色图像数据库,获得纹理特征。图1中1、2、3、4号实验者分别选取额头、脸颊、眼部、鼻子等4个不同区域。

判定:将差异百分比(D=abs(P-Z)/max(P,Z))之和sum=作为纹理标准,测试时随机选取面部图片,计算其纹理特征向量及与该用户正常特征向量的差异百分比之和testsum,与sum比较得到疲劳程度。根据HSI空间掩膜处理算法及利用批处理程序对Z(健康)和P(疲劳)数据库进行8维纹理特征计算,选取3个纹理特征量:能量、 熵、惯性矩,得到结果绘制曲线如图2所示。

4结语

对提取的纹理特征进行对比统计分析,可以发现能量、熵、惯性矩等特征对正常状态与疲劳状态的面部彩色图像可分性比较高,在后续分类识别系统构建中,可以利用这3个特征区分不同状态的面部图像,但是这需要大量样本的验证,纹理描述的意义是用来对一个特定纹理进行分类。从该实验可以得出,纹理特征对目标细节信息的辨识具有重要意义。

摘要:传统面部图像的特征检测主要针对于灰度图像和二值图像,目前国内对于面部彩色图像(尤其是高清面部彩色图像)纹理特征的研究还处于起步阶段。针对于面部区域彩色图像特征,通过采集不同测试者早(健康状态)、晚(疲劳状态)大量面部彩色图像,据此建立面部图像数据库,划分数据库为P(疲劳图)、Z(正常图)、R(结果)三类。利用共生矩阵算法求得最大特征区域的纹理特征向量,用对比统计得到的数据测定正常与疲劳面部图像特征值的差别。实验结果表明,面部彩色图像的纹理特征反映了图像本身的属性,进一步描述了图像的细节信息,具有计算量小的特点。

一种基于纹理特征的图像检索算法 篇3

1 纹理特征

纹理通常为图像的某种局部性质,或是对局部区域像素之间关系的一种度量。图像或物体的纹理或纹理特征反映了图像或物体本身的属性,有助于将两种不同的物体区别开来。

共生矩阵:空间灰度共生矩阵方法,是建立在估计图像的二阶联合条件概率密度函数基础上的。灰度共生矩阵被定义为的像素点离开某个固定位置关系δ=(DX, DY)的点上的灰度为j的概率(或频度),即

x, y是图像中像素坐标,f (x, y)是其灰度级。L是灰度级的数目。

定义中DX、DY的取值范围从-N+1到N-1,因此应有个(2N-1)×(2N-1))共生矩阵。每个矩阵的维数则是L×L。对一幅有256级灰阵的512×512的图像来说,信息量未免太多,因此常用下面的方法简化矩阵。

首先改写(1)式中的定义,这时灰度共生矩阵定义为:

这时考虑的是关于原点对称的相对位移,这种方式定义的共生矩阵必然是对称的,因而可减少一半的信息量。式(1)中定义的共生矩阵不一定是对称的。

其次,原则上d可取1~N-1间的任何值,但d的不同取值对结果有很大的影响。文中取d=1。公式(2)实际上仅取4个方向上的共生矩阵来表示图像的纹理特征,因此计算量大大减少。限定DX、DY只能取以下4种值:(DX=d, DY=0)、(DX=d, DY=d)、(DX=0, DY=d)、(DX=-d, DY=d)。实际上这4种取值对应的是在0o, 45o, 90o, 135o方向上研究图像灰度级的联合分布。

由于图像的灰度级数一般是256,这时计算共生矩阵仍然太大,为了解决这一问题,常常在求共生矩阵之前,根据直方图的均衡化预先变换成16级左右的灰度级图像。

2 检索算法

2.1 利用共生矩阵提取图像的纹理

不同的图像由于纹理尺度的不同其灰度共生矩阵可以有很大的差别。图1给出一幅鲜花图像及其共生矩阵的实例。图(a)表示原始图像,图(b)到图(e)为图像0o, 45o, 90o, 135o的灰度共生矩阵。图2是一幅风景画面及其共生矩阵。两者相比较可以看出,对于鲜花这种粗纹理(相似区域较大,灰度比较平滑,纹理尺度较大)的图像,其灰度共生矩阵中的Pi, j值较集中于主对角线附近。因为对于粗纹理图像,象素对趋于具有相同的灰度。而对于细纹理(具有较多细节,纹理尺度较小),其灰度共生矩阵中的值则散布在各处,不适于采用共生矩阵方法提取图像的信息。根据Pi, j的数值是否集中于对角线附近,我们可以计算图像的纹理特征,如反差(CON)、能量(ASM)、熵(ENT)、相

2.2 算法描述

1)把原始彩色图像转换为灰度图像。采用BMP格式将图像存储在图像数据库中。由于BMP格式的文件中没有灰度项,因此采用如下的经验公式计算图像的灰度值:

(3)式中gray为灰度值;R, G, B分别为红色、绿色和蓝色的分量值。

2)图像分块。为了减少共生矩阵的数目,减少计算量,采用两个措施:一是将图像缩小,减少图像的像素点。在保持图像宽高比不变的情况下,将图像压缩成40×40的图像。将图像缩小,意味着丢掉图像较细的纹理。实际上根据人的视觉特征,大部分图像的相似程度主要由一些较粗的纹理特征决定,过细的纹理不但增加计算量,而且不利于图像的比较;二是将缩小的图像分成5×5共25个子块,然后对每个子块分别计算其共生矩阵。图像分块减少了共生矩阵的数目,而且图像在一个较小的区域中往往有较相似的纹理特征,因此子块中的纹理特征更均匀。

3)灰度级标准化。由公式(3)得到的图像灰度为0~255,共256级,据此生成的共生矩阵太大。因此在生成图像共生矩阵前,我们将图像的灰度转换成0~16级。

4)计算每个图像子块的共生矩阵,并由每个共生矩阵提取出对比度、差熵、逆差矩、差方差、相关、二阶矩等。

5)设有图像A和B,其每个子块纹理特征间的差异定义为:

这里i=1,…,4,表示每个纹理特征的4个共生矩阵;j=1,…,6,表示每个共生矩阵的6个参量;f是共生矩阵的每个参量的参量值;ωj是每个参量的权值,增大ωj表示强调图像纹理特征某一方面的性质。

设每幅图像被分割成M×N个子块,图像纹理特征间的差异为:

这里x和y是块的位置。

两幅图像越相似,DST越小。因此在图像检索时,将图像库中的每个图像与检索图像的DST计算出来,找出最小的DST所对应的图像即为检索结果。

3 实验结果

本文在利用纹理特征检索算法中,采用基于纹理特征的图像检索技术,对鲜花图像库(包含50幅鲜花,百合,月季,玫瑰,荷花等)的检索结果如图3所示。从图3中可以看出,本文以一幅白色百合花图片为检索样本,在检索出来的15幅鲜花图像中,第5幅和第11幅图像与样本图像有一定的差距,其余图像与样本图片很相似,说明对于鲜花图像,提取图像的纹理特征可以取得比较令人满意的检索结果。

4 结论

本文主要研究了基于纹理特征的图像检索技术,并在MATLAB软件上实现此算法。利用共生矩阵提取纹理特征的图像检索方法,有实现容易、计算量小的优点。但是,图像的纹理特征仅仅反映图像的灰度特性,所以此算法只适用于部分图像的检索。

摘要:随着多媒体技术和网络技术的迅速发展, 图像信息的应用日益广泛, 对规模越来越大的图像数据库、可视信息进行有效的管理成为迫切需要解决的问题, 基于内容的图像检索CBIR (content-basedimageretrieva) l是解决这一问题的关键技术之一。

关键词:基于内容的图像检索,纹理特征,共生矩阵

参考文献

[1]李南南, 吴请清, 曹辉林.Matlab7简明教程[M].北京:清华大学出版社, 2006.

[2]章毓晋.基于内容的视觉信息检索[M].北京:科学出版社, 2003.

[3]李向阳, 庄越挺.基于内容的图像检索技术与系统[J].计算机研究与发展, 2001.

[4]肖明, 王永红, 石勇.基于内容的图像检索研究进展[J].情报杂志, 2007.

[5]张建东, 苏鸿根.基于内容的图像检索关键技术研究[J].计算机工程, 2004.

图像局部纹理特征 篇4

20世纪90年代初,随着多媒体技术的发展,大规模数字图像库开始出现,基于文本的图像检索技术已无法满足多媒体信息中对图像内容的检索,为克服这些问题,基于内容的图像检索技术CBIR(Content-Based Image Retrieval)应运而生。区别于原有系统中对图像进行人工标注的做法,基于内容的图像检索就是根据对图像内容的描述,在目标图像集合中找到具有指定特征或包含指定内容的图像。目前基于内容的图像检索技术主要集中在颜色、纹理、形状以及语义特征等视觉特征提取的基础上,但是由于图像特征描述、提取及相似性度量的复杂性,其理论和技术仍然相当不成熟不完善,理论上有许多问题亟待解决,技术上也有许多难关需要攻克。文章旨在研究一种综合颜色特征和纹理特征的图像检索算法,该算法采用了HSV空间的颜色直方图作为颜色特征向量;采用灰度共生矩阵的四个特征:能量,熵,惯性矩,相关性作为分量构成纹理特征向量。除了单独的颜色和纹理检索,本算法统还将颜色检索和纹理检索的效果结合起来,得到更为合理的检索结果。

1 颜色特征提取算法设计

颜色直方图是最常用的颜色特征表示方法,而HSV空间是相对比较符合人类视觉感知特性的颜色空间。故本系统采用基于HSV空间的颜色直方图进行颜色特征的提取,主要包括RGB空间到HSV空间的转换和HSV空间的量化两个部分。

1.1 RGB空间到HSV空间的转换

通过非线性变换可将RGB颜色空间的r,g,b值转换到HSV空间的h,s,v值。设v’=max(r,g,b),定义r’,g’,b’为

上式中,r,g,b∈[0,255],h∈[0,360],s∈[0,1],v∈[0,1]。

1.2 HSV空间的量化

经过上述进行的RGB颜色空间到HSV颜色空间的转换,图像的每一个像素的颜色信息可以用H、S、V三个分量来表示。通过对颜色模型进行大量的分析,将H、S、V三个分量按照人的颜色感知进行非等间隔的量化。根据H、S、V的量化级数和其频带宽度可取组合后的一维向量L:

其中QS和QV分别是S和V的量化级数,L的取值范围为[0,255],计算L获得256 bin的一维直方图。这样H,S,V三个分量就在一维向量上分布开来。

2 纹理特征提取算法设计

灰度共生矩阵是当前人们公认的重要的纹理分析方法。本系统采用基于灰度共生矩阵的纹理特征提取,主要包括图像灰度化、计算灰度共生矩阵及其特征以及特征向量归一化三个部分。

2.1 图像灰度化

由于基于灰度共生矩阵的提取图像纹理特征的方法是建立在图像灰度值基础上的,因此首先需要把彩色RGB空间转换到YUV空间,所得到的Y值就是图像的灰度值。计算彩色图像各像素灰度值的公式为:

2.2 计算灰度共生矩阵及其特征

定义方向为θ,间隔为d的灰度共生矩阵为[p(i,j,d,θ)],p(i,j,d,θ)为共生矩阵的第i行第j列元素,其意义表示所有θ方向上,相邻间隔为d的一对像素分别具有灰度级i和j的出现概率(频数)。显然灰度共生矩阵是对称矩阵,其阶数由图像中像素的灰度级数决定。对不同的θ,共生矩阵的元素是不同的。可以由下式计算出共生矩阵各个元素的概率作为灰度共生矩阵的值:

共生矩阵p(i,j,d,θ)反映了图像灰度分布关于方向、局部邻域和变化幅度的综合信息。但它并不能直接提供区别纹理的特性,需要从矩阵中进一步提取纹理特征。灰度共生矩阵目前已总结的纹理特征有14个,Gotlieb和Kreyszig通过实验得出,能量、熵、惯性矩和相关性是最有效的特征。

2.3 特征向量归一化

特征向量归一化的目的是使特征向量的各分量具有相同的权重。本文采用高斯归一化方法。设特征向量为V,分量为vi,则高斯归一化公式为:

其中,ν和σ是特征向量各分量vi的期望和方差。经过上式对特征向量进行归一化后,向量中的某个分量落在区间[0,1]范围中的概率约为99%,对于大于1的数值可以简单地对应到1上。

3 相似性度量算法设计

欧氏距离是最简单的距离公式,也是在基于内容的图像检索系统中应用较广泛的距离公式,故本系统采用欧氏距离进行颜色和纹理特征的相似性度量。其公式如下:

其中Ai和Bi分别是关键图和检索图的颜色或纹理特征向量的第i个分量。

4 颜色纹理综合检索算法设计

本系统的颜色纹理综合检索,是根据用户设置的颜色权重和纹理权重(颜色权重和纹理权重之和为1),将颜色特征检索得到的颜色相似性距离和纹理特征检索得到的纹理相似性距离,线性组合成为一个综合相似性距离,该距离计算方法如下:

综合相似性距离=颜色相似性距离*颜色权重+纹理相似性距离*纹理权重(8)

5 图像检索过程

首先用户选择一幅关键图,作为待检索的图像。(本系统支持24位的bmp图像)。系统将自动计算关键图的颜色特征(HSV直方图)和纹理特征,并显示出来。其次用户选择本地电脑上的图像文件夹,作为待检索的图像库。接下来,在选择好关键图和图像库之后,用户可以选择基于颜色检索、基于纹理检索或颜色纹理综合检索。最后,检索完成后,在列表中显示每一幅检索过的图像与关键图的相似性距离以及图像文件的路径,并按相似性距离由小到大排列。

6 算法有效性验证

本文提出的算法采用Visual C++6.0作为开发环境,并使用了MFC类库验证其有效性,系统测试时选取两组测试图像,一组是自然风景图像,一组是卡通娃娃图像。测试结果分别如图。

实验结果分析:

首先,本算法能准确无误地检索出关键图是否在图像库中。其次,从大量的测试中可以看出,单独的颜色检索相比于纹理检索,在色彩上更符合人的视觉和心理特性,这表明基于HSV空间的颜色直方图与欧氏距离的配合,通常能得出比较理想的检索结果。对于纹理结构特征较明显的图像,纹理检索的结果基本令人满意;而对于纹理结构特征不太明显的图像,单独的纹理检索效果一般,且与颜色检索的结果有一定差异,表明灰度共生矩阵的纹理特征不是很符合人的视觉特性,需要与颜色特征或其他特征结合起来才能得到比较理想的检索结果。

此外,对于不同的颜色和纹理权重,颜色纹理综合检索的结果有不同的效果。如果对于单独的颜色或纹理检索结果不满意,用户可以根据具体情况设置不同的颜色和纹理权重。比如对于颜色比较鲜明而纹理不太明显的图像,可以设置较大的颜色权重和较小的纹理权重;对于纹理比较明显而颜色不太鲜明的图像,可以设置较大的纹理权重和较小的颜色权重。总之,在逐步地对颜色和纹理权重进行合理调整的过程中,颜色纹理综合检索一般能获得比单独的颜色或纹理检索更好的检索效果。

参考文献

[1]张宏林.Visual C++数字图像模式识别技术及工程实践[M].北京:人民邮电出版社,2003.

[2]唐立军.基于内容的图像检索系统研究和设计[D].北京:中科院计算技术研究所,2001.

[3]王芳,董军宇,唐瑞春.基于内容的图像检索的关键技术[J].现代计算机,2006,(227):60-62.

[4]俞基标,孙君顶,张芳.基于内容的图像检索的视觉特征[J].福建电脑,2007,(4):36-38.

[5]李丙春.基于共生矩阵的图像纹理特征提取及应用[J].喀什师范学院学报,2006,27(6):35-37.

图像局部纹理特征 篇5

常见的图像特征包括:灰度特征、几何特征、轮廓特征、代数特征和纹理特征[1]等。文中主要研究纹理特征提取方法。当前比较流行的纹理特征提取方法中, 一方面根据新的理论工具从频域提取纹理特征, 包括:多通道Gabor滤波器、小波理论等;另一方面, 从空域继续挖掘新的统计特征, 比如:局部二元模式 (local binary pattern, LBP) 。LBP算子是一种有效的纹理描述算子, 它具有旋转不变性和灰度不变性等显著优点。在近10年的时间内, LBP算子已经广泛地应用于纹理分类、图像检索、人脸图像分析等领域。Ahonen等[2]最初将LBP算子引入人脸识别, 它首先计算图像中每个像素与其局部邻域点在灰度上的二值关系;然后, 对二值关系按一定规则加权形成局部二元模式;最后, 采用多区域直方图序列作为图像的特征描述。在此基础上, Ahonen等又对该方法进行了改进[3], 对各个图像子块根据其重要程度进行加权。该方法在FERET人脸图像数据库上取得了较好的识别性能, 但直接在灰度图像上计算LBP特征会引入大量噪声信息, 且只采用一种LBP算子所提取的特征有限。针对直接在原始灰度图像上运用LBP算子存在以下问题: (1) 由于LBP算子采用像素间灰度值比较的方式确定其二值关系, 二元模式的最终取值易受噪声影响; (2) 特定尺寸的LBP算子只能提取固定尺寸范围内的纹理信息, 特征提取能力有限。文献[4]结合小波分解在不同尺度下运用LBP算子计算图像的LBP特征谱。该方法具有以下优点: (1) 小波分解可以看作是一个滤波过程, 能够有效克服噪声的影响; (2) 在不同尺度的逼近图像上提取到不同尺度的特征, 增强了LBP算子的特征提取能力。考虑到现有局部二元模式算子的直方图维数过长、鉴别力不高、对噪声反应敏感等问题, 文献[5]提出中心化二元模式 (CBP) 算子, 其优点在于: (1) 通过比较邻域中近邻点对, 大大降低了直方图维数; (2) 考虑中心像素点的作用并赋予其最高权重, 实现鉴别力的提高; (3) 改变LBP算子的符号函数, 明显减弱白噪声对图像的影响。

文中主要研究基于LBP的纹理特征提取方法, 看其是否适用于多光谱图像特征提取。首先对基本的LBP特征描述子进行了介绍, 然后引入几种新的LBP特征描述子[6], 包括:方向LBP特征描述子、自适应LBP特征描述子和方向自适应特征描述子, 用于表征多光谱图像的纹理特征, 并进行了分类实验。结果表明, LBP特征描述子及其改进方法都非常适合于多光谱图像的纹理特征提取。

1 LBP特征描述子

1.1 经典LBP特征描述子

传统的LBP可以表示为

为了适应不同尺度的纹理特征, Ojala等[7]对传统的LBP算子进行了改进, 称为扩展LBP算子, 将3×3邻域扩展到任意邻域, 并用圆形邻域代替了正方形邻域, 采用双线性插值算法计算没有完全落在像素位置点的灰度值。此外, 改进后的LBP算子允许在半径为R的圆形邻域内有任意多个像素点。注意到随着采样点数的增加, 二进制模式的种类会急剧增加。Ojala等[7]还利用所谓的“等价模式类”对LBP进行了改进。等价模式类之外都归为另一类, 称为混合模式类。通过这样的改进, 局部二元模式的种类大大减少。等价模式类占总模式中绝大多数, 利用这些等价模式类和混合模式类的直方图, 可提取更能代表图像本质特性的特征。具体来说, 给定图像中心像素, 扩展LBP算子中, 通过比较中心值和其邻域值可以计算一个模式码

其中, , gc是中心像素灰度值, gp是邻域值, P是邻域像素数, R是邻域半径。假定gc的坐标是 (0, 0) , 然后, gp的坐标可以通过 (R cos (2πp/P) , R sin (2πp/P) ) 得到, 而不在中心网格的邻域灰度值可以通过插值方法得到。

LBP模式的U值定义为模式中空间转换个数 (0~1变化次数)

一致LBP模式是指在圆形二值表示过程中该模式有有限的转化次数或不连续性 (U2) 。已证明, 只有这些一致模式是局部图像纹理的基本模式。为了实现旋转不变性, 定义局部旋转不变模式为

其中, 表示LBP算子, 下标表示该算子的尺度为 (P, R) , 而上标riu2则说明该算子是均匀旋转模式并且将其余所有模式都用一个值来表示。

当计算得到每个像素的LBP模式码后, 可以建立一个直方图来表示整个图像。样本和模式直方图的相似性是一个拟合测试, 可以用一个非参数统计测试来实现。主要有三种直方图的相似性度量:直方图相交、LOG概率统计和卡方概率统计, 具体度量方式如下。

(3) 卡方概率统计:

实验证明, 卡方距离和最近距离分类器在纹理分类中显示了良好的性能[8]。因此, 文中采用卡方距离和最近距离分类器进行相似性度量和分类实验。

1.2 方向LBP特征描述子

经典LBP特征描述子中忽略了方向统计信息, 不能应对旋转不变纹理分类。考虑到LBP不能完全表示图像的局部空间结构, 学者们提出将对比度 (局部图像方差) 和LBP结合, 形成一个联合分布[7]。然而, 对比度存在两个主要限制:一是各向同性测量, 而纹理图像具有明确的方向, 因此, 对比度不能抓住这些信息;二是结合LBP时对比度需要一个量化程序。当训练样本数较少时, 这种量化步骤不能有效地抓住特征空间。将一些方向统计特征, 具体为局部绝对差的均值和标准差提取出来, 用于改善LBP的分类效率, 新的描述子称为方向LBP特征描述子。

给定一个中心像素gc, 以及它的P个圆形, 均匀分布的空间邻域gp, p=0, 1, ⋯, P-1。在gc和gp之间差别的分布通常与p有关, 这也表示了不同的方向。可以计算|gc-gp|的均值和标准差, 公式如下

假定纹理图像的尺寸为N×M, 其中gc (i, j) 是在位置 (i, j) 的中心像素, gp (i, j) 是gc (i, j) 的邻域, 位于方向2πp/P和半径R处。明显, μp和σp是|gc-gp|沿着方向2πp/P的一阶和二阶统计。用μ=[μ0, μ1, ⋯, μP-1]表示均值向量, σ=[σ0, σ1, ⋯, σP-1]表示标准差向量。方向统计特征μ和σ携带了对纹理分类的有用信息。由于它们互补于LBP, 可以用来加权LBP的相似性计算。考虑到μ和σ对方向变化不具有不变性, 可采取两个方法来获得旋转不变性: (1) 给定从两个图像计算的两个μ (或σ) , 平移其中一个, 让两者距离最小; (2) 对每个向量找到一个主要方向, 将向量平移到这个主要方向。实验表明, 第二种方法和第一种方法的对齐性能相当, 但是计算量更小。

其中, kμ和kσ是训练图像中μ和σ的标准偏差值[9]。最终用dμ和dσ来加权LBP的相似性, 形成方向特征描述子

其中, DLBP (S, T) 是LBP直方图相似性, c1和c2是控制权重和衰减速度的参数。为了简化, 对两个特征使用相同的权重, 当然, 如果使用不同的权重, 可以得到更好的精度。

1.3 自适应LBP特征描述子

对大多数稳定的方向局部特征, 用最小方差估计自适应最小化局部差别, 称为自适应LBP, 它可以最小化沿着不同方向的方向差别。具体来说, 引入一个参数ωp, 让所有的方向差别|gc-ωp*gp|能被最小化。目标函数定义为

很明显, 最小平方估计可以用于优化该目标函数, 从而可用下式计算权重ωp

对整个图像, 沿着方向2πp/P估计每个权重ωp, 最终自适应LBP特征描述子定义为

1.4 自适应方向LBP特征描述子

为了体现方向性, 同时又自适应于局部图像变化, 将自适应LBP和方向LBP结合, 形成自适应方向LBP特征描述子。结合ALBP, 式 (5) 和式 (6) 中的方向统计可以被计算为

其中, kω是训练图像中的标准偏差值。

最后, 被方向统计特征加权的ALBP相似性定义如下

其中, DALBP (S, T) 是ALBP直方图的相似性。

2 仿真实验

2.1 实验图像

实验用两组图像进行;第一组是舰船目标红外图像, 每类5幅, 共15幅, 如图1所示。第二组是舰船目标可见光图像, 也是每类5幅, 共15幅, 如图2所示。

需要说明的是, 无论是舰船目标红外图像, 还是舰船目标可见光图像, 原始的15幅模板图像由于反应了不同目标的大小和姿态, 模板图像大小并不一致。以每15幅图像中最小的图像宽和高为标准, 对所有图像都进行了缩放。同时, 为了降低光照变化的影响, 把彩色图像转化为灰度图像[7], 并将灰度归一化为均值128, 标准差20。

2.2 结果分析

实验对比的方法包括:经典LBP特征描述子中的扩展描述子 (LBP) , 自适应LBP特征描述子 (AL-BP) , 方向LBP特征描述子 (LBPF) 和自适应方向LBP特征描述子 (ALBPF) 。实验过程中, 将15幅舰船目标可见光图像和15幅舰船目标红外图像放在一起。每类图像为5个, 前3个用于训练, 后2个用于测试。分别用上述方法来提取训练图像和测试图像的纹理特征, 分类方法为最近邻方法, 最终分类识别率见表1。

从表1可以看出, (1) 方向统计特征对纹理分类非常有效。LBPFriu2P, R的改善效果不明显, 但是ALBPFriu2P, R方案比ALBPriu2P, R有更好的结果; (2) 自适应方案在邻域像素数较少 (如8和16) 时, 对多光谱图像分类效果改善明显; (3) 随着邻域像素数增加, 自适应方案的分类性能先增加后降低, 而非自适应方案的分类性能一直增加, 并达到100%。可见, 对经典LBP特征描述子, 如果邻域变大, 尽管计算量增加了, 但是分类性能会非常好。具有较高鉴别力的纹理特征应具备两个特点: (1) 比较容易区分不同纹理的类型; (2) 计算纹理特征的窗口应该足够小, 以适应较小的图像区域并且在区域边界上具有较小的错误识别率。因此, 考虑计算时间和分类性能, ALBPFriu2P, R可以最好的表示多光谱图像的纹理特征。

考虑到单独使用局部空间结构特征可能对纹理特征描述不完整, 文中引入的三种方向统计特征:局部方向差别的均值和标准差, 以及最小化局部差别的自适应系数, 都较好地反映了纹理图像的方向特征, 从而能够实现更好的多光谱图像分类。

3结论

考虑到LBP描述子不仅考虑到一对像素之间的关系, 而且同时兼顾多对像素之间的关系, 也就是抓住了某一像素与其邻域之间的关系。对基本的LBP特征描述子进行了介绍, 并引入几种新的LBP特征描述子, 包括:方向LBP特征描述子、自适应LBP特征描述子和方向自适应特征描述子, 用于表征多光谱图像的纹理特征, 并进行了分类实验。结果表明, LBP特征描述子及其改进方法都非常适合于多光谱图像的纹理特征提取, 其中, 考虑计算时间因素和分类性能, 方向自适应特征描述子可以最好的表示纹理图像的特征。

实验中也发现, 单独用纹理特征, 由于没有完整的描述目标特性, 导致分类效果并没有完全正确, 因此可以继续研究其他图像特征, 如轮廓特征、代数特征等, 最后将不同目标特征融合, 优势互补, 从而进一步提高分类识别率。

参考文献

[1]周晖.纹理分割方法及其应用研究[D].长沙:国防科技大学, 2005.

[2]T Ahonen, A Hadid, M Pietikainen.Face recognition with local binary patterns[A].In Proceedings of 8th European Conference on Computer Vision, Prague, Czech, 2004:469-481.

[3]T Ahonen, A Hadid, M Pietikainen.Face description with local binary patterns:application to face recognition[J].IEEETransaction on Pattern Analysis and Machine Intelligence, 2006, 28 (12) :2037-2041.

[4]王玮, 黄非非, 李见为, 等.使用多尺度LBP特征描述与识别人脸[J].光学精密工程, 2008, 16 (4) :696-705.

[5]付晓峰, 韦巍.基于多尺度中心化二值模式的人脸表情识别[J].控制理论与应用, 2009, 26 (6) :629-633.

[6]GUO Zhen-hua, ZHANG Lei, ZHANG Da-vid, et al.Rotation invariant texture classification using adaptive LBP withdirectional statistical features[A].In Proceedings of 17thIEEE International Conference on Image Processing, China, 2010:285-288.

[7]T Ojala, M Pietikainen, T Maenpaa.Multiresolution grayscale and rotation invariant texture classification with localbinary patterns[J].IEEE Transaction on Pattern Analysisand Machine Intelligence, 2002, 24 (7) :971-987.

[8]M Varma, A Zisserman.A statistical approach to texture classification from single images[J].International Journal onComputer Vision, 2005, 62 (12) :61-81.

图像局部纹理特征 篇6

SAR图像利用雷达发射并接收地物散射电磁回波成像。SAR图像全天时全天候的工作特点使得它在军事和民用上得到广泛的应用。随着SAR图像数据获取能力快速增强,数据量快速增大,依靠人工解译已经不能满足应用需要。因此,计算机辅助解译成为当前的研究热点。特征作为图像的抽象描述,是SAR图像自动解译中的分类、识别、检索的基础。SAR依赖地物的回波信号成像,而回波信号强度和相位随不同地物及其位置和空间结构差异而有显著差别,这些差别引起图像灰度空间分布随地物信息差异而不同,因此SAR图像具有丰富的纹理信息。例如,图1所示的三类不同类型区域具有明显的纹理差异。基于灰度共生矩阵(GLCM)的纹理特征[1]是一种广泛使用且效果良好的SAR图像描述方式[2,3,4]。文献[5]使用GLCM对海冰进行描述和表征,在多类海冰纹理分类实验上取得了良好效果,此外,作者还对GLCM各个参数对其性能的影响进行了研究。U. Kandaswamy等人[6]研究SAR图像纹理分析效率问题 , 提出纹理 特征估计 分析方法 (approximatetextural features),提高了SAR图像纹理分析效率,文献[7]提取SAR图像纹理特征,并使用PCA方法对特征降维,提高了SAR图像分类的正确率。国内也有学者研究基于纹理特征和边缘特征融合改善SAR图像分割效果的问题[8,9]。文献[10]在城市地物分类中使用纹理特征,并探讨纹理特征对分类效果的影响。纹理特征已成为SAR图像分析的一种重要的方法。

目前基于纹理特征的SAR图像特征提取普遍面临如何处理相干斑的影响问题。当前普遍采用的方法是在提取特征前对SAR图像先进行滤波处理[9],以抑制相干斑。但这个方式会在一定程度上对原图像的边缘和纹理造成损失[11],这是因为滤波操作大都采用滑动窗口的方式,在一个窗口区域内,基于均值和方差,使用不同准则来调整中心像素值,为某种程度上的平均,从而造成边缘以及细小的纹理结构损失。同时随着研究深入和技术发展,相干斑涉及图像统计分布且和具体场景相关[12]而可能包含有用信息。采用滤波方式抑制相干斑可能会导致一些信息损失。因此本文提出先直接从SAR图像中提取纹理特征,然后采用RPCA(Robust PrincipleComponent Analysis)[13]方法对特征进行处理以达到特征去噪的目的,然后再进行聚类分析。实验结果表明,使用RPCA处理后的纹理特征进行聚类分析,聚类的准确率从82%提升到84%。

图1 从Terra SAR-X[14]中截取的三类地物切片。它们的灰度分布、排列方式、粗糙程度上均有差异,反应不同类别的地物SAR图像具有纹理差异

1 Robust PCA(RPCA)

RPCA是一种基于压缩感知[15]和稀疏表达[16]理论的信号处理方法。它克服传统PCA只能恢复受到较小较稠密的高斯噪声干扰的矩阵,而能够较准确的恢复出受到幅度较大的非高斯噪音干扰的矩阵。现在已经广泛应用在可见光图像和视频的去噪及恢复领域[17]。RPCA的核心思想是将受噪声干扰的矩阵在满足低秩和稀疏的优化准则下,分解成低秩矩阵A和稀疏矩阵E。用数学可以表达为:

其中D是观测图像,受到噪声的干扰;A是接近真实图像的低秩矩阵;E是稀疏矩阵,代表噪声。是矩阵的0阶范数,表示非零元个数。优化式(1)是一个NP难问题,因此通常采用式(3)作为目标函数。

其中表示核范数,即矩阵奇异值之和;表示一阶范数,即矩阵所有元素绝对值之和。

由于相近的或者相同的图像具有很强的相关性,从而构成低秩矩阵;而这些图像上的噪声因为具有随机性,因而相关度比较低,往往构成稀疏矩阵。那么经过RPCA处理后,受到噪声影响的图像能够正确恢复为低秩矩阵,从而达到原图像去噪的目的。文献[13]提出一种利用RPCA在多幅相同背景图像中提取前景目标的方法。将具有相同背景的图像,以像素为单位,按行拉直成一个向量,多幅图像拉成的向量构成D矩阵。通过优化目标函数(3),便能将D分解。

同一类SAR目标图像往往并没有完全相同的纹理分布背景,因背景缺乏一致性导致切片不能对齐,从而不能构成低秩矩阵。同一场景的切片图像虽然纹理有相似的灰度分布,但在切割时,切片包含的具体场景可能差异较大,因此很难满足构成低秩矩阵的条件。但是从同一类物体提取的特征,理论上能够表达同一类场景或物体,因而这些特征相似或相同的结构,因而具有较强的相关性,从而可以构成低秩矩阵;而特征中的噪声,因为具有一定的随机性而相关性较低,从而构成稀疏矩阵。通过RPCA处理,同类特征之间的结构将更相近。本文按照文献[13]的方法,将从原图像中提取的纹理特征按列排成一个矩阵D,并对它进行RPCA分解。分解得到低秩矩阵A和稀疏矩阵E。其中的低秩矩阵A部分是经过去噪后的特征部分。稀疏矩阵E部分则是特征的噪声部分。

2 实验与分析

2.1纹理特征

为了说明RPCA处理后图像的纹理表达能力有所增强,本文提取切片图像的GLCM纹理特征,并(1)对处理前后的特征向量均值、方差进行对比分析,(2)使用Kmeans的聚类方法检查纹理特征聚类效果,以说明RPCA对纹理特征去噪效果。

灰度共生矩阵(GLCM)利用统计特定空间分布的灰度点对方式来提取图像的纹理特征。矩阵中每一个单元的取值按照(4)式确定。

其中,i,j表示灰度级,d,θ分别表示灰度级距离和方向。

由该矩阵可以计算出多个特征量。Haralick[1]等人提出了14个特征量,但是根据研究[8,9,10,18]5个特征量可以表达纹理特征。这5个特征量分别是:对比度,相关,能量,均匀度,熵。它们的定义依次如下式(5)—(9):

实际应用中,常统计0°,45°,90°,135°四个方向的灰度共生矩阵,每个矩阵提取这5个特征量。实验数据采用一幅Terra SAR-X分辨率为1米的智利铜矿区SAR图像[14]。从图像中分别截取三类不同区域地物的切片,然后将每一类地物切片分别切割成大小为200x200[19]的实验用切片图像。每一类随机挑选出200幅,共600幅图像作数据集,部分数据如下图3所示。

并提取基于灰度共生矩阵的4个方向上的5个纹理特征量:对比度,相关,能量,均匀度,熵。并按以下顺序排列:

将每个纹理特征作为D矩阵的一列,执行RPCA算法[20]对D进行分解。取出低秩矩阵部分A,该部分即为去噪后的特征。经归一化后,每一幅切片图像被一个20维向量所描述。图4、图5分别给出了三类地物切片的纹理特征经RPCA处理前后均值图。由图可见,经RPCA处理前后,三类切片的纹理特征均值变化不大。图6、图7分别为RPCA处理前后,三类切片特征向量方差对比。经RPCA处理后,三类切片特征向量的方差均变小。这表明,经过RPCA处理后,不同类别的纹理特征均值基本保持不变而同一类别的纹理特征的每一维方差都变小,从而说明优化之后再提取的纹理特征区分性有所提升。

2.2 Kmeans聚类

为了进一步检验RPCA处理后图像纹理特征的区分能力,我们对样本图像的纹理特征经RPCA处理前后的聚类情况进行了实验比较。我们采用Kmeans方式对所有样本进行聚类。Kmeans是一种常用的聚类方法,它的算法流程图如图8所示。实验衡量指标采用了聚类中常用的指标对聚类效果进行衡量,定义如式(10)-(13)。经过RPCA处理后的特征进行聚类,各个指标都有所提升,如表一所示。说明经过图像的纹理特征区分能力有所增强。这一结果进一步说明对纹理特征采用RPCA进行去噪是有利于特征表达的。

其中ai是出现在第i个类簇(执行算法得到的) ,TP同一类样本被聚到同一簇,TN表示不同类样本被聚到不同的簇,FP表示不同类样本被聚到同一簇,FN表示同一类样本被聚到不同簇,N为总样本个数。

3 结语

基于灰度共生矩阵的纹理特征是表征SAR图像的一种重要方法,在SAR图像分割、分类中有着重要的应用。本文提出在提取GLCM纹理特征后,利用RPCA对纹理特征进行去噪,进而提高GLCM特征的表征能力。并在Terra SAR-X数据上的实验结果验证了本文方法的有效性。同时也注意到,实验还有改进的地方,可以尝试多特征结合方式以改善聚类效果。

摘要:合成孔径雷达(SAR)图像具有丰富的纹理信息,这些纹理信息能反映地物空间结构关系。当前纹理特征被广泛应用于SAR图像分类和SAR图像分割中。受成像因素影响,直接采用从SAR图像中提取的纹理特征效果不够好。为避免传统先滤波再提取纹理特征的方法对纹理、边缘信息造成损失,提出了一种先提取SAR图像纹理特征,再利用Robust PCA方法对纹理特征去噪的新方法,最后采用Kmeans聚类方法检验RPCA处理后的纹理特征表达效果。实验结果表明该方法能将聚类正确率从82%提高到84%。

图像局部纹理特征 篇7

采用单一图像特征 (如颜色或者纹理或者形状) 描述图像, 进行图像检索具有一定的局限性, 难以实现检索的准确性[3]。传统的CBIR算法更多地考虑待检索图像与数据库中图像之间的相似性, 忽视图像库内部图像之间的相似性, 没有对图像库中的图像进行聚类, 无法缩小图像检索的范围, 达不到有效地检索。

针对以上缺点, 为达到提高检索准确性和有效性目的, 本文提出了一种新的综合颜色和纹理特征聚类的图像检索算法 (Image retrieval based on color and texture feature clustering, ICTC) 。在提取颜色特征方面, 利用颜色自相关图考虑了颜色空间信息;在提取纹理特征方面, 利用Gabor小波来描述。二者相结合, 利用改进的K-means进行聚类, 让检索在某一类对象中进行, 从而保证检索具有较高的准确性和较低的时间复杂性。

1 颜色特征提取

1.1 颜色空间量化

RGB颜色模型作为与设备相关的颜色空间被广泛使用在图像中。但是RGB颜色模型与人的视觉感官不相符合。HSV颜色模型更接近于人的主观认识, 能够更准确地体现人眼睛对于颜色的辨知能力, 能够更好地适合基于颜色的图像相似度的比较[4]。

基于上述原因, 本文ICTC算法采用颜色模型HSV作为研究的基本颜色空间, 然后对其各个分量进行量化, 但是采取非等量标准, 色调H、饱和度S、亮度V量化为8级, 3级, 4级, 量化规则如下:

根据量化后的结果对各个分量取不同值合成一维的特征矢量, 即:

式 (4) 中:Qs、Qv分别是饱和度S, 亮度V的量化级数, 取Qs=3, Qv=4, 所以式子为:

1.2 颜色自相关图

考虑颜色直方图无法表达图像空间关系的弊端[10], IC-TC算法采用颜色自相关图提取图像的颜色特征, 该方法利用颜色对空间的关系, 将颜色和空间信息二者有效地联系起来[9]。

假设T表示一幅图像, 将图像T中的颜色量化为m种颜色, 对于任意某个像素点p= (x, y) ∈T, 令Tc={p|C (p) =c}, Tci表示颜色为Ci的所有像素。

对于图像T的两种颜色Ci, Cj∈[m], 距离d∈[n], 颜色相关图的公式表示:

式 (6) 中, <i, j>的第k个分量表示颜色为Ci的像素与颜色为Cj的像素之间的距离小于k的概率。

式 (7) 中, d表示像素点P1和像素点P2之间的距离。

颜色相关图考虑任何颜色之间的相关性, 所以颜色相关图非常复杂, 空间复杂度太高O (m2d) 。颜色自相关图 (Color Auto Correlogram) 是一种简化的表达, 公式表示:

由于颜色自相关图简单的考虑相同颜色像素之间的空间关系, 空间复杂度会降低很多O (md) 。所以ICTC算法采用颜色自相关图提取颜色特征。

2 纹理特征提取

纹理特征是描述图像局部结构的特征, 是以图像中的局部对不同物体进行区分。因此在检索系统中被广泛应用。

小波变换被广泛地用于描述图像纹理特征方面[8]。其实质是采取分解信号, 构造出一些实值函数。通过研究感知系统生理学, 发现在捕捉空间频率, 空间位置, 方向选择性等局部结构信息方面, Gabor基函数特点与人类大脑皮层单细胞的二维反射区特点相似。因此, 在描述图像纹理特征选择用Gabor滤波器。

Gabor滤波函数表示为:

式 (9) 中, w为高斯函数复频率, σx, σy是相应的x和y轴的带宽。

通过对Gabor函数进行尺度的缩放和方向旋转得到滤波器, 表示为:

只有尽可能地提取特征信息, 才能达到更好地描述纹理信息以达到区分的目的。这就要求Gabor滤波器要涵盖全部的范围, 而且在频域上不能出现重叠。Gabor的位置决定于两个参数:尺度和方向。纹理提取的效果要达到最好, 就意味着要选取更多的滤波方向, 但是滤波器数目的增加, 会伴随着出现实时性变差的问题。因此, 为了既可以很好地表述图像的纹理特征, 同时计算量也不会太大, ICTC算法在采用Gabor方法描述图像纹理特征时, 选取6个方向和4个尺度, 构建了由24个滤波器组成的滤波器组。用这24个滤波器对图像进行滤波, 得到24幅过滤后的图像, 计算这24幅图像均值和标准差, 将二者组合表述图像的48维纹理特征。

3 图像综合特征

通过颜色自相关图提取颜色特征和Gabor提取纹理特征[6], 为了提高检索的效率, 减少图像库的访问, 要对图像进行聚类, 将96维的颜色特征和48维的纹理特征融合生成144维的综合特征 (q1, q2, q3, …, q144) , 表示一幅图像的综合特征, 若图库中包含有Q幅图像对象, 则整个图库图像可以表示为:

4 聚类过程

4.1 K-means的相关概念

K-means算法认为类是由距离靠近对象组成, 其属于硬聚类算法, 相似性采用距离作为衡量指标, 即距离更接近的两个对象, 二者相似度就更大[2]。

具体过程:

1) 初始类心通过任意选择k个对象来获得。

2) 计算每个对象到各个类心的距离, 根据最小距离把它归并到最近的类。

3) 计算各自新产生的类的平均值, 得到各自类新的类心。

4) 迭代执行2) 到3) 直到所有的聚类都不再改变。

4.2 改进的k-means聚类过程

原始的K-means算法对初始类心的确定是任意的, 即聚类中的所有初始类心是随机产生的, 具有不确定性[7]。本文ICTC算法采用改进的k-means算法确定初始聚类类心, 根据“距离更接近的两个对象, 二者相似性更大”的原则, 图像特征通过颜色相关图和Gabor组合获得。具体实现过程如下:

Step1计算图像库中的所有图像, 得到其综合特征。假设图像库中有q幅图像, 每幅图像都各不相同, 所以有q个特征向量, 即特征集为x= (x1, x2, x3, …, xq) ;每个图像的综合特征向量有144维。

Step2根据特征集x, 计算任意两个特征xj和xk之间的欧式距离:

查找最小L, 特征向量xj和xk结合生成组合S1。

Step3计算剩余的特征与S1的距离, 找到距离最小, 并加入组合S1。

Step4重复Step3直到组合S1中的数目达到聚类平均数为止, 组合S1结束。

Step5在除去组合S1中包含的特征之外的剩余特征, 重新找到距离最小的两个特征向量, 重复Step2到Step4, 可以得到S2, 以此类推可以得到S3, S4, S5, …, Sk。

Step6计算S1, S2, S3, …, Sk的算术平均数, 得到的k个平均数作为聚类的初始类心, 设初始类心向量集为W, 即W= (W1, W2, W3, …, Wk) 。

通过上面过程获取k个初始类心, 然后根据K-means聚类的具体过程1) ~4) 对特征向量集x聚类, 生成聚类C, 类心W, 即C= (C1, C2, C3, …, Ck) , W= (W1, W2, W3, …, Wk) 。

4.3 聚类性能

为了评价聚类性能, 算法采用误差平方和准则函数[5], 公式表示:

式中, J表示迭代过程中所有对象的平方误差总和, 随着迭代次数增大, 误差平方和J减小, 最终J收敛于某一个固定值, 迭代结束, 即聚类结束。

5 图像相似性度量

基于内容的图像检索 (CBIR) 是根据提交的图像查找在图像数据库中与提交的图像相似的图像。本文采用图像颜色和纹理特征的综合特征描述图像, 对图像数据库的图像特征向量集进行聚类, 得到聚类C, 类心W, 即C= (C1, C2, C3, …, Ck) , W= (W1, W2, W3, …, Wk) 。一次图像检索过程如下:

Step1获取待检索综合特征q, 即图像的颜色和纹理特征相融合。

Step2计算待检索图像综合特征q和各个类心Wi之间距离, 式子表示:

Step3根据相似性原理, 即距离越小, 图像越类似。找出待检索图像相似度最大类Cmin。

Step4分别计算类Cmin中各个图像综合特征与q的距离。

Step5依据距离从大到小排序, 返回类Cmin中全部图像。

6 实验结果

本文采用Corel图像库中的1 000幅图像, 总共10类, 包括汽车, 恐龙, 花, 大象, 食物, 马等, 其中每个分类都包含100幅图像。为了检验ICTC算法的有效性, 采用查准率P和查全率R作为图像检索性能的衡量标准, 公式如下:

其中N代表检索返回来的总图像数目, M代表图像数据库中与用户提交图像有关联图像数目, n代表检索返回来的与用户提交图像有关联的图像数目。

实验方案:选取一种常见的基于颜色的图像检索算法 (CR算法) , 一种常见的基于颜色和纹理的图像检索算法 (CTT算法) , 本文算法 (ICTC算法) 从图像数据库中的每类图像中, 随机抽取10幅图像作为待检索图像, 对于每次检索, 计算每一级查全率下的平均查找率, 实验结果如表1。

由表1实验结果得出, 当查全率一定的情况下, ICTC算法的查准率高于CR算法, CTT算法。

图1和图2是利用本文ICTC算法分别进行的一次图像检索的结果。图1和图2都返回了20张图像, 图1检索到17张相关图像, 图2检索到18张相关图像。其他两种算法的检索效果就不一一列举了, 图3是本文ICTC算法与CR算法, CTT算法关于查全率和查准率的对比。

由图3可知, ICTC算法相比较其他两种算法, 具有更好的检索性能, 能够达到较理想的检索效果。所以ICTC算法能够适用于大部分的图像检索。

7 结束语

针对采用单一特征描述图像进行检索准确度不高, 以及没有考虑图像库中图像之间相似度, 未对图像进行聚类, 导致检索速度不快的问题, 提出了颜色自相关图和Gabor算法相结合聚类检索方法。颜色自相关图考虑了颜色的空间关系;提取纹理特征采用Gabor变换;二者特征融合能够更好地描图像, 采用改进K-means算法对图像进行聚类, 使检索过程在更理想范围内进行, 加快检索速度, 获得更好地检索效果。实验表明, 本文ICTC算法能获得更好的检索速度和检索精度。

摘要:针对采用单一特征描述图像进行检索准确度不高, 以及没有考虑图像库中图像之间相似度, 未对图像进行聚类, 导致检索速度不快的问题, 提出采用颜色自相关图和Gabor算法相结合描述图像特征, 进而对图像实现聚类的图像检索。首先, 颜色自相关图除了描述图像的颜色特征, 也反映了图像的空间关系;Gabor变换描述了图像的纹理特征, 然后二者融合描述综合特征, 利用改进K-means实现聚类。实验表明, 颜色自相关图和Gabor二者结合并采用改进K-means聚类算法在一定程度上加快了检索速度, 提高了检索精度。

关键词:图像检索,颜色自相关图,Gabor变换,K-means算法,聚类

参考文献

[1]Dahane GM, Vishwakarmas.Content Based Image Retrieval System[J].International Journal of Engineering and Innovative Technology, 2012, 1 (5) :92-96.

[2]吕明磊, 刘冬梅, 曾智勇.一种改进的K-means聚类算法的图像检索方法[J].计算机科学, 2013, 40 (8) :285-288.

[3]张鑫, 温显斌, 孟庆霞.基于颜色特征的图像检索方法研究[J].计算机科学, 2012, 39 (11) :243-245.

[4]李丽丽, 孙劲光.基于主色提取和主色集扩充的图像检索算法[J].计算机应用与软件, 2012, 29 (1) :152-154.

[5]谢辉, 陆月明, 孙松林.基于半监督学习的一种图像检索方法[J].计算机应用研究, 2013, 30 (7) :2210-2212.

[6]常哲, 侯榆青, 李明利, 等.综合颜色和纹理特征的图像检索系统[J].小型微型计算机系统, 2011, 32 (1) :161-164.

[7]陈湘涛, 王爱云, 谢伟平, 等.基于内容图像检索的聚类算法研究[J].计算机应用研究, 2008, 25 (12) :3546-3549.

[8]高燕, 胡学龙, 李玱, 等.基于小波多尺度分析的综合特征图像检索[J].微电子学与计算机, 2010, 27 (4) :21-24, 28.

[9]李永芳.基于颜色相关图和纹理矩的图像检索[J].计算机应用与软件, 2011, 28 (10) :38-42.

上一篇:出口数量下一篇:程序代码共享系统