图像特征检测论文(精选9篇)
图像特征检测论文 篇1
0引言
面部图像特征检测问题是在图像分类识别的基础上发展起来的,由于人脸特征识别已经发展了到自动识别阶段,目前在特征检测方面已有许多成功的技术。早期的面部特征检测对面部图像具有很强的限制性和约束性,随着高清成像技术的飞速发展和人脸分类识别技术应用范围的日益广泛,面部高清图像特征检测算法急需要进一步开发与应用[2]。
当前,国外在人脸分类识别与特征检测领域投入较大,相关研究机构很多。其中比较有名的如卡内基梅隆大学(CMU)的机器人智能研究所、美国麻省理工大学(MIT)的媒体实验室和人工智能实验室等;国内主要研究机构有清华大学、西安交通大学、上海交通大学、中国科学自动化研究所、北京大学等[1]。面部图像特征检测是人脸识别系统中的重要组成部分,因此合理选择面部彩色图像特征,不仅能够检测到越来越完整的面部细节信息,而且能极大地提高疲劳检测系统的准确率和稳定性。现有文献主要基于灰度图像和二值图像,通过动眼频率及视频动态监测来判定疲劳,运算量较大,而且灰度图丢失了很多重要的面部生理信息,对面部图像特征检测有很大的局限性[3]。
1纹理特征
图像纹理特征是图像矩阵经过计算量化而来的图像特征。图像纹理用来描述图像或者其中较小区域的空间颜色和光强分布。图像纹理特征的提取有两种方法:基于结构和基于统计数据的方法。基于结构的纹理特征检测方法是将所要处理的图像进行建模,从而在面部图像中搜索重复的模式。该算法对人工合成的纹理特征识别效果较优。但基于面部图像中的纹理识别,基于统计数据的方法效果更好[4]。
2灰度共生矩阵法
共生矩阵是用两个位置的像素联合概率密度来描述, 它不仅反映了亮度的分布特征,也反映出具有相同亮度或接近该亮度的像素之间的位置分布特征,是有关图像亮度变化的二阶统计特性。共生矩阵是定义一组纹理特征的基础[5]。纹理是由于在空间位置上反复出现灰度分布而形成的,从而在图像空间中相间特定距离的两像素之间存在一定的灰度联系,即图像中灰度空间具有相关性。通过研究灰度的空间相关特征来描述纹理的常用方法就是灰度共生矩阵法。灰度直方图是用来对图像上单个像素具有的灰度级进行统计的分布图,而灰度共生矩阵是对图像上保持特定距离的两个像素分别所具有某灰度进行统计得到的。
取所选图像(N×N)中任一点(x,y)以及偏离它位置的另一点(x+a,y+b),设该点灰度值为(g1,g2)。令该点(x,y)在整个图像上移动,则会得到很多(g1,g2)值。对于整个图像,统计得到每一个(g1,g2)值出现的次数,然后排列成一个矩阵,再将它们归一化为该值出现的概率P(g1, g2),将这样的矩阵称为灰度共生矩阵。其中,差分值(a, b)取不同的值组合,可得到各种情况的联合概率方阵。 (a,b)的取值要根据纹理特征周期分布的特征来选择,对于相对很细的纹理,选取(1,0)、(1,1)、(2,0)等较小的差分值。当a=1,b=0时,像素对呈水平排列,即为0°角扫描;当a=0,b=1时,像素对呈垂直排列,即为90°扫描;当a=1,b=1时,像素对呈右对角线分布,即为45°角扫描; 当a=-1,b=-1时,像素对呈左对角线分布,即为135° 角扫描。
如两个像素灰度级发生的概率相同,就将(x,y)的坐标转化为“灰度级”对(g1,g2)的描述,就形成了灰度共生矩阵。图象的灰度共生矩阵能够反映出灰度图像关于其方向、相邻间隔、变化幅度的相关信息的组合,灰度共生矩阵是解释图像局部模式和它们组合排列规则的基础。
设f(x,y)为一幅二维数字图像,矩阵大小为M×N, 灰度级别为Ng,那么满足一定空间关系的灰度共生矩阵为:
式(1)中#(x)表示集合x中的元素总个数,其中P为Ng×Ng的排列矩阵,如果(x1,y1)与(x2,y2)间距离间隔为d,它们与坐标横轴的夹角为θ,那么可得到各个像素的间距及对应角度的共生矩阵P(i,j,d,θ)。
纹理特征提取的常用方法是以图像灰度共生矩阵为基础,因为图像像素点相距(Δx,Δy)的两个灰度像素同时出现的联合概率分布利用灰度共生矩阵来表述。对粗纹理的图像区域,其灰度共生矩阵的mhk值较集中于主对角线附近。因为对于粗纹理,像素对趋于具有相同的灰度。而对于细纹理的区域,其灰度共生矩阵中的mhk值则散布在各处。
为了能更直观地对共生矩阵的纹理状况进行描述,从共生矩阵中计算出反映共生矩阵状况的参数,有以下5个特征量:
(1)能量。为灰度共生矩阵每个元素值的平方和,也称为能量,反映了图像灰度的分布均匀程度和纹理粗细程度。若共生矩阵的所有元素值均相等,那么ASM值小; 相反,如果其中存在一些值大而有些值小,则ASM值大。 当灰度共生矩阵中元素集合分布时,此时ASM值为大。 ASM值大表示一种较均一和规则变化的纹理模式。
(2)对比度。反映了图像的清晰程度和纹理沟纹深浅。纹理沟纹越深,则其对比度越大,视觉特效越清晰;相反,对比度越小,则沟纹越浅,视觉效果模糊。灰度共生矩阵中离对角线远的元素值越大,CON越大。
(3)熵。对图像所拥有信息量的度量,纹理特征也属于图像信息,它是一个随机的度量,当共生矩阵中元素有最大的随机特性、灰度共生矩阵中每个值大体相等时,共生矩阵中的元素分散分布时,其熵较大,用来表示图像纹理的非均匀程度或复杂程度。
(4)相关性。它用来度量灰度共生矩阵的元素在行或者列方向上的相似程度,所以相关值大小反映了图像中局部的灰度相关性。当矩阵元素数值均匀相等时,其相关值就大;反之,如果矩阵元素数值相差很大则相关值较小。 若是图像有水平方向的纹理,则水平方向方阵的COR值大于其它方向矩阵的COR值。
(5)惯性矩。它是图像中局部区域灰度变化程度的度量。所谓变化包括数量和幅度两方面,其值的大小反映了皮肤纹理特征的深度和密度,在实际应用中哪一个占优要看具体情况。也可将其理解为图像的清晰程度,纹理的沟纹越深,则f2越大,效果越清晰:反之相反。当图像的光强范围变小时,其对比度值也变小。
3纹理特征提取及分析
3.1共生矩阵求解纹理特征流程
利用共生矩阵算法求解纹理特征的流程如下:读入面部RGB图像→颜色分量转换为灰度→压缩原始图像量化成16级→共生矩阵角度选取及归一化→对共生矩阵计算4个方向上的纹理参数→ 计算特征的均值和标准差作为最终8维特征。
3.2纹理特征检测与分析
通过采集不同测试者早(健康状态)、晚(疲劳状态)大量面部彩色图像,据此建立面部图像数据库,划分数据库为P(疲劳图)、Z(正常图)、R(结果)3类,根据建立的面部彩色图像数据库,获得纹理特征。图1中1、2、3、4号实验者分别选取额头、脸颊、眼部、鼻子等4个不同区域。
判定:将差异百分比(D=abs(P-Z)/max(P,Z))之和sum=作为纹理标准,测试时随机选取面部图片,计算其纹理特征向量及与该用户正常特征向量的差异百分比之和testsum,与sum比较得到疲劳程度。根据HSI空间掩膜处理算法及利用批处理程序对Z(健康)和P(疲劳)数据库进行8维纹理特征计算,选取3个纹理特征量:能量、 熵、惯性矩,得到结果绘制曲线如图2所示。
4结语
对提取的纹理特征进行对比统计分析,可以发现能量、熵、惯性矩等特征对正常状态与疲劳状态的面部彩色图像可分性比较高,在后续分类识别系统构建中,可以利用这3个特征区分不同状态的面部图像,但是这需要大量样本的验证,纹理描述的意义是用来对一个特定纹理进行分类。从该实验可以得出,纹理特征对目标细节信息的辨识具有重要意义。
摘要:传统面部图像的特征检测主要针对于灰度图像和二值图像,目前国内对于面部彩色图像(尤其是高清面部彩色图像)纹理特征的研究还处于起步阶段。针对于面部区域彩色图像特征,通过采集不同测试者早(健康状态)、晚(疲劳状态)大量面部彩色图像,据此建立面部图像数据库,划分数据库为P(疲劳图)、Z(正常图)、R(结果)三类。利用共生矩阵算法求得最大特征区域的纹理特征向量,用对比统计得到的数据测定正常与疲劳面部图像特征值的差别。实验结果表明,面部彩色图像的纹理特征反映了图像本身的属性,进一步描述了图像的细节信息,具有计算量小的特点。
关键词:面部图像数据库,纹理特征,共生矩阵
图像特征检测论文 篇2
(中国科学院遥感应用研究所,北京100101)
摘要:分形理论由B.B.Mandelbrot于20世纪70年代中期创立,现已被广泛地应用于自然科学和社会科学的几乎所有领域。本文在前人研究的基础上,利用双毯法(DoubleBlanketMethod)提取出图像的分形特征并用于图像分割,进一步证实了分形在此领域的可行性和有效性。首先,通过比较局部分形维数偏移全局分形维数的标准差来确定适合该方法的最优滑动窗口。其次,考虑到单尺度分维特征的局限性,提取出多尺度的特征值并建立分形维数谱。然后,以模拟图像为例,分析图像中各区域的分维谱,选择适当尺度的分形特征,利用最大似然法对图像进行分割。最后,将分形理论应用于遥感图像中,与传统的基于灰度值特征的图像分割方法相比,加入图像的空间分形纹理特征后分割精度明显提高。研究结果表明:分维值的大小和变化趋势可以表示不同地物的空间复杂度,结合地物的光谱以及灰度信息能有效地识别目标地物。
关键词:遥感;多尺度分形;双毯法;图像分割
中图分类号:TP751 文献标识码:A 文章编号:1000-317795-0009-07
1 引 言
自B.B.Mandelbrot创立分形以来,分形理论被广泛的应用于山脉、河流、云等地表真实景观的模拟。Pentland观察到自然过程产生了分形曲面,通过对曲面数据的分析可以得出其分形特征。他提出用分形维数去描述自然表面的粗糙度[1]。自然表面的分形性决定了图像的分形性,Peleg等人提出双毯法,根据图像的灰度曲面面积,计算不同尺度下的分形维数,应用于图像中目标与背景的识别[2~3]。近年来,分形理论被引入到遥感领域,主要应用在遥感影像的特征信息提取[4]、信息融合、辅助遥感图像分类和以及模拟遥感图像等方面。孙家柄利用分形与小波方法进行航片与TM的特征融合,提高了影像的信息量和清晰度[6];舒宁则采用分形方法进行单波段影像的分维估计与多波段影像纹理分析[7],这些研究均促进了分形理论与遥感科学的交叉发展。
基于双毯法进行遥感图像分形特征的提取,目的在于通过对提取特征的分析识别不同的地物类型,同时将图像的空间结构分形纹理特征加入到图像分割,结合图像的光谱以及灰度信息,提高图像分
收稿日期:-06-13
基金项目:国家自然科学基金项目(40371085)
[5]
割的精度。分形理论应用于遥感图像,为遥感信息科学提供了崭新的理论指导和技术方法,随着研究的不断深入一定会涌现出更多的新成果,从而有力地推动遥感信息科学的进程。
2 分形与分形维数
Mandebrot指出分形具有三要素:形状、机遇和维数[8]。分形的形状是指事物支离破碎、参差不齐等不规则性特征。机遇用来描述对象的差异性;维数则是用分数的形式来定量描述客观事物的 非规则 程度。分形具有自相似性和自仿射性,并且在某种意义下分形维数严格地大于其拓扑维数[9]。常见的维数有相似维、Hausdorff维、盒维数、信息维数、关联维数等。本文根据图像数据的特点应用双毯法计算图像的分维值。
Peleg在分形布朗随机模型的基础上,基于图像表面的灰度信息创立了 双毯法 。该方法将图像视为一座山丘,高度为图像的灰度值,在距该表面为r的两侧形成厚度为2r的毯子。对于不同的r,毯子的面积可以重复如下计算[2]:
设f(i,j)代表灰度值函数,ur,br分别代表上表面和下表面。先令
作者简介:郑桂香(1983~),女,湖南宁乡人,中科院遥感所在读硕士研究生,主要从事资源环境遥感研究。E mail:zhenggui913@163.com
9
遥感信息
理论研究 2008.1
该方法对模拟图像进行实验。参照T.Parrinello生成的模拟图像[12],本实验中的第一个图像由一个随机函数和一个确定的函数生成,第二个图像则由两个不同的随机函数产生。
模拟图像见(图1(a))的大小为256#256像元,由两个同心矩形组成,像素值范围0~255。外部环形区域是在matlab软件中根据randn函数生成的服从(0,1)分布的图像,内部矩形区域则根据如下函数式产生:Iinner(x,y)=100cos(0.03x
3)
+127。模拟图像(b)的不同之处在于其内部区域由满足均值方差为(2,10)的随机正态分布函数生
成。
u0(i,j)=b0(i,j)=f(i,j)
则上下两张 毯子 分别沿如下的方法生长:
(1)
ur(i,j)=max{ur(i,j)+1,
d(i,j,m,n) 1
maxur(m,n)},r=1,2,3!
(2)
br(i,j)=max{br1(i,j)+1,
d(i,j,m,n) 1
maxbr1(m,n)},r=1,2,3!
(3)
其中,d(i,j,m,n)代表(i,j)与(m,n)之间的距离。因此, 毯子 的表面积为:
(4)
2r
2 由于分形表面积符合关系式A(r)?k*r,等式两边同时取对数,则
logA(r)=C1logr+C0(5)
式中,C1为拟合直线的斜率。由此可以得到分形维数D=2C1。
k+w
A(r)=
i,j
(ur(i,j)br(i,j))
A(k,l,r)=
i=kj=lw
l+w
(ur(i,j,r)
2r
br(i,j,r))
(6)
(a)模拟图像1(b)模拟图像2
图1
图像的局部分形维数(LFD)[3],即图像中每个像元的分形维数值是以像元(k,j)为中心,选择大小为(2w+1)#(2w+1)的滑动窗口,由公式(5)、(6)导出,并且将图像中的均一区域作为一个计算窗口可以得到图像的全局分形维数(GFD)。
理论上分形具有尺度不变性,在所有的尺度上均满足自相似性,但实际的图像仅在一个小尺度范围内
2D
呈分形特征,因为A(r)?k*r只是一个近似公式,logr与logA(r)并不是严格的线性关系,因而随尺度的变化,分维值也会发生变化,但最终趋于恒定。
为了更好的进行图像分割,这里引入多尺度分[3,10]
形特征,即一定范围内分维值随尺度变化的特征。此概念的理解可以参照遥感图像的多光谱或者高光谱特征,由于目标地物对太阳辐射的反射、散射能力随波长的变化,因此在不同波段有不同的地面
[11]
反射率。同于多光谱或者高光谱,我们可以根据不同尺度对应的分维值建立分形维数谱,客观定量地表示分维值随尺度的变化及其规律。
3 模拟实验
为了验证分形方法对图像分割的可行性,先用3.1 单尺度分形特征
理论上而言:由于随机图像的不规则性导致分形维数必定比规则性图像大,图1(a)中外部区域的分形维数大于内部区域趋近于3,内部区域由规则函数生成,分形维数在2附近波动。图1(b)中内外区域的图像纹理都比较复杂,分形维数均趋近于3。针对此理论,该实验提取出图像的单尺度特征对其进行验证。
为选择适合本图像分形维数计算的滑动窗[13]
口,从图像中随机截取20个大小为32#32像元的区域。以尺度r=10为例,分别计算出3#3,5#5,7#7,9#9窗口的局部分形维数(LFD)和整个图像的全局分形维数(GFD),如图2所示。用SE表示LFD偏离GFD的标准差,四个窗口所得的SE分别为:0.039381,0.025816,0.020892,0.021352。窗口越大LFD与GFD越接近,局部分形维数越能反映整个图像的分形特征。但考虑到时间复杂度和图像的局部细节以及边缘效应,本研究中采用的滑动窗口大小为5#5,此时LFD与GFD偏移不大并且能较好的保留图像的局部特征。
利用5#5的滑动窗口,在尺度r=10的情况下得到整个图像的LFD。模拟图像1由于外部区域
2008.1
理论研究 遥感信息
图2 尺度r=10,LFD与GFD的线性拟合图
和内部区域生成机理的不同,分形特征存在很大差异。图3(a)是该图的分形维数频率分布直方图,直方图中明显的存在两个不同的区段。分形值域(2,2.35),基本上反映的是内部区域的分形特征,而值域(2.8,3.0)反映的是外部区域图像的分形特征。确定性函数产生的图像复杂度小,灰度曲面的变化
小,而随机函数生成图像纹理复杂,分维值相对于前者较大。图3(b),模拟图像2的分形维数频率分布直方图所示:整个直方图成高斯分布,只有一个峰值,并且分维值的取值范围在(2.8,3)之间,内外区域的分形复杂度差异不大,因此实验所得分维值与理论估计值基本相似。
(a)模拟图像1(b)模拟图像2
图3 分形维数频率分布直方图
为了更好的研究不同区域地边缘特征,在图像y=140处,提取出分形图像的水平剖面,如图4(1)所示。第一部分和第三部分表示图像的外部区域,分维值域为(2.8,3),第二部分表示图像的内部区域,分维值域为(2,2.35)。并且在(50,140),(200,140)附近分形维数波动最大,由最高值跳到最低值,
反映图像的边缘变化。根据上述分析,对模拟图像1而言,单一尺度的分形特征反映了图像中不同区域的特点,可以利用此特征进行图像的分割。复杂的纹理图像,如模拟图像2,由图3(b)、4(b)所示,单一尺度的分形特征无法区分不同的区域。
(a)模拟图像1(b)模拟图像2
图4 分形图像水平剖面(y=140处):
遥感信息
理论研究 2008.1
数值要稍大。可以解释为:相对于外部区域而言,内部区域服从均值方差为(2,10)的高斯正态分布,相比于(0,1)分布图像要更加复杂,影像的纹理更加不规则。%内部区域在尺度11附近即达到峰值而外部区域在尺度18附近才达到峰值。并且图5(1)中左侧曲线相对于图5(2)来说都要更加陡一些。根据实验数据,内部区域在r=3,10,100处的分维值要高于外部区域,便于进行目标的识别,因而选择提取了这三个尺度分维特征,生成模拟图像2的局部
分形维数图。
3.2 多尺度分形特征
由于单一尺度分形特征的局限性,因此提取出图像各尺度的分形特征进行分析。在模拟图像2内部和外部区域分别选择10个样本点进行1~100尺度的分形维数的计算,有代表性的分形维数谱如图5所示:(1)表示内部区域的分形维数谱;(2)表示外部区域的分形维数谱。因为构成机理均为服从高斯分布的函数,其谱曲线形状相似,并且在尺度100左右分维值趋于恒定。其不同点在于:?内部区域的谱曲线要稍微高于外部区域的谱曲线,也即分形维
(a)内部区域(b)外部区域
图5 模拟图像2分形维数谱
3.3 模拟图像分割
传统的图像分割是根据图像的灰度或者彩色特征,将图像空间分为不同的区域。但在实际景观中,地物具有一定的空间结构特征,利用空间特征纹理的差异可以比较容易的区分不同的类型,而单纯的亮度信息则不一定能很好地区分。
结合分形维数对传统方法进行改进,对于较复杂图像综合了分维的多尺度特征,利用最大似然法对图像进行分割。图6(a)仅利用传统灰度方法对模拟图像1进行的图像分割,分割效果不太理想。图6(b)综合了尺度为10的分形特征对其进行分割,样本分割精度达到了99.0404%,其Kappa系数为0.9807
。
[11]
针对模拟图像2,无论是传统分割方法还是结合了单一分形维数的分割方法结果均不理想。基于灰度特征值的分割精度仅61.0956%,Kappa系数为0.2156,但加入了单尺度分维特征后,分割精度有所提高,表1所示。当三个尺度分维特征均参与图像分割时,样本数据的分割精度达到了98.0008%;多尺度分形特征考虑了图像的空间结构信息,其优化组合提高了图像分割的精度。
表1 模拟图像2各尺度分维分割精度比较Scale: 3101003,1010,1003,1003,10,100
OverallAccuracy76.9292%76.4494%76.8892%78.8085%96.%88.2047%98.0008%
KappaCoefficient
0.54260.53420.54300.58340.92340.76490.9597
此外,本实验也尝试了利用与遥感植被指数的计算方法相似的思想得到分维指数,先求得在尺度r=10以及尺度r=100下原图像的分维图,然后利
(a)基于灰度值的图像分割
(b)综合分形特征的图像分割
用公式(r10r100)/(r10+r100)得到指数图像,并结合尺度r=100下的图像进行图像分割,理论上分割效果比r=10,r=100的简单结合要好,但是此实
图6 模拟图像1分割效果图
2008.1
理论研究 遥感信息
验中分割精度仅为93.7625%,Kappa系数为0.8745,这样的结果与图像本身的特点以及尺度选择有关。最优分维指数的探讨是今后分形图像研究中的一个重要话题。
VFDI=FDband3,r=30FDband2,r=100(2)
此外,盐田的分形维数在第3波段的整体下降
与对该波段处的强吸收造成的DN值较小有关。
(3)分形维数在一定的范围内波动但随尺度变化趋于恒定。由于ASTER1、2、3波段图像的空间分辨率为15m,混合像元的存在必将造成像元内成分的不均一,以致分形维数在一定的范围内波动,但是由于维数是用来定量的反映目标物体的不规则性,图8中各曲线最终趋于平缓。
(4)分形维数随尺度的变化可以用来描述目标或者区分潜在的目标,当一些尺度同一类内具有相
(a)尺度10 (b)尺度3,10,100
似信息而不同类间具有很大差别时,这些尺度可以用于目标的识别和特征提取。波段1中,尺度30~50的分维值,波段2中尺度35~70的分维值以及波段3中,尺度45~85的分维值均可以用来作为特征提取因子识别目标地物。
图7 模拟图像2分割效果图
4 遥感图像分割实验与分析
研究中选用的数据源为天津南部地区海河入海处8月21日的ASTER的1、2、3波段数据,选取了大小为512#512的.区域作为实验区。该区域的土地利用类型比较有代表性,包括水域、植被、城镇用地、裸地和盐田。
4.1 分形特征提取与分析
采用上述提到的分析方法和流程,试验中对该遥感图像进行了相同的处理,提取了三个波段具有代表性的地物分形维数谱,如图8所示,得出如下结论:
(1)分形维数反映地表的粗糙度,自然景物的分形维数值较小并且随尺度的变化小而人工景物则相反。水域、裸地的纹理结构简单均一,分形维数相对较小随尺度变化范围也小;盐田、植被(包括耕地)、城镇用地由于受人工的影响,地表不规则,纹理结构粗糙分形维数值较大,分形维数随尺度的变化也大。
(2)灰度信息影响分形维数,与其成正相关关系。由于波段1、2、3分别表示地物在0.5560 m,0.6610 m,0.8070 m附近的发射光谱响应DN值,分形维数在此范围内表现出与反射光谱相同的变化。植被的分形维数满足FDband3>FDband1>FDband2,这与植被在近红外的高反射、绿光波段的强反射以及对红光波段的吸收造成的低反射有关。因此参照光谱和植被指数的概念,可以试图建立植被分维指数VFDI(VegetationFractalDimensionIn dex),FDband3,r=30表示ASTER第三波段在尺度r=30下的分形维数,FDband2,r=100表示ASTER第二波段在尺度r=100下的分形维数。
4.2 遥感图像分割
采用5#5的滑动窗口,计算出图像在尺度r=30,40,70的分形维数值,提取其分形特征后利用最大似然法对图像进行分割。经过多次反复实验,得出如下结论:?多分形特征参与的图像分割较之单分形特征对图像分割效果有所改善。仅利用灰度信息对图像分割的总分割精度为:82.6986%,Kappa系数为0.7819;在原图的基础上加入单一分形特征后分割精度提高,最高为84.7116%(尺度r=70);在此基础上,加入尺度r=40后分割精度达到85.8426%。%分形特征能很好的区分灰度信息接近而纹理结构不同的地物类型,如图9中所示的裸地和城镇用地。因为城镇用地与裸地的颜色接近,基于灰度值的图像分割容易造成两者的混淆,而分形纹理能明显的将两者区分出来。图9(a)中右下角部分为裸地中的沙地,在图中与城镇用地颜色相差不大,均为青色。但在求出的分维图9(b)中颜色却与城镇用地差异很大。这是由于沙地较城镇用地结构简单,分形曲面起伏不大,分形维数较小,颜色较深。&分形能从宏观上把握目标的边缘特征但对细节部分把握不够。图9(d)中各地物类型的区分明显,并且成片分布,但是丧失了部分细节信息。
5 结束语
本文通过对模拟图像和遥感图像的分形特征提取与分割实验证实了传统的基于灰度值特征分割方法的不足以及单一尺度分形特征的局限性,引入多
遥感信息
理论研究 2008.1
尺度分形特征建立分形维数谱,来客观定量地描述各种地物的空间结构差异。实验中结合多尺度分维特征,遥感图像的分割精度达到了85.8426%,提高了3%以上。并且根据遥感图像分维谱,我们可以清楚的识别各种地物不同的空间结构差异:水域、裸地的纹理结构简单均一,分形维数相对较小并且随尺度变化范围也小,分维曲线值较低并且平缓;
盐田、植被(包括耕地)、城镇用地由于受人工的影
响,地表不规则,纹理结构粗糙,分形维数值较大,随尺度的变化也大,分维曲线偏高且不太平缓。
研究结果表明:分形特征是描述图像信息的一种有效特征量,根据分维值的大小和变化趋势可以表示不同地物的空间复杂度,利用分形能够把图像的空间信息和灰度信息有机的结合起来。
参考文献
1 A.P.Pentland.Fractalbaseddescriptionofnaturalscenes[J].IEEETrans.,1984,PAMI-6,(6):661~674.
2 S.Peleg,J.NaoR,R.HartleyandD.Avnir.Multipleresolutiontextureanalysisandclassification[J],IEEETrans.,1984,
PAMI(6):518~523.
2008.1
理论研究 遥感信息
3 T.Peli.Multiscalefractaltheoryandobjectcharacterization[J].J.Opt.Soc.AmA,1990,7(6):1101~1112.4 江东,王建华.遥感信息科学中的分形思维[J].甘肃科学学报,,12(1):53~57.5 吴健平.分形理论在遥感中的应用[J].遥感技术与应用,1993,8(12):23~27.6 孙家柄,刘继琳,李军.多源遥感影像融合[J].遥感学报,,2(1):47~50.
7 舒宁.卫星遥感影像纹理分析与分形分维方法[J].武汉测绘科技大学学报,1998,23(4):370~373.8 B.B.Mandelbrot著.文志英,苏虹译.分形对象?形状、机遇与维数[M].北京:世界图书出版公司,.9 B.B.Mandelbrot.TheFractalGeometryofNature.Freeman[M].SanFrancisco,Cali,1982.
10 JayFeng.Fractionalfractalgeometryforimageprocessing[D].Illinois:NorthwesternUniversity,2000.11 赵英时,等.遥感应用分析原理与方法[M].北京:科学出版社,.
12 T.ParrinelloandR.A.Vaughan.Multifractalanalysisandfeatureextractioninsatelliteimagery[J].INT.J.Remote
Sensing,,23(9):1799~1825.
13 SonnyNovianto,etal.Nearoptimumestimationoflocalfractaldimensionforimagesegmentation[J].PatternRecognition
Letters,2003(24):365~374.
FractalFeatureExtractionandSegmentationofRemoteSensingImagery
ZHENGGui xiang,LINQi zhong
(InstituteofRemoteSensingApplication,ChineseAcademyofSciences,Beijing100101,China)
Abstract:FractalmethodisanewsubjectwhichwasfoundedbyAmericanscientistB.B.Mandelbrotinthemiddleof1970s,whichiswidelyappliedtoalmostallthefieldsofphysicalandsocialsciences.Basedonpreviousstudies,thispaperextractedthefractalfeaturesofimagesbyusingtheDoubleBlanketMethodandappliedthemtoimagesegmentationwhichshowedthevalidityandfeasibilityoffractalinthisfieldfurther.Firstly,anoptimumwindowwasselectedbycomparingthestandarderrorbetweenlocalandglobalfractaldimensions.Secondly,multi scalefractalfeatureswereextractedandfractaldimensionspec trumswereestablishedwithregardtosingle scale(slimitation.Then,byanalyzingobjectfractaldimensionspectrum,appro priatefeatureswereutilizedtosimulativeimagesegmentationbasedonthemaximumlikelihoodmethod.Atlast,fractaltheorywasbestowedtoremotesensingimage.Relativetothetraditionalmethodconsistedofonlygraylevelfeatures,theoverallseg mentationaccuracywasobviouslyimprovedwhenconsideredthespatialfractaltexturefeatures.Theresultsshowedthatfractaldimensionanditschangetrendcoulddisplayspatialcomplexityofdifferentobjects.Combinedwiththespectrumandgraylevelinformation,theobjectscanbediscriminatedeasily.
Keywords:remotesensing;multi scalefractal;DoubleBlanketMethod;imagesegmentation(上接第8页)
ANewMethodofAcquiringThreeComponentsofDeformation
DisplacementBasedonDInSARTechnique
ZHAXian jie,FURong shan,LIUBin,DAIZhi yang,SHAOZhi gang,HANLi bo(SchoolofEarth&SpatialScience,ChineseScienceTechnologyUniversity,Hefei230026)
基于特征点的路面图像检测 篇3
随着社会的高速发展, 高速公路的建设也逐渐受到重视, 随之带来的路面维护问题也日异突出。以往, 对于公路路面的破损, 如裂缝、坑槽等, 都是利用人工进行检测。这样做耗时、耗力、不精确, 还影响正常交通。如果能够开发一套路面破损自动检测系统, 对公路维护工作是非常有利的。但由于CCD摄像机拍摄范围有限, 且公路待测范围较大, 在将有破损的图像分类出来后, 还要将有重叠部分的多幅图像进行图像拼接, 才能呈现全景的路面破损图像。
目前, 图像拼接作为图像处理的一个重要部分仍然是一个难题, 其中一个重要原因就是拼接过程中的角点检测算法相对还不成熟, 有待改进。在提出了基于模块匹配, 网格匹配等方法以后, 基于特征点匹配的思想越来越受到人们的重视。
1基于特征点检测的研究现状
当前, 在基于特征点检测的算法中, SUSAN算法[1]和Harris算法[2]是其中相对成熟的方法。SUSAN 算法是由Smith等人提出的一种低层次图像处理小核值相似区的方法, 它不依赖于目标的其它局部特征, 仅利用角点本身的特点直接提取角点。因此, 检测时不需插值而且不依赖于前期图像分割的结果, 且对噪声不敏感, 但因为没能给出各角点对应的角度和方向, 建立角点间的联系, 所以给后续的图像匹配应用带来很大的不便;1998年由C. Harris和M.J. Stephens 提出Harris算法是一种以曲率为角点进行提取的角点检测算法。它的特点是通过各种方法计算边缘某点处的曲率, 找出局部极值, 再通过阈值技术来进行角点检测。但由于这种算法对噪声比较敏感, 而公路图像在采集时容易受到外界噪音光照的影响, 所以使用这种方法进行检测准确性就达不到理想的效果;SIFT算法[3]是一种当前研究热点的方法, 由D.G.Lowe 1999年提出, 并于2004年完善总结。该算法不仅具有较高的准确性、独特性、多量性, 还具有尺度、旋转、仿射、视角、光照不变性, 对目标的运动、噪声等因素也保持较好的匹配性。但由于这种算法在多层金字塔的建立以及后续的特征描述符的匹配需要消耗大量的时间, 而公路破损监测对实时性要求很高, 所以这种算法也不太适合。
2检测算法的具体实现
总结以上算法的优缺点, 本文针对公路图像噪声多、灰度变化小、特征点少、匹配实时性要求高等特点, 选用SUSAN算法进行特征点检测, 根据特征点集的大小进行FCM聚类以减少运行时间;然后再利用特征点邻域像素的梯度方向分布特性差别来进行特征点的匹配, 以弥补SUSAN算法在后期匹配中的不足;最后, 利用RANSAC算法进行消除错配, 经实验结果证实, 拼接后可以达到很好的效果, 且效率更高。对完善公路图像自动检测系统, 有很好的参考价值。算法具体实现步骤如下:
(1) 利用SUSAN算法, 对原图像和待匹配图像进行特征点征点检测, 形成两幅图像的特征点集X、Y。
(2) 根据图像的特征点的灰度, 和数目建立目标函数, 对两幅图像的特征点集进行FCM聚糊, 找出相似度最大的一对特征点集X’、Y’。
(3) 计算两个集合中每个点的邻域像素梯度幅值信息, 以欧式距离来作为X’、Y’点集间特征点的相似性判定度量, 可找出集合X’、Y’中每一点在另一集合中相似性最大的相应点, 形成特征匹配对集。
(4) 利用RANSAC算法, 可将由于外界噪声与光照影响所产生的大部分错配点对消除, 提高匹配的准确性。
(5) 根据匹配点对间的位移与角度的变换关系, 可将图像进行最近的拼接。
2.1SUSAN算法
SUSAN算法是一种低层次图像处理小核值相似区的方法。他的特点是不依赖于目标的其它局部特征, 仅利用特征点本身的特点直接提取特征点。经过实验证明, 这种算法速度快、实时性强。
它的基本原理[4]是:与每一图像点相关的局部区域具有相同的亮度。首先, SUSAN算法设计了一个模板, 模板的半径一般为3~4个像元, 如图2 (1) 所示:模板中间的一点称为核子。然后, 将模板在图像的每个像素点上移动, 当核子位于图像中亮度一致的区域内时, SUSAN的面积最大, 其值为圆形模板的面积, 随着模板中心离图像边缘越来越近, SUSAN的面积逐渐减小, 当核心位于边缘直线上时, 其面积减小到圆形模板面积的一半, 当模板中心离某一特征点很近时, 其面积进一步减小, 当模板中心落在特征点上的时候, SUSAN的面积达到局部最小值。如图2 (2) 所示。
由此也可以看出, SUSAN算法是基于亮度变化的特征点检测方法, 其步骤[5]如下:
(1) 将SUSAN模板在图像上滑动, 遍历整个图像, 在每个位置上都比较模板内核子与邻域内位置的灰度:
undefined
(1)
其中undefined模板的核子, undefined是模板内除核之外的任意一个点的位置, undefined为undefined的灰度值, undefined为核心的灰度值, t为控制生成特征点数目的一个灰度阈值, undefined是判断undefined是否属于SUSAN区域的判别函数。为了使式 (1) 更稳定, 可采用相似比较函数:
undefined (2)
则模板内的所有点与核子灰度比较的和为:
undefined (3)
(2) 设置一个阈值与undefined进行比较, 得到图像的边缘响应:
undefined
(4)
即SUSAN区域越小, 初始特征点响应越大, 这样对图像中的特征点信息进行了增强。其中阈值g为经验值, 本文中取15。
2.2特征点匹配
SUSAN算法的优点在于特征点检测时计算复杂性低, 不需插值而且不依赖于前期图像分割的结果, 直接对像素的邻域灰度值比较即可检测出特征点, 且对噪声不敏感, 因此速度比Harris算法及SIFT算法更快, 在图像处理中得到广泛的应用, 但是SUSAN方法只能提供特征点的位置, 没有给出各特征点对应的角度和方向, 建立特征点间的联系, 这给后续的图像匹配应用带来很大的不便。
基于以上理由, 本文借鉴SIFT算法中的匹配方法, 提出利用由SUSAN算法提取出的特征点邻域像素的梯度方向分布特性差别来进行特征点的匹配。经实验证明, 匹配准确性比信息熵方法要提高很多, 其具体步骤如下:
(1) 以每一个特征点为中心, 形成一个7×7的信息框, 计算框内每个点的梯度幅值:
undefined (5)
即每个特征点有7×7=49个描述信息。将要匹配的源图像及目标图像的两个特征点集内的点都进行描述信息的计算。
(2) 当两幅图像的特征点的描述信息计算好后, 利用特征点描述信息间的欧式距离来作为两幅图像中特征点的相似性判定度量。取图像1中的某个特征点为参照点, 并找出其与图像2中欧式距离最近的前两个特征点, 在这两个关键点中, 如果最近的距离除以次近的距离少于某个比例阈值, 则接受这一对匹配点。降低这个比例阈值, 匹配点数目会减少, 但更加稳定。
2.3引入聚类理论
由于公路路况比较复杂, 当路面破损不严重时, 只存在一条横裂或纵裂, 这样, 图像灰度变化不明显, 特征点提取就相对困难, SUSAN算法有效地解决了这一问题, 在仅有少量物体的情况下, 依然能提取出大量的特征点, 有利于后续的匹配;当路面破损不严重时, SUSAN提取的特征点数就会相对过多 (红色点为提取出的特征点) 。而每一特征点都要计算49维的梯度幅值, 计算量大, 会消耗大量的时间 (占总程序的35%~40%左右) , 影响总体运行效率。
针对公路图像的这一特点, 本文提出一种新的改进方法, 即在SUSAN算法提取特征点成功后, 引入模糊聚类[6]的思想。设定一阈值, 当检测出特征点少于此阈值时, 按原算法执行;当检测出特征点多于此阈值时, 将两幅图像的特征点进行FCM聚类。将具有最大相似性的一对聚类当作特征点集, 然后再进行特征点邻域梯度幅值的计算, 最后进行匹配, 这样, 可以减少大量计算量, 提高速率。
FCM聚类算法是一种基于划分的聚类算法, 是C均值算法的改进, C均值算法对于数据的划分是硬性的, 而FCM则是一种柔性的模糊划分, 它的思想就是将n个向量xi (i=1, 2, …, n) 分为c个模糊类, 并求每组的聚类中心, 使得被划分到同一簇的对象之间相似度最大, 而不同簇之间的相似度最小。
FCM算法的实现过程是本身是一个迭代的过程, 分以下几步:
(1) 对c个聚类中心初始化:
Ci (i=1, 2, …, c)
(2) 计算隶属矩阵:
undefined (6)
(3) 计算价值函数。如果它小于一个确定的阈值, 或它相对上次价值函数值的改变量小于某个阈值, 则算法停止;否则, 转步骤 (4) ;
(4) 重新计算聚类中心:
undefined (7)
当算法执行完后, 将具有最大相似性的一对聚类当作特征点集, 然后再进行特征点的匹配。经实验结果表明, 在特征点较多的时候, 可将运行速率比不使用聚类时提高15%~20%。
2.4RANSAC消除错配
由于外界噪声与光照的影响, 匹配中出现错配是在所难免的, 在此, 本文使用RANSAC算法[7]进行错配的消除。
其基本思想[8]:首先根据具体问题设计出某种目标函数, 然后通过反复提取最小点集估计该函数中参量的初始值, 利用这些初始参量值把所有的数据分为所谓的“内点” (inliers, 即满足估计参量的点) 和“出格点” (outliers, 即不满足估计参量的点) , 最后反过来用所有的“内点”重新计算和估计函数的参量。
具体步骤是:首先在两个匹配特征点集中随机抽取一定数量的特征点对, 计算每对特征点对的斜率, 求其平均值, 作为判断条件。而后计算其它特征点对的斜率, 查看是否在这个条件范围内, 若是, 则作为正确的特征点对;否则, 作为错误的特征点。经过多次随机抽样, 找到落在误差范围内最多的点的集合, 形成最优解。由于错配对在整体匹配中为少数, 大部分数据落在误差范围外。而对于好点所确定的模型逼近于真实模型, 所以大多数落在误差范围内。
根据以上的几个步聚, 已经可以提取出比较精确的图像间的匹配点对集, 由于公路图像拍摄的方式的问题, 图像间的仿射变化基本不大, 所以, 只计算相关的位移与角度的变换即可。将图像进行拼接后, 即可呈现全景的公路图像。
3实验结果及分析
本实验环境参数如下:CPU:AMD 2800+MHz;内存:512M;操作系统:Windows XP;仿真平台:Matlab 7.1。
本文在Matlab仿真平台上进行实验。通过采集大量300×400像素的公路图像并进行检测, 通过本算法的几个步骤, 可准确提取找出重叠图像的公共点对, 具体过程如图2所示。
经多组实验证明, 相同的图片, SUSAN算法的运行时间比SIFT算法与Harris算法少很多, 只占SIFT算法的30%~40% (SUSAN基本在2秒左右, 如果用C语言实现, 实时效果会更好) , 同时在使用RANSAC方法进行消除错配后, 匹配正确率也基本达到SIFT算法的水平, 多组实验证明正确率都在93%以上。
4结论
本文针对公路图像的特性, 利用SUSAN算法对图像进行特征点检测, 引入模糊聚类理论以提高计算效率, 借鉴SIFT算法中的匹配方法, 提出利用特征点邻域像素的梯度方向分布特性差别来进行特征点的匹配, 提高了匹配的准确性, 并在初步匹配后运用RANSAC算法进行消除错配。经实验证明, 该方法在运行速度和匹配准确性上, 都有所提高, 达到很好的效果, 这对完善公路图像自动检测系统, 呈现公路全景破损图像有很大的参考价值。
参考文献
[1]胡社教, 葛西旺, 陈宗海.基于角点特征的KLT跟踪全景图像拼接算法[J].系统仿真学报, 2007, 19 (8) :17421744.
[2]仵建宁, 郭宝龙.一种基于兴趣点匹配的图像拼接方法[J].计算机应用, 2006, 26 (3) :610612.
[3]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision, 2004, 60 (2) :91110.
[4]华顺刚, 曾令宜.一种基于角点检测的图像密集匹配算法[J].计算机工程与设计, 2007, 28 (5) :10921095.
[5]王占杰, 慕亚平, 肖海燕.改进的基于灰度变化的角点检测算法[J].科技咨询导报, 2007:1719.
[6]高新波.模糊聚类分析及其应用[M].西安电子科技大学出版社, 西安, 2004.
[7]郭红玉, 王鉴.一种基于RANSAC基本矩阵估计的图像匹配方法[J].红外, 2008, 29 (2) :58.
一种改进的图像边缘检测算法 篇4
对传统的微分边缘检测算法的缺陷进行分析和评价,并针对微分边缘检测算法的缺陷,提出了一种改进的边缘检测算法.新算法摈弃了传统边缘检测算法中将每个像素单独进行考虑的模式,而是将待检测像素及与其相邻的像素作为一个整体来考虑,通过将待检测像素为中心的某个领域进行整体计算,得出能够反映这个领域性质的某些参数,并以此作为边缘检测的判据,进行检测.此算法充分考虑到了中心像素与周围像素之间的.关系,从而增加了梯度运算的可靠性.实验表明:新算法能够检测到更细的边缘,并且在椒盐噪声的情况下要优于常用的微分边缘检测算法.
作 者:崔建军 詹世富 郑雄伟 顾俊凯 CUI Jian-jun ZHAN Shi-fu ZHENG Xiong-wei GU Jun-kai 作者单位:崔建军,顾俊凯,CUI Jian-jun,GU Jun-kai(长安大学地质工程与测绘学院,陕西,西安,710054)
詹世富,郑雄伟,ZHAN Shi-fu,ZHENG Xiong-wei(中国国土资源航空物探遥感中心,北京,100083)
图像特征检测论文 篇5
随着信息技术的发展以及数字设备的普及,图像和视频等视觉信息作为主要信息载体,其数据规模呈现几何级增长,使得数据的存储、传输、分析、应用遇到巨大困难。因此,如何减少错误或者冗余数据,实现低数据处理量和高分析准确性成为海量视觉信息处理中的重要问题。对于图像而言,以视觉注意机制为代表的显著性检测技术
显著性图获取的基本步骤为:特征提取、特征显著性计算和特征显著性图合成。文献
到目前为止,由于制约因素过于复杂,所以自上向下类的方法的研究不是很多。虽然图像的显著性检测得到了广泛研究,但其应用还不能令人满意,主要体现在显著性图自身质量不佳、计算复杂度高、应用方式不成熟等,因此需要设计更好的方法。本文的主要工作是通过图像的像素点聚类之后,结合显著性先验理论,通过分析类之间和类内部的颜色特征、空间距离特征和图像纹理特征的对比度和差异性得到不同的特征图,再通过特征图融合获得最终的显著图。
本文首先是设计一种新的聚类方法,为显著性检测方法的设计提供良好的前提条件;第二是利用算法充分分析图像的多重特征并做适当处理,使其应用具有强鲁棒性;第三是体现了自上向下和自下向上两种方法的融合。
1 算法设计
本文算法首先对图像的像素聚类;然后分别根据不同特征信息以一定的方式计算色差之和SCD特征图、局部差之和SLD特征图、颜色方差CV特征图、区域大小RS特征图、每个像素到图像中心位置距离的均值MDI特征图、每个像素到其所属类的中心位置的距离均值MDC特征图、每个像素到其所属类的中心位置的距离方差VDC特征图、中频能量EMF特征图;最后将8种特征图融合并得出最终显著图。聚类及特征图等都是依据一定的原理并基于多重特征计算得出的。
1.1 算法主要依据的原理
(1)对比度原理:对比度是引起视觉关注的最大因素
(2)Gestalt原理
(3)高频抑制原理:视觉系统对于频繁出现事件不敏感,而最先发现小范围的不寻常部分。使用频域信息时可以滤掉无用的高频,重点计算图像中的中低频信息。
(4)关键区域聚焦原理:当存在多个显著区域时,某一区域的某一对象最容易被关注。此对象叫做关键对象,其所在区域叫做关键区域,包含图像中的重要信息。
(5)中心圆周原理:此原理可以检测出中心区域和局部周围区域中相对比较突出的位置和信息
1.2 图像特征选取
颜色、空间距离等是图像的底层特征,自下向上的方法主要是基于这些特征。边界信息、频域信息和显著性先验知识等则属于中层特征,中层特征结合底层特征预测显著目标的可能位置能够提高显著性检测模型的鲁棒性。本文基于多重特征的显著性检测方法主要是依据图像的底层特征并结合频域信息以及被验证的显著性理论建立显著性计算模型。其中,关于频域信息的使用,有以下几点:
(1)考虑原图的低频信号以点亮整个显著性区域;
(2)低频信号使用要有助于得到一致性的显著图;
(3)为了获取很好的边界,需要考虑高频信号;
(4)由于高频信号往往会带来图像的纹理、噪声和块效应,所以超高频信息需要被忽略。
2 算法的实现
2.1 图像聚类
聚类选用k-means方法,但与传统的随机选取种子的方式不同,本文使用正六边形排列的方式,最大程度上克服结果的不确定性以此实现强鲁棒性。另外,种子数量太少会使得图像聚类效果出现很大误差,太多则计算量激增且效果没有显著提高,此处种子数选为20。
本文将同时使用颜色和空间距离特征做显著性聚类,一个像素点的值是一个{l,a,b,x,y}向量。其中l、a、b表示CIE Lab颜色空间中的三个分量,x、y表示的是像素点的坐标。图像的左上角为坐标原点,对每个像素点求得种子的距离是:
其中pi表示第i个像素点,δ是一个可以自由设定取值的距离因子,其大小和图像的横坐标像素点的个数n有关。由式(1)可以看出,δ的值越大,空间距离在聚类中作用越大,像素更容易被匹配到相近的类中,而不是被划分到颜色更相近的类中,本文的取值是10/n。聚类之后将得到向量{c1,c2,…,ck},其中k表示类数。图1(b)展示的是2个例图的聚类结果。
图1 聚类示例
2.2 计算特征图
根据选取的图像特征计算所有特征图,并以上面两个例图展示各个特征图的效果。
(1)SCD特征图
根据颜色全局对比计算每一个类的显著值:
其中ci为聚类后的颜色特征向量,最后将该值赋给聚类之后的编号相同的像素点得到SCD特征图。
(2)SLD特征图
根据空间距离全局对比,计算每个聚类的中心坐标与其他聚类的距离总和:
其中p代表了每一个聚类之后的中心坐标。
(3)RS特征图
RS表征图像中某类在整个图像中所占的比例。基于聚类结果,使用局部对比方法根据颜色均值的差异进行优化处理,如果差值较小便认为是连通的,使背景区域有效融合。最后对像素点个数所占比例归一化处理。
(4)CV特征图
使用全局方法计算颜色方差得到CV特征图:
其中CVk表示类k的方差值,Ci是原图像素的颜色分量。CMk是类k的颜色欧式距离的均值:
(5)MDI特征图
利用空间信息计算一个类中所有像素到图像中心位置距离的均值:
其中Ic是图像的中心点位置,pi是某类中像素的坐标。
(6)MDC特征图
同样利用空间信息,MDC的计算如下:
其中pi是像素点i的坐标,pk是类k的中心坐标。
(7)VDC特征图
利用MDC的结果,计算VDC特征图:
(8)EMF特征图
图像中的大部分高频信号是背景信号,高频信息一般都不是目标显著区域,所以忽略高频信息和低频信息。计算中频信息,得到EMF特征图:
图2表示的是两个例图相应的8种特征图。
图2 两个例图的8种特征图
2.3 计算显著性图
将所有特征值归一化到[0,1]区间,最后通过将8个特征值叠加得到初始显著图:
其中,,即取反。最后进行融合之后将得到初始显著性图。经过规范化操作使得值的区间在[0,255]内。接下来对初始显著性图进行二值处理,设定阈值为128,得到最终的显著性图。图3展示了上面两个例图的初始显著性图和最终显著性图。
图3 显著性图示例
3 实验与分析
选用具有代表性的Achanta提供的1000幅图像库来检验本文的方法。从主观和客观两方面对于算法性能进行评估。主观上指用户的视觉体验效果,一般采用可视化对比的方式。而客观标准则采用一定指标衡量。
3.1 主观评估
选用IT
图4本文方法与典型方法的主观可视化对比
3.2 客观评估
客观标准采用PR曲线和F-measure进行评估。以图像库的图像均值为参数,精度P(Precision)为纵轴,召回率R(Recall)为横轴绘制PR曲线。F-measure是关于精度和召回率的一个调和平均数,通过一个实数参数α指定精度和召回率的相对重要性。
图5为PR曲线,由于MZ方法主观效果不佳,所以在此忽略。可以看出,IT、RC及SF方法明显比本文所提方法差。在召回率小于0.6时本文方法的精度高于所有方法,在0.6~0.8之间时本文方法只略低于MR,当精度大于0.8时RC、SF、MR、HS和本文算法都趋向一致。因此,本文方法达到预期的效果,能够得到较好的PR曲线。由于本文方法中多特征叠加使得一些目标像素点被隐藏,使其在高召回率的情况下精度比MR模型的精度低。
图5 PR曲线
F-measure可以公式化为:
在实验中取α=0.3,图6表示的是F-measure曲线图。
图6 F-measure图
由于MZ在主观评价中效果不佳,所以在此也被忽略。图6表明,本文方法的阈值是128,所以阈值范围在110到150之间,该值和MR和HS值都接近0.9,表明具有很好的实验结果。
在主观评估方面,本文方法效果最好;在客观评估方面,本文方法与MR方法相当,优于其他方法。综合主观、客观整体评价,本文方法达到了预期效果。
4 结语
图像配准中特征点检测算法的探讨 篇6
基于特征点的配准方法是研究的热点, 它主要包括特征点提取、特征点匹配、计算变换模型参数和图像变换与插值4个部分。其中, 特征点检测是图像配准的重点和难点, 特征点提取的好坏直接影响着图像配准的精度和效率[3]。近几年, 国内外出现了许多特征点检测方法, 然而对这些方法应用于图像配准这个环境中的实际效果如何, 提取的特征点是否有利于图像配准, 以及各种特征点检测算法的性能如何, 都缺乏相应的分析与比较, 对特征点提取方法也缺乏相应的评价标准。
本文主要从特征点检测与评价这两个方面出发, 详细介绍了目前主流的特征点检测算法, 并对特征点提取算法的评价标准作了一定的具体说明。通过实验, 比较了各种算法的性能, 为不同应用情形下特征点提取方法的选择提供有力的参考。
1 特征点检测方法
图像配准中的特征点是指对旋转、平移、缩放、光照等变换具有不变性, 对噪声的敏感性也比较小, 在不同成像条件下仍能保持一致性。
常用的特征点检测算法可以归纳为以下三类:
1) 基于边缘点的提取方法:如LOG检测、Canny算子、基于小波变换的提取方法、基于NSCT (Nonsubsampled Contourlet Transform) 的鲁棒性特征点等。
2) 角点检测方法:主要包括基于边缘和基于灰度的方法, 第一类需对边缘进行编码, 对图像分割和边缘提取要求比较高, 难度和计算量较大;第二类方法直接对图像灰度进行操作, 主要是通过计算点的曲率及梯度来检测角点, 此类方法主要有Moracec算法、Forstner算法、Harris算法、Susan算法等。
3) 高效斑点检测算法:如SIFT (Scale Invariant Feature Transform) 算法、SURF (Speeded Up Robust Features) 算法等。
本文将对上述3类特征点中一些典型算法做详细的分析与比较。
1.1 基于NSCT的特征点检测方法
非下采样轮廓波变换 (NSCT) 是Cunha和Zhou等人[4]提出的一种多尺度多分辨率分析手段, 具有快速变换、多尺度、多方向、平移不变、边缘保持、频率不混淆以及变换后图像大小不变的优点;在NSCT域中, 尺度内、尺度间的系数都具有一定的相关性, 噪声和细节在尺度间、尺度内各方向分布也具有不同的特点。
基于NSCT的特征点检测方法[5]步骤如下:
1) 对图像进行N级NSCT变换, 得到低频子带图像及各尺度L个方向上的高频方向子带系数矩阵。
2) 对于高频分量, 求相邻尺度同一方向子带的差值模值, 得到L个差值子带图像。
3) 对于所获得的差值子带图像, 针对图像每一个像素点位置, 进行模极大值检测, 得到一幅NSCT模极大值图像。
4) 在NSCT模极大值图像上利用硬阈值Th去除非显著的特征点, 如NSCT模极大值大于阈值Th, 则保留这些点;其中, Th=c (δ+μ) , c是用户自定义参数, δ和μ是NSCT模极大值图像的标准方差和均值。
5) 以4) 保留下来的模极大值点为中心, 在w×w的邻域内进行非极大值抑制, 最后得到的点作为所提取的特征点。
基于NSCT的特征点提取方法的特点:
1) 该算法采用多尺度空间思想, 充分利用了NSCT域尺度内、尺度间系数的相关特性这一特点, 能有效地抑制噪声、增强特征点;
2) NSCT具有很好的方向性, 提取的特征点多位于图像的边缘、拐角处, 具有很高的精度且鲁棒性强, 很好地表征图像的显著特征;
3) NSCT是全局变换, 由于其非下采样, 变换后的图像大小不变, 与小波变换相比, 计算速度慢, 对图像配准而言缺乏实时性。
1.2 基于灰度的角点检测方法
1) Harris算法
Harris角点[6]检测算法的思想是:使图像中的一个局部小区域在各个方向做微小移动, 计算该区域内能量的变化, 当该变化值超过一定阈值时, 就认为该小区域内的中心像素点为角点。
Harris算法为
式中:;ω为高斯平滑模板;Ix, Iy是I (x, y) 在x和y方向上的梯度;*表示卷积运算;det M、trace M分别为矩阵M的行列式和迹;α为经验常数, 取值为0.04~0.06。
当某点的响应值R大于阈值t, 进行局部极大值抑制, 获得最终的角点。
Harris算法的特点是:
(1) 算法只用到了灰度一阶差分, 计算简单, 速度快。
(2) 算法通过计算图像每个位置的响应值, 在合适的领域内选择最优点, 提取的点特征均匀合理, 在纹理信息丰富的区域, 角点的数量较大, 反之亦然。
(3) 通过对极值点进行统一排序, 根据时间和精度要求选取数量合理的最优角点。
(4) Harris算子对图像平移旋转和光照变化具有不变性, 能够稳定地检测特征点;对噪声比较敏感, 在信噪比低的条件下, 特征点数量明显增加, 加大了特征匹配的难度;且不具有尺度不变性和仿射不变性。
为了使Harris算子具有尺度不变性, 把尺度空间理论引入到Harris特征点检测上。Harris-Laplace[7]算子检测的特征点具有尺度不变性。
Harris-Affine[7]是一种新颖的检测仿射不变特征点的方法。在大尺度缩放变化的情况下, 具有很好的性能;由于初始点检测和仿射区域的归一化, 计算具有一定的复杂度。
2) Susan算法
Susan算法是由S.M.Smith等人[8]提出的, 主要用来计算图像中的角点特征。SUSAN角点提取法主要有以下3步:
(1) 计算核值相似区USAN的大小n (r0)
式中:r为模板内除核以外的其他位置;r0为模板核的位置;I为像素灰度值;t表示所能检测角点的最小对比度, 其值越小, 提取的角点越多;C (r, r0) 表示灰度比较的结果。
(2) 计算角点响应值R (r0)
式中:g为固定阈值, 通常g=nmax/2;nmax为模板的大小减1, 其大小不仅决定了角点的个数, 也决定所检测角点的尖锐程度。
(3) 去除虚假角点, 并利用非极大值抑制确定角点:对于那些与正确角点相关的USAN区域, 其重心位置远离模板的中心位置, 利用加权法求重心, 计算核到重心的距离, 距离比较大, 则认为该角点是候选角点。
Susan算法的特点:
(1) 无须梯度计算, 提高了算法的效率;
(2) 具有积分特征, 对局部噪声不敏感, 抗干扰能力强;
(3) 对角点的检测比对边缘的检测效果好, 且特征点定位比较准确;
(4) 针对模糊或者强噪声图像的检测结果, 无论准确率还是数量, 都不太理想;
(5) 该算法对阈值较敏感, 选取合适的参数对算法结果影响很大, 同时会出现漏检和误检测角点。
1.3 高效斑点检测方法
1) SIFT算法
SIFT算法是Lowe[9]提出的一种尺度不变特征点检测方法, 计算步骤如下:
(1) 特征点检测
将不同尺度的高斯差分核与图像进行卷积, 在生成的高斯差分尺度空间 (DOG) 检测极值点, 这样提取的特征点较稳定。
式中:k为两相邻尺度空间倍数的常数;G (x, y, δ) 为高斯空间函数。
将每一个采样点与它同尺度的8个相邻点和上下相邻尺度对应的9×2个点进行比较, 在尺度空间和位置空间寻找局部极值点, 视为候选点。然后通过子像元插值法精确定位特征点的位置及尺度, 同时去除低对比度的特征点和不稳定的边缘响应点。
作为候选特征点, 通过拟合三维二次函数以精确定位特征点的位置和尺度, 同时去除低对比度的特征点和不稳定的边缘响应点。
(2) 特征点描述
根据检测到的特征点的局部图像结构求得一个方向基准, 使得特征点描述子对图像的旋转具有不变性。 (x, y) 处梯度的模值和方向公式如下
式中:L所在的尺度为每个特征点所在尺度。
为确保旋转不变性, 将高斯图像坐标轴旋转为特征点的主方向。取以特征点为中心的4×4子区域, 在每个子区域计算8个方向的梯度强度信息, 共有4×4×8=128维的SIFT特征向量。此时该向量具有尺度及旋转不变性。再对特征向量归一化, 可去除光照变化带来的影响。
SIFT算法的特点:
(1) 在多尺度空间采用DOG算子检测关键点, 相比传统的基于LOG算子的检测方法, 运算速度大大加快;
(2) 该算法提取的特征点较稳定, 能够在图像仿射变换、视角变换及噪声等条件下具有很好的匹配能力;
(3) 传统的SIFT算法维数较高, 计算量大, 速度慢;
(4) SIFT提取的特征点较多, 使匹配时搜索范围大, 增加了匹配时间和错匹配的概率。
针对SIFT算法速度较慢的问题, Ke等人[10]提出了PCA-SIFT算法, 通过主成分分析降低了特征向量的维数, 使计算复杂度下降。
2) SURF算法
Bay等人[11]通过将积分图像和Haar小波相结合, 提出了SURF算法, 进一步提高了特征提取的速度。主要包括两个部分:特征点检测和描述。
(1) 特征点检测
SURF算法通过计算Hessian矩阵行列式的局部极值来检测特征点的位置。
设图像I中一个点X (x, y) , 在点X处, 尺度为δ的Hessian矩阵H (X, δ) 为
式中:Lxx (X, d) 是图像I中点X与高斯二阶滤波的卷积;Lxy (X, d) 和Lyy (X, d) 的含义类似。
将盒子滤波器与图像进行卷积, 其结果分别为Dxx, Dxy和Dyy, 则Hessian矩阵的行列式可简化为
通过不同尺寸盒子滤波模板与积分图像求取Hessian矩阵行列式的响应图像, 并在响应图像上进行3D非最大值抑制, 求取各种不同尺度的斑点。
(2) 特征点描述
首先确定SURF描述子的主方向以确保其旋转不变性。以特征点为中心, 取半径为6δ (δ为特征点所在尺度) 的区域作为其邻域, 直方图统计邻域内各点的梯度和方向。以π/3为步长, 找到具有最大分布响应的角度, 将其作为该特征点的主方向;确定大小为20δ的矩形区域, 将其划分为4×4的子区域, 在每一个子区域内提取特征V
式中:dx, dy分别表示Harr小波在水平和垂直方向的响应值。
这样, 每个特征描述子都由4×4×4=64维的特征向量组成。通过对特征向量进行归一化来实现对光照的不变性。
SURF算法的特点:
(1) SURF算法引入积分图像和盒子滤波器, 在运算速度上比SIFT要快3倍左右, 适用于图像分辨率变化较大的情况;
(2) 对尺度、旋转、光照及视角变化等具有较强的鲁棒性和稳定性;
(3) 在同一情况下, 所提取的特征点数量少于SIFT特征点, 综合性能优于SIFT算法。
2 特征点检测方法评价
特征点提取是图像配准的重要步骤, 只有保证特征点准确可靠, 才能进行有效配准。因此, 不仅要通过主观视觉对特征点进行判断, 还要通过客观指标对特征点进行准确评价。
在图像配准这个应用环境中, 特征提取方法的好坏有其特定的涵义:特征点的数量要适中, 特征点过多会给后续的特征匹配带来严重的运算负担, 特征点过少可能无法满足变换模型的计算, 且影响配准的精度;对于不同传感器图像及图像的不同变化, 特征提取方法要有一定的适应性, 且特征点要保持一定的不变性, 才能使从不同图像提取的特征点能够精确匹配。综上所述, 本文从3个方面对特征点检测方法进行评价。
1) 特征点匹配率
特征点匹配率是指特征点匹配点对数与参考图像所有的特征点数之比。对于相同的实验图像, 特征点匹配率越高, 特征检测算法的性能越好。
2) 检测速度
通过特征点检测所用时间来评价算法的速度。对于相同的图像, 在相同的计算条件下, 计算时间长说明特征检测算法速度慢。
3) 不变性
对图像的旋转、平移、光照、仿射、噪声等变化, 所提取的特征点应具有一定的不变性, 才能保证不同图像之间的配准精度。
3 实验结果与分析
本文采用MATLAB 7.0对上述特征点检测算法进行实验。
3.1 Harris算法与Susan算法特征点检测比较
Harris算子和Susan算子在各种情况下的特征点检测结果如图1、图2所示, 实验图像大小为169×169。
从上述实验结果可以看出, 这两种特征点检测算法对图像旋转都具有一定的适应性, 但Harris算法具有明显的优势;在噪声存在的情况下, 特征点都明显增多。表1比较了算法的实时性及抗噪声能力, 从表1可以看出Harris算子由于使用梯度, 速度较慢, 对灰度和几何变换的适用性稍优于Susan算子。
3.2 SIFT算法与SURF算法特征点检测比较
本文在保持实验条件、主要参数一致的基础上, 从特征点检测时间、特征点个数以及视角、光照和仿射变化下的匹配率这些方面对这两种算法进行对比, 图3显示了两种算法在主要参数 (组octaves=4, 层levels=4) 相同的情况下对同一幅实验图像提取的特征点情况, 并通过表2对这两种算法的性能进行比较, 实验图像大小为205×305。
从表2可以看出, SURF比SIFT在时间上有很大的提高;对于图像的视角、光照及仿射变化, 这两种算法都具有一定的适应性;SURF检测的特征点明显不如SIFT丰富, 但匹配率却比SIFT高。从实验结果可以看出:SURF在综合性能上要优于SIFT算法。
4 小结
基于特征点的图像配准方法是图像配准领域很重要的研究方向。特征点检测是图像配准的关键技术, 特征点的好坏直接影响着后续图像配准的精度和效率。现有主流的特征点检测方法, 都有其一定的局限性。本文对典型的特征点检测算法的优缺点进行详细的分析与比较, 并给出了特征点评价的方法。
从图像配准的角度出发, 对于特征点的提取, 必须要考虑它的实时性、高精度和鲁棒性。随着图像配准实际应用的需求, 对图像特征点提取方法必须进行深入研究, 提出性能好的新方法, 使基于特征点的图像配准方法具有良好的发展前景。
参考文献
[1]赵芹, 周涛, 舒勤.基于特征点的图像配准技术探讨[J].红外技术, 2006, 28 (6) :327-330.
[2]刘琼, 倪国强, 周生兵.图像配准中几种特征点提取方法的分析与实验[J].光学技术, 2007, 33 (1) :62-67.
[3]GUARNERI I, GUARNERA M, LUPICA G, et, al.Image registration method for consumer devices[J].IEEE Trans.consumer electronics, 2005, 51 (3) :215-219.
[4]CUMHA A, ZHOU Jianping, DO M.The nonsubsampled contourlet transform:theory, design, and application[J].IEEE Trans.Image Processing, 2006, 15 (10) :3089-3101.
[5]CHAHIRA S, MOURAD B, YOUCEF B, et al.Robust feature points extratction for image registration based on the nonsubsanmpled contourlet transform[J].Int.J.Electron.Commun. (AEU) , 2009 (63) :148-152.
[6]HARRIS C, STEVEN M.A combined corner and edge detector[C]//Proc.the fourth Alvey Vision Conference.Manchester, UK:[s.n.], 1988:147-151.
[7]MIKOLAJCZYK K, SCHMID C.Scale&affine invariant interest point detectors[J].International Journal of Computer Vision, 2004, 60 (1) :63-86.
[8]SMITH S, BRADY J.SUSAN-a new approach to low level image processing[J].International Journal of Computer Vision, 1997, 23 (1) :45-78.
[9]LOWE D.Distinctive image features from scale-ivariant keypoints[J].International Journal of Computer Vision, 2004, 60 (2) :91-110.
[10]YE K, SUKTHANKAR R.PCA-SIFT:A more distinctive representation for local imagw descriptors[C]//Proc.Conference on Computer Vision and Patter Recognition.[S.l.]:IEEE Press, 2004:511-517.
图像特征检测论文 篇7
指纹特征提取是建立在指纹预处理基础之上, 细化指纹图像中需要的细节特征信息, 可以直接在灰度指纹图像或者是二值化指纹图像中提取细节特征信息。得到的细节特征信息越多, 匹配越容易。但是, 这些细节特征信息并不都是可靠的。为了提高匹配的准确性, 必须要甄别出伪细节特征点并去除之, 高效进行指纹比对与识别。
首先, 应该明确指纹特征的类型, 即全局特征和局部特征。它们分别适用于指纹的分类和匹配。本文的侧重点是指纹的细节提取, 因此重点关注指纹的局部特征。对于局部特征, 一般有四种:末梢点 (端点) 、分叉点、复合点 (三分岔或交叉点) , 与未定义 (由美国国家标准局 (NIST) 提出) 。其中, 由于末梢点和分叉点数量多而且存在较稳定, 是分析一些伪细节特征点的基本细节特征点, 因此现在被广泛使用于美国联邦调查局 (FBI) 提出的细节点匹配模型。图1所示为末梢点和分叉点的局部放大示意图。
一个好的细节提取算法应该既可靠又高效。细节提取算法的可靠性指的是:不会提取出伪特征点;不会遗漏真实特征点;能准确地计算细节特征点的位置和方向。然而, 从指纹图像中准确地提取细节特征点是相对困难的。当指纹图像的质量很好时, 脊线和谷线的纹理清晰分明, 这种情况下可以很容易地提取出端点和分叉点, 并能够准确定位。但是, 当指纹图像的质量不佳时, 脊线和谷线的区别十分模糊, 真实细节特征点不能被准确地提取出来, 因此会产生相当多的伪特征点, 并且对于特征点的位置和方向的计算也有很大的影响, 产生较大误差。
1 模板检测法的提取原理
模板检测法的基本思路是在一个3X3的模板中以中心点为待检测点, 找到端点和分叉点的分布规律, 通过该规律可以检测出中心店的细节特征类型[1]。该方法通常用于细化指纹图像。由于细化后的指纹图像中的所有像素点的灰度值只能为0或1 (分别用白色表示北京, 黑色表示前景) , 因此在细化指纹图像中可较快速得到端点和分叉点的信息。3X3检测模板如表1所示:
表1中, P是需要判断其为端点还是分叉点的像素点, P1~P8依次为他的八个领域点。当它的八个领域点灰度值满足式 (1) 所示的条件时[2], P为端点。
当它的八个领域点灰度值满足式 (1) 所示的条件时, P为分叉点。
式中k为八个领域的索引;I为每个领域点的灰度值。
2 模板检测法的实现
对细化指纹图像进行从上到下、从左至右的遍历[3], 满足式 (1) 或式 (2) 的P点即为端点或分叉点, 并保存它们的类型和位置。要想进行指纹特征比对, 除了要获得每个细节特征点的类型和位置, 更重要的是, 获得其所在的局部脊线的方向及脊线的采样点信息等。该算法的模板简单, 对于完全细化的指纹图像是能够正确提取到细节特征点的位置和类型的。
3 实验结果分析
实验选取FVC2000中的指纹图像, 利用模板检测法将全部的细节特征点的类型和位置信息提取出来。
图4-1、4-2、4-3分别为特征提取之前的细化效果图:图4-4、4-5、4-6为使用模板检测法得到的特征点图。
从实验结果可以看出, 模板检测法可以很高效率的将细节特征点提取出来, 对比1、2、3与4、5、6可以知道, 模板检测法将指纹大部分的特征可以很快提取出来, 可以尽多地保留细节特征, 准确率高, 为之后的指纹匹配打下良好的基础。
4 结语
本文使用的是模板检测法来提取指纹图像的细节特征。根据模板检测法的3X3检测板可以很快得到端点和交叉点的信息。实验中利用FVC2000中的指纹图像如图4-1、4-2、4-3快速获取其端点交叉点信息如图4-4、4-5、4-6。
参考文献
[1]紫海燕.两种指纹特征提取办法的对比研究[J].西安邮电学院学报, 2009, 14 (1) :88-90.
[2]周海徽.低质量指纹图像增强与特征提取技术[D].长沙:国防科技大学, 2011:47-52.
图像特征检测论文 篇8
王巧华、岑益科、沈昊、郑丽敏等人[1—6]研究了不同光源照射下的鸡蛋透射光图像,利用形态学处理、区域生长与合并、自动阈值分割等方法实现对蛋黄、气室的分割,并通过单一因素模型来验证它们与新鲜度的关系。为提高鸡蛋新鲜度的识别率,王巧华、刘鹏、杨简等人[7—10]在提取鸡蛋颜色特征参数 ( H、S、I) 的前提下,利用不同的神经网络方法、D-S证据理论提高了模型的可靠性,此类方法在提高了模型检测准确度的同时增加大量的运算时间。魏小彪等人[11]结合鸡蛋的H、S、I参数、蛋形指数和敲击响应特性参数构成综合检测模型,虽然考虑了多种因素,但检测所需硬件更为复杂。
鉴于此,现提出一种在鸡蛋无损伤的前提下,以简单的硬件结构取得鸡蛋透光图像,采用高效的图像处理算法,获取鸡蛋新鲜度相关的敏感特征,并找出这些特征与哈夫值的关系,训练出鸡蛋新鲜度综合检测模型,实现快捷、有效的鸡蛋新鲜度无损检测。
1特征选取与实验设计
美国FDA[12]及我国行业标准和检验局[13,14]对鸡蛋新鲜度分级有明确规定,相关研究也指出鸡蛋新鲜度流失过程中的鸡蛋形态。
新鲜鸡蛋储藏时间越长,内部水分逐渐流失,鸡蛋气室稳定并逐渐增大。同时,蛋白水分越向蛋黄内深入,蛋黄逐渐扁平,此时若横放鸡蛋,蛋黄会逐渐上浮,平面图像显示蛋黄面积增大。苏锡田[15]指出,新产鸡蛋蛋黄圆而稳定,经长时间存储后,蛋黄膜老化并从蛋白中吸收水分,使蛋黄体积增大、伸长,一般呈扁平形,鸡蛋等级向B、C级过渡时,蛋黄形状发生改变。鸡蛋越新鲜,蛋白对蛋黄的支撑越大,平放鸡蛋,蛋黄上浮,在不规则球形蛋壳中越偏离正圆形。提取鸡蛋透光图像中的气室面积、蛋黄面积、蛋黄椭圆系数等特征并进行相应计算可得出鸡蛋的新鲜度。
为取得鸡蛋的透光图像进行相应处理,搭建了图1所示的鸡蛋透光图片采集系统。系统中的光源选用12 V、3 W的高亮LED灯; 摄像机选 用了Sumung工业彩色CCD相机( 有效像素752 × 582 ) , Computar镜头( 焦距3. 5 ~ 8 mm) 距离透光孔 ( 4 ± 1) cm; 计算机上配置DH-VT142图像采集卡,768 ×576 × 24位图像分辨率,RGB8888模式,PAL制式, 单帧采集方式; 拍摄环境光照强度3 ~ 20 Lux。
拍摄中不需要调整鸡蛋位置,只需将鸡蛋横放于图1所示密封盒的透光孔。打开电源开关,高亮LED灯光源通过聚光筒照射鸡蛋。由于高亮LED灯为冷光源,被测鸡蛋不会因光照发热而降低新鲜度; 密封盒只允许光线从透光孔发射,避免外部光线对光源产生反光、阴影,也保证了光线最大程度的聚集。
实验所用鸡蛋取自江苏海安县婷婷农副食品公司同一批次的蛋壳颜色深浅不一的鲜鸡蛋90枚,每天任取鸡蛋3枚,提取鸡蛋透光图像后进行图像处理,并将鸡蛋打破测量其真实哈夫值。
2鸡蛋透光图像处理
为获取鸡蛋的气室与整蛋面积之比、蛋黄与整蛋面积之比、蛋黄的椭圆度,需要对摄像机获取的鸡蛋透光图像进行图像处理。对实验取得的90幅图像分别进行了整蛋外形、气室分割和蛋黄提取。
由于蛋壳、蛋黄和蛋白对光的透射效果不同,实验中采用的LED灯为绿色,蛋壳偏白、蛋黄呈深绿色、蛋白为浅绿色。分别提取彩色图像在Lab空间的L分量进行气室分割,提取RGB空间的G分量进行蛋黄轮廓提取。提取出的L分量和G分量图像分别见图2( b) 、图2( c) 。
2.1提取鸡蛋二值图像
为避免因鸡蛋大小不一引起的漏光,鸡蛋外形轮廓在L分量图像上提取。对L分量图进行自动灰度阈值分割,得到鸡蛋的二值图像。对二值图像进行膨胀和腐蚀( 选用“disk”结构元,半径为4) 以消除蛋壳颜色、厚度不均等因素影响,获得最终的鸡蛋二值图像[图2( d) ]。
2.2气室分割
将L分量图像进行直方图均衡化,增强气室的对比度; 再进行膨胀和腐蚀,去除鸡蛋因外壳颜色、 厚度不均引起的光斑; 检测连通区域,提取气室边缘; 霍夫直线检测气室与鸡蛋的分割线。
连通区域检测与直线检测的实现方法为:
( 1) 去除图像最边缘的像素点,把图像的其余各像素定义为单独区域。
( 2) 计算各像素与其8邻域像素点灰度值的差值,若小于特定阈值,则合并为连通区域,并将差值最小值作为该像素点和其8邻域像素的新灰度值; 否则继续搜索下一区域。
( 3) 对图像进行霍夫变换,找出其中最长的N ( 实验中N = 10) 根线段。
( 4) 检测N条线段中是否有斜率相同的直线; 如有,且为同一直线上的线段,合并此类线段。
( 5) 提取距离最长的线段并延长,取该直线与鸡蛋轮廓的交点,分割气室图像。
实验效果见图3。
实验中,无论气室处于图像上、下、左、右等任意位置,该算法都能准确分割出气室二值图像。
2.3提取蛋黄图像
将鸡蛋G分量的灰度图像进行自适应灰度调整和线性空间滤波,增强蛋黄区域的与其他区域的对比度。
自适应灰度调整针对蛋壳深浅不一的情况,在灰度均衡前为不同蛋壳颜色设置不同的调整阈值。 实验发现,白壳蛋的透光度较褐色壳高,同样大小的鸡蛋高亮度像素点更多。通过对所取图像中不同颜色壳鸡蛋的G分量灰度图进行直方图对比分析,分别计算了灰度值在50 ~ 100之间、101 ~ 150之间的像素点个数Num1、Num2,若Num1<2/3Num2,则判定为白壳蛋,否则为褐壳蛋。
为减少图像噪声,采用高斯核函数对灰度调整后的图像进行线性空间滤波
高斯核函数均值为0,σ = 3 ,滤波模板大小n = 11,滤波后图像见图4( b) 。
滤波图像进行反色、灰度阈值分割后,蛋黄与鸡蛋完全分离开来。将蛋黄之外的所有部分置为背景后,再对蛋黄轮廓进行形态学操作,精确蛋黄边缘、 去除反色图中的整蛋边缘与整蛋轮廓的误差、去除蛋壳厚度差异过大引起的光斑。蛋黄分割图像见图4( f) 。
3特征参数选择与计算
3.1气室面积与整蛋面积比
分别计算图2 ( d) 蒸蛋轮廓像素点个数和图3( f) 气室像素点个数,其比值为
式( 2) 中,Aeq为气室的像素点个数,Ae为整蛋像素点个数。
3.2蛋黄与整蛋面积比
根据提取出的蛋黄图像与整蛋外形,取其面积比,即像素点个数的比值
式( 3) 中,Aey为蛋黄的像素点个数; Ae为整蛋像素点个数。
3.3获取蛋黄椭圆系数
为获取蛋黄的椭圆系数( 即离心率) ,首先对蛋黄图像进行椭圆拟合。步骤如下:
( 1) 选用sobel算子对蛋黄图像进行边缘提取, 找出蛋黄形心点和轮廓上的边缘点。
( 2) 将蛋黄轮廓上所有点存入数组,利用边缘点进行最小二乘拟合,得到椭圆方程
实验图像见图5。
根据椭圆方程求出椭圆的中心点,椭圆的长轴 、 短轴分别为
蛋黄的拟合椭圆离心率( 即椭圆度) :
4回归模型训练与验证
4.1哈夫值测量
哈夫单位值是美国农业部蛋品标准规定的检验和表示蛋品新鲜度的指标,新鲜蛋哈夫单位通常在75 ~ 82之间,高的可达90左右,食用蛋在72以上即可,其符号为Ha 。哈夫单位的计算公式。
式( 7) 中,h为被测蛋品的高度,mm,w为被测蛋品的质量,g。实验中一只鸡蛋散黄,样本丢弃,最终取得89组的数据。
4.2新鲜度模型训练
气室与整蛋面积比S0、蛋黄与整蛋面积比S1、 蛋黄椭圆系数e越大,鸡蛋哈夫值Ha越小,构建三元线性模型,其估计函数为
式( 8) 中,hθ( x) 为实测鸡蛋哈夫值Ha ,x0= 0; x1为气室与整蛋面积比S0; x2为鸡蛋蛋黄与整蛋面积比S1; x3为蛋黄椭圆系数e; θi( i = 1,2,3) 为鸡蛋特征中每个分量的影响力。
为获取最优的影响分量 θi,根据实验获取的89组数据,对获取的h函数进行 评估,以损失函 数[16,17]( loss function) J( θ) 描述h函数不好的程度
该函数是去对xi的估计值与真实值yi差的平方和作为错误估计函数,采取梯度下降法调整 θ 可以使得J( θ) 取得最小值,以寻求最优的 θi。
4.3单因素回归模型
采用梯度下降法分别训练气室面积比模型、蛋黄面积比模型、蛋黄椭圆度模型,结果如式( 10) ~ 式( 12) 所示。
式( 10) 中,气室面积比越大,新鲜度越低; 式( 11) 中,蛋黄面积比越大,新鲜度越低; 式( 12) 中,蛋黄椭圆度越大,即蛋黄越趋近于圆形,新鲜度越高。提取的三个图像特征分别与鸡蛋新鲜度呈线性关系, 各单因素线性模型与测量哈夫值绘制如图6所示。
采用SPSS19软件分别对三个单因素回归模型进行拟合优度检验,计算数理统计学中线性回归模型的回归平方和( ESS) 、残差平方和( RSS) 、模型相关系数R2。 根据( k为因子个数,n为样本个数) 计算F检验值,检验各模型在线性关系上是否显著。数据见表1。
由表1的单因素模型检验数据可知,根据实验所得数据训练的新鲜度模型,三种特征与新鲜度的相关度由高到低依次为: 蛋黄面积比模型、气室面积比模型、蛋黄椭圆度模型。其中蛋黄面积比模型相关系数R2= 0. 938 ,较文献[6 ]( R2= 0. 931 ) 略高。同时,各模型的显著性检验F值均大于Fα( 1,87) = 3. 949( α = 0. 05) ,说明各模 型均有较高可靠性。
4.4综合因素回归模型
根据式( 8) 所述估计函数,综合三个与鸡蛋新鲜度有关的图像特征,采用梯度下降法进行线性回归。为得到最优的 θi( i = 0,1,2,3) ,分别将式 ( 10) ~ 式( 12) 中的 θi( i = 1,2,3) 值作为初值,即 - 345. 432 5 、- 80. 550 5 、38. 627 3 ,θ0的初值选取影响因子最大的单因素模型中的值,即式( 10) 中的93. 0。得到三元线性方程:
该三元回归模型说明了三个图像特征对新鲜度影响的程度,依次为气室面积比、蛋黄面积比、 蛋黄椭圆度。同3. 3节,对式( 13) 进行拟合优度检验、显著性检验,数据见表1。
从表1的综合回归模型检验数据可知,综合考虑三种特征因素的回归模型在相关系数上较任意单因素有较大提高。在显著性水平 α = 0. 05下, Fα( 3,85) = 2. 71 < F,F检验相关性显著,模型具有较高可靠性。选取鸡蛋新鲜度有关的多种图像特征能获取更加准确的哈夫值。
对任意鸡蛋,经过本文所述图像处理和数据计算,即可得出鸡蛋的哈夫值h( x) 。根据美国农业部蛋品标准规定的检验和表示蛋品新鲜度的指标,见表2,给出新鲜度及食用提示。
5结论
利用图像处理技术,通过连通区域检测与直线检测算法进行气室分割,自适应灰度调整、改进空间滤波和阈值分割提取鸡蛋蛋黄图像,最小二乘法进行蛋黄椭圆拟合,有效提取了与鸡蛋新鲜度密切相关的鸡蛋气室面积、蛋黄面积、蛋黄椭圆度等图像特征。
结合了影响新鲜度的三种图像特征,并采用梯度下降算法进行样本训练,得出了单因素模型和综合因素模型。单因素模型经拟合优度检验和显著检验,均具有较高可靠性。综合因素模型经检验相关因素和显著性较单因素更高,可获取更加准确的哈夫值。
图像特征检测论文 篇9
关键词:边缘特征,谐波能量,高分辨率遥感图像,特征检测
0 引言
图像中的边缘是图像最基本的特征, 边缘特征检测为目标识别和图像解释提供了一种有价值的参数信息。目前的边缘特征检测算法大都是基于空域像元梯度算子的算法[1,2,3], 也即对图像的每个像元考察它在某个领域范围内亮度值的变化, 利用边缘邻域内一阶或者二阶的方向导数变化规律实现图像的边缘检测, 如Canny算子, Sobel算子, Roberts算子等。孙达等人[4]提出了一种基于概率密度梯度的边缘检测算法, 通过估计图像中各像素点的概率密度梯度得到图像的概率密度梯度场, 利用图像的边缘点在概率梯度场中两侧梯度方向相反的特性实现边缘检测。然而高分辨率的遥感图像, 不仅地表物体光谱特征明显, 而且图像具有的灰度变化丰富、背景噪声复杂、边缘密度大的特点, 上述的这些以微分为基础的空域检测算子对于高分辨率的遥感图像而言, 很难达到较好的边缘检测效果[5]。
图像的边缘信息不仅要靠空域中像元灰度值的强弱程度来表现, 而且还通过气频域中所固有的频谱能量来表征[6]。频域中频谱值在描述物体的边缘形态特征上具有优势。同时基于局部的窗口傅里叶变换方法在空域和频域上具有突出信号局部特征和进行多分辨率分析的能力[7,8], 提供了边缘检测的有力手段。鉴于此, 本文提出了一种基于空域模糊集理论和频域谐波能量的图像边缘特征检测算法。该方法首先根据频域内高频部分包含图像的边缘和噪声等信息, 低频部分包含了图像的大部分能量及图像概要轮廓信息等。傅里叶变换对图像进行空频域转换后分离出高频和低频信息, 高频部分包含了图像的边缘信息, 低频部分包含了图像的概要信息。然后再对低频部分进行增强和边缘提取, 之后将高频部分得到的边缘信息和低频部分提取的边缘信息进行融合即得最后的边缘特征, 实现了遥感图像边缘特征的有效提取。
1 图像的傅里叶变换及谐波能量
遥感图像实质上是空间域中的二维函数, 其中包含有周期性成分、背景、非周期性成分、边缘及噪声等信息, 然而在空间域内很难将它们分离开来。根据Fourier理论, 任意一个满足一定条件的二维函数都可以分解成一系列正弦或余弦函数的叠加。故傅里叶变换可以表述为[9]:
式 (1) 描述了一个大小为M×N的二维图像从空域f (x, y) 向频率域F (u, v) 的傅里叶变换。用欧拉公式可以将频率F (u, v) 展开为:
频率F (u, v) 的分布直接反映出图像所包含的频率成分和各频率成分的能量大小, 因此其各次谐波能量的多少反映了这一区域图像所包含的各种频率细节的丰富程度, 而且频谱的分布能反映空间中图像突起细节和纹理的走向和强度[10]。
设有周期信号f (t) , 它的周期是T, 角频率它可分解为:
其中:
任何满足狄里赫利条件的周期函数f (t) 可分解为直流和许多余弦 (或正弦) 分量:其中第一项是常数项, 它是周期信号中所包含的直流分量;第二项A1cos (Ωt+φ1) 称为基波或者一次谐波, 它的角频率与原周期信号相同, A1是基波振幅, φ1是基波相角;第三项A2cos (2Ωt+φ2) 称为二次谐波, 它的频率是基波频率的二倍, A2是二次谐波振幅, φ2是其初相角。依此类推, 还有三次、四次、…谐波。一般而言, Ancos (nΩt+φn) 称为n谐波, An是n次谐波的振幅, φn是其初相角[11]。
在频谱图上, 每一个频谱峰值均代表了空域中不同的频率成分, 而且峰值的位置和大小分别反映了不同成分的取向和周期。在图像的频谱中低阶频谱能量反映了原始图像的背景轮廓信息, 高阶频谱能量反映了原始图像中物体的边缘细节信息。
2 模糊推理介绍
学者Pal和King提出了模糊边缘特征提取算法, 首次将模糊理论引入到了图像的模糊边缘提取中, 在模式识别和医学图像处理领域取得了较好的效果。传统的模糊边缘特征提取的算法首先利用一个隶属度函数将图像映射到一个模糊隶属度矩阵中, 然后进行模糊增强操作处理增强边缘信息, 接着对模糊隶属度矩阵进行逆变换到空域图像, 最后提取边缘特征。该算法有着其自身的缺陷[12], 这里就不再赘述。本文对原算法进行了改进:
(1) 首先采用Otsu (大津法) 算法获取图像的阈值T。使用文献[12]给出的隶属度函数:
其中:pmn代表模糊隶属度值, lmin代表图像中的灰度级最小值, lmax代表图像中的灰度级最大值。
(2) 在模糊空间对模糊隶属度进一步增强和消弱。
当隶属度值pmn>0.5时, 经过增强pmn进一步得到了增强;反之, 当隶属度值pmn≤0.5时, 隶属度值pmn进行了进一步的消弱, 这样在做模糊矩阵逆变换到空域灰度级图像时, 图像中的边缘信息得到了较好的突出。
(3) 对增强后的模糊矩阵进行逆变换到空域灰度级图像中。
(4) 对转换后的灰度级图像使用“min”算子提取边缘。
3 基于谐波能量和模糊推理的遥感图像边缘特征提取
由于图像边缘细节信息集中于高频分量里面, 而图像的噪声亦在高频分量里面, 但是图像中的大部分能量是集中在低频分量中。如果只保留图像的高频分量而丢弃低频分量, 则图像的不同区域有着不同的灰度, 图像的边缘也就凸显出来了, 但细节丢失;如果只保留图像的低频分量而丢失高频分量, 则图像的不同区域的灰度都一样, 这样边缘就不明显了, 但图像的细节得以保留。为了有效地提取图像的边缘信息, 本文将分别对图像的高频分量和低频分量进行特征提取。
3.1 频谱图分频
由于图像的大部分能量集中于低频分量中, 而噪声和图像边缘细节信息集中于高频分量中。为了得到图像的高频分量和低频分量, 本文使用巴特沃斯低通滤波器 (被称为幅度最平坦的滤波器, 式 (8) 和图像的频谱信息进行卷积, 得到低频分量Fl, 而高频分量Fh使用图像的频谱减去低频分量得到。
其中, D0为截断频率, n为阶数。n=1时没有振铃现象, 而随着n的不断增加振铃现象也逐渐明显。
3.2 谐波能量和模糊推理的边缘特征提取
图像边缘特征表征图像中灰度值发生剧烈变化的区域边界, 是图像中最为集中地高频分量信息。高分辨率的遥感图像往往存在着大量的噪声信息, 而噪声和边缘在空域中都表现为梯度的突变, 在频率域中表现为高频分量信息。这就给在空域中检测边缘特征带来了很大困难。与边缘特征信息不同的是, 噪声在其邻域内是孤立的, 且均值平滑后会很快消失, 在图像上表现为模糊化。
因为频谱图的直流分量表征了原始空域图像的亮度均值信息, 所以基于谐波能量和模糊推理的边缘检测算法包括以下几步:①在傅里叶变换过程中提取前m次谐波能量作为频谱能量;②采用巴特沃斯低通滤波器提取低频分量Fl和高频分量Fh, 提取的高频分量Fh中包含了边缘特征E1和噪声信息;③在获取的低频分量Fl中采用第二节介绍的模糊推理方法提取边缘特征E2;④将第②和第③步骤中得到的边缘特征信息进行叠加得到最后的边缘特征信息。
4 仿真实验与结果分析
本文使用上帝之眼网站下载的北京市的飞机场图P1 (2012年9月15日Geo Eye-1卫星拍摄的北京首都国际机场的0.5米卫星影像) , 美国旧金山国际机场图P2 (2012年12月19日由法国SPOT公司的Pleiades-1卫星拍摄) 和青岛市卫星遥感图P3 (2011年10月10日World View-2卫星拍摄的分辨率0.5米青岛市卫星影像) 的遥感图像和某一机场跑道图像P4, 大小分别是1 024×1 024, 512×512, 512×512和512×512进行实验, 实验环境为Intel酷睿I3四核处理器, 内存大小为2 G, Windows XP (SP3) , Visual Studio 2008。
图1中的 (a) - (d) 分别是原图、频谱图、高频分量和低频分量。从图可以看出图1 (c) 是高频分量图, 提取了原图像的高频分量和一定的噪声;图1 (d) 对噪声起到了的抑制作用, 并很好地包含了原图像的背景信息。图2 (a) - (d) 分别是在巴特沃斯低通滤波器中对原图使用不同的阶数所产生的效果图, 随着阶数的增加, 振铃现象逐渐明显。图3中的 (a) 是原图, (b) 是经过巴特沃斯低通滤波器所提取的低频分量, 相对原图来说有一定程度的振铃现象; (c) 是经过傅里叶变换获取的高频能量, 包含有一定量的噪声; (d) 获取的低频分量经过模糊推理获取的边缘特征; (e) 是 (d) 和 (c) 步骤获取的边缘特征的叠加结果, 经过两次对噪声的抑制作用, 本文算法既能有效地提取边缘特征, 又能很好地抑制噪声的影响。图4 (b) 是采用LOG算法检测的结果图, 很明显图中含有较多的噪声影响;图4 (c) 采用文献[12]的模糊推理算法, 提取的边缘不连续, 表现在图像上就是噪声, 且图像中的飞机检测出来无法识别;图4 (d) 是传统基于梯度算子中边缘检测的最优算法—Canny算法, 可能在检测低分辨率图像时具有较好的检测效果, 但是在检测高分辨率的遥感图像中, 优势就不明显了;在本文试验中, Canny算法检测的效果图既含有一定的噪声 (所有的基于梯度算子的算法都对噪声敏感) , 且不能很好地检测物体的形状, 例如图像中的飞机。图4 (e) 是在经过低频分量噪声抑制的基础上, 再次进行模糊推理得到图像及高频分量叠加之后所得到的图像边缘效果。从效果图看, 不仅反映了原始遥感图像的边缘特征信息, 边缘定位比较精准且连续。
为了进一步验证本文算法能有效提取边缘信息, 这里选用峰值信噪比 (PSNR) 验证。峰值信噪比的计算公式为:
其中, F为未加噪声提取的边缘图像, F0为加入噪声后提取的边缘图像。峰值信噪比越大, 提取的边缘信息的效果越好。评价方法是:使用不同阶微分提取加入随机噪声和未加噪声的图像边缘, 然后按照式 (9) 定量分析未加噪声和加入噪声后提取的边缘图像之间的差别。
本实验在文中上述提到的四幅图像P1、P2、P3和P4中添加均值为零, 方差为0.01的高斯白噪声, 分别采用LOG算法、文献[12]的算法、Canny算法及本文算法对噪声图像进行测试, 由数据可以看出, 本文的算法具有很好的抗噪性能。结果如表1所示。
5 结语
本文方法从图像信号本身出发, 采用傅里叶变换及模糊推理叠加的方法, 将含有噪声的高分辨率图像分解到不同的频率谱中, 结合傅里叶变换中的直流中心频谱具有良好的噪声抑制作用, 实现了高分辨率遥感图像边缘特征信息的快速检测。仿真实验表明, 本文提出的算法所检测出的图像边缘特征的响应较为显著, 且具有很好的噪声抑制作用。遥感图像中不同的地物较多且复杂, 表现在图像上就是物体边缘轮廓不明显及噪声等, 由于传统的基于梯度算子的方法对噪声比较敏感, 在检测高分辨率图像的边缘特征时, 无法有效地检测边缘特征及抑制噪声对检测效果的影响。在频域中检测高分辨率遥感图像的边缘特征及降噪取得了较好的效果, 然而在提取谐波能量时, 如何判定前多少次谐波能量是必须的, 多少次以后对实验效果影响不大, 还需要进一步深入研究。
参考文献
[1]李牧, 闫继红, 李戈, 等.自适应Canny算子边缘检测技术[J].哈尔滨工程大学学报, 2007, 28 (9) :1002-1007.
[2]康牧, 许庆功, 王宝树.一种Roberts自适应边缘检测方法[J].西安交通大学学报, 2008, 42 (10) :1240-1244.
[3]邵平, 杨路明.基于模板分解和积分图像的快速Kirsch边缘检测[J].自动化学报, 2007, 33 (8) :795-800.
[4]孙达, 刘家锋, 唐降龙.基于概率密度梯度的边缘检测[J].计算机学报, 2009, 3 (2) :299-307.
[5]肖鹏峰, 冯学智, 赵书河, 等.一种基于相位一致的高分辨率遥感图像特征检测方法[J].遥感学报, 2007, 11 (3) :303-310.
[6]夔中羽.地物频谱学研究始步:地表物体纹理结构信息成像机理[J].影像技术, 1998 (1) :1-11.
[7]严学强, 刘济林, 郭小军, 等.基于空间频率域的纹理分割算法[J].浙江大学学报:自然科学版, 1998, 32 (6) :726-731.
[8]文山, 李葆青.基于小波分层的多方向图像边缘检测[J].自动化学报, 2007, 33 (5) :480-487.
[9]吴桂平, 肖鹏峰, 冯学智, 等.一种基于频谱段能量的高分辨率遥感图像边缘特征检测方法[J].测绘学报, 2011, 40 (5) :587-591.
[10]玉振明, 毛士艺, 高飞.采用局部谐波能量的图像融合准则研究[J].电子学报, 2004, 32 (6) :890-894.
[11]吴大正, 杨林耀, 张永瑞, 等.信号与线性系统分析[M].4版.高等教育出版社, 2005:120-121.
【图像特征检测论文】推荐阅读:
图像特征提取研究论文06-30
图像特征信息05-29
图像纹理特征06-24
图像特征向量06-27
频谱图像特征09-07
CT图像特征06-03
图像局部纹理特征10-22
图像特征提取算法研究06-05
安全带图像特征08-16
几何特征检测论文09-13