纹理融合

2024-09-12

纹理融合(精选4篇)

纹理融合 篇1

随着多媒体技术的发展, 图片数据库迅速膨胀。为使用户能够在海量的图片数据库中快速准确的查找所需图片, 基于内容的图像检索技术逐渐成为研究的热点。每种图像的低层视觉特征都有其自身的特点, 只能表达图像的部分属性。为了更好地描述图像, 提高图像检索的准确率, 本文, 笔者在分别讨论颜色特征和纹理特征的基础上, 对基于颜色和纹理特征融合的图像检索方法进行了研究, 并将其检索结果与单独利用颜色特征或纹理特征检索得到的结果进行了比较。结果表明, 该方法可以弥补由单一特征描述图像导致的片面性问题, 能够取得较好的检索效果。

一、颜色特征

将图像由RGB颜色空间转换到HSV (色调H、饱和度S、亮度V) 颜色空间, 并对HSV颜色空间进行非均匀量化处理, 然后对图像进行分块, 提取不同分块的主色, 通过加权处理, 得到图像的加权主色颜色特征。

1. 颜色空间的选择与量化。

数字图像的颜色特征通常采用RGB三色表示, 但RGB颜色空间模型的可分辨色差是非线性的, 不符合人们对颜色的直观理解, 其空间的相似并不代表实际颜色的相似。HSV颜色空间是一种更加符合人眼感知的颜色空间, 可以由RGB颜色空间经简单快速的非线性变换得到。因此, 本文, 笔者采用HSV颜色空间对图像进行描述。

一幅图像颜色直方图的维数通常会因为图像的颜色较多而较大, 为减少计算量, 提高检索效率, 需对HSV空间的各个分量进行量化。由于相对于饱和度和亮度而言, 人眼对色调的感知更加敏感, 本文, 笔者对HSV空间的三个分量采用非均匀量化, 将色调H、饱和度S、亮度V分别分成11份、4份、4份。

按上式将3个颜色分量合成一维的特征矢量L, 即

式 (1) 中, Qs和Qv分别为S和V的量化级数。此处, Qs=4, QV=4, 则有

L的取值范围为[0, 1, …, 175], 共176种颜色。由此可见, 量化后减轻了图像亮度和饱和度对检索结果的影响。

2. 提取图像的颜色特征。

为获得颜色的空间分配信息, 对图像采用8×8分块处理, 假设共得到m个分块。对于第k (1≤k≤m) 个分块, 可以得到有64个一维颜色分量的颜色向量Lk= (Lk1, Lk2, …, Lk64) 。统计各颜色的像素点数目, 将含有像素点数目最多的颜色作为该分块的主色, 记为Lk, main。则该图像的综合主颜色特征向量L= (L1, main, L2, main, …, Lm, main) 。

3. 基于图像的中心加权特征分析。

通常, 图像的中间部分为图像的主体, 更容易引起人们的关注。在对图像提取特征时, 采用中心加权的方法, 为图像不同的分块分配不同的权值, 中心附近区域的权值略大, 边缘区域的权值略小。权值的选择符合标准正态分布函数, 第k个分块的权值为

式 (2) 中, Xk为第k个分块的中心与原图像中心所在的分块的中心间的距离。则第k个分块的加权主色特征为

图像的综合加权主色颜色特征向量为LL= (L1, main, L2, main, …, Lm, main) 。

二、纹理特征

对于图像的纹理特征, 通过研究纹理的空间灰度级相关性, 构造一个基于像素间方向和距离的共生矩阵, 然后从灰度共生矩阵中提取有意义的统计特征作为纹理特征的表达。

设f (x, y) 为一幅二维数字图像, 其大小为M×N, 灰度级别为Ng, 给定距离d和方向θ, 通过计算共生灰度i和j的像元对数来表示共生矩阵元素p (i, j|d, θ) , 计算公式如下.

式 (4) 、 (5) 中, #{x}表示大括号中成立的像元对数, (k, l) 和 (m, n) 表示图像中相距为d且连线与坐标横轴成θ角的像素点坐标。显然, 共生矩阵的大小为Ng×Ng。

由公式 (4) 得到共生矩阵后, 从中提取四种描述性较强的统计特征, 具体如下。

式 (6) , (7) 和 (8) 中, μx, μy, σx, σy分别是px, py的均值和标准差, 是共生矩阵中每列元素之和; 是共生矩阵中每行元素之和。

取d=1, 分别构造θ=0°, θ=45°, θ=90°, θ=135°共4个方向上的共生矩阵, 并计算能量、熵、相关性和对比度这4个纹理参数在每个共生矩阵上的值, 取平均, 将其作为灰度共生矩阵所提取的四个参数, 构成图像的纹理特征, 记为V= (Vasm, Vent, Vcor, Vcon) 。

三、相似性度量

假设对于查询图像q, 其颜色特征LLq= (Lq1, main, Lq2, main, …, Lqm, main) , 纹理特征为Vq= (Vqasm, Vqent, Vqcor, Vqcon) 。

对于图像库中的图像p, 其颜色特征LLp= (Lp1, main, Lp2, main, …, Lpm, main) , 纹理特征Vp= (Vpasm, Vpent, Vpcor, Vpcom) 。基于综合特征检索的图像相似度计算方法如下。

1. 计算图像q与图像p之间的颜色特征相似度Discol (q, p) 。计算公式为

2. 计算图像q与图像p之间的纹理特征相似度Distex (q, p) 。计算公式为

3. 由于颜色和纹理属于不同类型的特征向量, 取值范围不一样, 因此分别对颜色特征相似度Discol (q, p) 和纹理特征相似度Distex (q, p) 进行归一化处理。然后进行加权求和, 得到两幅图像的综合特征相似度Dis (q, p) 。计算公式如下

式 (12) 中, ω1和ω2分别是对颜色特征距离和纹理特征距离的加权值, ω1+ω2=1, 且ω1, ω2∈[0, 1]。

四、实验及结论

从Corel图像库中选取5个类别共500幅图像组成测试图像库, 它们包括海边风景、建筑物、公共汽车、花朵、马, 每个类别有100幅图像。由于当颜色特征和纹理特征在特征融合所占比重不一样时, 图像的检索结果准确率不同。实验中, 在每个类别中随机选取10张图片, 改变颜色特征的权值ω1和纹理特征的权值ω2 (ω1=0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 且ω1+ω2=1) 进行检索, 每次选取前20幅最相似的图像作为检索结果进行统计, 然后选取检索效果最佳的ω1和ω2, 分别作为颜色特征和纹理特征的权值。综合考虑每个类别检索结果的平均准确率, 取ω1和ω2的值分别为0.7和0.3。

在每个类别中随机挑选20张图片作为查询样例, 并分别采用基于颜色特征的图像检索方法、基于纹理特征的图像检索方法和基于颜色和纹理综合特征的图像检索方法对图像库中的图像进行检索, 每次检索选取前20幅最相似的图像作为检索结果返回。将3种方法的检索结果进行对比, 得到的图像检索的平均查准率见表1。

由表1可知, 综合颜色和纹理特征的图像检索方法比利用单一特征检索的图像检索方法平均查准率要高。

五、结论

基于颜色和纹理综合特征的图像检索方法弥补了由单一特征描述图像导致的片面性问题, 充分利用了图像的颜色特征和纹理特征进行检索, 提高了图像的检索精度, 有效性较高。

纹理融合 篇2

关键词:低空风切变,激光雷达,纹理特征,模式识别

风切变作为从空间一点到另一点的风矢量变化,是两点间的风的矢量差。风切变会引起突然性的空速变化,导致航空器的航径发生改变。不同类型的风切变对航空器的影响各不相同,为了回到计划航径,飞行员必须针对风切变的类型采取相应的措施。风切变类型的有效识别对于保障民航运输安全具有重要意义。

美国于20世纪80年代开始研究利用多普勒天气雷达( terminal doppler weather radar,TDWR) 来探测微下击暴流、阵风锋等强烈风切变[1]。TDWR主要通过检测云雨粒子回波信号的径向速度信息来探测风切变,对高空云雨天气有效,对于晴空风切变无能为力。多普勒激光雷达是晴空下探测机场低空风切变的有效手段,香港机场自2002年安装激光雷达后,探测预警风切变的准确率由原来的50% 左右提升至90% 以上[2]。但由于其应用时间较短,对于低空风切变类型的识别问题基本还是空白,需要进一步研究。

目前,国内外对风切变的主要检测技术是借助雷达信号处理算法,分析多普勒雷达回波信号,滤除杂波后得到风切变的特征,根据相关的适航标准给出风切变的区域坐标和等级,给出相应的告警[3]。但当观测低空风切变时,多普勒雷达信号会因地物杂波而受到明显影响。由于不同类型的风切变大气系统在多普勒激光雷达探测到的径向风场信息中有独特的二维特征结构,这为从图像处理的角度对风切变进行研究提供了新思路。

文献[4]通过提取二维小波变换图像子频带特征进行风切变的类型识别,然而二维小波变换方向选择性差,在逼近风切变图像这类纹理细节较多的图像时,误差衰减缓慢。高浩[5]提取图像LBP特征识别风切变类型,但LBP特征鲁棒性较差,在同类型风切变风场局部风速发生剧烈变化时,不能获得理想的识别效果。

利用基于激光的雷达速度方位扫描方式得到低空风切变的二维平面位置显示( plane position indicator,PPI) 图像,运用图像处理的思想提取风切变图像纹理的 旋转不变NSCT子频代特 征和以及WLD局部空域特征,二者均包含代表风切变类型的信息。融合两种特征得到低空风切变图像的最终特征向量,利用支持向量机作为分类器进行训练识别。

1 建立样本库

根据飞机的运动相对于风矢量之间的各种不同情况,把风切变分为四种形式: 下击暴流、侧风切变、低空急流和顺逆风切变。

由于真实的风场数据与当地地形、气候有关,使实际数据获取困难,本文通过基于CFD的FLUENT流体软件仿真得到四种低空风切变的三维风场模型。在20个不同位置使用多普勒激光雷达速度方位扫描方式探测风场,得到仰角分别为2. 5°、4°、5. 5°、7°下的激光雷达PPI扫描图像共320幅。

激光雷达扫描图像的横坐标为方位角,分辨率为1°,纵坐标为扫描半径,分辨率为50 m,灰度值即为径向风速值。分析样本可知,激光雷达风切变图像的纹理即为径向风速的的切变线,有效表征不同类型风切变风场结构和方向信息。

2 纹理特征提取

2. 1 旋转不变 NSCT 特征

传统的NSCT是在Contourlet变换基础上提出的具有平移不变性的多尺度、多方向的超完备变换[6]。NSCT变换包含非下采样塔式滤波器和非下采样方向滤波器,分别提供多尺度分解和多方向分解。

为了克服传统NSCT变换系数对图像旋转敏感的不足[7],本文提出采用改进的旋转不变NSCT变换,首先采用对数-极坐标变换对原图像进行预处理,将原图像的旋转变换转换成对数-极坐标图像的行平移,消除样本旋转角度不同对NSCT变换后各个子代系数产生的影响。

将图像内切圆作为采样区域,对其做极坐标变换和对数变换,其计算公式分别如下

式中,N/2为扫描半径,S为圆周采样间隔。

NSCT变换得到的子频带信息反映了风速在不同尺度各个方向上的分布,本文提取分解后得到的各个子频带系数的均值和方差得到旋转平移不变的NSCT特征向量,其中NSCT分解的层数和方向数决定特征向量的维数,由于得到的旋转不变NSCT特征的维数较高且具有一定冗余,将特征向量归一化后采用PCA降维得到最终的旋转不变NSCT特征向量。

2. 2 WLD 特征

WLD特征[8]是一种基于灰度描述图像局部纹理特征的算子,它由差分激励( differential excitation, DE) 和梯度方向( gradient orientation,GO) 两个分量构成。其计算公式如下

式中,Ii( i = 0,1,…,p - 1) 表示邻近中心点Ic的第i个点。DE( Ic) 及GO( Ic) 的取值范围为 ( - π/2, π /2)

在激光雷达低空风切变图像中,灰度大小代表径向风速值。差分激励描述当前点风速与相邻点风速的强度关系,刻画局部风速变化剧烈程度。而方向信息描述径向风速增量在角度和距离上的投影, 刻画局部风场运动方向。

将GO映射到[0,2π) 区间,转化为梯度增加的方向,

进一步简化,将量化为T个空间梯度方向,

取T = 8,则被量化的8个梯度方向分别为

四种类型低空风切变图像的WLD描述如图4所示。其中左上为原始图像; 右上为将DE映射到 [0,255]后得到的特征灰度图像,左下和右下分别为DE和GO的统计直方图。结合差分激励和梯度方向信息计算二维直方图统计特征,二维直方图的横坐标为梯度方向,纵坐标为差分激励在每一个方向上的分布的子直方图。为了便于描述,将二维直方图转化为一维直方图,得到最终的WLD直方图特征。

归一化提取到的旋转不变NSCT特征向量与WLD特征向量,借助CCA方法[9]融合两组特征,得到最终的激光雷达风切变图像纹理特征向量。

3 仿真实验

本文仿真实验是在主频3. 40 GHz、内存2. 00 G的计算机上通过MATLAB R2009a操作完成的。

风切变识别的具体流程见图5。

由于支持向量机[10]在解决小样本问题时具有独特优势,文中采用基于支持向量机的学习方法对四种类型的低空风切变进行训练识别。

文中采用基于Fluent软件建立的激光雷达低空风切变图像样本库,包括不同位置扫描的四种风切变样本图像共320幅,即每种风切变样本图像为80幅。采用交叉验证的方式进行识别,即随机选取30幅样本作为训练子集,剩余的样本作为测试子集。取50次试验识别的准确率作为检验标准。

为了验证旋转不变NSCT特征的优势,将其与小波特征及NSCT特征进行对比。实验中,小波分解采用三次B样条小波基,分解层数为2,NSCT分别采用maxflat及dmaxflat7滤波器,分解层数为[2, 3]。图6给出应用以上三种特征进行50次训练的识别率曲线。

实验结果如图6所示,可以看出,在相同的实验环境下,由于消除了旋转敏感性,本文应用的旋转不变NSCT特征整体优于其它两种特征,平均识别率较高,且曲线平坦,方差较小,但单一采用此算法所能达到的最大识别率为91. 28% ,其性能需要进一步改善。

表1为分别采用LBP特征、WLD特征、旋转不变NSCT特征以及文中的旋转不变NSCT特征 +WLD特征进行风切变识别时的识别率统计。其中LBP算子及WLD算子的半径为1,邻域为8。

从表1看出,针对四种类型的低空风切变,运用文中提出的旋转不变NSCT + WLD特征进行识别, 最大识别率达到100% ,平均识别率达到98. 62% , 较LBP算法、旋转不变NSCT算法和WLD算法识别率分别提高7. 41% ,10. 26% 和4. 46% ,标准差分别下降1. 73% ,2. 37% 和1. 19% 。可以看出,本文提出的旋转不变NSCT + WLD特征可以有效描述激光雷达低空风切变图像的纹理用于风切变类型识别, 较三种传统算法的识别效果得到显著提升。

4 结束语

文中主要研究基于图像纹理特征的激光雷达低空风切变识别算法。分别提取低空风切变图像的旋转不变NSCT特征和WLD特征,融合得到最终基于多特征的低空风切变特征向量,在支持向量机分类器下对四种低空风切变类型识别时达到了较好的分类效果。

参考文献

[1] Shun C M,Lau S Y,Lee O S M.Terminal doppler weather radar observation of atmospheric flow over complex terrain during tropical cyclone passages.Journal of Applied Meteorology,2012;12(42):1697—1710

[2] Chan P W,Lee Y F.Application of short-range lidar in wind shear alerting.Journal of Atmospheric and Oceanic Technology,2012;2(29):207—220

[3] 王邦新,沈法华,孙东松,等.直接探测多普勒激光雷达的光束扫描和风场测量.红外与激光工程,2007;36(1):69—72Wang Bangxin,Shen Fahua,Sun Dongsong,et al.Beam scanning and wind field measurement of direct-detection Doppler lidar.Infrared and Laser Engineering,2007;36(1):69—72

[4] 蒋立辉,高浩,庄子波,等.激光雷达中基于组合纹理的低空风切变识别算法.激光与红外,2014;44(3):325—329Jiang Lihui,Gao Hao,Zhuang Zibo,et al.Recognition algorithm of low altitude wind shear based on combination texture.Laser&Infrared,2014;44(3):325—329

[5] 蒋立辉,高志光,熊兴隆,等.基于激光雷达图像处理的低空风切变类型识别研究.红外与激光工程,2012;41(12):3410—3415Jiang Lihui,Gao Zhiguang,Xiong Xinglong,et al.Study on type recognition of low altitude wind shear based on lidar image processing.Infrared and Laser Engineering,2012;41(12):3410—3415

[6] da Cunha A L,Zhou Jianping,Minh N D.The nonsubsampled contourlet transform:theory,design,and applications.IEEE Transactions on Image Processing,2006;15(10):3089—3101

[7] 邵振峰,李德仁,朱先强.基于旋转不变纹理特征的多尺度多方向图像渐进检索.中国科学:信息科学,2011;41(3):283—296Shao Zhenfeng,Zhu Xianqiang,Li Deren.A multi-scale and multi orientation image retrieval method based on rotation-invariant texture features.Scientia Sinica Informationis,2011;41(3):283—296

[8] Chen Jie,He Chu,Zhao Guoying,et al.WLD:a robust local image descriptor.IEEE Transactions on Pattern Analysis and Machine Intelligence,2010;32(9):1705—1720

[9] Nicolle C,Tulay A,Yi-Ou L,et al.Canonical correlation analysis for data fusion and group inferences.IEEE Signal Processing Magazine,2010;4(27):39—50

纹理融合 篇3

图像分割的目的是获取目标或目标的不同部分在图像中对应的像素集合描述,它们是对图像中目标进行描述的基础。显然,为了提高所提取区域和景物线索的相似性,可以采用多种图像特征,扩大对各种区域图像特性的描述范围和准确性,这样可以提高区域分割结果和景物之间的对应程度。

大多数彩色图像分割算法仅仅采用颜色特征用于分割[1,2,3],很容易对高纹理区域产生过分割,而一些彩色纹理分割的算法又没有充分利用颜色所携带的丰富信息。因此有效的融合颜色和纹理特性是获得稳健彩色图像分割的重要途径[4,5,6,7,8]。本文提出一种新的基于MRF模型的彩色图像融合分割算法,在Bayes分析框架中加入了图像特征的置信因子进行融合,通过引入置信因子有效融合了颜色和纹理两方面信息。最后的彩色图像实验结果证明了本文提出算法的有效性。

1 特征提取

在自然场景彩色图像分割中,最常用的特征是颜色和纹理。本文采用的颜色特征是HSV彩色空间。一般说来,彩色图像RGB三个颜色分量和人类的视觉没有很好的线性对应关系。同一种颜色,由于深浅、亮度略有不同,RGB分量都会发生剧烈的变化。通常人们对颜色的认识基于颜色的三个特征:色调H,饱和度S和亮度V。HSV模型通常用于选取颜色,它是面向用户的一种复合主观感觉的色彩模型,比RGB模型更接近人们对颜色的感知[6]。

自然图像中,各个区域间的差别不仅表现在颜色上,还往往表现在纹理上,为了有效地区分它们,必须加入纹理特征。高斯马尔可夫随机场(GMRF)模型是常用描述纹理数据分布的模型,在GMRF模型中,每个像素值是其邻域像素值的线性组合加上一个噪声项[7],即

式中,Ds为像元s指定的领域,εs为零均值Gauss噪声,且满足

既然是高斯分布,假设只考虑同构且各向同性的二阶邻域系统,

于是式(3)可以写成

两边乘vs并取期望:

用数值平均代替期望值,得到关于γ的估计公式:

式中,Dw为计算模型参数的所用窗口的有效部分。均值和方差的估计式为

由此,该区域的纹理特征矢量定义为{r1,r2,r3,r4,σ2}。

2 彩色图像融合分割模型

2.1 融合模型

图像分割问题可以看为是一个标记问题,即在分割图像中的每个像点处作一个类别标记以表明该像点所属的区域。假设图像的像点集为S={s=(i,j):1≤i≤M,1≤j≤N},要估计分割标记场x中像点xs取自一个有限集合Ω={1,…,K},实际观测图像所对应的特征矢量y={ys1,…,ysL:s∈S},L为特征数目。

根据基于意见一致理论[8]的融合模型为

式中,0≤αl≤1,,αl表示不同特征的融合系数。由Bayes理论可进一步得到

特征l的观测模型为

为了引入分割图像上下文约束信息,对于先验概率p(x),假设它服从离散马尔可夫随机场[5](MRF)分布,并根据MRF和Gibbs分布的一致性,通过势函数确定的p(x)为

式中,为能量函数,VC(x)为基团C的势函数,Z为归一化常数。考虑到计算效率,采用了同构且各向同性的二阶MLL(Multilevel logic)分布,并且其对应的基团只考虑双点基团[4]

依据MAP的原则

假设特征l的分布模型服从高斯分布(均值、协方差),以此得到目标函数J

2.2 融合系数

由于自然图像多种多样,有的颜色特征突出,有的纹理特征突出,仅用彩色或纹理都很难取得较好的效果,只有根据不同类特征在分类中所起的作用自适应地改变权值,才有可能使算法适应图像成像内容和成像条件的变化。

确定颜色、纹理特征所起的不同作用,就是确定αcolor和αtexture。若图像颜色起伏变换面积较大,适宜于用颜色特征分割,当起伏面积小,且比较剧烈时,就需要加入纹理特征。经过测量多幅纹理、灰度像以及纹理灰度混合图像的付立叶功率谱的能量分布发现,如果图像中存在较强的纹理,那么能量分布的中高谱段能量所占有百分比较大,通过统计能量分布的百分比,可以反映纹理特征和颜色特征的不同作用。为克服整幅图像的付立叶功率谱计算费时的缺点,采用扫描线频谱分析法[7]。注意到,若扫描线穿过图像的纹理区,那么该扫描线上的灰度变化起伏就会比较剧烈,表现为中高频分量聚集了较多的能量,占总能量的百分比高。通过分析不同频段能量所占的比例,就可以确定是否有强的纹理特征存在。统计多根水平、垂直扫描线的能量分布比例,就可大致估计整幅图像中纹理特征所占的权重。

3 分割算法

一旦选择了目标函数,图像分割问题成为离散优化问题中有明确定义的一个问题:找到一种标记,使目标函数J(x,k)取极小值。我们采用了模拟退火算法(Simulated Annealing Algorithm)给定过分割图像的类别标记,模拟退火本质上是对求解空间的部分随机搜索[2,3,4],计算Metropolics准则,以一定概率来确定接受选解的可能性的大小,除了接受优化解以外,还在一定范围内接受恶化解,这就使得模拟退火算法可以从局部最优的“陷阱”中跳出,有可能得到全局最优解。

综上所述,本文提出的彩色图像分割算法可以总结为如下4个步骤:

步骤1:提取图像的颜色和纹理特征。

步骤2:依据扫描线分析法,确定颜色、纹理特征的融合系数αcolor和αtexture。

步骤3:依据SA算法对式(8)迭代求解,得到初始过分割图像。

(1)设置初始温度为T(1);

(2)随机选择初始分割标记场x(1),并计算目标函数J(1);

(3)随机产生一个新的分割标记x(i+1),计算目标函数J(i+1),并计算ΔJ=J(i+1)-J(i),若ΔJ>0,则接受新的分割标记x(i+1),否则以概率eΔJ/T(p)接受新的分割标记x(i+1);

(4)重复(3)直到i>Imax;

(5)使用退火方案为:

(6)重复(3)-(5)直到p>Pmax。

步骤4:连通分析标号图像,输出赋予特征的图像区域描述。

4 实验结果

实验中参数取值为γ=0.2,β=1.0,Pmax=300,Imax=20,C=4.0,纹理分析窗口取Dw取为7×7。关于图像分割实验评价的问题,一般来说仍然是一个困难的问题。在彩色图像分割领域,由于自然图像的多样性,至今没有一个公认的客观评价标准,因此这里暂时只能采用人工判断的主观评价方法。图1和图2是采用本文提出算法得到的分割结果。实验表明,对于自然图像,本文分割算法能得到主观感觉上比较好的分割结果。

5 结束语

本文提出了一种新的基于MRF模型的彩色图像融合分割算法,在Bayes分析框架中加入了图像特征的置信因子进行融合,通过引入置信因子有效融合了颜色和纹理两方面信息。最后的彩色图像实验结果证明了本文提出算法的有效性。

摘要:提出了一种新的基于马尔可夫随机场(Markov random field,MRF)模型的彩色图像融合分割算法,在Bayes分析框架中加入了图像特征的置信因子进行融合。该算法有效融合了颜色和纹理两方面信息。最后的彩色图像实验结果证明了提出算法的有效性。

关键词:彩色图像分割,MRF模型,图像融合

参考文献

[1]Tremeau A,Borel N.A region growing and merging algo-rithm to color segmentation[J].Pattern recognition,1997,30(7):1191-1203.

[2]Mehmet C.A color clustering technique for image segmen-tation[J].Graphics and image proc,1990(52):145-170.

[3]Besag J.On the statistical analysis of dirty pictures[J].Journal of the royal statistical society,series B,1986(48):259-302.

[4]Geman S,Geman D.Stochastic relaxation,gibbs distribu-tions,and the Bayesian restoration of images[J].IEEEtrans patt,1984,(6):721-741.

[5]Dubes R C,Jain A K,Chen C C.MRF model-based algo-rithms for image segmentation[C]//Proceedings of inter-national conference pattern recognition.1990(6):808-814.

[6]Zhang Y J,Yao Y R,He Y.Color image segmentationbased on HIS model[J].High technology letters,1998,4(1):28-31.

[7]Speis A,Healey G.An analytical and experimental studyof performance of Markov random fields applied to texturesimages using small samples[J].IEEE trans on imageproc,1996,5(3):447-458.

[8]樊昀,王润生.面向内容检索的彩色图像分割[J].计算机研究与发展,2002,39(3):376-381.

纹理融合 篇4

因此, 试图结合人类视觉感知特性和等周理论[3], 提出一种有效的数码迷彩纹理提取方法, 利用人眼对亮度差的敏感度对图像的灰度级进行分割与合并[4], 从而提高数码迷彩纹理的提取质量。与现有的几种经典阈值分割方法的比较实验表明, 该方法提取的数码迷彩纹理具有良好的混色效果和较为完整的图像细节, 更易于与目标背景相融合。分割质量评定指标的定量评价也证实了本文方法的有效性[5]。

1 人类视觉模型

人类的眼睛有两大类视觉细胞分别是视杆体 ( rods) 和视锥体 ( cones) 。视杆体 ( rods) 细胞的的光灵敏度很强, 可以提供暗视; 而视锥体 ( cones) 细胞在亮光下灵敏度很强, 可以提供明视。实验表明, 人眼对亮度的感觉与进入眼睛的光的强度成对数关系。由于人眼的视觉亮度感知阈值并不完全取决于物体本身的亮度, 物体周围的背景亮度影响了人眼对物体本身亮度的感知[6]。文献[6]表明: 人眼对亮度差的敏感程度与背景亮度呈非线性变化。假设周围背景亮度值为I, 背景中的目标亮度值为I +ΔI, 根据人眼视觉感知特性, 设定某个阈值T, 只有当 ΔI > T时, 人眼才能够感知到目标亮度与周围背景亮度的差异, 才能把目标从背景中分离出来。由于周围背景的亮度会影响该阈值T的值, 于是定义ΔI /I为阈值亮度比函数, 如图3 所示。当周围背景亮度小于某个值时, 阈值亮度比函数近似为常函数;当周围背景亮度大于某个值时, 阈值亮度比函数曲线近似为一条垂直线, 即由于周围背景亮度的影响导致很难将目标分离出来; 而当周围背景亮度处于低亮度和高亮度之间是, 阈值亮度比函数 ΔI/I的值近似于常数, 即满足韦伯定律。

根据文献[7]提出的方法, ΔI为

式 ( 1) 中 α , β 和C为参数, α 为韦伯常数, α ∈[0. 01, 0. 3], a ∈[45, 81], β ∈[180, 210], 本文取 α = 0. 06, a = 55, p = 210; 确定 α 、a和p的值之后, 根据函数的连续性求C和 β 的值。

2 等周理论

2. 1 等周率

给定一副有N个像素的自然纹理灰度图像, 将每个像素点作为图的一个节点, 然后根据某种规则连接相邻的节点, 生成节点的连接边, 这样就可以将自然纹理图像映射为一个具有一定拓扑结构的带权无向图G = ( V, E) 。其中, 为连接边的集合, V = { vi, i - 1, …, N} 表示带权无向图G中节点的集合。赋予图G中每条连接边一个边权值, 连接边eij ( 连接相邻节点vi和vj) 的权值可定义为wij。图中节点vi的度数记为

图G的等周率hG[8]定义如下:

式 ( 2) 中, S为图G中任意的有限结点集, Volv表示集合G的体积, SV; Vols≤ VolV/2 , ︱∂S︱为集合S的边界所包含的面积。对于一个由有限个节点构成的图而言, 下确界 ( inf) 等价于最小值 ( min) 。给定图G的节点子集S, 定义表示S的补集。

公式 ( 2) 中体积Vols的定义[9]如下:

此定义倾向于分割出具有相似灰度的区域。

结合等式 ( 2) ~ 式 ( 4) , 可将等周率hG重写为:

在公式 ( 5) 中, 分子cut ( S, ) 表示图的两个划分部分 ( S和) 之间边的权值之和, 它反映了集合S中的节点与中节点的相似程度。其意义在于寻找图G的划分 ( S和) ,能够使得S和S-之间的相似性最小的划分为最优划分, 这也符合图像分割的目的。

2. 2 等周率计算的推导

任意给定一幅具有256 个灰度级的图像, 每个灰度级对应等周率的具体计算过程如下

1) 令V = { ( x, y) : x = 0, …nh- 1; y = 0, …, nw- 1} 表示像素点的集合, 其中, nh和nw分别为图像的高度和宽度。假定0≤f ( x, y) ≤255 为图像在像素点 ( x, y) 处的灰度级。V满足如下条件

2) 定义边权值函数。赋予图G中每条连接边一个边权值, 连接边euv ( 连接相邻节点u和v) 的权值wuv反映了两个节点是否属于同一个分割区域的可能性。边权值函数wuv可定义为

式 ( 8) 中, γ 用于控制两节点间的边权对灰度差异的敏感程度, f ( u) 和f ( v) 表示两节点u和v的灰度级。

3) 对任意一个灰度级t ( 0≤t≤255) , 够得到图像对应的图G = ( V, E) 的一个二划分V = { S, } , 其中S和分别为

则公式 ( 2) 的分子可转换为

式 ( 10) 中,

为Vi中所有节点与Vj中所有节点间边权的总和。则有

因此, 公式 ( 2) 的等周率推导为

4) 根据边权值函数, 构建基于灰度级的权值矩M。M为256 × 256 的对称矩阵, Mij= Mji= cut ( Vi, Vj) 。根据构建的权值矩阵M, 计算出每个灰度级t ( 0 ≤ t ≤ 255 ) 对应的cut ( S, S-) 、assoc ( S, S) 和assoc ( , ) ,由此, 可快速地计算出t对应的等周率。

3 基于视觉感知和等周理论的纹理提取方法

3. 1 基于视觉感知的权重函数改进

3. 1. 1 权重函数分析

给定一幅具有N个像素的图像, 将图像中像素点看作图的节点, 然后根据某种规则产生节点间的连接边, 这样就可将此图像映射为一个具有一定拓扑结构的带权无向图G = ( V, E) 。其中, V = { Vi, i =1, 2, …, N} 表示图中节点的集合, E = { euv} ∈V × V为边的集合。

设图像中相邻两个像素的灰度值分别为f ( u) 和f ( v) , euv表示结点u与结点v之间的边, 那么它们的相似度即边权值可以定义如公式 ( 8) 所示。wuv用于表示两节点间灰度的差异。但用于提取数码迷彩纹理方法中, 该权重函数存在一些不足, 在实际情况中, 人眼对亮度的敏感程度并不完全由物体本身的亮度决定, 物体的背景亮度和复杂度影响人眼对物体亮度的感觉, 因此需要根据人眼视觉感知特性构建权重函数。

3. 1. 2 权重函数改进

根据视觉感知亮度特性, ΔI如公式 ( 1) 所示, 对边权值计算的改进如下式

式 ( 17) 中 ΔI为每一个灰度级I ( I = 1, 2, …, 255) 的刚可分辨亮度差。图中边的权值wuv反映对应端节点的相似性, 边权越大, 两个端节点越相似, 属于同一分割区域的可能性也越大。此定义倾向于分割出视觉可感知的具有相似灰度的区域。本文中取 γ= 165。

3. 2 基于等周理论的多级阈值分割

基于等周理论的二级阈值分割方法只能将图像分成目标和背景两个部分, 而在数码迷彩的实际应用中, 待分割的自然纹理包含多个具有不同灰度级的目标, 且需要将不同的灰度级的区域分割开来。因此, 需要将基于等周图割的二级阈值方法扩展到多级阈值分割中, 通过有效的迭代策略依次选择多个阈值将图像分割成几个部分。

3. 2. 1 多级阈值的选择

基于等周理论的多级阈值分割算法流程如图2所示。假设D为最终的阈值分割个数, 根据D个分割阈值将原纹理图像的灰度级分成D + 1 个子区间, 同时将灰度区间[0, 255]分成D + 1 个子区间。基于等周理论的多级阈值分割算法如图2 所示:

具体的流程如下:

( 1) 计算每个灰度级t ( 0≤t≤255) 所对应的等周率;

( 2) 选择当前计算出的最小等周率, 将其对应的灰度级t作为候选阈值;

( 3) 根据计算出的候选阈值t将候选阈值区间扩展为[t - k × hw, t + k × hw], 重设区间内所有灰度级的等周率值为无穷大。其中k为整数, hw为最佳的直方图最佳区间宽度[9]

在公式 ( 18) 中, σ 为图像的标注偏差, N为图像的像素总数。

3. 2. 2 阈值个数的自动确定

为了能够自动确定纹理图像的阈值个数, 采用节点聚类数准则Q[10]来确定阈值个数。对于一副具有N个节点的图G = ( V, E) , 假定W为图邻接矩阵, 节点聚类准则Q如下

式 ( 19) 中, PK是图G的一个K划分, A ( Vc, Vc) 为第c类所有节点的边权值之和, A ( Vc, V) 为与第c类中节点有关连的所有的边的权值之和。在图中任意挑选一条边, A ( Vc, Vc) /A ( V, V) 为该边的两个段节点至少有一个在第c类的经验概率pc。Q可以理解为一种表示pc . c与pc2之间偏离程度的测度。

给定一副图G, A ( V, V) 是一个常数, 准则Q可简化为:

针对上述K划分PK, 定义一个的赋值矩阵X =[x1, …, xK], 维数为N × K。当vi∈ Vc时, xic= 1 , 否则xic= 0 , 1 ≤ c ≤ K 。由于图中的节点只能属于某一个类, 因此有XlK= lN, 其中, lK= lN分别为由K和N个l构成的列向量。这样, 根据矩阵X将Q重新改写为

式 ( 21) 中, volG代表A ( V, V) , d ∈ Rn ×1是节点度向量。

采用简化后的准则函数Q来确定图像的阈值个数, 假定候选阈值的个数为C, 确定阈值个数的流程图如图3 所示:

4 实验结果及分析

为了验证融合视觉感知和等周理论的多级阈值分割方法在数码迷彩纹理提取效果中的有效性, 在一系列图像上进行了实验, 并与几种经典的阈值分割方法, 包括Otsu[11], STA[12]做对比实验, 如图4 ~图6 所示。本文方法采用的图拓扑结构为4 连接, 所有实验均在2. 5 GHz英特尔酷睿双核CPU、4 G内存的notebook PC机上执行, 程序采用Matlab7. 0编写。所有测试图像的分辨率大小均为512 × 512。

为了量化各种方法分割质量的差异, 本文采用了两种分割质量评价准则: 平均结构相似性MSSIM ( mean structural similarity) [13]以及均匀性U ( uni-formity) [14,15], 如表1 所示。

图4 ~ 图6 分别给出了3 种多级阈值方法分割3 幅不同自然纹理图像的结果, 由于数码迷彩纹理多由4 色构成, 因此选择分类数为4, 实验数据如表1 所示。从纹理分割效果可以看出, 本文的方法分割效果最好, 也最能满足数码迷彩对纹理分割的要求, 分割后图像质量的评价数据也证实了本文方法的有效性。如表1 所示, 本文方法所得的MSSIM值最高, 说明本文的分割结果与原纹理图像最相似, 分割质量更佳。此外, 该方法所得的U值较高, 略低于Otsu, 说明每个分割类的均匀性比较好。值得注意的是, 表1 中OTSU对应的U值最高, 其原因在于均匀性 ( u) 准则与OTSU的准则函数相似[16,17]。在用于比较的3 种方法中, STA的分割法获得的迷彩纹理通常最糟糕, 迷彩纹理细节损失较大; OTSU的分割法得到的迷彩纹理细节最为丰富, 但是过于破碎的纹理图案不利于最终数码迷彩的生成; 本文分割方法获得的迷彩纹理细节较为丰富, 斑块大小适中, 同时具有较清晰的斑块边界, 最适合生成数码迷彩的马赛克图案。

5 结束语

上一篇:医学实验实训教学下一篇:地理课程改革实践