自适应跟踪窗口(精选7篇)
自适应跟踪窗口 篇1
摘要:为了解决目标跟踪中的目标尺度与方向的变化问题,提出了自适应窗口的meanshift目标跟踪算法。该算法采用更新目标轮廓的方法,通过获得目标当前大小来更新跟踪窗口的大小,并使用主成分分析法追踪目标的方向。实验结果表明,当目标尺度与方向发生变化时,相比传统的meanshift跟踪算法,目标跟踪的稳定性得到了提高。
关键词:目标跟踪,meanshift,自适应跟踪窗口,主成分分析法
0 引言
近年来运动目标跟踪技术是计算机视觉领域的研究热点。它已应用在一些领域如智能机器人、智能交通、科学检测、图像处理、模式识别、人工智能等[1]。到目前为止,已经涌现出了大量的用于跟踪运动目标的方法,主要包括基于模型的跟踪[2]、基于区域的跟踪、基于特征的跟踪方法等。基于模型的跟踪算法通过对目标建模分析目标的运动轨迹,该方法在遮挡的情况下效果较好,但几何建模的计算量大,运行时间长,很难实现目标的实时跟踪。基于区域的跟踪方法适用于多目标跟踪,但由于是区域级的跟踪,当目标发生形变或有遮挡时会造成目标的丢失,且费时。基于特征的方法利用颜色、边界等特征进行跟踪,在目标部分被遮挡时,仍能有效的跟踪目标,但是当场景中目标尺度变化过大或出现遮挡时,该方法会产生错误的跟踪[3]。
目前经典的目标跟踪算法有meanshift、kalman滤波和粒子滤波等算法。meanshift算法是一种非参数密度估计方法[4],计算简单且实时性较好。近年来,以meanshift算法为基础的一些改进算法得到了广泛的应用。例如文献5和6提出了光流法与meanshift算法结合的方法,当夜间光线发生变化时该方法可以有效的跟踪目标。文献7是当发生遮挡时通过融合kalman滤波预测质心来改善跟踪。传统的meanshift算法在目标尺寸与方向变化不大下有较好的跟踪效果,不足是目标尺寸与方向变化大时很容易导致目标丢失的现象,目标跟踪窗口在整个过程中也基本没有发生变化。为了解决这一问题,采用canny算法和帧差法检测目标轮廓的方法,实时更新目标跟踪窗口的大小。当目标方向发生变化时,加入主成分分析法追踪目标方向。这样,跟踪算法可以自动适应运动目标。
1 传统的meanshift目标跟踪算法
meanshift算法使用图像的颜色直方图信息作为整个搜索过程的特征。为了实现快速目标定位,采用梯度优化法。此外,它采用Bhattacharyya系数作为目标模板与候选目标完成特征匹配的相似性函数。对于meanshift目标跟踪,目标和候选目标的模型通常是对目标区域的图像特征进行统计而得到的离散概率密度函数,即归一化的直方图向量[8]。
上式中:y为候选目标中心的图像坐标。跟踪窗口通常定义为一个矩形区域。假设目标的中心位于直角坐标系的原点,{xi}i=1,…,n为位于目标跟踪窗口的像素,直方图的bin个数为m,由此目标模型的概率密度可以定义为:
其中k ( x) 的功能是在跟踪窗口的每一个像素设置权重,因为靠近外侧的像素容易被遮挡或受背景干扰,离跟踪窗口中心越近,将被设置的权重越大,这在一定程度上增加了模型的可靠性。 δ( x ) 是克罗内克函数,δ ( b ( xi) - u )的作用是确定该像素的颜色值x i是否属于目标区域。常数C是通过施加条件衍生的。因此,可以得出:
由此建立了目标的核直方图模型{ qu}u=1,… ,m。相似地,位于位置y候选目标的模型定义为:
表示目标模型与候选目标之间的相似程度的Bhattacharyya系数可以被定义为:
meanshift算法是一个迭代的过程,其目的是最大限度的减少d( y ) 的距离,最小距离对应于最大化Bhattacharryya系数。给定目标在当前帧的初始位置y0,计算在y 0的Bhattacharryya系数的泰勒展开,在忽略高阶项系数的情况下,将式(1)(2)定义的目标模型代入,整理后可得:
将表示的候选目标模型代入式(8)并定义
可以得到:
因此,为了取得最大的相似性,应该最大限度的取得上式第二项的最大值[9]。用meanshift算法计算得到目标的新定位即当前迭代的停止位置为:
这里,g ( x ) = - k '( x ) 。
2 自适应跟踪窗口
2.1 跟踪窗口的大小自适应
跟踪窗口的大小在跟踪过程中非常重要,如果跟踪窗口太小或太大真实目标会消失。因为当目标移动时,它的大小会改变,因此在使用meanshift算法前,首先目标的大小应该是已知的。光流法和背景高斯混合方法都对运动目标有一个良好的检测,但它们很费时。
帧间差分法简单,程序设计复杂度低。它对光的场景变化不敏感,具有较好的稳定性。此外,canny算法可以很好的检测图像的轮廓,并能保持完整的轮廓。因此,目标的轮廓可以被完全检测到。利用canny算法检测当前图像的轮廓,帧间差分法[10]检测目标区域。最后,该共同区域是目标在当前图像中的轮廓。
R(x ,y,t)表示帧间差分法得到的图像, E( x , y, t) 表示canny算法检测后的图像, T ( x , y , t ) 是当前图像中的目标轮廓。Th是个阈值。图像仿真结果如下:
根据图1可以分别得到轮廓象素上、下、左、右四个方向的极值点。最左边点L P ( xl, yl),最右边点RP(xr,yr),最高点T P ( xt,yt) ,最低点B P ( xb, yb) 。然后可以得到跟踪窗口新的大小和核函数的带宽:
KN是核函数, h是跟踪窗口的高度,ω 是跟踪窗口的宽度。 H是核函数的带宽。利用canny算法和帧间差分法检测目标轮廓来更新窗口大小,通过这种方式,实现窗口带宽的自适应,进而实现跟踪窗口的自适应。
2.2 跟踪窗口的方向自适应
在跟踪过程中,运动目标的方位也许发生变化。如果方向被忽视,跟踪窗口将包括更多的背景信息,结果就是目标的损失。所以,跟踪窗口应该适应于移动目标的方向的变化。
从神经科学到计算机图形,主成分分析(PCA)算法以各种形式被大量利用,因为它是一个简单的从混乱的数据集提取相关信息的非参数方法。PCA以最小的努力提供了一个如何将复杂的数据集到一个较低的维度以揭示有时隐藏的东西的路线图,背后简化了结构。
从meanshift算法知道,在跟踪窗口像素的协方差是C O V,它是一个2 × 2 维矩阵。
式(17)中,y i是跟踪窗口的像素,x0是跟踪窗口的中心。定义yi是一个二维特征向量,W(yi)是像素yi的权重,计算如式(9):
PCA算法的步骤如下:
(1)计算数据的协方差C O V ;
(2)根据下式(19)(20)计算特征值 λ1,C O V的λ2并从大到小排序,λ1> λ2;
(3)计算相关特征向量u1, u2;
(4)计算定位程度。
旋转后的跟踪窗口新的四点计算如下:
这里,( x0, y0)是当前图像。( L U X , L U Y ) ,(L B X , L BY ),(RBX ,RBY) ,(R U X , R U Y ) 分别是跟踪窗口由左到右的四点。 s 1是跟踪窗口宽度的一半, s2 是跟踪窗口高度的一半。
3 实验结果与分析
3.1 跟踪窗口的大小自适应
传统meanshift算法的跟踪效果与跟踪窗口大小自适应的meanshift算法实验跟踪效果进行对比分析。实验结果如下:
图2(a)表示传统的meanshift算法跟踪效果图像,在第6帧时,运动目标全部在跟踪窗口内,可以被正常跟踪。到第51帧时,目标尺寸发生变化,而跟踪窗口没有变化,这样只能锁定目标的局部,容易导致跟踪失败。(b)为采用的跟踪窗口大小自适应的的meanshift算法的跟踪实验结果,跟踪窗口按照目标尺寸的变化而自适应的调节大小,运动目标在跟踪窗口内,可以被正常跟踪。
3.2 跟踪窗口的方向自适应
对选取的视频进行改进后的meanshift算法跟踪,得到的实验结果如图所示:
第6帧第24帧第51帧
图3改进后的算法跟踪
图2(a)是用传统的meanshift算法,图3是使用跟踪窗口大小和方向自适应的方法,也就是本文改进后的算法。从两幅实验结果可以看出,当目标的大小和方向有一个明显的变化时,在跟踪过程中,改进后的方法比传统的meanshift算法有更加稳定的跟踪效果。此外,meanshift算法不在整个图像搜索目标,而是围绕目标的中心搜索,所以它的计算时间可以实时的被接受。
结语
传统的meanshift算法存在缺陷:它不能很好的解决跟踪过程中的目标尺度与方向变化问题。针对上述问题,提出了自适应窗口的meanshift目标跟踪算法,该算法采用了帧间差分法和canny算法检测目标来更新跟踪窗口的方法,并加入主成分分析法追踪目标方向,这样有效解决了目标尺度及方向变化造成的目标丢失问题。通过以上改进,当目标大小、方向变化时,跟踪窗口能随着改变。图像仿真实验表明,提出的算法可以有效的适应目标的变化。
参考文献
[1]曲巨宝.基于智能Agent的车辆自适应跟踪技术[J].西南交通大学学报,2011,46(4):626-632.
[2]刘翔,周桢.基于分块背景建模的运动目标检测技术[J].液晶与显示,2011,26(6):831-835.
[3]CHEN XU-LONG,GAO JIAN,HAN XING.An algorithm based on interacting multiple models for maneuvering target tracking[C]//Information Technology and Artificial Intelligence Conference(ITAIC).Chong Qing:IEEE,December 20-21,2014:405-408.
[4]MOTWANI N.Towards benchmarking of video motion tracking algorithm[J].Signal Acquisition and Processing,2010(2):215-219.
[5]李剑锋,黄增喜,刘怡光.基于光流场估计的自适应Mean-shift目标跟踪算法[J].光电子·激光,2012,23(10):1996-2002.
[6]邓辉斌,熊邦书,欧巧凤.基于隔帧差分区域光流法的运动目标检测[J].半导体光电,2009,30(2):300-307.
[7]杨红霞,杭艺文,刘旭.基于Meanshift与Kalman的视频目标跟踪算法[J].武汉理工大学学报,2012,34(2):147-150.
[8]詹建平,黄席樾,沈志熙.基于均值漂移和卡尔曼滤波的目标跟踪方法[J].重庆理工大学学报(自然科学版),2010,24(3):76-80.
[9]杨杰,张翔.视频目标检测和跟踪及其应用[M].上海:上海交通大学出版社,2012:161-166.
[10]颜佳,吴敏渊,陈淑珍.基于Mean Shift算法的伪装目标跟踪[J].光电工程,2009,36(2):11-15.
自适应多特征融合目标跟踪 篇2
视觉目标跟踪本质上是从视频图像序列中估计出感兴趣目标的位置以及运行轨迹。目前,在视觉跟踪领域提出的跟踪方法大致可以分为两类:产生式方法和判别式方法。产生式方法只利用目标本身的外观信息来建模,搜索与目标模型相似度最高的候选目标区域来进行跟踪;具有代表性的产生式跟踪器如:Histogram-Based Tracker[1]、Sparsity-based Tracker[2]、WSL Appearance Tracker[3]等;判别式方法既利用了目标本身的信息,也利用了目标周围的背景信息,它将目标跟踪看成一个二分类问题,即从背景中区分出感兴趣的前景目标。具有代表性的判别式跟踪器如:多实例学习跟踪器[4]、Ensemble tracker[5]、On-line Boosting Tracker[6]等。
跟踪时构建的目标表观模型的准确性和稳定性会直接影响跟踪器的精度,由单一特征描述的目标表观模型很容易受到外界干扰,跟踪效果会变差,有时甚至会跟丢目标,融合多个特征进行视觉目标跟踪能很好地提高跟踪器的精度和鲁棒性。J.Vermaak等人[7]将颜色、运动和立体噪声特征融入到了粒子滤波框架。Avidan的Ensemble Tracker[5]联合了局部方向梯度直方图HOG[8]和每个像素的RGB值去构建特征向量。Q.Zhao等人[9]利用联合跟踪框架将两个独立的特征(颜色特征和HOG特征)通过两个在线SVM分类器联合起来用于跟踪。D.Wang等人[10]利用空间金字塔匹配核函数计算每个特征构建出的目标直方图和候选目标直方图之间的相似度并生成一系列的概率图,然后通过粒子群优化(Particle Swarm Optimization,PSO)算法解决一个回归问题将各概率图融合进行目标跟踪。
文献[11]利用颜色名称特征(Color Names,CN)[12]对CSK跟踪器[13]进行扩展,提出了CNT(Color Name Tracking)跟踪器,提高了CSK跟踪器的精度,但在一些复杂环境下,效果不是很好,精度低,鲁棒性也较差。在CNT跟踪器中单纯用颜色名称特征CN构建目标表观模型,当出现相似特征的干扰物时,会出现漂移跟丢目标。此外,目标的特征随着环境变化也在不断变化,导致在一些复杂场景中跟踪精度很低。
为了提高CNT跟踪器[11]在复杂场景中的跟踪精度,由以上多特征融合算法的启发,提出一种基于回归的自适应多特征融合跟踪算法(Regression-based Adaptive Multi-feature Fusion Tracking,RAMFT)。提取出各子图像块的灰度特征、HOG特征和颜色名称特征构建目标表观模型,利用正则化最小二乘分类器得到各响应值,利用加权和准则融合各响应值,在跟踪过程中通过求解岭回归方程对各权重实时地自适应更新,得到准确稳定的检测分数值,通过找到检测分数取最大值的位置去估计目标的真实位置,从而进行精确地目标跟踪。
1 CNT跟踪器
CNT跟踪器[11]主要是利用颜色名称特征(CN)对CSK跟踪器进行扩展,对在线密集采样得到的子图像块构建目标表观模型,然后通过训练一种正则化最小二乘分类器来进行目标跟踪。
1.1 正则化最小二乘分类器
通过在线密集采样得到含m个样本的训练图集和相应的标签(xi,yi),i=1,2,K,m,训练分类器f( x) 找到正则化风险最小的参数。线性分类器的形式为f(x)=<τ,x>+b,这里 <τ,x>表示对 τ 和x进行内积,b是一个偏差项,求出 τ 之后将样本点代入就可以求出b 。最小化的问题可以归纳为
式中:L(y ,f(x) )表示损失函数,l 是一个正则项控制量,当二次损失函数L(y,f(x))=(y-f(x))2时,式( 1 ) 就表示正则化最小二乘。 为了改善在高维特征空间中的分类性能, 定义一个核函数, x是训练样本, z是测试样本,分别是训练和测试样本的特征向量空间,由文献[13]可以求出,对于正则化最小二乘核函数(Regularized Least Squares with Kernels,KRLS)得到一个闭合解:
其中K是核矩阵,其元素kij=k(xi,xj),I是单位矩阵。只要求出了 α ,就会得到前面的解 τ ,α 由系数αi组成,即α=(αi) ,由文献[13]可以解出KRLS的解为
将式(3)代入中,得到正则化最小二乘分类器的响应值
其中: A F(α) ,K(z,x)(k (zi,xi)), F表示离散傅里叶变换,F1表示离散傅里叶反变换。
1.2 快速检测
对于上述分类器,在第t帧的输入图像中,通过颜色名称特征对尺寸大小为M ×N的采样图像块构建的目标表观模型为zt,考虑所有位置的循环移位zt(c,d)作为第t+1帧的训练样本去训练分类器,用yt(c,d)表示zt(c,d)的标签,其中。在第t+1 帧的输入图像中,通过颜色名称特征对尺寸大小为M ×N的采样图像块构建出的目标表观模型为zt1,由式(4)可以得到在所有位置的分类器响应为
式中:。
CNT通过r取得最大响应的位置来估计该帧图像中真实目标的位置,取得了较好的跟踪效果,但在一些复杂场景中,由于光照、遮挡等众多因素的干扰,仅仅由颜色名称特征构建的目标表观模型极不稳定且不能准确地描述目标,从而导致跟踪精度低。
2 基于回归的自适应多特征融合跟踪
为了解决CNT跟踪器在复杂场景中跟踪精度低的问题,结合CNT跟踪框架提出一种基于回归的自适应多特征融合跟踪算法。
2.1 算法流程
本文的自适应多特征融合跟踪算法是通过提取多个特征分别构建出不同的目标表观模型,利用正则化最小二乘分类器得到各模型的响应,进而采取加权和准则融合各响应,在跟踪过程中通过求解一个岭回归方程实时地自适应更新权重,得到精确稳定的检测分数值,通过该检测分数值最大值的位置去估计目标的真实位置,算法流程如图1 所示。
2.2 自适应多特征融合
在第t帧,用qt表示当前帧目标的候选位置,用n个特征对目标图像块进行描述建立目标表观模型,通过上述分类器分别得到检测分数(即响应值)为ri(qi),i1,2,3,,n,通过加权和准则可得:
其中w=(w1,w2,K,wn),,初始化wi1/n(i1,2,,n),并在之后的跟踪过程中,基于岭回归方程设计权重wi的自适应更新策略增强各特征分量的局部判断力,进而提高跟踪精度。
2.2.1 岭回归方程
用qt表示第t帧目标位置的最优状态,其中第一帧目标位置的最优状态通过手动标记获取。设在qt的邻域N(qt*)里多特征融合后的响应为r(qt) ,则r(qt) 与r(qt)的差值应与qt和qt之间的距离成正比例关系,即当r(qt*)r(qt)的值越小时,qt与qt之间越近;当r(qt*)r(qt)的值越大时,qt与qt之间越远。并且,希望qt发生较小变化时能引起r(qt) 出现较大的变化,以增加跟踪器的位置判别力。因此,结合式(6),建立岭回归方程:
其中g(qt,qt*)=||qt-qt*||,是一个变量。由图2 可以直观地看到,ηt<0的曲线比ηt>0的曲线尖锐,说明当ηt<0时,qt的响应r(qt) 比ηt>0时更有位置判别力。所以,当所有的ht都小于零时,r(qt*)-r(qt)比g(qt,qt*)更具有位置判别力,故需要对ηt大于零的情况进行惩罚。
2.2.2 权重更新
由2.2.1 节可知,为了找到最优权重w*=(w1,w2,K,wn),需最大化r(qt*)-r(qt),而这等同于最小化,其中f(ηt)是用于惩罚ηt>0的成本函数,取Φ(ηt)=max(0,ηt)。设T为qt*的邻域N(qt*)里位置状态量的个数。由文献[14]可知,的最小化问题可以通过式(8)来实现。
其中δ 是一个正则化控制量,取δ =0.5,式(8)的最小化问题可以利用梯度下降法来处理。求出H(w) 的梯度:
其中:表示H(w) 的梯度,θ 是一个学习速率参数,初始取θ =1,之后每迭代一次减少为上一次的二分之一。
2.3 分类器更新
论文针对于每一个特征都进行了相应的分类器更新,这样使得跟踪器更具有鲁棒性。对于采用的第i个特征,考虑从第一帧到当前帧p提取出的目标表观特征{zt:t1,2,,p},从文献[11]可知分类器总成本函数的最小化可以通过式(11)的最小化来实现。
其中:在1.2 节已提到,,yt的元素为yt(c,d),。g 是学习速率参数,本文取γ =0.1,对AP的分子与分母分别通过式(12) 和(13) 更新,对于第n个特征在第p帧计算得到的AP分别为{AiPAPNi/APDi,i1,,n},目标表观模型zpi通过式(14)来更新,则可以得到总的更新策略:
3 实验结果及性能分析
3.1 实验装置与评价标准
实验仿真均在Matlab R2009a,Window8 系统,Pentium(R) Dual-Core CPU处理器,3.2 GHz主频和4G内存的计算机环境下编程实现。为了验证本文算法的有效性,采用了文献[15]中的跟踪评价方法,将本文提出的RAMFT跟踪器与CNT跟踪器、CT跟踪器[16]、IVT跟踪器[17]、STC跟踪器[18]进行了比较。选用的测试视频序列是Benchmark库[15]中一些比较有挑战性的视频序列,各视频序列的特点如表1 所示。
采用与[11,15]相同的衡量跟踪算法性能的三个重要指标,即平均中心位置误差(Average Center Location Error,ACLE)、距离精度(Distance Precision,DP)、重叠精度(Overlap Precision,OP)。ACLE表示跟踪结果中目标的估计中心位置与手动标记的ground-truth之间的平均欧式距离。DP表示在跟踪视频序列里中心位置误差(Center Location Error,CLE)小于一定阈值的帧数相对于视频序列总帧数的百分比(本文所有实验取与[11,15]相同的阈值20 pixels)。OP表示跟踪过程中估计的跟踪框与[15]中手动标记的跟踪框之间的重叠度SAOR超过一定阈值a (a[0,1])的帧数相对于视频序列总帧数的百分比(本文所有实验采用与[11,15]相同的阈值a0.5 )。重叠度的定义为
其中RT表示跟踪边界框的区域,RG表示ground-truth中手动标记的跟踪边界框区域,A表示求区域的面积。
3.2 实验结果及分析
3.2.1 定性分析
在六个测试视频序列中所有跟踪器的跟踪结果对比图如图3 所示(注:为了区分,采用各跟踪器的跟踪边框类型分别为:本文提出的RAMFT跟踪器的跟踪边框是实线,CNT跟踪器的跟踪边框是虚线,CT跟踪器的跟踪边框是点划线,IVT跟踪器的跟踪边框是点线以及STC跟踪器的跟踪边框是点划线且线宽比CT的线宽要小)。
1) 遮挡和光照变化
在Facebook2 中,目标被书本和帽子同时遮挡且有光照变化时,只有CT与RAMFT能较好跟踪,最后CT也漂移,RAMFT仍然能准确跟踪。在Coke中,由于光照变化强烈和部分遮挡,在几十帧的时候,除了STC与RAMFT,其他算法都已跟踪失败,最后只有RAMFT能准确跟踪。在Jogging中,目标被柱子完全遮挡时,CT、CNT、IVT、STC全部都跟踪漂移,目标再次出现时,只有RAMFT可以准确地跟踪。在Woman中,刚开始都能较好跟踪,目标被不同颜色的汽车连续遮挡后,只有本文算法能准确地跟踪。
2) 背景杂波、快速运动和旋转
在Basketball中,被跟踪的运动员有很多快速地形变,被相似球员干扰,旋转等诸多因素。刚开始除了STC,其他算法都能跟踪良好,在300 帧的时候,CT、IVT出现了漂移,随后CNT也逐渐漂移,最后只有RAMFT可以良好地跟踪。在Mhyang中,由于背景杂波和旋转等因素的干扰,CT表现很差,CNT与STC也有很大偏移,只有IVT与RAMFT跟踪效果最好。可以直观地看出,本文提出RAMFT跟踪器一直都能保持良好的跟踪,其他跟踪器大部分都会产生漂移或跟踪失败,本文算法性能优于其他四种算法。
3.2.2 定量分析
1) 以上算法的平均中心位置误差(ACLE)、距离精度(DP)、重叠精度(OP),分别如表2 所示,中心位置误差(CLE)曲线图如图4。当ACLE的值越小而DP和OP的值越大时,表明该跟踪器的跟踪精度越高,鲁棒性越好,反之不然。从表2 和曲线图中,可以看出,本文算法在跟踪过程中平均中心位置误差小,距离精度和重叠精度高,可见本文算法在精确性和鲁棒性等方面都优于其他四种算法。
2) 以上五个跟踪器的处理速度如表3 所示,从表3 可以看出,STC跟踪器的速度最快,其次是CNT跟踪器和RAMFT跟踪器。由于某些序列本身特征结构的复杂性较低,在提取特征时相对比较快或权重更新时对文中式(8)能较快地求解实现最小化,这样RAMFT跟踪器相对于CNT跟踪器只增加了较少的成本损耗,故在这些序列中RAMFT跟踪器与CNT跟踪器的处理速度基本相同,例如Basketball、Mhyang以及Facebook2 序列;而对于Jogging和Woman序列,由于序列本身复杂性较高导致多种特征的提取以及建模的复杂度有所增加,相比于CNT跟踪器提取单一的颜色名称特征多消耗了时间。从平均速度上看,RAMFT跟踪器比CNT跟踪器的处理速度稍微慢了一点,但每秒也处理了四十多帧,基本可以达到实时性。
f/s
4 结论
自适应跟踪窗口 篇3
图像的编码及传输中,经常经过含有噪声的线路或被电子感应噪声污染时,会使图像染上一定程度的椒盐噪声(即脉冲噪声)[1]。中值滤波因其与输入信号序列的映射关系,在去除脉冲噪声上有比较好的效果,很多学者针对中值滤波技术进行研究,提出了很多改进算法。如加权中值滤波方法(WM)[2]、中心权值中值滤波器(CWM)[3]、三态中值滤波器(TSM)[4]模糊多极中值滤波方法[6]等,以及基于上述若干方法的改进策略[7]。文献[8]介绍了一种改进的自适应中值滤波方法(AM),取得了不错的滤波效果,但其对于高密度噪声图像以及纹理细腻图像的边缘处理能力不佳。本文将基于该种方法(AM),并通过分析图像噪声信息,提出一种基于噪声检测的自适应中值滤波,以克服对于高密度噪声及多细节图像去噪不理想的问题。实验结果表明,新算法对于细节丰富的图像以及高密度噪声的图像滤波效果良好,有效地提高图像的峰值信噪比,其去噪效果明显优于其他方法。
1 中值滤波法简介
早在1974年,Tukey提出了一维的中值滤波器,之后有学者针对将其发展至二维图像。标准中值滤波(SM)采用滑动窗口划分子图像,再对子图像进行二维中值滤波,当前窗口中心的像素点即为需要进行去噪处理的像素点。滤波过程中,窗口大小可以设定为不同的值,一般是采用3×3的方形窗口进行滤波。对于该滑动窗口内的像素点进行灰度值的排序,取中值作为当前像素点的灰度值。由于缺乏判断像素点是否有被噪声影响的机制,采用该方法时需对所有像素点进行一次滤波操作,在一定程度上对图像的边缘、细节信息造成破坏。
2 噪声点的检测
椒盐噪声在图像中表现为极大值或者极小值。在去噪处理之前,针对图像灰度值受椒盐噪声影响分布情况的特殊性,先将像素点分成非噪声点、噪声点和图像细节点,一方面减少系统开销,另一方面避免破坏原图像中的非噪声点。噪声点的监测室通过全局检测和局部检测两个层次来判定。
2.1 全局检测
在受椒盐噪声影响的图像中,噪声点的灰度值分布在图像灰度值的极大值端或者极小值端。若某点图像灰度值处在极值中间,则可以断定当前点未被噪声干扰,无需去噪处理。当然,对于处于极值的像素点,还不能确定其是否是噪声点。
设图像灰度值中极大值为Gmax,极小值为Gmin,对于当前像素点灰度值G,若满足式(1),则可以说明当前像素点并未受到噪声污染,无须进行滤波操作,其中T为设定的阈值。
|G-Gmin|>T并且|G-Gmax|>T (1)
2.2 局部检测
在图1中,大量分布条纹是黑白相间的,即原图中存在大量的极值。因此对于该幅图像而言,大部分中值滤波方法所得到的结果都不是很理想。 如何保证非噪声极值点不被滤波,或者滤波后不至于与周围差异较大的像素点进行错位,这需要充分结合像素点周围的信息进行分析。
如图2所示,以3×3窗口为例,对于图2(a),因为窗口中心点灰度值与相邻点差值较大,噪声点的可能性较大;而对于图2(b),由于差值较小(为0),非噪声点的可能性较大。
2.3 噪声点检测算法
由上述分析,可归纳出完整的噪声点检测算法。
算法1 噪声点检测算法
输入:图像的全局极大值为Gmax,极小值为Gmin,滤波窗口最大值为Wmax,像素点P(a,b)及其灰度值G,阈值T。
输出:对像素点P(a,b)的判定。
(1) 若满足|G-Gmin|>T且|G-Gmax|>T,则转(6)。
(2) 以P为中心,设置窗口大小w为3的滤波窗口。
(3) 计算该窗口内标准中值滤波结果,记为SM;若满足Gmin<SM<Gmax,则转到(5)。
(4) 设置窗口大小扩展为w+2;若w>Wmax,则转到(5),否则转到(3)。
(5) 对于当前滤波窗口,计算像素点P与另外w×w-1个像素点灰度值差值的均值Gmean;若Gmean<T1,转(6),否则转(7)。
(6) 点P为非噪声点。
(7) 点P为噪声点。
2.4 自适应窗口策略
在噪声点的监测过程中,滤波窗口大小影响巨大:若窗口取值较小,可有效地保护图像细节信息,而去噪效果相对较弱;反之,滤波器的去噪效果较强,而滤波后图像模糊程度则会加大。
图3表示的是噪声图像中某局部区域灰度值矩阵,当图像中噪声密度较大时,较小的窗口则无法保证Gmean正确表示出窗口中心值与其他像素点的关系。如图3(a)中,3×3窗口内含有6个噪声点,但极值都为极大值,因此窗口中心与其它8个像素点的差额均值仍为20左右,此时窗口中心被判断为非噪声点;而当窗口扩大后,噪声点虽然增加了,但极大值与极小值的比例发生变化,从而降低了噪声极值点对Gmean的影响,所求得的Gmean也正确地反映了窗口中心值为噪声点,在图3(b)中可以看出,当采取5×5窗口时,Gmean经计算是大于T1的,可以判定窗口中心为噪声点。
对于滤波窗口大小的选取原则是使窗口内噪声点对Gmean的影响最小。此处采用标准中值滤波SM的值进行比较。若SM的值处于极大值与极小值之间,则可以说明极大值与极小值在该滤波窗口中的分布较均匀。
滤波窗口的自适应调整的作用不仅仅体现在噪声点判断上,对于噪声的滤除操作方面,窗口自适应也有着重要的作用,这一内容将在下文中详细说明。
3 噪声点的滤除
自适应窗口策略还可以更精确地区分噪声点与图像细节点,从而更好地保护了图像细节信息,并且能够更好地调整滤波器的去噪性能,有效地弥补了一般滤波器对于含有高密度噪声的图像处理上的不足。
图4展示了噪声密度0.2的lena图采用AM滤波器的去噪情况,其中图4(a)为原图,图4(b)采用3×3窗口,图4(c)采用5×5窗口,图4(d)采用9×9窗口。可以看出,采用3×3窗口时一次滤波后噪声点无法完全滤除,而采用9×9窗口后,虽然噪声都已经滤除,但图像相对于原图有了较大的模糊。由此可知,窗口的大小对于滤波器去噪效果有重要的影响。当滤波窗口越小时,图像细节的保留越丰富,但去噪性能不佳;而当窗口增大时,去噪性能有了明显提升,但图像细节也随之被模糊。
当图像所含噪声密度较高时,窗口大小的影响更为明显。如图5所示,当噪声密度达到0.8时,该3×3窗口中经过SM的中值及其左右邻值全都为噪声点,此时进行任何滤波操作也不会改变其灰度值,滤波也失去其意义了。此时需要扩大窗口大小,以获取更多的图像信息来弥补噪声带来的影响。
在噪声去除过程中,采用的窗口变化策略与噪声检测机制中介绍的自适应窗口策略基本一致,不同之处在于判断是否需要将窗口扩展时,采用AM进行判断。因为AM的输出值与窗口中值及其左右邻值相关,因此可以假定当AM滤波结果非极值时,此时的窗口大小即可作为去噪所用的窗口。经过分析可以发现,该种条件比噪声检测机制中的窗口变化条件更宽松:当SM值非极值时,AM值也非极值;但当SM值为极值时,由于AM是通过SM值与其左右邻值进行判定,AM值也极有可能不是极值[8]。因此采用这种判定方法有可能获得更小的窗口进行滤波。通过前文分析我们知道,较小的窗口,保留图像细节能力更强,因此采用该策略会达到更好的效果。
文献[8]介绍的AM噪声滤除算法所引入的线性自适应策略可以很好的去除噪声,但对于高密度噪声及细节丰富图像的处理效果相对于其它算法要差。而动态窗口策略则可以自适应选取合适的滤波窗口进行处理,有效地处理高密度噪声及细节丰富图像。在本文中针对此缺陷所设计的基于动态窗口的自适应中值滤波方法(VAM)即是对其的有效改进。
算法2 噪声点检测算法
输入:图像的全局极大值为Gmax,极小值为Gmin,滤波窗口最大值为Wmax,像素点P(a,b)及其灰度值G,阈值T。
输出:对像素点P(a,b)的判定。
(1) 根据算法1,若点P为非噪声点,则结束,否则转(2)。
(2) 以P为中心,设置窗口大小w为3的滤波窗口。
(3) 计算当前滤波窗口下,采用AM滤算法的结果,记为AM;若满足Gmin<AM<Gmax,则转到(5)。
(4) 设置窗口大小扩展为w+2;若w>Wmax,则转到(5),否则转到(3)。
(5) 记当前AM为VAM,作为像素点P的滤波结果,并将VAM更新为像素点P滤波后的灰度值。
4 仿真结果以及分析
采用lena、barb以及text进行仿真分析,以验证本文提出的新方法的有效性。其中,lena的图像较为平缓,平坦区域多;而barb图则是细节信息非常丰富,难以处理;text则为文本截图,使得图像中灰度值与椒盐噪声接近。
4.1 噪声检测机制性能分析
对于2.1节中提到的阈值T1取不同值,采用VAM滤波器对512×512的barb图进行滤波去噪,计算信噪比(PSNR),绘制曲如图6所示。可以发现,T1的取值在10到20之间时,去噪效果最佳,当T1不断上升时,去噪效果随之递减。
在T1取值为15的情况下,分别对barb图像和lena图像加入一定密度的噪声,再进行噪声检测操作,统计其发现的噪声点数量以及发现的噪声密度如表1所示。可以看出,该噪声检测机制效果良好,检测结果与实际噪声密度误差较小。
4.2 VAM滤波器去噪效果分析
表2展示的是噪声密度为0.2和0.4时,lena、barb和boat三幅图采用不同滤波算法的去噪结果。可以看出,AM滤波器相对于其他算法有较好的改进,但对于纹理复杂的boat图所得到的结果要比其它算法偏差。而本文提出的VAM算法则对于各种特点不同图像都有较好的去噪效果,这是由于VAM在保留了AM处理平缓图像的优越性的同时,克服了AM在细节丰富时的不足,加强了图像细节的保留能力以及图像的去噪能力。
为了验证VAM中自适应调整窗口策略比之于固定窗口策略在处理高密度噪声图像上的优势,图7展示了对于含80%噪声的lena图像处理情况。其中(b)、(c)、(d)分别是WM、TSM、AM以及AVM的滤波结果。可以明显看出,具有自适应调整窗口大小功能的VAM算法对于高密度噪声仍然有很强的处理能力,噪声可以准确滤除,并且图像细节及边缘信息保留良好。
5结语
本文提出了自适应中值滤波方法。新算法采用合理的噪声检测机制可以有效地区分噪声点与非噪声点,从而保护图像的细节边缘信息。同时本文所设计的噪声滤除方案,由于加入窗口自适应以及模糊多极值策略,对于已检测出的噪声点,可以高效地滤除。经过实验分析,本文所介绍的噪声滤波算法相对于其他典型算法,在噪声处理及细节保护上有明显的改进,对于高密度噪声的图像,则优势更加明显。
参考文献
[1]陆天华.数字图像处理[M].北京:清华大学出版社,2007.
[2]Brownrigg D R K.The weighted median filter[J].Communications ofthe ACM,2004,27(8):807-818.
[3]Ko S J,Lee Y H.Center weighted median filters and their applicationsto image enhancement[J].IEEE Transactions on Circuits and Systems,2006,38(9):984-993.
[4]Tao Chen,Kai Kuang Ma,Li Hui Chen.Tri-State Median Filter for Im-age Denoising[J].IEEE Transactions on Image Processing,2003,8(12):1834-1838.
[5]Hwang H,Haddad R A.Adaptive median filters:new algorithm and re-sults[J].IEEE Transaction on Image Processing,1995,4(4):499-502.
[6]Yang X H,Toh P S.Adaptive fuzzy multilevel median filter[J].IEEETransaction on Image Processing,1995,4(5):680-682.
[7]Eng H L,Ma K K.Noise adaptive soft-switching median filter[J].IEEE Transaction on Image Processing,2001,10(2):242-251.
自适应跟踪窗口 篇4
笔者针对手眼焊接机器人的三维焊缝轨迹定位问题,在双目视觉条件下研究了一种基于自适应窗口的多信息立体匹配算法,以实现焊缝边缘点的立体定位。该算法是一种依据匹配约束条件,对边缘兴趣点、图像灰度值、边缘梯度及邻域窗口等多种信息协同匹配的方法,可有效提高匹配的准确率和快速性。
1 焊缝立体定位的算法步骤1
对双目手眼焊接机器人焊接工件焊缝的立体定位,其核心就是找到双目图像中焊缝对应的匹配点(线),即在左目图像中给定一点,在右目图像中寻找对应点,使得左右图像中的两点同为空间一个物体对应点的投影。笔者采用多信息协同和自适应窗口约束匹配方法,提高匹配准确性,缩小匹配点搜索区间并减少候选匹配点。算法的主要步骤如下:
a.根据改进的canny算子提取焊缝边缘特征点,利用Harris角点检测算法确定初始匹配点,求取初始视差,确定视差范围,给出匹配点的搜索区间;
b.根据外极线约束确定待匹配图像中可能的对应点,组成一个较大范围的候选匹配点集合;
c.根据边缘差分强度和梯度方向相似性约束准则比较候选匹配点的相似性,剔除不符合条件的匹配点,缩小候选匹配点的集合;
d.利用候选匹配点的邻域信息,构建以候选匹配点为中心的3×3的最小支持窗口,然后进行窗口动态增长,以窗口代价函数为衡量标准,最终确定唯一正确的匹配点。
1.1 改进canny算子的焊缝边缘点提取
由于传统的canny算子在2×2邻域内求取差分初值时易受噪声的影响,以至于出现提取到假边缘或者丢失部分信息的边缘现象,因此笔者通过实验对比,采用5×5邻域范围求取梯度幅值和梯度方向,可提高边缘检测精度并有效抑制噪声。
改进的canny算子。依据canny算子定义,对于任意像素点P(i,j),其改进的5×5邻域canny算子水平方向差分算子Gx(i,j)和垂直方向差分算子Gy(i,j)为:
对于任意像素点P(i,j),改进的梯度幅值M(i,j)和梯度方向θ(i,j)分别为:
边缘点的求取。求取图像每个像素点的梯度幅值和梯度方向后,依据扇区非极大值抑制原则,找出图像中的边缘点,如图1所示,箭头方向表示梯度方向。
对任意像素点P(i,j),在其5×5邻域内沿梯度方向对相邻的两个梯度幅值进行插值,具体步骤如下:
a.设P(i-2,j+1)、P(i-1,j+1)、P(i,j+1)、P(i+1,j+1)、P(i+2,j+1)这5个像素点的梯度幅值分别为M1、M2、M3、M4、M5。为了防止这5个梯度幅值变化过大,设定一个阈值σ,若|M(n+1)-M(n)|>σ,则,n=1,2,3,4。
b.用M1、M2、M3、M4、M5进行三次样条函数拟合,得到拟合函数M(i)=g(i)。
c.计算Q1点插值的梯度幅值MQ1=g((1-tanθ)i)。
d.同理可以求得Q2点插值的梯度幅值MQ2。
焊缝边缘点提取的步骤如下:
a.对于图像中待检测的像素点P(i,j),计算该像素点的梯度幅值M(i,j)和沿梯度θ(i,j)方向的两个插值点Q1和Q2的梯度幅值。
b.用P(i,j)点的梯度幅值与沿梯度θ(i,j)方向的两个插值点Q1和Q2的梯度幅值进行比较,若该点的梯度幅值M(i,j)同时大于MQ1和MQ2,即M(i,j)为局部梯度幅值极大值点,则该点为边缘点;否则,该点为非边缘点。
c.重复步骤a、b,对图像中每个像素点进行计算和判断。
1.2 初始焊接点和搜索区间约束条件
选定左目基准图像中一个待匹配焊缝边缘点记为PL(uD,vD),则右目图像中所有提取的焊缝边缘点PR(ui,vi),i=1,2,3,…,n,均有可能是对应的匹配点。为此,笔者给出一种求取视差范围的约束搜索方法,以快速获取双目立体匹配点。
首先,采用Harris算法[7]提取焊缝中具有明显特征的边缘角点,选择左图像中一个边缘角点PL(u0,v0)为初始焊接点,依据角点匹配算法[8]找到该初始焊接点在右图像中的对应点PR(u0,v0),计算出初始焊接点的双目视差值S0:
对初始焊接点PL(u0,v0)的边缘点PL(u1,v1)进行匹配时,可依据初始焊接点的双目视差对右目图像中边缘点的搜索区间进行约束。因双目视觉摄像机平行摆放,上下方向视差很小,故仅计算左右方向上的双目视差。即在初始焊接点双目视差值范围内,搜索边缘点PL(u1,v1)在右目图像中可能对应点的集合PRS(ur1,vr1),搜索区间为:
其中,v表示双目图像中像素坐标系的上下方向,u表示左右方向,vmax为给定的上下方向区间宽度。
根据立体匹配的连续性约束准则,空间物体表面连续的点在视差值上也是连续的,当得到边缘点PL(u1,v1)的视差S1后,对下一个相邻边缘点PL(u2,v2)匹配,搜索区间为:
同理,依此类推,对每个焊缝边缘点立体匹配时都可以确定一个搜索区间。通过对相邻的边缘点逐个求取搜索区间,缩小了搜索范围,提高了立体匹配的时效性。
1.3 候选匹配点集合的约束条件
1.3.1 候选匹配点的外极线信息约束
对于左目基准图像中任意焊缝边缘点PL(ui,vi),在由搜索区间确定的可能匹配点集合PRS(uri,vri)中,根据立体匹配的外极线约束准则,对右目待匹配图像进行边缘点的一次粗匹配,其候选匹配点新集合记为PRT(uri,vri):
其中,表示外极线约束,PR(uj,vj)为外极线约束条件下PRS(uri,vri)中的元素。
1.3.2 候选匹配点的相似边缘梯度信息约束
在任意焊缝边缘点PL(ui,vi)完成式(8)的粗匹配后,由式(3)、(4)求得边缘点PL(ui,vi)和集合PRT(uri,vri)中每个候选点PR(uj,vj)的梯度幅值和梯度方向,利用边缘差分强度和梯度方向相似性约束准则精简集合PRT(uri,vri)中的候选匹配点。具体算法为,左右图像中对应的匹配点具有相似的边缘梯度幅值,给定一个阈值δ,左右图像中对应的匹配点具有相似的边缘梯度方向,给定一个阈值μ,则:
根据以上约束准则就可以去除相似性较差的候选匹配点,所得到的候选匹配点新集合PRU(uri,vri)为:
其中,表示边缘差分强度和梯度方向约束,PR(uk,vk)为边缘差分强度和梯度方向相似性约束条件下PRT(uri,vri)中的元素。
经过上述信息约束匹配后,每个边缘点还是可能有多个候选匹配点,难以准确获取唯一的匹配结果。
1.4 匹配点选取的自适应窗口模型
图像立体匹配中充分利用像素点邻域的信息可减小光学畸变、投影畸变及噪声等情况的影响。然而,一幅图像中不同的像素点往往需要不同的支持窗口,关键是恰当获取邻域的支持窗口,且窗口的大小跟形状必须有较强的适应性。笔者研究了一种基于邻域增长的自适应窗口模型。
1.4.1 窗口代价函数
设同一物体在同一光照条件下的左、右图像分别为L(u,v),R(u,v)。为不失一般性,假定基线平行于u轴。定义匹配误差函数ed为:
式中d———视差值。
参照文献[9],给定窗口代价函数如下:
式中Cd———窗口代价函数;
———平均匹配误差;
Sw———窗口的大小,其值等于窗口中像素点的数量;
var(e)———匹配误差的方差;
α、β———比例系数;
γ———窗口抑制参数。
对于各个窗口代价函数用Sw进行归一化,使它们具有相互可比性。显然当视差d越接近于真实视差时,Cd的第一项和第二项的值越小。由Cd的第三项可知,当窗口越大时,其值越小,是因为大窗口包含较多的信息,然而邻域窗口过大可能导致误匹配。α、β、γ参数的值可由匹配的实验统计数据得出。
1.4.2 窗口增长策略
对于任意的焊缝边缘点PL(ui,vi),构造集合PRU(uri,vri)中候选点PR(uk,vk)的3×3最小支持窗口,由式(13)计算其支持窗口代价函数Cd,然后,进行支持窗口动态增长,根据最小代价原则,确定支持窗口的形状与大小。支持窗口的自适应增长策略如下:
a.以候选匹配点PR(uk,vk)为中心,沿u轴正负两个方向增长窗口,每增长一个像素点计算一次窗口代价函数Cd',若新的窗口代价函数Cd'与前一个窗口代价函数Cd的差值大于一定的阈值或者窗口的边界值大于设定的值则停止增长;
b.用同样的方法对v轴进行窗口动态增长,记录候选匹配点PR(uk,vk)的最终代价函数Cd(uk,vk);
c.对集合PRU(uri,vri)中每一个候选匹配点均进行以上的窗口动态增长,记录各候选匹配点最终的代价函数,组成一个集合Cd(u,v),则Cd(u,v)中取最小值的候选匹配点PR(um,vm)为焊缝边缘点PL(ui,vi)唯一正确的匹配点。
2 实验结果与分析
笔者对双目视觉下焊接图像焊缝边缘点的立体定位问题进行了匹配实验仿真。给出的实验仿真的工件图像如图2所示(注明:图2是对摄像机获取的图像进行中值滤波除噪[10],同时对边缘点坐标进行了约束,去除了图像四周的轮廓边缘点,留下待匹配的焊缝边缘点)。
为了验证算法的有效性,实验在Intel Core i5CPU、2.8GHz主频、4GB内存、Windows 2007操作系统平台下进行,采用的编程环境是Matlab R2010a。
实验中左右图像尺寸为293×445像素,自适应窗口的边界阈值设置为15×15,取α=1.2,β=1.0,γ=-2,边缘像素点坐标约束范围为40<u<253,10<v<435。
为了便于比较,同时采用文献[3]的SIFT立体匹配算法和文献[4]的SURF立体匹配算法进行了实验,3种算法匹配结果如图3所示,3种算法的匹配效果和性能统计结果见表1。
由表1可以看出,文献[3]的SIFT立体匹配算法的匹配点数最多,误匹配点数最多,匹配时间最长,匹配率较好。文献[4]的SURF立体匹配算法的匹配点数最少,误匹配点数较少,但是匹配率较差。笔者提出的基于自适应窗口的多信息立体匹配方法与上述两种方法相比,有效提高了匹配率,匹配时间较短,误匹配点数少,匹配点数较少。
3 结束语
针对双目视觉下焊接图像焊缝边缘点的立体定位问题,采用四步搜索匹配思想,给出了一种基于自适应窗口的多信息立体匹配算法。通过对3种不同的立体匹配算法进行的实验对比,证明了笔者算法的可行性与准确性,具有一定的实用价值,后续将对焊缝边缘立体匹配点三维坐标的计算和焊接臂的运动定位控制策略问题进行下一步研究。
参考文献
[1]胡汉平,朱明.基于种子点传播的快速立体匹配[J].光学精密工程,2015,23(3):887~894.
[2]Vincent T,Laganiere R.Matching Feature Points for Telerobotics[C].Haptic Virtual Environments and Their Applications,IEEE International Workshop 2002HAVE.Piscataway:IEEE,2002:13~18.
[3]Lowe D.Distinctive Image Features from Scale-Invariant Keypoints[J].International Journal of Computer Vision,2004,60(2):91~100.
[4]Bay H,Ess A,Tuytelaars T,et al.Speeded up Robust Features[C].Pro of the 9th European Conference Computer Vision.Graz,Austria:Springer-Verlag,2006:404~417.
[5]姜旭飞,邢科新,董辉,等.模具监视系统中的图像快速配准算法[J].化工自动化及仪表,2012,39(11):1468~1472.
[6]Song Z,Liu C,Wang Y Z.A Matching Algorithm Based on Local Maximum Entropy[J].Application Research of Computers,2003,20(12):18~23.
[7]Harris C,Stephens M.A Combined Corner and Edge Detector[C].Proceedings of the Fourth Alley Vision Conferece.Manchester:AVC,1988:147~151.
[8]高晶,吴育峰,吴昆,等.基于角点检测的图像匹配算法[J].仪器仪表学报,2013,34(8):1717~1722.
[9]罗三定,陈海波.基于区域增长的自适应窗口立体匹配算法[J].中南大学学报(自然科学版),2005,36(6):1042~1047.
负荷跟踪发电系统自适应控制方法 篇5
1蒸汽温度控制系统
如图1所示,由于主蒸汽过热器运行时间常数较长,过热器入口的蒸汽温度通过过热器预测热交换量, 决定过热器出口温度。过热器入口的蒸汽温度通过向入口处蒸汽中混合给水控制,最终使过热器出口的蒸汽温度值控制在规定数值内。蒸汽在高压缸中做功结束后,被送入再热器中进行下一次加热,然后作为再热蒸汽送入中 压缸中。整个过程 采用的是 常规PID控制[6,7]。
在这个运行过程中,仍存在控制过程上的问题,由于在主过热器与再热器中进行的再循环燃烧气体的热量交换,所以调节燃烧气体的再循环量可以满足控制再热蒸汽的温度要求,但这样主蒸汽的温度也会受到影响; 其次,如果改变了主过热器入口的蒸汽温度,那么在主过热器里的燃烧气体到蒸汽的热交换率就会相应受到影响,从而影响了燃烧气体的温度以及再热蒸汽。常规的控制方法对多控制量的相互影响处理效果较差,使得控制系统对负荷的跟踪效果较差。
2模型参考自适应控制系统原理
针对以上问题,提出了模型参考自适应控制系统 ( Model Reference Adaptive Control System,MRACS) 。它使得被控对象紧跟参考模型的动态特性,并可以解决主蒸汽温度多个状态影响下不断变化的问题,使得误差很快的趋近于稳定,控制效果较为理想。为了达到被控对象的控制期望从而建立了MRACS的参考模型。
如图2所示,给参考模型和被控对象分别加入相同的目标输入信号,而控制期望是由参考模型的输出结果或运行状态给出。基于以上描述,MRACS的基本工作原理为: 在控制过程运行中,被控对象的动态总是追踪参考模型的动态,并与之相统一。当两者输出状态产生误差时,系统的参数调整机构发挥作用,通过调整自身系数使被控对象的某些参数发生改变,最终尽可能的减小被控对象输出结果与参考模型运行结果的偏差。控制器参量是参量调整机构在得到ym,y和e等状态变量后,通过一定的算法获得,通过不同算法获得的参量调整机构所需的状态向量会有所不同,在收敛时,对象模型和控制律的对应关系传递函数与参考模型传递函数运行结果一致,从而实现模型跟踪,因此,当对象模型发生变化时,为了达到模型跟踪的目的,控制器参量需要实时更新[8]。
3参量调整机构的设计
MRACS的参量调整机构可由不同方法获取,如梯度法、超稳定理论、李雅普诺夫稳定理论等,无论方法如何,其结果通常是等价的。本文采用梯度法[9,10,11]推算参量调整机构。
控制器选择一个可调增益KC,定义被控对象设备的实际输出为y; 参考模型在负荷输入作用下得到的输出为ym,被控对象设备实际输出与参考模型输出的广义偏差为e。设参考模型的传递函数
被控对象设备的传递函数
广义误差
设所选性能指标为
下面建立参量调整机构,为使性能指标IPRM取到最小值,对可调增益KC做出调整。假定可调增益KC为不变的可调增益初值KC0及可变的增益部分 ΔKC表示,即
用梯度法计算参数调整机构。在以性能指标IPRM所构成的一个超曲面上进行整个搜索过程,如图3所示。假设起点为点A,其性能指标值为IPRM1,然后沿负梯度方向搜索到性能指标值为IPRM2的1点,接着搜索到2点,一直搜索到性能指标达到最小值的n点,且有IPRM> IPRM1> IPRM2> … > IPRMn。任一直面的梯度为
将式( 4) 带入式( 6) 中,可得
定义搜索步长为 λ,然后按性能指标负梯度方向搜索一个步长,KC的改变量为
将式( 7) 和式( 8) 代入式( 5) ,可得
所以当考虑到e = ym- y时,可得
式( 10) 即为调整KC的参数调整结构。其中 y /KC称为可调系统输出对可调增益KC的“敏感度函数”。 由于系统中高频干扰的存在,微分元件在构成系统时要避免使用,因此在参数调整结构中敏感度函数y/Kc也要尽量避免使用,为此要作如下变换。对于本文中并联的MRACS来说,参考模型的传递函数和被控对象设备的传递函数都已经给出。
由式( 1) 和式( 2) 得
把结果代入式
其中,μ = λ/K为常数,式( 10) 即为参数调整结构。
4仿真分析
根据以上理论分析,在Matlab中建立模型,并通过仿真验证理论的可行性。取某300 MW锅炉主蒸汽温度控制系统在负荷为30% 下测得的过热器动态特性,如表1所示,采用一阶系统作为被控对象设备的广义传递函数,并选取相同结构的参考模型传递函数,如表2所示。
输入对象采用实事负荷数据,负荷变化为210 ~ 350 MW,将建立的系统模型与传统控制方法效果进行对比。结果如图4 ~ 图8曲线所示。
由以上图可以看出:
( 1) 由图4与图5的曲线可以看出MRACS的误差变化紧跟负荷的变化,将图5放大得到图6,虽然系统有些波动,但是误差依然在0附近较为平整的变动, 并且恢复稳定时的所需时间较少,控制效果较为满意。
( 2) 将图6与图7作对比可以看出,采用MRACS后所引起的负荷误差远小于传统PID控制方法造成的误差,前者的误差范围约为0. 01且反应时间短,而后者误差范围稳定后约为5,可见MRACS对系统的负荷跟踪效果很明显。
( 3) 此外,图6与图8在600 s与1 200 s时同时动作,说明采用MRACS后,由于参量调整机构对误差的调整及控制器的制动,使得误差较快的得到调整并达到了稳定的调整效果,由此说明控制信号能够紧跟变化的误差。
5结束语
本文以主蒸汽温度控制结构为对象,采用MRACS对被控对象设备进行了研究。在设计出控制系统的参量调整机构后,通过搭建模型,用负荷实时数据作为输入对象,进行了仿真。仿真结果证明了新的控制能够得到更好的动态性能参数和控制效果,验证了所提控制方式的有效性。以此说明MRACS可以有效的跟踪负荷的变化,可以有效地改善发电设备在温度控制方面由于多干扰引起的负荷波动问题。
摘要:随着智能电网的建设,电力系统要求发电机组既能快速响应负荷变化,又能保证自身安全经济地运行。发电系统中锅炉蒸汽温度控制过程的动态特性随负荷的大小而变化,并且存在控制量和操作量产生相互干扰等问题。文中提出了一种能够进行负荷跟踪的模型参考自适应控制系统,并利用梯度法推导出可以快速调节误差的参量调整机构,以确保系统的稳定性和抗干扰性。并进行了数据仿真,其仿真结果表明,采用模型参考自适应控制系统能够得到动态性能参数和控制效果,具有一定的理论指导意义和应用前景。
自适应跟踪窗口 篇6
椒盐噪声是图像在成像、信道传输、解码等处理过程中产生的黑白相间的亮点或暗点噪声,也称为双极脉冲噪声[1],严重地影响了图像质量,对图像的边缘提取、 图像分割及识别等后续处理也会产生较大的影响。非线性滤波算法是一类有效地去除椒盐噪声的滤波算法, 其中标准中值滤波(SMF)算法是一种典型的非线性滤波方法,能够对椒盐噪声起到良好的平滑效果,同时还对图像中的一些细节起到保护作用,得到较为广泛的应用。然而,SMF算法对图像中所有像素点采取统一的处理方式,对噪声点起到平滑作用的同时,也改变了非噪声点的原像素值,使边缘和细节信息弱化或丢失,图像变得模糊[2]。当图像噪声密度达到50%以上时,滤波算法便会失效,滤波性能急剧下降。
针对标准中值滤波算法的局限性,一些改进的算法纷纷被提出,如自适应滤波算法[3]、开关中值滤波算法[4]、 Min-max滤波算法[5]、改进的极值中值滤波算法[6]、递进开关中值滤波算法[7]、方向加权中值滤波算法[8]、灰色关联度的中值滤波算法[9]、模糊中值滤波算法[10]等。这些算法在去噪的过程中较好地保持了图像的边缘和细节, 但也相应地存在着不足,如计算量大、高密度噪声去噪效果差、通用性差等。为此,提出一种新的去除椒盐噪声的滤波算法,该算法简单高效、去噪声能力强,具有较好地细节保持性能。
1 算法原理及实现
通常,受椒盐噪声污染的图像具有如下特征:
(1)图像中仅部分像素受椒盐噪声污染,且噪声点位置分布是随机的。
(2)受椒盐噪声污染的像素灰度值与邻域内未受污染的像素灰度值没有任何联系,正噪声点显示为白色,负噪声点显示为黑色。
(3)图像中正、负噪声点出现的概率相等。
针对椒盐噪声的特性,算法采用开关及窗口自适应策略。开关策略,即在去除椒盐噪声之前,对图像进行噪声点检测与标记,将图像像素点划分噪声点和信号点,滤波过程中只对噪声点进行处理,信号点保持原值不变,减少了系统开销且保护了图像边缘及细节;自适应策略,即在噪声滤除过程中,如果3×3窗口内噪声像素点数量较少时,采用窗口内信号点平滑被污染点的像素值,如果窗口内噪声点的数量较多时,则扩大窗口的尺寸至5×5,增加可用信号点的数量,以便更好地平滑噪声点,使得算法在较低密度噪声污染下及较高噪声密度污染下均取得较好的去噪性能。基于以上原则,本文算法分为两个步骤:噪声检测及噪声滤除。
1.1 噪声检测
数字图像受椒盐噪声污染后,被污染的像素点表现为黑、白亮点,对于8位的灰度图像而言,其灰度值为0或255。设矩阵[ f (i,j)] 表示噪声图像,f (i,j) 表示噪声图像在点 (i,j) 处的灰度值。本文首先对图像进行噪声点检测,如果f (i,j) 的值为0或255,则判断该点可能为椒盐噪声点,并对该点进行标记,将f (i,j) 的值置为0, 对于非噪声点不做标记,方便后续的统计和处理,设处理后的图像为 [ f ′(i,j)]。
1.2 噪声滤除
采用小窗口滤波,图像细节信息保持较好,但当噪声密度较大时,滤波性能较差;采用较大窗口进行滤波, 去噪性能较好,但细节容易模糊,结合二者的优点,本文采用窗口自适应策略进行滤波。
噪声滤除阶段,采用自适应策略,噪声密度小,即可利用的信号点充分,则采用3×3窗口中值均值滤波。当噪声密度较大时,窗口内可利用的信号点较少,则窗口扩大至5×5,增加可利用信号点,进行中值均值滤波,增强了噪声去除能力,且较好地保持了图像的边缘和细节。设输出图像为 [g′(i,j)],算法如下:
(1)对图像[ f ′(i,j)],以(i,j)为中心采用3×3滤波窗口,按照从左至右,从上至下的顺序移动窗口。如果窗口中心点像素值为0,即为标记的噪声点,然后执行步骤(2),否则,保持原值不变,输出g′(i,j)= f ′(i,j),然后移至下一点。
(2)统计窗口内像素值不为0的点的数量S,即非噪声点的数量,同时存入数组N[x],如果S小于等于2,则执行步骤(3),否则执行步骤(4)。
(3)中心点位置不变,扩大窗口尺寸至5×5,转至步骤(2)。
(4)判断S的值,如果S为奇数,则采用当前窗口内非噪声点f ′(i,j) 像素值的中值替换中心点像素值;如果S为偶数,则采用当前窗口内非噪声点像素值的均值替换中心点f ′(i,j) 像素值。输出g′(i,j),如式(1),然后转至步骤(1)。
2 实验结果与分析
本文采用标准256×256的8位灰度图像Lena作为仿真对象,在Matlab 2010仿真平台上进行编程实验,并与标准中值滤波(SFM)算法和Min-max算法进行比较。 实验中分别加入10%~90%的椒盐噪声,并使用峰值信噪比(PSNR)对图像质量进行客观评价。图1~图3分别为加入10%,50%和90%的椒盐噪声图像滤波效果对比图。表1为几种算法的PSNR值对照表。
从图1可以看出,在椒盐噪声密度较低的情况下, 标准中值滤波算法、Min-max滤波算法和本文算法的去噪效果均较好,输出图像较为清晰,没有噪声点遗留。
从图2可以看出,当椒盐噪声密度增大至50%时, 标准中值滤波算法的滤波性能急剧下降,出现大量的噪声斑块,图像质量较差;而Min-max算法虽然滤除了大部分椒盐噪声,但性能也开始下降,图像中出现少许的噪声斑块;本文算法滤除了全部噪声,图像依然清晰,而且边缘和细节保持较好。
从图3可以看出,当椒盐噪声密度达到90%时,标准中值滤波算法完全失效,图像一片模糊,原有信息皆无;Min-max算法性能急剧下降,图像中出现大量的噪声斑块,变得模糊不清,相比之下,本文算法的输出图像虽然在边缘和细节产生了一定的模糊,但仍然较为清晰,证明了本文算法在高密度椒盐噪声下具有良好的去噪性能。
PSNR值是对图像质量评价的一种常用的标准,一般来说,处理后的图像PSNR值越大,说明该图像质量越好,更接近原始图像,其定义如式(2):
式中 :M,N为数字图 像的尺寸 ;f (i, j) 为被测图 像 ; f0(i, j) 为原始图像。
表1显示的是几种算法的PSNR值。可以看出,在相同密 度的椒盐 噪声情况 下 ,本文算法 输出图像 的PSNR值最高,Min-max算法次之,标准中值滤波算法最低。更为重要的是,随着噪声密度的增大,本文算法的PSNR值下降较慢,而其他两种算法下降较快,显示出了本文算法具有稳定高效的去噪性能及较好的细节保持能力。
3 结语
自适应跟踪窗口 篇7
视觉目标跟踪算法的任务就是在各帧中持续区分出目标区域和背景区域。因此, 可以将目标跟踪问题视为一个“目标/背景”二值分类问题。然而, 在光照变化、目标形变和遮挡等复杂场景下, 基于单个视觉特征的分类器难以做到足够鲁棒。显然, 如果能够根据场景的变化, 自适应地融合多种视觉特征, 将可以有效利用各种特征的互补性, 在场景变化时获得更强的鲁棒性。多特征融合的跟踪方法已经成为目前研究的主流方向:Perez等[1]提出了一种组合颜色、运动及声音等特征的粒子滤波跟踪方法;Tiresch等[2]提出了一种基于多特征自组织的跟踪方法;王永忠[3]等提出了自适应融合颜色和纹理特征的Meanshift跟踪方法。
但是, 用于跟踪的各种不同的视觉特征并不独立, 往往存在较强的相关性。融合多个完全一致或错分区域基本近似的特征不会对分类性能有任何的帮助, 有时甚至会使融合结果距离真相越来越远。特别是当分类器数目较少时, 分类器差异性对分类器组合的准确性的影响就更加明显[4]。目前, 关于多分类器差异性度量准则, 以及基于差异性度量的分类器优化组合方法的研究被给予广泛的重视[4,5,6,7,8]。如何综合考虑特征的分类性能以及特征的差异性, 获得更优的特征选择和组合方式, 以提高算法在复杂场景下的鲁棒性, 仍然是有待深入研究的问题。
1 基于置信图融合的跟踪算法框架
本文从如何有效组合多个置信图的角度来研究目标跟踪中的多特征融合问题。目标跟踪问题可以视为一个“目标/背景”二值分类问题, 置信图以灰度等级的形式表示候选区域中每个像素对目标的置信度, 即某个特征或某组特征对“目标/背景”分类问题的判定结果。
基于置信图的Meanshift跟踪方法近期被许多研究者采用。置信图将各个像素对目标的置信度以灰度等级的形式表示, 为异类特征提供了一个进行对比、选择和融合的统一平台, 同时, 基于灰度图的跟踪也降低了算法复杂度。Collins等[9]提出了一种在线特征选择机制, 利用目标RGB颜色分量的不同线性组合构造了49种特征, 基于这些特征分别构造置信图, 以置信图的可分性为考核指标, 通过在线选择的方式, 选取区分能力最强的5种特征分别进行Meanshift跟踪。但对选中的5种特征只是进行了简单的平均, 没有加权融合。Yin等[10]改进了Collins的算法, 利用Collins提出的置信图机制, 引入了亮度、梯度方向和运动等多种特征, 并根据各特征的区分能力按不同权重生成融合的相似度图用于Meanshift跟踪, 但依然基于多种特征不相关的假设。Avidan[11]通过集成若干弱分类器得到一个强分类器来进行目标区域分类, 但在确定弱分类器的权值时也没有考虑分类器的相关性。
本文提出的基于置信图自适应融合的跟踪算法如下:首先提取当前帧的多种特征, 生成相应的置信图, 组成置信图集;同时, 以上一帧的置信图集作为学习样本, 以上一帧的目标位置作为评判依据, 学习得到特征权值, 并以之为依据进行当前帧置信图融合;最后利用Meanshift算法在融合的置信图中进行目标定位, 输出跟踪结果并更新特征权值。
2 置信图生成方法
置信图实质上是每个像素的特征值向目标置信度的映射, 可以通过对比目标区域和背景区域中特征值的分布来确定该映射关系。将目标的最小外接矩形h×w作为目标区域, 将目标周围矩形2h×2w的范围内作为背景区域。对于某种给定特征, p (i) 表示该特征在目标区域的归一化直方图, q (i) 表示该特征在背景区域的归一化直方图, 其中1≤i≤2b, 即直方图的等级数。一般而言, 对某个特定的i, p (i) /q (i) 值越大表示该特征取值对目标的置信度越大, 因此, 定义如下置信度函数:
式中, δ为防止分母为0而设置的一个接近于0的正数 (例如0.001) 。L (i) >0表示该特征值隶属于目标区域, L (i) <0表示该特征值隶属于背景区域, L (i) 接近于0表示该特征值在目标和背景区域中的分布没有显著差异。
3 自适应置信图融合
在视觉目标跟踪的实际应用中, 大多情况下都难以获得关于背景和目标的先验知识。特别是对于机动摄像平台, 背景和目标都是动态变化的, 所以需要在跟踪过程中根据特征的区分性实时调整各个特征的权值, 对于分类能力强的特征, 赋予较高的权值, 反之, 则赋予较低的权值。度量特征分类能力的方法很多, 大多基于类内方差最小化、类间方差最大化的思想, 如王永忠等[3]采用的方法, 此外还有扩展方差比 (Augmented Variance Ratio, AVR) 、信息增益 (Information Gain) 和互信息 (Mutual Information) 等[12,13]。在置信图框架下, 特征的区分性表现为置信图与真实分类结果的匹配程度。Collins等[9]提出了差异率 (Variance Ratio) 指标, 并选择差异率最大的5种特征进行跟踪;Yin等[10]继承了Collins的思想, 以归一化处理后的差异率作为置信图的权值。
上述算法均基于各个置信图不相关的假设。而实际应用中, 用于跟踪的各种视觉特征, 不论颜色、形状、纹理、运动还是其他特征, 都是通过对图像灰度进行某种映射变换得来, 往往存在一定程度的相关性, 各个特征 (置信图) 不相关的假设并不一定成立。本文放弃了此假设, 在考虑特征相关性的条件下, 提出了一种最小均方差意义下的融合权值最优化方法, 基本思想如下:对当前帧I抽取F个不同特征, 分别生成相应的置信图{L1, L2, …LF}, 采用线性加权的方式进行置信图融合:
式中, wf为置信图Lf在融合中的权值, 且满足。需要解决的问题就是如何分配权值wf, 使得融合后的置信图L最接近真实的“目标/背景”分布。采用最小均方差意义下的损失函数作为目标函数来求解wf的最优化问题。设候选区域内有N个像素, L (n) 表示融合置信图中某个像素n的取值, T (n) 表示像素n的真实分类。记损失函数LF为:
令
则损失函数LF可表示为如下二次型,
式中, C为样本离差阵, 满足Cij≥0, 且Cij=Cji。
于是, 损失函数LF最小化问题归结为以为约束条件的二次型极值问题。应用拉格朗日乘数法, 令
式中, , 函数J关于w的梯度:
求得, 带入约束条件, 求解得到。
4 算法实现与实验结果
在上述基于置信图自适应融合的跟踪算法框架的基础上, 下面给出了基于多种颜色特征进行融合跟踪的算法实现。如上所述, 基于置信图机制的算法可以为异类特征提供对比和融合的统一平台, 因此本文的算法框架对特征本身的类型并没有太多约束, 不论颜色、纹理还是运动特征, 只要能够生产相应的置信图, 都可以纳入本文的算法框架, 这里只是基于颜色特征验证算法框架的可行性。
4.1 算法实现
为了便于与相关算法进行对比, 采用与文献[9]相似的特征抽取方法, 以RGB分量的线性组合来构造特征:
由此可生成53种组合, 排除线性相关的组合 (如2R+2G+2B=2 (R+G+B) ) , 以及系数全为0的组合, 得到49种特征, 并将特征值量化到0~255。
基于置信图自适应融合的跟踪算法的基本流程如下:
①在初始帧I0中人工框定目标位置y0, 针对49种特征, 分别计算置信函数, 生成相应的置信图{L1, L2, …L49}, 应用第3节给出的算法分配特征权值, 得到融合的置信图Lobj;
②对于当前帧It, 计算置信图{L1, L2, …L49}, 利用上一帧跟踪过程获得的特征权重, 得到融合的置信图Lcandidate;
③以Lobj为目标模型, 以上一帧跟踪获得的目标位置为起始位置, 在Lcandidate中进行Meanshift跟踪, 得到目标位置估计并输出;
④将视为目标真实位置, 应用上节给出的算法分配特征权值;
⑤t=t+1, 返回步骤②。
4.2 实验结果
4.2.1 实验1
选用PETS2009测试序列中的一幅图像, 以图像中央位置的行人为跟踪对象, 如图1所示。目标处在树影夹缝中的阳光下, 周围区域光照不均匀, 存在人影和树影的干扰。
对虚线框内的所有像素进行分类实验, Collins[9]和Yin[10]的方法与本文方法分类准确率的对比如表1所示。
4.2.2 实验2
采用PETS2009测试数据集中的一段视频进行跟踪实验, 结果如图2所示。图像在视频中的顺序为左上、右上、左下、右下。跟踪过程中存在相似对象干扰、光照逐渐变暗等因素的影响, 但本文的算法一直保持了比较稳定的跟踪。
4.2.3 实验结果分析
通过上述实验可以看出, 由于本文方法采用了全局最优解, 在实验1中对人影部分具有较好的抑制, 分类准确率更高, 也就是说具备了较强的“目标/背景”分类能力。在实验2中, 随着对象干扰和光照逐渐变暗的发生, 算法能够自适应获取并调整各特征的融合权重, 使得有效特征相对无效特征获得更高的权重, 尽可能地保证了跟踪准确性和鲁棒性。
5 结束语
本文提出了一种最小均方差意义下的置信图自适应融合跟踪方法。该方法以置信图为基础, 与以往多特征融合跟踪方法不同的是, 该方法在评价特征分类能力的基础上, 通过适当的数学方法, 兼顾了特征的互补性 (或差异性) , 采用最小均方差原则进行融合, 使得特征组合总的效能达到最优, 取得了较好的跟踪效果。但该方法比现有多特征融合跟踪方法在时间复杂度上有所增加, 后续研究中将考虑进一步改进。
摘要:针对复杂背景下视觉目标跟踪的鲁棒性和准确性问题, 提出了一种最小均方差意义下的置信图自适应融合跟踪方法。将多种视觉特征统一到置信图表示框架下, 并根据各个置信图的分类能力, 以均方差最小为评价准则, 得到了融合的置信图并用于跟踪。方法兼顾了特征的分类能力及多特征之间的互补性, 有效实现了多种视觉特征的融合。实验结果表明, 相对于现有方法, 能够获得更好的鲁棒性和更高的准确度。