滤波目标数据

2024-12-05

滤波目标数据(共7篇)

滤波目标数据 篇1

1引言

空中弱小目标的检测是当前红外研究的热点和难点,当导弹﹑飞机与红外探测器的距离很远时,目标在红外图像中仅占一个或几个像素点,很难提取出目标的形状结构﹑纹理等特征,而且红外图像中绝大部分是起伏的云层和大气辐射背景,目标往往会淹没在背景当中,同时红外探测器和成像系统本身也会引入各种噪声,使得红外点目标的图像信噪比低,对比度低,更增加了弱小目标检测的难度。

鉴于点目标只有灰度信息,同时信噪比低,传统的基于目标的特征和强度信息的方法很难实现小目标的检测,因此,检测识别点目标的可用信息时除了目标本身的灰度信息外,还必须利用目标周围的灰度分布和图像中灰度起伏特征。本文利用背景像素点和目标像素点的灰度值在空间分布上与其邻域像素之间的差异,提出相似性滤波的方法来抑制背景杂波的干扰,提高图像的对比度和信噪比。同时为了降低噪声的影响,对红外图像中存在的高斯噪声和脉冲噪声分别进行处理,不但尽可能的消除了噪声的影响,还最大限度的保留了图像的边缘信息。结合Robinson Guard空域滤波方法,给出了红外点目标检测的具体实现。

2红外点目标﹑背景和噪声的特性分析

天空红外图像的背景绝大部分是云层和大气辐射,既有较亮的块状云团,面积较小的云朵,也有暗淡的大气背景。云层和大气辐射部分的像素值是平缓变化的,相邻像素点的灰度值之间具有很强的相似性。运动目标往往淹没在背景当中,仅占几个像素点,从灰度值上看,因为目标点的热辐射作用,点目标灰度值与背景灰度值之间存在很大差别,与周围邻域像素点之间的相似性很小。红外噪声主要包括热噪声﹑散粒噪声﹑1/f噪声和温度噪声等,红外噪声的分布与背景无关。

基于灰度信息的红外点目标图像模型可以描述为:

f(i,j)=fT(i,j)+fB(i,j)+fN(i,j) (1)

其中,fT(i,j)为红外图像的灰度值;fT(i,j)为点目标的灰度值;fB(i,j)为背景灰度值;fN(i,j)为噪声灰度值。点目标和噪声为图像中的灰度奇异点,属于图像的高频信息,大部分背景属于图像的低频信息。

3自适应噪声处理

天空点目标的红外图像是低信噪比的图像,为了有效的检测出点目标,必须去除图像中的噪声。传统的去除噪声方法主要有:中值滤波法﹑均值滤波法﹑形态学方法和小波方法。但这些方法往往只对某种噪声有效或严重依赖于给定的关键值。红外图像一般同时受到高斯噪声和脉冲噪声的污染,为了有效去除这两种噪声,很多自适应的方法被提出[2,3],但这些方法在去除图像噪声的同时使得图像变得模糊。图像的边缘包含很多有用的信息,在去噪的同时应尽可能的保留,因此,在上述方法的基础上进行改进:对图像中受噪声污染的像素和边缘像素进行识别,对被高斯噪声和脉冲噪声污染的像素点分别进行处理,保持边缘像素点,从而在尽可能消除噪声影响的同时保留图像的细节。

3.1像素点的区分

脉冲噪声(正脉冲噪声和负脉冲噪声)在数值上通常表现为局部极大值或极小值,但数值很大或很小的像素并不一定就是脉冲噪声点,还必须利用噪声的其他特性[4]。考虑噪声点往往是孤立点,即几个脉冲噪声点同时在一起的可能性很小,而边缘点虽然在局部也具有最大或最小特性,但边缘像素点是连续的,同时高斯噪声点集中分布在其均值左右的三倍方差范围内。利用这些特性来实现脉冲噪声﹑高斯噪声﹑边缘的分离。

设f(i,j)为图像中任意点,以像素f(i,j)为中心的邻域内全体像素点的均值为m﹑方差为σ,设max(i,j),min(i,j)分别表示邻域内像素的极大值和极小值,计算f(i,j)与均值m之间的偏差σy,表示y(i,j) 8邻域中的任意点,σy表示y(i,j)与均值m之间的偏差,则具体判别规则如下:

(1)若σf≥3σ,并且f(ij)=max(i,j)或f(ij)=min(i,j),且存在y(i,j)满足σy≤σf,则将f(i,j)判为边缘点,保留其灰度值,不对其进行去噪处理;

(2) 若σf≥3σ,且f(ij)=max(i,j)或f(ij)=min(i,j),但不存在y(i,j)满足σy≤σx,则将f(i,j)判为脉冲噪声点;

(3)将不满足(1)﹑(2)条件的点判为受高斯噪声污染的点;

对整幅图像的像素点分别进行计算,判别出图像中的像素点分别属于脉冲噪声﹑高斯噪声﹑边缘像素的类别,分别对它们进行不同的噪声处理。

3.2噪声处理

中值滤波利用当前滤波点的邻域平均值来代替当前点的灰度值,均值滤波利用邻域中值来代替当前点的灰度值,同时为减少滤波点周围噪声污染像素点对滤波效果的影响,对滤波窗口内像素点给出相对应的权值,权值随噪声类型和局部灰度变化而改变,通过改变权值控制滤波效果。如果当前像素点为高斯噪声或灰度值与局部的中值相差不大,最后的滤波器处理结果则趋近于均值滤波,如果当前像素点为脉冲噪声或灰度值和中值相差很大,最后的滤波器处理结果趋近中值滤波。通过噪声类型和局部灰度分布变化自适应得调节滤波器的参数,尽可能的利用中值和均值的滤波的良好特性。

改进的自适应滤波处理的表达式如下:

式中,med为滤波窗口内灰度中值;f(i,j)为点(i,j)灰度值;f(i+m,j+n)表示f(i,j)的滤波邻域;定义该点权值为wi,j(m,n),归一化权值为undefined;(-p,p)是滤波窗口的范围;g(i,j)为f(i,j)经过滤波后的灰度值。

4相似性滤波算法

在红外运动目标的检测中,为了消除背景的影响,提高图像的信噪比,一般采用预测背景的方法,将预测的背景fL(i,j)与原始图像作差分。自适应背景预测表达式如式(2)、(3)。wi,j(m,)为像素值的加权系数。权系数的取值由邻域像素值与窗口中心像素值绝对差的某个函数决定 即:

undefined (6)

若f(i,j)为物体内部或弱边缘,则与邻域点的灰度值相差不大,这时主要使用邻域点对其预测,需要选取较大的邻域权值wi,j(m,n)。若f(i,j)处于物体的强边缘,其邻域点灰度值与之差异显著,此时需要保留f(i,j),邻域权值wi,j(m,n)取值较小,为此ϕ可以选择单调递减函数。

将预测背景图像与原始的图像作差分,得到残差图像f'(i,j)如下式:

undefined (7)

利用邻域灰度值的加权对当前像素点进行预测不可能得到完全精确的值,预测值与原始灰度值之间存在着误差,对于整幅图像来说,各个背景像素值的误差其分布在实际处理中认为近似服从高斯分布,即后续的处理被看作是从高斯分布中寻找非高斯信号的过程。对高斯信号中非高斯信号的识别非常复杂,而且由于背景预测的影响使得点目标的非高斯特性不明显。同时采用预测背景的方法不但要计算各个邻域点的加权系数,还要将各个邻域点的灰度值与权系数相乘并计算累加和,计算非常耗时,不利于红外点目标在实际中的应用。为此,在背景预测基础上提出一种相似性滤波方法。

相似性滤波是基于红外天空图像的像素分布特点而提出的。若当前像素点属于背景像素时,因为背景平缓变化,相邻像素值之间具有很强的相似性,则当前像素与它的邻域像素点之间的平均相似性很大;若当前点为点目标像素,目标像素点因辐射作用,灰度值与周围像素点存在一定差异,与邻域像素点的平均相似性很小;若当前像素为背景的边缘,该点与邻域部分像素存在较大差别,则平均相似性介于点目标与背景之间。通过像素点之间平均相似性的评价,把图像中所有或明或暗的云层和暗淡的大气辐射背景都统一转化为平均相似性接近的区域,通过平均相似性取反值,背景区域的像素值趋近零,突出相似性小的点目标,而边缘部分的相似性介于两者之间,实现了背景﹑点目标﹑云层边缘的分离。相似性滤波的表达如下:

undefined (8)

undefined (9)

undefined (10)

其中,s(i,j)为当前滤波点s(i,j)的平均相似值;undefined为平均相似性的反值;k为邻域像素个数;(Δi,Δj)表示邻域大小,一般根据目标的大小选择合适的矩形区域;s(i+Δi,j+Δj)为邻域点f(i+Δi,j+Δj)与当前点f(i,j)的相似性;σ用于调节函数的衰减速度。

相似性滤波抑制了占图像中绝大部分的背景杂波,同时增强了待识别的点目标信息,保留了图像中的边缘细节,使得整幅图像的对比度和信噪比得到大大提高,即使点目标在原图像中的灰度值与部分背景灰度值差别不大也能够在图像中得到明显体现。相似性滤波后的背景部分不再是近似高斯分布的噪声,而是仍然满足平缓变化的区域,在减少大量计算量的同时,使得后续的点目标识别变得简单。

5点目标检测算法的实现

红外图像中噪声对点目标检测识别的影响很大,在进行相似性滤波之前,对原始图像进行去噪处理消除噪声尤其是高斯噪声的干扰,然后对图像进行相似性滤波,达到抑制背景的同时增强点目标,分离边缘云层,提高整幅图像的对比度和信噪比,为得到点目标,结合Robinson Guard 空间滤波算法进一步消除平缓变化的背景﹑背景边缘的影响。

6仿真试验与结果分析

6.1仿真试验

图1~图4为两组天空红外弱小点目标的仿真图像,其中图1为原始图像,对它分别进行处自适应去噪处理和相似性滤波操作,图2为相似性滤波后的图像,图2中云层和大气辐射背景被极大的抑制了,同时云层的边缘被很好的保留,不明显的点目标被极大增强了。利用Robinson Guard对图像进一步处理,如图4为最后检测的结果。

图1中,点目标并不明显,点目标的灰度值低于部分背景像素的灰度值,背景并不是均匀分布的,认为点目标与背景的灰度值具有极大差异,如基于局部能量比[5],图像熵[6],分形维数[7]和蚁群的Otsu[8]方法等都不能够很好的实现目标的检测。图3分别为原始图像与预测背景图像作差分后的残差图像(为便于直观显示,对整幅残差图像的灰度值进行了线性调整),图像中的背景部分经过抑制后仍然存在大量的杂波,这是由于预测的不准确造成的,部分杂波灰度值接近点目标灰度值,点目标难于利用简单有效的方法识别出来。图2采用相似性滤波的方法能够将明亮的云层和暗淡的大气辐射背景都转化为平缓分布的暗淡区域,其大部分像素趋近于零值,图像中点目标虽然与部分背景灰度值接近,但滤波后却被增强了,同时滤波后很好的保留了背景的边缘变化,图像的信噪比和对比度获得极大的提高。平缓背景的高信噪比和高对比度图像中目标的检测很容易实现。

6.2结果分析

采用自适应噪声处理和相似性滤波的方法能够有效地提高图像中信噪比和对比度,抑制图像中对点目标检测造成干扰的大量背景杂波信息,结合Robinson Guard滤波方法能够有效的实现点目标的检测。

算法的实现是建立在原始图像的背景分布比较平缓的条件下,若背景的变化特别剧烈,则相邻像素点之间的相似性很小,易于突出变化激烈的背景像素,造成点目标在相似滤波后仍然受到的背景杂波的干扰,相似性滤波对图像质量的提高能力有限;当点目标很小时,噪声斑块的大小和灰度值可能接近点目标,相似性滤波会引起部分噪声点的增强,因此必须对噪声进行有效地的预处理;相似性滤波窗口的大小要选择适当,过小时,使得当前像素点被误判为背景像素点,目标点有可能出现空洞甚至丢失现象,过大时,计算耗时。

摘要:针对天空红外图像的特点,利用背景像素点和目标像素点的灰度值在空间分布上与其邻域像素灰度值之间的差异,提出相似性滤波的方法,相似性滤波的方法,算法简单,图像中的背景干扰能够被极大抑制,图像中点目标的对比度和图像的信噪比被显著提高。为减小噪声影响,一种自适应的噪声处理方法被给出,它对图像中的高斯噪声和脉冲噪声分别处理,在提高去噪效果的同时保留了图像的边缘信息。仿真结果表明提出的算法对红外点目标的背景具有极好的抑制能力。

关键词:红外点目标,自适应噪声处理,相似性滤波

参考文献

[1]郭杰峰,陈桂林.云天背景下单帧红外图像的点目标检测.激光与红外,2007,37(9):898~891

[2]Tudan,Yanhong,Zhenkang Shen.A New Nonlinear Preprocessing Algorithm for Infrared Image.IEEE,1997.

[3]曹西征,郭立红.基于相似加权滤波的红外图像增强算法.计算机测量与控制,2007,15(4):534~537

[4]何洪英,姚建刚,罗真生.红外图像的自适应混合消噪方法.计算机工程与应用,2006,6:7~9

[5]林玉野,高晓颖,曹炬.基于局部能量比的空中红外弱小目标的检测方法.航天控制,2007,25(5):48~50

[6]赵钦佩,姚莉秀,刘瑞明等.一种新的基于背景的红外图像分割方法.计算机仿真,2007,24(5):202~205

[7]卢晓东,周军,周凤岐.自然背景下对人造红外目标的分形检测.航空兵器,2006(12):31~33

[8]王爽,黄友锐,李冬.基于蚁群算法的改进Otsu理论的图像多阈值分割.微计算机应用,2008,29(4):25~28

滤波目标数据 篇2

但是粒子滤波在迭代过程中会发生粒子退化,Doucet等人提出选用“好的”重要概率密度函数来解决粒子退化问题[5]。常用的方法是采用扩展卡尔曼滤波(extended kalman filter,EKF)、无迹卡尔曼滤波(unscented kalman filter,UKF)及容积卡尔曼滤波(cubature kalman filter,CKF)来重新设计重要性密度函数,由此得到扩展粒子滤波(extended particle filter,EPF)、无迹粒子滤波(unscented particle filter,UPF)及容积粒子滤波(cubature particle filter,CPF)算法。文献[6]中结合EKF提出EPF算法,但是EKF算法本身在处理非线性问题时,是依靠泰勒展开来近似线性化,精度上的偏差较大,容易发散,且计算复杂,在强非线性系统中应用较少[7]。文献[8]中提出了在闪烁噪声下使用UPF算法对系统进行滤波,其利用的UKF算法需要选取2n+1个sigma点计算系统的均值及方差,对参数设计要求较高,且在系统状态超过三维时容易出现发散[9,10,11]。由Arasaratnam等提出的CKF算法[12],它利用2n个等权值容积点代替复杂积分运算,且不用调整滤波参数,较UKF有着更高的精度与稳定性。

本文在闪烁噪声环境下,利用CKF设计粒子滤波的重要性密度函数[13],给出了CPF算法的简要过程,仿真验证了CPF算法的跟踪性能,并与PF和UPF算法作比较。

1 闪烁噪声

闪烁噪声是目标跟踪中一种典型的非高斯量测噪声。雷达跟踪目标时,由于复杂目标不同部位相对于雷达散射强度和相位的随机变化,引起回波波前面畸变产生的测量误差被称为闪烁噪声。闪烁噪声最显著的特点是长拖尾[14],中心部分则近似于高斯分布,如图1所示。远而小的目标发生的闪烁通常可以不考虑,但当跟踪大目标且距离又比较近时,闪烁噪声对跟踪效果有很大影响。

描述拖尾分布的数学分布通常有t分布、均匀分布、大方差高斯分布和拉普拉斯分布等。而描述闪烁噪声用的较多的方法是高斯分布和拉氏分布的合成,其密度函数表达式为

式(1)中ε∈[0,1]为闪烁概率,fg(x),fl(x)分布分别表示高斯分布和拉氏分布的密度函数。

2 标准粒子滤波算法

非线性离散系统表示如下:

式(2)中xk为k时刻状态向量,zk为量测向量,f(·)为状态函数,h(·)为量测函数,Qk-1和Rk分别为独立分布的系统噪声和量测噪声方差矩阵。

标准粒子滤波的算法流程如下。

Step1:k=0,由先验概率p(x0)进行随机采样,得到等权值粒子集{xi0}Ni=1。

Step2:在k时刻,更新粒子权值:

归一化:

状态变量和协方差估值为

Step3:重采样得到新的粒子集合。

Step4:经过状态方程f传播得到新的粒子xik+1/k。

Step5:另k=k+1,转到Step2。

传统的粒子滤波在滤波过程中没有使用含有最新量测信息的数据,产生了很大的权重方差,不能较好地逼近后验概率[15]。

3 容积粒子滤波算法

利用CKF算法重新设计粒子滤波的重要性密度函数,即得到CPF算法,其具体流程如下。

Step1:设粒子数为N,通过先验分布p(x0)采集粒子样本,得到初始粒子集{x0i,i=1,2,…,N}。初始粒子集的状态和协方差为

Step2:使用CKF更新每个粒子,设系统状态维数为n。

时间更新:

量测更新:

Step3:采样:

更新粒子权值并归一化:

Step4:采用MCMC方法重采样。获得一组等权值粒子集。

Step5:计算状态变量和协方差矩阵的估值。

4 仿真分析

设雷达处于坐标原点,目标在平面内做匀速转弯(CT)运动,状态方程为

式(26)中状态变量xk=[xk,vxk,yk,vyk],Φ为状态转移矩阵,Γ为状态噪声驱动阵,Wk-1为状态噪声,其方差为Q=diag(2,2)。设目标观测方程为

式(27)中

式(28)中rk为斜距,θk为方位角,Vk为观测噪声,斜距的观测噪声为闪烁噪声,闪烁概率ε取0.05。方位角观测噪声是高斯噪声,其均值为零,标准差为0.02 rad。采样粒子数为100,采样间隔T=1 s,仿真时间为100 s。给定初始状态x0=[500,100,1 000,5]T,初始协方差矩阵P0|0=diag(10,0.1,10,0.1),用PF,UPF与CPF进行对比仿真。

匀速转弯模型的状态转移矩阵为

。进行100次蒙特卡洛仿真,仿真结果如图2、图3、表1。

具体运算结果如表1所示。

(1)从图2、图3及表1看出,在闪烁噪声干扰下,PF算法的跟踪效果随时间推移逐渐变差,甚至可能出现发散情况;而UPF和CPF算法则保持了良好的跟踪性能,原因是UPF和CPF重新设计了重要性密度函数,包含了最新的量测信息,因此跟踪效果较好。

(2)从运行时间上看,CPF算法实时性比UPF好,用时仅是UPF算法的1/2左右。这是由于在进行非线性函数传播时,UKF算法需要选择2n+1个sigma点,CKF算法只需要2n个容积点。

(3)根据表中的数据可以看出CPF的跟踪误差约等于PF和UPF的1/5和1/2,这是因为在设计重要性密度函数时,UKF算法对参数设定要求高,选择不当会引起自协方差非正定,致使滤波性能下降。

5 结束语

本文针对非线性非高斯闪烁噪声下的目标跟踪问题,首先建立了闪烁噪声的数学模型;其次介绍了传统的粒子滤波,并指出其不足之处;然后利用CKF算法重新设计了重要性密度函数得到CPF算法;最后在闪烁噪声下检验CPF算法性能,并与PF及UPF算法作对比,仿真结果表明,在闪烁噪声下,CPF算法较PF和UPF算法有着更好的跟踪精度与稳定性,且相比于UPF算法实时性有所提高。

摘要:针对闪烁噪声下非线性非高斯系统的目标跟踪问题,首先建立了闪烁噪声的数学模型;然后分析了传统粒子滤波算法的优劣点,在此基础上,引入容积卡尔曼滤波算法,重新设计粒子滤波的重要性密度函数,提出用容积粒子滤波算法来跟踪目标。最后进行了仿真分析与对比。仿真结果表明,闪烁噪声条件下,容积粒子滤波算法的跟踪误差分别是传统粒子滤波算法和无迹粒子滤波算法的1/5和1/2,有更高的跟踪精度;而运行时间仅是无迹粒子滤波算法的1/2,且跟踪稳定性更好。

滤波目标数据 篇3

视频目标跟踪是计算机视觉领域的一个核心问题,在武器制导、视频监控、机器人视觉导航、人机交互,以及医疗诊断等许多方面有着广阔的应用前景。视频目标跟踪的研究目的是模拟人类视觉运动感知功能,赋予机器辨识序列图像中运动目标的能力,为视频分析和理解提供重要的数据依据。多年来,人们对视频目标跟踪进行了大量的研究,并取得了一些重要的研究成果,形成了两大类以均值移位算法为代表的目标描述与定位跟踪技术[1]和以粒子滤波为代表的滤波和数据关联跟踪技术[2]。滤波和数据关联的目标跟踪技术,将跟踪看作是状态空间中离散动态系统建模与状态估计问题,视频目标被看作随时间演化的动态过程方程指定的状态序列,目标跟踪就是根据直到某时刻的所有测量来估计目标状态[3,4]。

粒子滤波因其能够处理非线性、非高斯噪声问题及具有多假设的特性,被广泛地应用于视觉目标跟踪领域[5,6]。但是由于粒子滤波算法本身具有粒子退化和粒子多样性丧失等固有缺陷,所以在一般的粒子滤波跟踪算法中往往需要大量的粒子以确保准确逼近后验概率分布,同时需要采用重采样技术以改进粒子的多样性[7,8]。本文提出的视频序列图像目标跟踪算法,将遗传进化思想引入到传统的粒子滤波中,使粒子能有效地分布到后验概率的局部模式上,并且隐含重采样,从而可以较少的粒子(个体)通过遗传操作算子不断迭代,来维持粒子集的多模式,进而消除粒子退化问题。

1 粒子滤波

近年来,为了更好地处理视觉跟踪中的非线性、非高斯的动态系统状态估计问题,人们将粒子滤波(Particle Filter)算法应用到计算机视觉领域。它以Monte Carlo随机模拟理论为基础,用一组加权随机采样{xki,wki}i=1N表示系统状态后验概率分布p(Xk|Z1:k)。

视觉目标跟踪的一般描述为:利用一组视频序列图像观测数据,估计目标在特定时刻的状态,等效为求目标状态后验概率分布函数。假定目标状态演化是马尔科夫过程p(Xk|Xk-1)且观测值{z1,z2,…,zk}相互独立,给定状态转移先验概率p(Xk|Xk-1)和观测似然函数p(Xk|Z1:k),根据贝叶斯理论可以求得后验概率分布:

通常式(1)表示的状态后验概率很难得到其解析解,所以人们提出采用提议分布q(Xk|Xk-1,Z1:k)近似后验分布,从中采样得到一组粒子(样本),并通过加权和的形式逼近状态后验概率分布。粒子重要性权值迭代更新如下:

后验分布p(Xk|Z1:k)可以近似为

2 基于遗传进化策略的粒子滤波跟踪算法

2.1 目标状态空间描述

视觉目标跟踪中,被跟踪的目标一般限定于规则的几何形状(如长方形、圆形)中,被跟踪的目标通常表示为矩形r=(x,y,w,h),其中(x,y)表示图像中目标中心的位置,(w,h)表示目标(矩形)的长和宽。因此,上述四个参数可作为目标状态矢量,以自适应随机游走模型描述文中目标状态演化过程,即:

其中:表示k时刻第i粒子的状态矢量,是k-1时刻的随机变量,β(⋅)是随遗传代数(generation)单调减函数。

给定k时刻目标模板图像和粒子i的状态矢量rki,定义该时刻第i粒子的测量(观测)值

其中是rki确定的候选目标区域与目标模板之间的MAD(Mean Absolute Difference)距离,该距离值越小,表明目标候选区域与目标模板匹配越好,该候选区域是目标区域的可能性越大;反之,该候选区域是目标区域的可能性越小。

2.2 遗传进化粒子滤波跟踪算法

遗传算法是一种随机优化方法,所求问题的解,通过染色体迭代执行选择和遗传操作进化得到。在每次更新时,所有的粒子作为遗传操作的初始种群。遗传迭代操作实现了迭代搜索次优模式和隐含地迭代重采样。迭代搜索次优模式可以使新粒子重新分布到后验概率的局部模式,从而产生对后验概率的准确局部表达。粒子被重新分配到它们的局部模式后,可以只采用较少的粒子来维持粒子滤波的多模式。本文提出的遗传进化粒子滤波的主要动机是在每一帧图像中根据粒子滤波的基本思路,采用一组加权粒子{rki,wki}i=1N描述目标在图像平面内的后验分布,通过遗传进化机制对粒子rki进行遗传操作,选择性态优良(MAD距离小于特定阈值)的个体,对性态较差(未选中)的粒子进行交叉、变异操作然后依据设定的评价函数获得一组优秀粒子以准确逼近目标状态后验分布。

选取固定大小的种群P⊃{r ki,i=1…N},以候选目标区域与模板之间的MAD距离z(rki)作为评价函数,参照一般的遗传算法思想,首先选择出初始种群内(定义其中个体为rki,old)的优良个体,选择的标准为评价函数小于特定阈值,并将其作为新生种群(个体为rki,new)的一部分;其次对未选中的个体随机抽取两个作为父母进行交叉产生子女;最后为丰富种群的多样性以小概率对未选中的个体进行变异操作产生变异后的个体,并把遗传变异产生的新个体重组为新的种群。三种遗传操作(选择、交叉、变异)的详细过程如下:

1)选择算子Φs:在当前种群中选择优良个体作为新一代种群的新个体,对于给定粒子rki,old∈Rk由映射Φs:Rk→ℜs,k且ℜs,k⊂Rk,定义为ℜs,k的补集,全集为Rk=P。选择本代优良个体rki,new∈ℜs,k。假定选择的满意粒子数为Ns。

其中τ是预定阈值,可根据当前种群中个体的观测值,以一定的概率ps(Ns/N)进行选择。

2)交叉算子cΦ:对未选中的个体进行排序并编号,产生1~(N-Ns)之间两个随机数iA,iB取出对应的两个体将其作为父母,以概率pc交叉产生子女,其中。若则接受,否则重复上面过程,循环直到产生Nc个新的个体。

3)变异算子Φm:同交叉算子一样,对未选中的个体以变异概率pm产生新生个体其中,若则接受否则重复该过程直到产生Nm=N-Ns-Nc个新生个体。

在每一帧图像中,初始种群P中的个体{rki,i=1…N}经过选择、交叉、变异后得到了新生种群,而新生个体i的归一化权值可由MAD距离按式(7)、(8)计算得到。

从而得到状态后验分布的预测形式为

2.3 目标模板更新策略

采用固定模板不能较好的处理跟踪过程中由于目标运动或姿态变化所引起的目标表观变化。实际中需要对目标模板进行自适应更新,以更准确地表征目标。本文采用了多模板自适应更新策略,跟踪过程中根据输入帧的跟踪结果对模板进行动态更新。设计含有M个目标模板的模板库,并以库中模板的平均值作为当前模板。在每帧图像中,将与目标模板最匹配的目标候选区域I(rk*i)(其中)添加到模板,库同时删除最早存入的目标模板,从而实现目标自适应更新。本文提出的视觉跟踪算法如下:

输入:每帧图像中目标状态初始种群{rki,wki}i=1N和目标模板;输出:目标在图像中的最优状态估计

1)初始化。

按式(4)设定当前帧(第k帧)N个目标候选区域为初始种群{rk,0i,wk,0i}i=1N,目标模板,选择概率ps遗传变异概率pc,pm,遗传进化终止条件参数ε。

2)似然计算。

按式(5)计算当前初始种群中个体形成的目标候选区域与当前模板的MAD距离z(rki)。

3)遗传操作。

首先根据step2的计算结果以概率ps选择Ns个优良个体,然后对未选中的个体分别以概率pc,pm依照文中的交叉,变异算子不断迭代产生优良子代,同时按式(5),式(7),式(8),式(9)计算出新生个体的适应度权值及本代个体确定的目标状态估计,其中,终止条件为件为

4)模板更新。

从当前所有的优良个体中搜索得到最优粒子(个体)形成的候选模板I(rk*i)(其中),添加到模板库同时删除最早的模板始终保持M不变,求均值得到更新后的新模板作为k+1帧的目标模板,返回2)处理第k+1帧图像。

3 实验结果与分析

本实验采用的图像序列是在实验室环境下,通过laptop自带的VGA Video Camera拍摄的。视频中被跟踪的目标是运动的人手,视频中手在图像平面中作无规则的随机游走运动,实验时设定粒子数Ns=100,ps=pc=0.5,pm=0.05函数β(⋅)取反比函数且β(0)=1,进化终止参数ε=0.2,模板数量M=3。跟踪开始前的初始化模板是通过手动选择三个目标区域完成的,随后启动跟踪算法获得的跟踪结果如图1所示。

实验中考虑到计算效率,我们取目标矩形尺寸大小恒定,所以状态变量只包含了目标的位置信息。若选取更多的状态变量(如目标区域的宽和高等),虽然从算法本身来说,不会有太多的难度,但是在实现跟踪时速度将变得比较缓慢。跟踪过程中手中握着手机不断地变换着姿势,再加上人的身体不断的晃动引起目标亮度的变化,都给跟踪带来一定的难度,但是从实验的结果来看,在每帧图像中,本文提出的算法都给出了满意的跟踪结果。图1(b)给出了本文算法对第45帧图像中目标的最终跟踪结果,图1(e)给出了第45帧图像跟踪中每个粒子重要性权重的分布,从中可以清楚地发现距离目标中心位置越近的粒子具有越大的权重。图1(c)给出了采用本文提出的算法跟踪在第50帧中的跟踪效果,其中蓝色星号(*密集的粒子集合)表示本帧图像中各个粒子(Ns个粒子)的状态,绿色星号加Pos(*-Pos)所指示的位置是本文提出的基于遗传进化粒子滤波算法的最终跟踪结果(所有粒子加权和)。图1(d)给出了传统粒子滤波算法在第50帧时粒子的分布(Ns个粒子蓝色星号表示的粒子集)与最终的跟踪结果(*-Pos)。实验中我们保持粒子数不变,在第50帧图像中分别采用本文提出的跟踪算法和传统的粒子滤波算法,虽然从运算时间来看,本文提出的算法运算时间相比传统粒子滤波算法较长,但是从图1(c)和(d)可明显地看到本文提出的跟踪算法准确地实现了目标跟踪而传统的粒子滤波算法却存在较大的跟踪误差。由此可见,在粒子滤波算法中嵌入遗传进化操作通过不断迭代改善粒子的性态进而获得次优粒子,之后以次优粒子和恰当的权值准确地逼近了目标在图像中的真实位置,给出了目标状态的最优估计,有效减小了跟踪中由于粒子贫化和退化引起的跟踪误差,而传统粒子滤波没有对粒子进行优化处理,所以在逼近目标状态时引入了较大误差。

4 结论

为克服传统粒子滤波跟踪算法自身的不足,本文提出的基于遗传进化策略的粒子滤波技术,以较少的粒子,利用遗传进化策略,通过选择、交叉、变异算子迭代选择次优粒子使这些优良粒子尽可能准确地分布到后验模态上,从而有效地解决了粒子的退化问题。同时考虑到跟踪过程中,目标受光照、姿态变化等影响采用了多模板自适应更新策略以保证跟踪的鲁棒性,实时视频序列实验表明,本文提出的跟踪算法能准确跟踪室内环境下的运动目标,并对目标运动过程中的姿态、光照变化具有良好的鲁棒性。

参考文献

[1]Dorin Comaniciu,Visvanathan Ramesh,Peter Meer.Kernel-based object tracking[J].IEEE Trans.Pattern Anal.Mach.Intell(S0162-8828),2003,25(5):564-577.

[2]Michael Isard,Andrew Blake.CONDENSATION Conditional Density Propagation for Visual Tracking[J].International Journal of Computer Vision(S0920-5691),1998,29(1):5-28.

[3]Fatih Porikli,Oncel Tuzel.Multi-kernel object tracking[C]//IEEE International Conference on Multimedia and Expo,Amsterdam,Netherlands,July6,2005:1234-1237.

[4]LI Pei-hua,ZHANG Tian-wen.Visual Contour Tracking based on Particle Filters[J].Image and Vision Computing(S0262-8856),2003,21:111-123.

[5]Cody Kwok,Dieter Fox,Marina Meil.Adaptive Real-Time Particle Filter for Robot Localization[C]//Proceedings of Robotics and Automation,Taipei,Taiwan,Sept14-19,2003,2:2836-2841.

[6]Shan Caifeng,Wei Yucheng,Tan Tieniu.Real-time hand tracking using a mean shift embedded particle filter[J].Pattern Recognition(S0031-3203),2007,40:1958-1970.

[7]Paul Brasnett,Lyudmila Mihaylova,Nishan Canagarajah,et al.Particle Filtering with Multiple Cues for Object Tracking in Video Sequences[J].Proc.of SPIE(S0277-786X),2005,5685:430-441.

滤波目标数据 篇4

红外目标跟踪的主要目的是对红外图像序列中的运动目标进行有效识别和跟踪, 获得红外运动目标的运动参数, 在红外制导等军事应用中具有重要的作用。现有的跟踪算法大多数假定红外目标的表观并不随时间推进而变化, 因此当图像序列中存在目标姿态变化、外观变形、光照变化、摄像机运动以及遮挡等情况时, 跟踪算法容易失效, 进而丢失目标, 导致跟踪失败[1]。此外, 在跟踪过程中, 目标的尺寸大小为计算弹目距离提供了有力依据, 但在大多数FLIR跟踪算法中往往对其不作考虑, 一定程度上还是由于缺乏鲁棒可信的目标表观模型。因此, 建立自适应的鲁棒目标表观模型[2,3,4]显得尤为必要。本文提出了一种基于在线增量学习和粒子滤波的红外滤波跟踪方法。通过对图像特征空间的基向量进行有效而准确的更新, 实现了对红外目标的鲁棒表示。在建立该自适应目标表观模型的基础上, 利用粒子滤波实现了对目标的有效预测与跟踪。

1增量学习算法

红外目标跟踪的目的是在连续的序列图像中, “寻找”至少在相邻2帧图像之间具有一致性的特征不变量, 即红外目标。目标表示实际上就是计算机视觉与模式识别中的特征抽取和选择问题, 而目标的定位则是一个匹配问题。其中, 代数特征作为图像的本质特征, 由各种代数变换和距阵分解抽取得到。奇异值分解 (SVD) [5]由于其特征向量所具有的优良特性如稳定性、转置不变性、旋转不变性、位移不变性以及镜像变换不变性等, 因此在图像处理和识别中得到了广泛的应用, 成为代数特征抽取方法中最具代表性的一种, 其定义如下。

若距阵ARm×n, 则存在正交距阵URm×m, VRn×n, 使得:A=UVT成立。其中∑=diag (σ1, σ2, …, σt) , t=min (m, n) 。对角阵∑中的元素为距阵A的奇异值。

本文选取图像的特征空间作为目标表观模型, 一般来说需要对训练图像集合{I1, I2, …, Ip}进行线下学习得到。其中, Ι¯=1pi=1pΙi是训练图像集合的样本均值, 而特征向量U可通过对距阵[ (Ι1-Ι¯) (Ιp-Ι¯) ]进行奇异值分解得到。

为建立自适应的目标表观模型, 需要建立一种有效的在线学习更新机制, 当获取到后续的图像序列{Ip+1, …, Ip+m}时, 对图像的特征空间进行重新训练。也就是说, 需要对矩阵[ (Ι1-Ι¯) (Ιp+m-Ι¯]进行奇异值分解, 得到U′∑C′T。由于存储量和计算量的限制, 本文采用一种序贯Karhunen Loeve变换 (SKL) 方法来进行奇异值分解。

将图像序列中的大小为n×m的图像处理成一个n×m维的列向量。假定图像集合距阵为A={I1, I2, …, Ip}, 其中每列Ii即为一副图像。首先对该距阵进行奇异值分解, A=UVT。当得到q列的距阵B时, 需要对AB进行整体的分解, 即[A|B]=U′∑V′T。设B˜为距阵B的正交阵, 则可得:

[AB]=[UB˜][UΤB0B˜ΤB][VΤ00Ι]

。 (1)

R=[UΤB0B˜ΤB]

, 对其进行奇异值分解, 得R=U˜V˜Τ, 则

[AB]= ([UB˜]U˜) ([VΤ00?Ι])

。 (2)

增量PCA算法的重点在于计算U′、∑′和V′, 总结起来, 相应的SKL增量学习算法步骤如下所示。

步骤1:[UB]对进行QR分解:[UB˜]R=[UB], 求得B˜

R;

步骤2:对R进行奇异值分解, R=U˜V˜Τ;

步骤3:计算U=[UB˜]U˜, ´=

2粒子滤波跟踪算法

2.1粒子滤波

粒子滤波 (Particle Filter) [6]通过非参数化的蒙特卡罗模拟方法来实现递推贝叶斯滤波, 可以更好地处理非线性和非高斯情况下的动态系统状态估计问题。其主要思想是利用一系列随机抽取的样本以及样本的权重来计算状态的后验概率分布。当样本数量足够多时, 则可近似于真实的后验概率分布, 从而得到无限接近最优解的估测结果。

假定{x0ti, wti|i=1, …, N}是对后验概率分布p{x0∶t|z1∶t}的随机采样集合, 其中, {x0ti|i=1, …, N}是采样点集合 (也就是粒子集合) , {wti|i=1, …, N}则是与粒子相对应的权重集合, 并满足条件i=1Νwti=1。此时, 后验概率分布p (x0∶t|z1∶t) 可以用该粒子集合近似表示为:

p (x0t|z1t) i=1Νwtiδ (x0t-x0ti) 。 (3)

直接从后验分布中进行采样是比较困难的。假定存在π (x) , 使得p (x) ∝π (x) , 则可从π (x) 中进行取样。xi-q (x) 表示从重要性密度q (·) 中得到的采样。则p (·) 可表示为:

p (x) i=1Νwiδ (x-xi) 。 (4)

式中, wiπ (xi) q (xi) 是第i个采样的权重。根据贝叶斯理论, 可以很容易地对系统状态进行估计。权重更新的方程可以简化为:

wtiwt-1ip (zt|xti) p (xti|xt-1i) q (xti|xt-1i, zt) 。 (5)

t时刻的后验概率则可以近似写成:

p (xt|z1t) i=1Νwtiδ (xt-xti) 。 (6)

通过不断接受数据来递归传递粒子和更新其权重, 粒子滤波不断对后验概率分布进行更新。

2.2跟踪算法

在红外目标的动态跟踪过程中, 首先建立自适应的红外目标表观模型, 为充分利用目标运动的连续性和前后2帧图像之间的相关性, 采用粒子滤波算法对目标进行有效预测。整个跟踪算法的步骤如下。

步骤1:目标初始化, 在第一帧图像中选定目标;

步骤2:初始化特征空间U为空, 样本均值μ为初始目标的表观;

步骤3:获取下一帧图像。根据运动模型进行粒子采样;

步骤4:对每一个粒子选定相应的图像窗口, 根据观测模型计算粒子权值;

步骤5:存储具有最大相似度的粒子。进行增量学习, 更新特征空间, 均值, 以及观测量的数目。转至步骤3。

3实验结果及分析

为了验证本文提出算法的有效性, 采用红外图像序列进行跟踪实验。实验在Pentium IV 3.0 GHZ、内存1 G的PC机上采用MATLAB 7.0软件实现。红外目标的初始化通过在图像序列的第一帧上进行手动选定。

在跟踪过程中, 当目标的姿态发生变化以及摄像机运动所引起的伸缩、旋转时, 通过增量学习算法所建立的红外目标模型具有较强的鲁棒性, 可以对目标进行有效准确的描述。由于采用在线更新机制对特征空间及样本均值进行更新, 大大减少了标准奇异值分解所需的存储量和计算量, 算法的实时性得以保证。与此同时, 采用粒子滤波算法对目标坐标进行预测, 有效提高了算法的跟踪性能。实验中目标的坐标与其真实值基本相同。实验结果表明, 本文提出的红外目标跟踪方法对红外序列图像中的目标跟踪是有效的和稳健的。

4结束语

本文提出了一种基于在线增量学习的粒子滤波红外目标跟踪方法。在红外目标跟踪中, 采用特征空间来描述红外目标。通过在线特征选择机制, 对图像特征空间进行有效的奇异值分解, 建立了鲁棒的目标表观模型, 减少了标准奇异值分解所需的存储量和计算量。结合所建立的鲁棒目标模型, 采用粒子滤波算法对目标状态进行准确预测, 实现了序列图像中红外目标的有效跟踪。实验证明了该方法的有效性和鲁棒性。如何提高滤波算法的性能是下一步研究工作的重点。

摘要:针对红外图像序列中目标与背景的对比度低、灰度特征易受噪声影响等特点, 提出了一种基于增量学习目标表观模型和粒子滤波的红外目标跟踪方法。通过在线学习机制, 利用增量奇异值分解算法对图像特征空间的基向量进行准确更新, 从而建立红外目标的鲁棒表观模型。在此基础上, 采用粒子滤波对目标状态进行有效预测, 实现了红外目标的有效跟踪。实验结果表明, 该方法能有效、准确地跟踪红外图像序列中的运动目标。

关键词:增量学习,奇异值分解,粒子滤波,目标跟踪

参考文献

[1]ROSS D A, LIMJ, LIN R S.Incremental Learning for Robust Visual Tracking[J].International Journal of Computer Vision, 2008 (77) :125-141.

[2]COLLINS T R, LIU Y.Online Selection of Discriminative Tracking Features[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27 (10) :1631-1643.

[3]王建宇, 陈熙霖, 高文.背景变化鲁棒的自适应视觉跟踪目标模型[J].软件学报, 2006, 17 (5) :1001-1008.

[4]VENKARARAMAN V, FAN G, FAN X.Target Tracking with Online Feature Selection in FLIR Imagery[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2007:3466-3473.

[5]AVRAHAML, LINDENBAUM M.Sequential Karhunen-loeve Basis Extraction and Its Application to Images[J].IEEE Transactions onImage Processing, 2000, 9 (8) :137131-1374.

滤波目标数据 篇5

粒子滤波(ParticleFilter,PF)是求解贝叶斯概率的一种实用算法,又称序列蒙特卡罗方法(SequentialMonteCarloMethods)。粒子滤波器处理的是非线性、非高斯的系统。这种系统能更准确描述图像的跟踪问题,而且粒子滤波器对复杂背景下的目标跟踪效果更好。粒子滤波在处理非高斯非线性时变系统的参数估计和状态滤波问题方面有独到的优势,[1]因此获得了很大的发展。但当系统噪声或观测噪声很小时,粒子滤波器的效果会受到影响,针对这个问题,人们提出了一些改进的粒子滤 波算法,比如:辅助粒子 滤波器(APF),似然粒子滤波器(LAF)和规则化粒子滤波器(RAF)。本文分析了运动特征与颜色特征融合技术,提出了一种多特征融合的粒子滤波跟踪方法,从而提高计算精度。

1运动与颜色特征融合技术分析

1.1运动目标检测

运动目标的检测、跟踪是智能目标跟踪的重要课题,是各种后续高级处理,如目标分类、行为理解等的基础。近年来,它得到了广泛的研究,其难点在于图像序列具有复杂性和跟踪过程中在物体暂时消失、相互遮挡时丢失目标信息。

现有的运动目标检测算法,主要可以分为两类:

(1)基于运动的方法:把具有运动一致性的点归为一类,如光流法和特征点法。

(2)基于模型的方法:主要依据高层的语义表示和知识描述来完成目标检测。根据目标中的信息部分的不同,可再分为基于目标边界的方法,如活动轮廓模型基于目标区域的方法,利用的是目标整个区域特性信息,如颜色和纹理等,较适用于室外的跟踪。为了避免大量运算,应该适当地抽取目标特征并简化运算。

1.2图像差分法

图像差分方法有以下几种[2~7]:

(1)背景差分:当前图像与固定背景图像的差分方法是目前运动分割中最常用的一种方法,它是利用当前图像与背景图像的差分来检测出运动区域的一种技术。

(2)时间差分:时间差分是在连续的图像序列中两个相邻帧间采用基于像素的时间差分,采用连续两幅图像差分方法,当运动检测开始的时候选择前一帧运动目标的图像作为差分的背景图像,把当前图像和前一帧图像做差分,当运动目标检测结束时,把当前帧作为差分背景图像。

(3)光流法:基于光流方法的运动检测,采用了运动目标随时间变化的光流特性,从而有效地提取和跟踪运动目标。该方法的优点是在摄像机运动存在的前提下也能检测出独立的运动目标。

1.3运动特征提取

跟踪的目标是运动的,这是区别于其它背景的特性。利用上两节分析的差分法目标检测方法,通过对相邻图像的差分,可以反映运动目标的变化。通过对差分图像二值化,并对在候选目标的区域的点的计数Cout,可以判断候选目标是否运动以及运动的强弱。

定义目标运动系数[8~10]Movik为目标区域内的点的计数与目标区域面积的比值,其中k为帧号,i代表第几个粒子:

式中:w和h分别为搜索窗的宽和高。

1.4运动特征与颜色特征相融合

为了从目标的运动特征与直方图特征的相似性两方而综合衡量运动候选目标的匹配程度,定义颜色和运动特征融合后的相似性度量为:

式中:α=1-β,α,β为颜色特征权值和运动特征权值,ρ(y)为Bhattacharyya相似度。

式(2)融合了目标的运动特征和颜色特征,当目标在复杂背景下,多个运动物体出现时,运动特征对目标描述效果不是很明显,此时颜色特征ρ(y)将在跟踪中起到主导作用,当目标出现的背景与目标颜色信息相似时,会引起颜色特征跟踪失败,此时运动特征将起主导作用。

2运动特征和颜色特征融合的粒子滤波模型

2.1时间差分

利用两帧差分方法从实际视频图像中检测出运动目标,[2,3]进而用于目标的分类与跟踪,连续帧差分简单,容易实现,假设图像帧数为1,2,…,k,fi(x,y)为图像函数,则差分方法定义如下:

图像二值化:

式中:δ为阀值,如果fdn(x,y)>δ表示是目标运动产生的像素差。通过对差分图像二值化,可以判断候选目标是否运动、运动的强弱、运动的区域以及提取运动特征。每个粒子都要计算当前粒子的距离加权直方图,当背景物体和目标物体颜色相近时,粒子会收敛到背景物体上,导致跟踪失败。

2.2提取运动特征

由1.3节分析可知,定义目标运动系数Movik为目标区域内的点的计数与目标区域面积的比值如式(1)所示。

归一化Movik=CMovik

其中,

归一化之后Movik在0到1之间,这样就可以将灰度差与目标运动相互关联。当Movik越大,表明在粒子搜索框中的像素改变大,是目标运动的可能性大;反之像素改变小,是背景的可能性大,背景是不发生改变的。

2.3粒子采样

在初始帧手动确定目标的位置x0,确定目标摸板,取粒子数为Ns,其权值初始值为1/Ns,所有粒子的权值之和为1,每个粒子代表目标的一个可能的运动状态,也就是目标的一个可能的位置:

式中:ξ为[-1,1]内的随机数,b是常数。

计算目标搜索窗口的直方图,确定目标模型,计算目标颜色空间核函数距离加权直方图,以一定间隔的颜色值为单位,将取值为像素颜色值的特征空间分为多个特征值。那么在初始帧,包含目标的搜索窗口中,第u个特征值的概率为

x0为目标中心点,其中每个像素用{xi}i=1,2,…,n表示,目标特征u=1,2,…,n,本文中的u表示图像像素的灰度级别。其中k(x)为核函数,核函数也称“窗口函数”,常用的核函数有依潘涅契科夫(Epanechikov)函数、均匀核函数、高斯核函数等。一般核函数选择Epanechikov函数。以x0为中心的搜索窗口内,离窗口中心远的像素给予较小的权值,而是为消除不同大小目标计算时候的影响,将搜索窗口的归一化为一个圆。δ[b(xi)-u]函数是判断函数,判断u是否属于当前像素,如果u的值等于目前像素值,则函数等于1,否则等于0。h为搜索窗口的带宽,本文的带宽设置为长宽的一半,以下搜索窗口都采用这样的带宽设置。

为消除不同大小目标计算时候的影响,将搜索窗口的归一化为一个圆。δ[b(xi)-u]函数是判断函数,判断u是否属于当前像素,如果u的值等于目前像素值,则函数等于1,否则等于0。h为搜索窗口的带宽,本文的带宽设置为长宽的一半,以下搜索窗口都采用这样的带宽设置。

式(6)中C为归一化概率,使概率之和为1。

2.4粒子状态转移

系统动态模型描述的是目标的状态随时间的转移过程,也是目标位置随时间的变化过程。

在其后时刻kt(t>1),利用系统状态转移方程xt=Axt-1+Bwt-1对每个粒子进行状态预测。则状态转移方程为:

式中:A1,A2,B1,B2为常数,wt-1[0……1]内的随机数。一般情况下取A1=1,A2=1,称B1和B2为粒子传播半径。此时系统状态转移的含义即是分别在X和Y上迭加一个扰动量。

2.5粒子权值更新

各个粒子进行传播后可以对其进行观测,也就是观察每个粒子所代表的目标可能状态和目标真实状态之间的相似程度,接近目标真实状态的粒子赋子较大的权值;反之权值较小。取最小平均绝对差值函数为衡量相似程度的工具,即对每个粒子可以计算,计算这个区域的候选模型:

计算Bhattacharyya相似度为:

计算颜色和运动特征融合的相似度为:[7]

式中:α=1-β,α,β为颜色特征权值和运动特征权值。在很多文献中都是假设α,β是恒定不变的,但是很多情况下这种假设是不符合实际的,当颜色特征失效或者运动特征失效时,显然固定α,β是不可取的,本文采用一种基于模糊控制的方式来自适应权值。

模糊控制包括模糊性、模糊逻辑规则、模糊逻辑推论等。模糊逻辑的输入是在当前帧中的颜色特征值和运动特征值,而输出的是下一帧的颜色权值α,而运动特征权值可由式α=1-β计算,其中颜色特征值ρik(y)和运动特征值Movik分别可以用式(9)和式(1)来计算,模糊逻辑中将设置ρik(y)和Movik为{0.2,0.4,0.6,0.8,1},α为{0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9}。模糊逻辑规则如表1所示。依照模糊逻辑规则,不可靠的特征给予较小的权重,可靠的特征给予较大的权重。在本文中α,β初始化为0.5,即中间值。

表1表示在颜色特征和运动特征相等的时候,α取中间值0.5,举例子说明:当Movik为0.53时,ρik(y)为0.13时,0.53位于0.4到0.6之间,取表1的Movik为0.6的一列,然后查行,0.13位于0到0.2之间,则查ρik(y)为0.2列,得到α为0.7。

利用加权后的相似度计算相似距离:

计算观测值的概率密度函数为:

则在当前帧中更新粒子的各权值:

2.6目标位置确定

利用加权准则确定目标的最终位置:

2.7重采样

重采样即是在出现某些粒子权值太小时,从权值大的粒子上衍生出一些粒子来代替它们。当某些粒子的权值达到某个下限后就执行该过程,而该粒子的“后代”粒子的权值重新设置为初始权值。

重采样是降低粒子匮乏现象的另一种方法,其思想是通过对粒子和相应权值表示的概率密度函数重新采样,增加权值较大的粒子数。最常用的重采样方法是随机采样方法。[11~13]

3结束语

滤波目标数据 篇6

在计算机视觉领域,目标跟踪一直是其中的重要研究课题之一。目标跟踪是各种高层视频图像处理的基础,如目标分析、三维重建、视频图像压缩编码、行为识别等[1]。现有的目标跟踪的主要方法包括:基于区域的跟踪、基于特征的跟踪、基于轮廓线的跟踪、基于模型的跟踪、基于运动场估计的跟踪以及混合方式的跟踪等方法[2]。

卡尔曼滤波是基于线性、高斯假设的,这对于目标跟踪要求太过严格。现实中的系统往往是非线性的,这使得卡尔曼滤波的适用范围受到严格的限制。近年来,粒子滤波(PF)[3,4]算法被认为是目前解决非线性、非高斯模型最成功的方法。粒子滤波算法是一种基于蒙特卡洛(MC)技术来求解贝叶斯概率的使用算法,它的基本思想是通过重要性函数产生带权值的样本(粒子)来逼近系统状态的真实后验概率分布。在本文中提出了融合[5]颜色特征[6]和运动边缘特征[7]的粒子滤波算法进行目标跟踪。使用颜色特征信息来实现目标跟踪快捷且容易实现,但在跟踪过程中由于目标所处的位置、光照等易发生变化,这会影响跟踪效果。另一方面,运动边缘特征信息可以很好地适应各种光照、背景变化的情况。两种特征融合可以弥补双方的不足,同时也能提高目标跟踪算法的有效性。这些效果在实验结果分析中都能得到很好的说明。

1粒子滤波基本原理

1993年由Gordon和Salmond[8]提出了一种新的基于序贯蒙特卡洛(SIS)方法的Bootstrap非线性滤波方法奠定了粒子滤波的算法基础。所谓粒子滤波就是指通过寻找一组在状态空间中传播的随机样本(粒子){xti, i=1,…,N},对概率密度函数p(xt|z1:t)进行近似,以样本均值代替积分计算,从而获得状态的最小方差估计的过程。粒子滤波主要有预测和更新两个阶段:

p(xt|z1:t-1)=∫p(xt|xt-1)p(xt-1|z1:t-1)dxt-1 (1)

p(xt|z1:t)=p(zt|xt)p(xt|z1:t-1)p(zt|z1:t-1)(2)

其中,p(xt|xt-1)由目标状态转移模型定义;p(zt|xt)由观测模型定义;p(xt-1|z1:t-1)为t-1时刻的后验概率密度;p(zt|z1:t-1)为归一化常数,即p(zt|z1:t-1)=∫p(zt|xt)p(xt|z1:t-1)dxtt时刻的后验概率密度p(xt|z1:t)是滤波问题的最终解。

但是在上述的计算过程中,需要通过计算积分来求解概率密度的分布,而一般的目标跟踪问题都是高维的、非线性、非高斯的问题,所以求解这类问题非常困难。因此,粒子滤波中采用了序贯蒙特卡洛方法来解决积分计算复杂的问题。它从一个被称为重要性概率密度的建议分布q(x1:t|z1:k)中进行采样从而得到状态集或者粒子集{xti, i=1,…,N}(N为粒子数目),和粒子对应的权重{wti, i=1,…,N}。因此更新方程(2)可以改变为:

p(xt|z1:t)i=1Νw˜tiδ(xt-xti)(3)

式(3)中,w˜ti=wti/i=1Νwti为归一化粒子权重,δ是Dirac-delta函数。粒子权重wti的递推公式为:

wtip(zt|xti)p(xti|xt-1i)p(xt-1i|z1:t-1)q(xti|xt-1i,z1:t)q(xt-1i|z1:t-1)=wt-1ip(zt|xti)p(xti|xt-1i)q(xti|xt-1i,z1:t)(4)

在取得提议函数的最优时的权值更新如下:

wti=wt-1ip(zt|xt-1i)(5)

N→∞时估计式(3)的值无限趋近于p(xt|z1:t)的真实值,进而得到t时刻目标状态的估计值。

2特征融合与目标跟踪

2.1目标颜色特征

颜色特征能简单地描述一幅图像中颜色的全局分布,有效地提高目标跟踪的鲁棒性。由于选定的目标跟踪区域一般为矩形,其中距离目标跟踪区域边界处必然包含了很多非可靠的像素信息。本文中采用基于RGB颜色空间模型的核加权颜色直方图对目标进行建模。其中,核函数的基本思想是:通过核函数根据像素点距离目标中心的距离远近对它们赋予不同的权值。给距离目标中心点比较远的部分像素点赋予比较小的权值,从而来减弱跟踪目标模块边界及遮挡等问题的干扰。本文高斯核函数,其定义如下:

Κ(r)=exp{-r2/(2σ2)}(6)

式(6)中r表示像素点与目标中心之间的距离,参数σ控制核函数的作用半径,实验中σ=1。

对于选定的目标区域内的各像素点{xi, i=1,…,M},其中M为目标区域内像素点的总数。设m为量化阶数,且定义颜色量化函数b(xi):R2→{1, 2,…, m,m=32},则第i个像素点颜色粒子所对应区域的核加权颜色特征直方图p(x)={pu(x)}u=1,2,…,m可定义为[9]:

pu(x)=Ai=1Μk(x-xih2)δ(b(xi)-u) (7)

式(7)中A为归一化因子,用来保证u=1mpu(x)=1,即A=1i=1Μk(x-xih2);M为目标区域内像素点总数,实验中M=400;k(·)为高斯核函数式(6);x为目标区域中心像素点;xi为目标区域中的某一像素点;h表示目标区域的大小,大小为202,‖x-xi‖2表示像素点xi与目标区域中心像素点x之间的距离;δ是Dirac-delta 函数。

对于候选区域所对应的核加权颜色直方图也可采用上述同样的计算方法,记为q(x)={qu(x)}u=1,2,…,m。Bhattacharyya系数是建立两概率分布相似性度量的有效工具。则对于目标区域p(x)={pu(x)}u=1,2,…,m与候选区域q(x)={qu(x)}u=1,2,…,m两个核加权颜色直方图,它们之间相似性可用Bhattacharyya系数来衡量,可定义为:

ρ[p(x),q(x)]=u=1mpu(x)qu(x)(8)

d[p(x),q(x)]=1-ρ[p(x),q(x)](9)

式(9)中ρ值越大代表目标区域与候选区域之间的相似性越高,当ρ=1时,即两个区域直方图完全相似。由此得出基于颜色特征的观测值的概率密度函数为:

pcolor(zt|xt,colori)=12πσexp{-(d[p,q])22σ2}(10)

实验中σ=0.25。

2.2目标运动边缘特征

为了适应目标光照变化及背景中相似颜色的干扰等,仅仅使用颜色特征达不到理想的跟踪效果,因此本文中引入了运动边缘特征。它利用相邻两帧图像之间的目标区域运动特征,生成差分图像进行梯度求解得到运动边缘图像信息,从而在复杂背景下使目标跟踪达到更好地效果。

假设视频中两帧连续的图像分别记为RtRt+1,对两帧图像进行差分处理可得到差分图像Dt为:

Dt=|Rt+1-Rt|(11)

对差分图像Dt进行梯度求解,则可得到该时刻t的图像运动边缘信息Et,即:

Et=Dt=[DtxDty]Τ(12)

式(12)中,DtxDty分别为跟踪区域中心点在x方向和y方向的速度值。由此可得边缘信息Et的方向角θ

θ=arctan(Dtx/Dty)(13)

式(3)中,θ的取值范围为0~2π。对方向角θ进行量化,分成n等份θi=[θΔθ](i=1,2,,n,n=16),其中Δθ=π/8。结合直方图公式Pt(θ)(x,y)=∑δ(θ-θi)统计落入各个角度区间的像素梯度幅度值,并对其进行归一化处理可得到目标区域的运动边缘方向直方图Pt(x,y),Pt(x,y)=[Pt(θ)(x,y)]θ=1,2,…,n,其中(x,y)为目标区域的中心点坐标。运用同样的计算方法,可得候选区域的运动边缘方向直方图Ft(x,y)。则该目标区域的运动特征定义如下:

Qt=xyFt(x,y)/xyΡt(x,y)(14)

当某一候选区域Qt值越接近于1时,说明候选区域与目标区域的相似度更高。利用Qt值得出基于运动边缘特征的观测值的概率密度函数为:

pmotion(zt|xt,motioni)=12πσexp(-d22σ2)(15)

式(15)中d=|1-Qt|,实验中σ=0.25。

2.3目标特征融合与跟踪实现

本文结合颜色特征和运动边缘特征的优点,通过将两种特征融合从而达到更好地跟踪效果,即得到一个关于多个观测值的融合概率密度函数。这里假设颜色特征和运动边缘特征两个观测过程是相互独立的,则定义融合后的概率密度函数为:

p(zt|xti)=w1pcolor(zt|xt,colori)+

w2pmotion(zt|xt,motioni) (16)

式(16)中w1,w2分别为自适应的归一化权值,即i=12wi=1wi的取值和跟踪过程中t时刻区域特征与目标的相似度有关。本文中利用t时刻目标区域与候选区域之间的Bhattacharyya距离d[p(x),q(x)]和根据运动边缘特征信息得到的相似度距离d中的两个最小值di,m来定义w˜i的值,即定义w˜i=1/di,m2,再对w˜i进行归一化得到wi,即wi=w˜iw˜1+w˜2。 最后可根据权值更新公式(5)对每一个粒子的权值进行更新:wti=wt-1ip(zt|xt-1i),进行归一化处理得到粒子权值w˜ti=wti/i=1Νwti

基于多特征融合的改进粒子滤波目标跟踪算法具体步骤见如表1的算法。

3实验结果分析

实验平台为P4 2.66 G的CPU,内存1.5 G的PC机上使用Matlab R2007a仿真实现。为了验证本文算法的有效性,分别对两组视频进行测试。两段视频中待跟踪目标区域都需在视频图像序列第一帧中手动标定。

视频一是对直升机降落的视频中的直升机进行跟踪,视频图像大小为320×240,视频总帧数为860帧,采样粒子数为500。视频中直升机背景逐渐有蓝色的天空转变为绿色的树丛,并且直升机的颜色与树丛颜色比较近似。基于本文算法跟踪的结果如图1所示。具体的误差数据分析见图2,实线为本文所提算法的实现数据,虚线为基于自适应颜色特征的粒子滤波算法[10]所实现的数据。本文中将误差数据分为x方向和y方向,其中目标真实位置在x,y方向的值为手动标定。在视频跟踪图像中我们选取200帧、330帧、363帧等作为显示跟踪结果,其中,在开始阶段,如第200帧时背景都为蓝天,从330帧开始有短暂的视频背景相似干扰,在第363帧时直升机目标被完全遮挡,以及当从580帧开始视频背景开始完全有蓝天变为绿色树丛。在这些情况下,结合图2中跟踪误差数据分析,我们可以看出从600帧左右开始基于自适应颜色特征的粒子滤波算法[10]出现了目标丢失的情况,但是本文中提出的算法都能较好地跟踪目标,不会发生目标丢失的情况。在这段视频中说明了本文中的算法融合目标的颜色特征信息和运动边缘信息能够很好地克服跟踪目标背景相似干扰的情况,表现出了较强的鲁棒性。

视频二是采用CAVIAR项目组[11]提供的标准视频序列“ThreePastShop2cor.mpg”进行测试,该视频采集于视频图像大小为384×288,帧速率为25帧/秒,从视频序列的第370帧开始截取其中的500帧视频序列做跟踪实验,采样粒子数为500。实验跟踪结果如图3所示。

在实验中第459帧附近跟踪目标第一次被短暂遮挡,因为遮挡人物穿着红色外套,背景区分比较明显,只有人物的黑色背包会造成一定干扰。当穿过第一个遮挡任务后跟踪效果即为第476帧,紧接着跟踪目标穿过第二个遮挡人物,这时在第492帧时跟踪目标被完全遮挡,而且由于遮挡人物同样穿着黑色外套,和跟踪目标比较接近,造成了跟踪目标中心的扰动,但在穿过遮挡人物后,正如第602帧跟踪效果显示的跟踪目标中心会自适应地调节到原来的跟踪中心。在视频截取的最后阶段第818帧时,有路过的行人对跟踪目标再一次的遮挡,实验效果如第847帧所示。

与基于自适应颜色特征的粒子滤波算法[10]跟踪效果对比的具体误差数据分析见图4,本文中将误差数据分为x方向和y方向,其中目标真实位置在x,y方向的值为手动标定。

4结论

本文给出了一种基于多特征融合的改进粒子滤波目标跟踪算法。该算法融合了物体的颜色特征信息和运动边缘特征信息,可以有效地解决视频目标跟踪过程中背景相似干扰以及运动目标遮挡问题。相比单一的基于自适应颜色特征的粒子滤波跟踪算法,本文中提出的算法更能有效地提高目标跟踪过程的稳定性与精确性。

参考文献

[1] Wang X G,Kinh T.Grimson W E L.Correspondence-free activityanalysis and scene modeling in multiple camera views.IEEE Transac-tion on Pattern Analysis and Machine Intelligence,2010;32(1):56—71

[2] Yilmaz A,Javed O,Shah M.Object tracking:a survey.ACM Com-puting Surveys,2006;38(4):1—45

[3] Arulampalam M S,Maskell S,Gordon N,et al.A tutorial on particlefilters for online nonlinear/non-Gaussian Bayesian tracking.IEEETransactions on Signal Processing,2002;50(2):174—188

[4] Hu W M,Tan T N,Wang L.A survey on visual surveillance of ob-ject motion and beha-viors.IEEE Transactions on System,Man andCybernetics,2004;34(3):334—352

[5]王永忠,梁彦,赵春晖,等.基于多特征自适应融合的核跟踪方法.自动化学报,2008;34(4):393—399

[6] Intill S S,Bobick A F.Visual tracking using closed-worlds.Int ConfComputer Vision,1995:672—678

[7] Li P.,Chaumette F.Image cues fusion for object tracking based onparticle filter.Intl Conf Articulated Motion and Deformable Objects-(AMDO),2004:99—107

[8] Gordon N,Salmond D,Smith A.Novel approach to non-linear andnon-Gaussian Bayesian state estimation.Proceedings of Institute Elec-tric Engineering,1993;140(2):107—113

[9] Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking.IEEE Trans on Pattern Analysis and Machine intelligence,2003;25(5):564—575

[10] Katja N,Esther K M,Luc V G.An adaptive color-based particlefilter.Image and Visio-n Computing,2003;21(1):99—110

滤波目标数据 篇7

目标跟踪是智能视频分析和计算机视觉中的重要研究课题, 在人机交互、自动控制、交通监管、智能视频分析等领域中得到广泛的应用和发展[1,2]。目标跟踪的任务实质是在当前帧中检测目标的位置, 然后依据在上一帧中建立的目标模型然后从下一帧中搜索目标的最佳位置。因为视频图像总会受到诸如光照、场景变化、遮挡等因素的影响, 为了降低这些因素对目标跟踪精度的影响, 研究者提出了较多的具有鲁棒性的跟踪算法。当前, 目标跟踪技术的难点主要表现在:图像受噪声于扰;目标的运动性复杂;图像场景变化带来的干扰;目标是非刚性的;部分或者全部目标的遮挡;实时性需求等[3,4]。

常见的跟踪系统包括三个部分:外观模型、运动模型和搜索策略。外观模型即研究如何更好地评价一个候选目标位置的相似度似然问题, 如:基于检测的跟踪、多实例学习跟踪、增量式学习跟踪等等。Ramesh和Comaniciu提出了一种几何颜色和梯度信息的跟踪算法, 来增强目标的纹理特征[5]。Zhang等人提出了一种基于稀疏表示和贝叶斯决策分类的目标跟踪算法, 该算法通过实时更新纹理模型并采用稀疏矩阵提取目标和背景的特征, 最后采用贝叶斯分类器进行目标和背景的判别[6]。Avidan提出了基于支持向量机SVM的目标跟踪算法, 该方法把跟踪看成是一个二分类问题, 即为目标或背景, 通过在目标附近采用背景灰度信息, 然后训练SVM得到分类器, 最后通过分类器输出判断是目标还是背景区域[7]。运动模型是一个控制问题, 目前研究的比较少, 比较经典的如卡尔曼滤波方法、自回归滑动平均、粒子滤波中的一阶、二阶马尔可夫过程等。搜索策略就是寻找最匹配位置的寻优算法, 最经典的就是均值漂移算法, 它是一个局部最优化搜索方法[8,9], 也是最速下降法在视觉跟踪上的重要应用。

当前大部分的研究集中于纹理模型和搜索策略, 因此本文研究一种运动模型。本文在研究多示例学习算法的基础上[10], 针对原始的多示例学习目标跟踪算法中使用运动模型的不足, 提出了一种改进的基于在线学习的目标跟踪方法。该方法首先根据HOG特征来描述目标, 然后通过粒子滤波方法对目标位置进行预测, 再用基于Boosting的在线多示例学习方法来建立描述目标的模型和分类器, 最后在下一帧的图像中利用该分类器来跟踪目标, 同时在线更新分类器。通过实验表明, 改进的方法可以有效地提高目标跟踪精度和算法的鲁棒性。

1 基本理论

1.1 粒子滤波

粒子滤波就是寻找一组在状态空间中传播的随机样本来对概率密度函数进行近似, 利用样本均值代替积分运算, 进而获得状态最小方差分布的过程。粒子滤波器具有多模态处理能力, 特别是其在非线性、非高斯系统中所表现的优越性, 使得它在诸多领域中有广泛的应用。

对于最优估计问题, 系统状态的后验概率分布p (X0:k|Z1:k) 可以由蒙特卡罗方法来近似求解, 假设q (X0:k|Z1:k) 是一个被定义在非线性、非高斯状态下且易于抽样的条件概率分布, 从建议的分布样本中随机抽取样本组成的样本集记为{X (i) 0:k}Ni=1, 于是有:

综合以上分析, 状态变量的后验概率分布p (X0:k|Z1:k) 可以由一组加权的随机采样样本来近似, 该方法就是重要性采样方法[11]。由式 (1) 可知:

得到权值更新公式:

对权值wk (i) 进行归一化, 然后通过重采样降低退现象对最优估计值的影响。也就是对后验概率分布重采样N次, 然后产生新的粒子集合, 保留且复制较大权值的粒子, 通过重采样去除那些较小权值的粒子。于是, 后验概率分布可以近似表示为:

其中, δ (·) 是狄拉克函数, N为初始的粒子个数。经过以上分析可以得出, 当N→∞时, 式 (4) 就非常接近真实的后验概率分布。综合以上分析, 粒子滤波算法的基本步骤是:

(1) 设置k=0, 依据先验概率建立粒子集{X (i) k}Ni=1, 初始权值

(2) 对于k>0时刻:

(a) 从状态转移概率分布中获取新的粒子集合{X (i) k}Ni=1;

(b) 根据式 (3) 计算新的粒子权值, 并对其进行归一化:

(3) 根据式 (4) 计算后验概率分布, 得到最优状态估计值是

(4) 进行重采样, 去除权值较小的粒子:依据权值wk (i) 从粒子集中重新抽取N个粒子, 建立新的粒子集合

1.2 HOG特征

方向直方图HOG特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子, 它的核心思想是所检测的局部物体外形能够被光强梯度或边缘方向的分布所描述, 表征局部区域内的梯度分布特征。它是通过计算和统计图像局部区域的的梯度方向直方图来构成特征。通过一些实验数据表明, HOG局部对目标进行描述时明显优于当前的其他局部算子, 比如Harr特征等。对于目标跟踪中, 需要对运动目标进行描述, 首先将其分成互相重叠的图像局部块, 如图1所示。图中每个图像的局部块可以划分为水平方向和垂直方向局部块两种类型[12]。

2 基于多示例学习的目标跟踪算法

2.1 样本采样和运动模型

近年来, 目标跟踪算法的研究热点是把跟踪问题看成一个二分类问题, 即通过采样目标信息作为正样本, 采样背景信息作为负样本, 然后训练正负样本获得一个分类器, 对于下一帧通过分类器获得目标的位置。当前如何采样正负样本以及对样本实时更新是一个挑战的课题, 很多研究者提出了很多方法去采样正负样本。通常的采样方法是把目标当前位置作为正样本, 目标附近的背景信息作为负样本, 如果在跟踪过程中出现误差, 也就会导致后面正样本的选取出现较大偏差, 因此会出现目标跟踪的漂移。Babenko[8]等提出了新的样本采样方法, 该方法是采样当前位置附近的正样本组成一个正样本袋, 该正样本袋至少包含一个正样本即可, 然后在当前位置的邻域内采样负样本组成负样本袋。假设目标在t时刻的当前位置是lt, 让l (x) 标记在当前位置的邻域内采样每个图像子块的位置, 于是我们采集图像子块满足以下条件:

其中, s就是相对于当前目标位置的搜索半径。

对于后续每帧视频图像, 因为无法获知目标的运动分布信息和确切位置信息, 常常采用一个运动模型来估计目标的当前位置。该运动模型描述了在t时刻目标的位置和下一时刻目标位置之间的关系, 运动模型可以被表示为:

2.2 多示例学习算法

传统的分类学习算法是对于一个二分类问题的集合{ (x1, y1) , (x2, y2) , …, (xn, yn) }来估计概率p (y|x) , 其中xi是每个图像块样例, 并且yi∈{0, 1}是对每个样例进行标定。在多示例学习算法中Xi∈{xi1, xi2, …, xim}, 训练数据被表示为{ (X1, y1) , (X2, y2) , …, (Xn, yn) }。yi通过下式计算得到:

每个示例包中包含多个示例, 并带有类型标记。加入包中包含一个正例, 则该示例就被标记为正样本;若包中所有示例都是反例, 则该包被标记为反。学习系统通过对多个包所组成的训练集进行学习, 以尽可能正确地预测训练集之外的包的示例类型进行标记。传统的样本学习算法中, 一个样本就对应一个示例, 即样本和每个示例是一一对应的。但是在多示例学习算法的框架中, 一个样本统筹港行包含了多个示例, 也即是样本和示例是一对多的关系。因此, 多示例学习算法中所有训练样本的歧义性与监督学习、非监督学习以及强化学习的歧义性是完全不同的。

2.3 基于boosting的样本更新算法

以上提到的多示例学习算法是一种离线的学习算法, 也就是在训练时需要所有的训练数据信息。因此, 在目标跟踪框架中, 训练样本是逐帧一次输入的, 即此时每帧样本的训练必须采用在线的方式进行学习。文献[8]采用在线boosting的方法进行多样例学习, 通过优化一个损失函数去学习和训练样本。弱分类器被选取是基于以下优化准则:

其中, Hk-1是由前k-1个弱分类器组成的强分类器, H是所有可能的弱分类组成的集合。在该算法中有M个弱分类, 每次选出最佳的k个弱分类器。基于此, 当有新的样本输入时, 则对所有的弱分类器进行同时在线更新, 然后逐个选出k个最佳的弱分类器, 弱分类器k的选择遵循以下准则:

对上述选取的弱分类器依据权值进行更新后, 就能得到由k个弱分类器加权求和的所得到的强分类器为:

在得到强分类器H (x) 后, 依据之前的分析, 常常采用示例样本袋去表示样本集合, 每个样本示例的概率可以定义为:

其中,

基于在线多示例学习的基本思想就是选取适当的学习算法和在线的学习框架, 然后将二者有效地结合起来。每个弱分类的输出概率被定义为:

其中, pt (fk (x) |y=1) -N (μ1, σ1) , 对于y=0具有类似的概率分布。假设p (y=1) 以及p (y=0) , 然后通过贝叶斯理论去计算上式。对于新输入的样本数据, 采用以下公式进行更新:

其中, γ是一个常数, 它代表了学习参数。对于μ0和σ0的更新与上述更新规则一致。

3 改进的目标跟踪算法

3.1 基于粒子滤波的运动估计

在文献[8]中, 采用一个简单的运动模型来估计目标的位置信息。根据前文分析, 该运动模型可以被表示为:

式 (15) 是利用目标在上一帧的位置信息来预测目标在下一帧可能的位置。也就是依据最近邻的准则在上一帧中目标的位置附近一定邻域范围内估计目标位置。因为目标运动的不确定性, 如果估计的位置与真实位置相差很大, 这样进行候选样本的采样时就会带来较大的误差, 同时增加了计算复杂性。因此, 在本文中采用更精准的粒子滤波来来预测目标在下一帧可能的位置。因为后验概率可以表示为:

依据先验概率建立粒子集{X (i) 0:k}Ni=1, 其中的初始权值然后得到的预测值就是:

3.2 基于多示例学习的目标跟踪

当前, 在线学习被广泛应用在目标跟踪和计算机视觉等领域中。由于在跟踪过程中, 所被跟踪目标的模型会不断在变化, 而且所处的光照或者位置都可能变化。因此, 多数跟踪算法采用一种自适应的目标模型, 也就是在线学习模型。而且, 获取目标在跟踪过程中的正、负示例样本是由模型更新前的每个分类器检测得到的。如果正例的位置出现较大偏差或者不准确, 使之存在歧义性和易受到跟踪器性能的影响。综上所述, 在目标跟踪框架中, 采用在线多示例学习算法可以有效地改善跟踪性能和跟踪算法的鲁棒性。所以, 基于粒子滤波和多示例学习的目标跟踪算法的流程如下:

(1) 对于t-1帧时目标的位置为lt*-1, 采用粒子滤波估计得到在下一帧图像中目标的一组位置集合为l (x) ={l1 (x) , l2 (x) , …, ln (x) }, 根据目标位置得到一组图像块集合:Xs={x∈l (x) }, 然后计算并计算特征向量;

(2) 使用MIL分类器对每一个估计p (y=1|x) ;

(3) 更新目标的最佳位置:

(4) 裁剪两组新的图像块:

(5) 我们更新带有一个1的正的示例样本包Xγ和许多负面的样本包Xγ, β的MIL外观模型。

4 实验结果及分析

为了验证本文中所提出的一种改进跟踪算法的有效性, 对不同的图像视频序列进行实验, 同时比较改进算法和原始多示例学习跟踪算法的跟踪性能。本实验中采用常见的视频图像。实验中的基本参数如下:设置γ=5, 总共产生45个图像示例组成一个正样本袋;设置β=50, 从采样的图片块中随机选取60个组成Xγ, β, 在Adaboost分类器中选择M为250, K为50。

两种方法在不同视频上的跟踪结果如图2和图3所示, 其中上层图像是多示例学习跟踪算法的跟踪结果, 下一层图像是对应的采用改进方法后所得到的跟踪结果。

从实验结果可以看出, 在初始时两种方法基本有相同的跟踪效果, 当目标和背景非常接近时, 原始方法会出现一些误差, 也就是在对目标和背景建立分类器时出现错误, 改进的方法仍然能跟踪到目标, 这里虽然出现了一些小偏差, 但是效果明显比原始方法的性能好。改进的方法因为首先采用了HOG特征, 它可以更好地表征跟踪目标, 同时有效地区分目标与非目标, 然后通过粒子滤波预测目标的位置, 依据预测的目标位置提取多示例样本集建立候选目标模型。因此, 在目标和背景较为接近时, 该方法仍然有好的跟踪效果。

当有光照变化时也就是原始的跟踪算法受到光线影响时, 此时原始算法的跟踪性能将会明显降低, 当采用改进方法时跟踪性能会有提高。在改进方法中采用HOG特征可以降低对光照以及边缘信息对目标的干扰, 同时采用粒子滤波框架进行目标位置的预测, 有效提高了后续候选目标样本的采样精度, 因此能有效地提高目标跟踪性能。

表1反映了对于David视频场景下不同方法的跟踪精度对比。从表1中可以看出, 改进的方法具有较低的跟踪误差。改进的方法因为先提取了LBP的主要纹理特征模式, 有效消除了背景和噪声等因素的干扰, 使得跟踪算法更具有鲁棒性。另外一方面, 改进的跟踪算法结合颜色和纹理信息去建立目标模型, 可以为目标建模提供更丰富的纹理信息, 使得目标表示更为准确, 也使得目标特征更明显区别于目标附近邻域内的背景特征。因此, 改进的跟踪算法能有效提高目标跟踪精度, 使得改进算法具有较好的鲁棒性。

5 结语

当前, 基于多示例学习的目标跟踪算法引起了较多的关注。因此, 在研究多示例学习算法的基础上, 本文针对原始的多示例学习目标跟踪算法中使用运动模型的不足, 提出了一种改进的基于在线学习的目标跟踪方法。该方法首先根据局部特征来描述目标, 然后通过粒子滤波方法对目标位置进行预测, 再用基于Boosting的在线多示例学习方法来建立描述目标的模型和分类器, 最后在下一帧的图像中利用该分类器来跟踪目标, 同时在线更新分类器。改进的方法首先是利用了HOG特征, 可以更有效地表征运动目标, 同时采用粒子滤波预测目标的运动信息替换原始的运动模型, 使得对目标运动位置的预测更为准确, 也就是提取候选示例样本时更为准确, 为后续的提高目标跟踪性能提供了保证。通过实验表明, 本文中改进跟踪方法可以有效地提高目标跟踪精度以及提高该算法的鲁棒性。

参考文献

[1]Yilmaz A, Javed O, Shah M.Object Tracking:A Survey[J].ACM Computing Surveys, 2006, 38 (4) :1-35.

[2]Saravanakumar S, Vadivel A, Saneem Ahmed C G.Multiple human object tracking using background subtraction and shadow removal techniques[C]//The International Conference on Signal and Image Processing (ICSIP) , 2010.

[3]Xue Mei, Haibin Ling.Robust visual tracking using L1 minimization[C].In ICCV, 2009.

[4]Meng G, Jiang Z G, Zhao D P, et al.Real-time illumination robust maneuvering target tracking based on color invariance[C]//Proceedings of the 2nd International Congress on Image and Signal.Washington D C:IEEE Computer Society Press, 2009:1-5.

[5]Dorin Comaniciu, Visvanathan Ramesh, Peter Meer.Kernel-Based Object Tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25 (5) :564-577.

[6]Kaihua Zhang, Lei Zhang, Ming-Hsuan Yang.Real-time compressive tracking[J].Europeon Conference on Computer Vision (ECCV) , 2012.

[7]Shai Avidan.Support vector tracking[J].IEEE Trans.on Pattern Analysis and Machine Intellience, 2004, 26 (8) :1064-1072.

[8]Comaniciu D, Meer P, Mean.Shift:A Robust Approach toward Characteristic Space Analysis[J].IEEE Trans on Pattern Analysis and Machine Intelligence, 2002, 24 (5) :603-619.

[9]王永忠, 梁彦, 赵春晖, 等.基于多特征自适应融合的核跟踪方法[J].自动化学报, 2008, 34 (1) :393-399.

[10]Boris Babenko, Ming-Hsuan Yang, Derge Belongie.Visual tracking with online multiple instance learning[C]//Proceeding of IEEE computer society conference on computer vision and pattern recognition, 2009:983-990.

[11]Andrieu C, de Freitas N, Doucet A, et al.An introduction to MCMC for machine learning[J].Machine Learning, 2003, 50:5-43.

【滤波目标数据】推荐阅读:

数据采集滤波05-30

目标数据07-11

图像滤波05-13

高通滤波07-02

高频滤波08-15

无源滤波08-21

粒子滤波08-26

智能滤波08-29

宽带滤波09-14

辅助滤波09-16

上一篇:专业修养下一篇:团购伤不起