施工跟踪检测

2025-03-16|版权声明|我要投稿

施工跟踪检测(精选7篇)

施工跟踪检测 篇1

1研究现状

1. 1目标检测方法

目标检测是目标识别的基础, 将视频目标从图像序列当中进行准确提取是检测的关键步骤。运动目标在静态背景中的检测和提取可使用图像分割或者目标模板等方法, 而动态背景下则可使用神经网络、帧间差分、背景估计、光流场等方法。

1) 基于帧间差分法: 该方法是用视频序列中相连续的图像帧做减法, 获得差分图像。在差分图像中, 像素的值较小时, 认定为没变化的背景点, 而像素值较大的点则作为运动目标点。该方法实现简单, 存在的缺点是易受光照影响。

2) 基于背景估计方法: 该方法则是为了解决图像差分法无法完整获取目标的缺点。背景估计法将视频序列中的一个图像帧作背景, 然后把后续帧的像素值和背景模板的像素值做相减, 得到差分图像, 并对差分图像做二值化和数学形态法处理。

1. 2目标跟踪方法

视频目标跟踪是监控领域的热点问题, 其目的则是为了得到目标图像帧和帧之间的联系和变化。它常采用的方法主要有以下三种算法: 滤波、浓缩以及动态贝叶斯网络算法等。现有的这些方法可根据具体的方法和视觉信息的层次进行分类, 分为基于底层视觉信息和基于高层理解信息这两种跟踪方法。底层视觉信息的跟踪是指利用一些易获取的直接信息, 例如轮廓信息、区域信息等特征。高层理解信息则是通过采集大量样本做训练学习, 生成可分析的结果。因为目标跟踪本身是随着目标的运动动态变化的, 所以其本身存在非常大的挑战性。根据其具体方法可以分为四种: 点跟踪、核跟踪、轮廓跟踪以及基于检测的跟踪。目标识别方法主要有Generative Model和Discriminative Model两种方法。其中Generative Model主要通过使用大量数据训练, 从而获得目标类别的概率分布。而Discriminative Model则在现有模型中找到划分类别的函数。最常用的Generative Model是高斯混合模型GMM。该模型能够对同一类图像进行不同形式的表现。而另一种则是概率隐含语义分析模型 ( Probabilistic Latent Semantic Analysis, PLSA) , Quelhas、Sivic等人使用特征计算来隐含进行分类, 然后通过贝叶斯概率计算获得目标类别概率。常用的Discriminative Model则有K近邻分类方法、支持向量机方法、PMK ( Pyramid Match Kernel, 金字塔匹配) 以及Boosting分类方法。K近邻分类方法的缺点在于其计算复杂度大, 不适合大图像数据。

1. 3运动目标检测与跟踪的难点

运动目标检测与跟踪需要有效、可靠以及智能的检测和识别技术。但由于以下具体问题, 运动目标检测与跟踪仍然是开放性问题。

1. 3. 1目标检测和分割的准确性

运动目标的检测过程中, 会受到场景当中的各种干扰, 例如: 场景光照变化, 场景的背景抖动和干扰, 目标运动速度过快或者视频摄影人的操作瑕疵等。当光源发生变化, 目标物体的颜色会呈现出特征的变化; 摄影人的操作瑕疵例如抖动可能会导致摄影的目标和背景区域的变化; 目标运动速度过快可能会导致目标跟踪的丢失等等。

1. 3. 2目标形态变化

在视频采集的过程当中, 摄像机和运动以及目标物体的运动都会使得目标的尺度发生改变, 目标发生的旋转和平移改变都会使得目标图像带来变化, 给图像的检测和识别带来困难。

1. 3. 3 算法的复杂度和准确性

运动目标的检测和跟踪需要对视频图像的像素值进行处理, 像素值需要大量的运算量, 若算法选择不合适, 会导致系统无法满足实时性的需求。另外, 系统需要保证识别的准确性, 多个特征进行联合匹配会让计算复杂度提高, 这样就造成了矛盾, 所以要平衡识别复杂度和准确性之间的矛盾。

2 结语

首先, 波门跟踪算法通过减小跟踪图像处理区域带来系统运算量的降低, 并且可以同时获得目标跟踪算法的抗干扰性能的提升。其次, 介绍了常用的多分辨率处理方法, 在此基础上提出了基于Ada Boost算法的多尺度图像检测方法, 极大地提高了图像跟踪中目标检测的精度。最后, 在结合Ada Boost检测算法、多尺度检测算法、波门跟踪法各自特点的基础上, 提出了一种具备全自动和实时性特点的目标跟踪方法。该方法充分利用Ada Boost检测算法, 多尺度检测算法的特点实现了在波门跟踪算法中自动选择波门, 并同时具备波门跟踪算法运算效率高的优势。

摘要:视频目标的检测和识别是计算机视觉领域研究的一个核心问题, 它的主要任务是对视频图像中的目标进行定位、检测、识别和分析判断。视频目标跟踪的研究目的是让机器获得人类视觉运动感知的能力, 能够辨识序列图像中的运动目标, 从而可以提供重要的数据依据对目标进行理解和分析。

关键词:图像序列,AdaBoost识别算法,波门跟踪,多尺度检测

参考文献

[1]梁鹏.基于内容的目标分类识别关键技术研究[D].广州:华南理工大学, 2011.

[2]江焯林.基于计算机视觉的人体运动检测和识别方法研究[D].广州:华南理工大学, 2010.

施工跟踪检测 篇2

一、填一填。(每空1分,共22分)

1.0.72+0.72+0.72+0.72+0.72=()×()=()。

2.根据45×37=1665,直接写出下面各题的得数。

4.5×3.7=()

0.45×370=()

4.5×0.37=()

3.1.7×0.9的积是()位小数,3.04×5.2的积是()位小数。

4.“神舟十一号”飞船每秒大约飞行7.9

km,1分钟大约飞行()km。

5.9.904精确到个位约是(),保留两位小数约是()。

6.两个因数都扩大到原来的10倍后,积是476,原来的积是()。

7.在里填上“>”“<”或“=”。

326×0.79326

4.03×3.14.03

4.9×0.854.9

4.9×0.850.85

8.在里填上适当的数。

25×(0.77×0.4)=×(×)

6.8×5.8+6.8×4.2=×(+)

二、辨一辨。(对的在括号里画“√”,错的画“×”)(每题1分,共5分)

1.0.78×400的积是两位小数。

()

2.小强买这些饮品,一共需要2.5+2.6=5.1(元)。()

3.一种布的价格是每米2.77元,奶奶买1.5米布应付4.155元。()

4.甲数是12,乙数是甲数的1.2倍,求乙数。列式计算是12×1.2=144。

()

5.1箱橘子24.5元,买4箱橘子的总价估计会超过90元,但不到100元。

()

三、选一选。(把正确答案的字母填在括号里)(每题1分,共5分)

1.5.7×99+5.7=5.7×(99+1)应用了()。

A.乘法交换律

B.乘法结合律

C.乘法分配律

2.下列说法正确的是()。

A.一个数乘小于1的数,积比这个数小

B.两个因数一共有几位小数,积一定就有几位小数

C.小数乘法都是先按照整数乘法算出积,再点小数点

3.与12.5×0.8的积不相等的是()。

A.1.25×8

B.0.08×125

C.0.125×8

4.如右图,买这些苹果要多少钱?列式正确的是()。

A.4.1×3.8

B.4.5×3.8

C.5.5×3.8

5.下面各式中,你认为有必要采用简算的是()。

A.2.5×3.7

B.2.5×1.76

C.2.5×4.8

四、计算挑战。(共38分)

1.直接写出得数。(每题1分,共8分)

0.5×0.6=

0.16×0.5=

5.5×0.2=

3.5×3=

0.01×0.1=

1.2×0.6=

1.7×3=

80×0.04=

2.列竖式计算。(最后一题要验算)(每题3分,共12分)

0.048×0.15

0.76×4.7

(保留一位小数)

0.032×150

2.07×4.4

3.计算下面各题,怎样简便就怎样算。(每题3分,共18分)

4.5+5.5×6.9

1.01×2.4

12.5×0.08+88.5

6.83×1.9-0.9×6.83

2.4×9.9

2.5×0.32×1.25

五、解决问题。(每题5分,共30分)

1.自开展“倡导低碳生活”活动以来,某公司平均每月节约用电50.5千瓦时,如果按每千瓦时的电费是1.6元计算,该公司全年可以节约电费多少元?

2.林林从家骑自行车到学校要0.3小时,如果改为步行,每小时走3.8千米,用0.8小时能走到学校吗?

3.六一期间,学校共评出40名具有创新精神的学生,并给获得“创新”奖的每名学生奖一本《新华字典》和一盒彩笔。一共需要用去多少元?

4.爷爷每天乘公交车接送孙子上下学,往返两次。爷爷的公交卡一周(按5天计算)要用去多少元?

5.爸爸、妈妈带着奶奶、小明和小明的哥哥去看菊花展,买门票一共要多少元?

6.某停车场规定:停车2小时以内(包括2小时)的每小时收费4.5元;超过2小时的部分,每小时收费5元。

(1)李叔叔在此停车2小时,应缴停车费多少元?

(2)刘师傅在此停车5小时,应缴停车费多少元?

答案

一、1.0.72 5 3.6 2.16.65 166.5 1.665 3.两 三

4.474 5.10 9.90 6.4.76 7.< > < >

8.0.77 25 0.4 6.8 5.8 4.2

二、1.× 2.× 3.× 4.× 5.√

三、1.C 2.C 3.C 4.B 5.C

四、1.0.3 0.08 1.1 10.5 0.001 0.72 5.1 3.2

2.=0.0072 ≈3.6 =4.8 =9.108(验算略)

3. 4.5+5.5×6.9

=4.5+37.95

=42.45

【点拨】有的同学先算加法,而4.5+5.5=10又好计算,从而导致计算错误。应牢记乘加混合,没有小括号,一定先算乘法,后算加法。

1.01×2.4

12.5×0.08+88.5

=(1+0.01)×2.4

=1+88.5

=2.4+0.01×2.4

=89.5

=2.4+0.024

=2.424

6.83×1.9-0.9×6.83

2.4×9.9

=6.83×(1.9-0.9)

=2.4×(10-0.1)

=6.83

=2.4×10-2.4×0.1

=24-0.24

=23.76

2.5×0.32×1.25

=(2.5×0.4)×(0.8×1.25)

=1×1

=1

五、1.50.5×12×1.6

=606×1.6

=969.6(元)

答:该公司全年可以节约电费969.6元。

2.0.3×12=3.6(km)

3.8×0.8=3.04(km)

3.04<3.6

答:用0.8小时不能走到学校。

3.40×(8.4+7.6)

=40×16

=640(元)

答:一共需要用去640元。

4. 0.9×4×5

=0.9×(4×5)

=0.9×20

=18(元)

答:爷爷的公交卡一周(按5天计算)要用去18元。

【点拨】每天往返两次,也就是一天要用去4个0.9元,而不是2个0.9元。

5.方法一:25×3+12.5×2

=75+25

=100(元)

方法二:25×4=100(元)

答:买门票一共要100元。

【点拨】儿童票价刚好是成人票价的一半,那么两个孩子合起来的票价刚好是一个成人的票价,因此,也就相当于买4张成人票。

6.(1)4.5×2=9(元)答:应缴停车费9元。

(2)5-2=3(小时)3×5=15(元)9+15=24(元)

基于车灯的夜间车辆跟踪检测 篇3

关键词:机器视觉,车辆检测,目标跟踪

1 前言

有统计表明, 90%的交通事故是由于人的因素造成的, 危险来源于复杂的交通状况, 包括不合理信息、缺少信息以及过度紧张等。近年来, 随着计算机视觉等技术的进步, 以及传感器的发展, 高级驾驶辅助系统应运而生。在这其中, 基于前方车辆检测的驾驶辅助系统具有智能化、主动性强、适用性广等特点, 最受人瞩目。

目前的前方车辆检测的方法使用的传感器有雷达、激光、摄像头等。这其中, 摄像头相较于雷达、激光等主动式传感器, 具有信息丰富、可视范围大、价格低廉等特点, 更加适合大规模地应用。基于摄像头的检测方法, 又分为单目视觉和立体视觉两种。后者对摄像头校正要求高, 特征点匹配计算量大, 实时性差, 硬件要求高。因此, 现有的方法多是基于单目摄像头实现车辆检测的。

当前, 车辆检测的方法多是针对白天光照条件较好的场景。首先, 利用车辆作为人造物体与自然物体的差异, 如对称性、颜色、阴影、边沿等特征得到车辆候选区域。在得到候选区域后, 利用模板匹配、SVM等方法进行确认, 最终检测到车辆。但是这些方法对图像要求较高, 需要车辆在图像中显现出明显的外形特征, 难以用于夜间的车辆检测。因此, 夜间场景的车辆检测是一个研究难点。

夜间环境下, 光照条件较差, 难以获得车辆的外形特征。但此时, 汽车会打开前照灯及车尾灯, 高亮度的车灯就成为车辆的主要特征, 可以作为检测的依据。目前不少基于视觉的夜间车辆检测方法均将车灯检测作为了主要检测手段。一般过程为, 利用固定阈值对图像进行二值化, 提取亮度高的区域。然后, 对高亮度区域进行先验知识的分析, 如形状、对称性等, 最终实现车灯检测, 进而实现车辆检测。

但是这种方法存在一定的局限性。首先固定的阈值对环境的适应性不好, 当遇到光源较多的场景, 容易出现干扰区域。其次, 随着人们对个性化的需求提高, 车灯也呈现各种形状。仅靠圆形等规则形状作为检测依据也不妥当。最后, 仅使用基于车灯的检测方法, 并不能保证每一帧图像都准确检测。一旦出现漏检, 这种方法没有补救措施, 就可能在汽车的高速行驶下造成不利影响。

针对传统方法的这些局限性, 本文提出一种基于车灯检测并结合跟踪方法的夜间车辆检测技术。利用最大类间方差法自适应地确定灰度阈值, 实现图像的二值化。针对车尾灯, 基于颜色信息进一步减少搜索范围。再根据先验知识, 寻找匹配的车灯对, 作为车辆区域。引入跟踪的方法, 对检测出来的车辆区域进行跟踪, 保证在出现漏检时仍然可以提供车辆位置信息。另外, 对于偶然出现的误识别, 通过对比跟踪和车灯检测得到的结果, 可以进行剔除。

2 车灯检测

车灯区域最主要的特征就是亮度高。因此, 首先在亮度空间自适应地确定阈值, 对图像进行二值化。然后搜索图像中的连通区域, 作为候选车灯。接着, 使用先验知识对候选车灯进行匹配, 匹配成功的即为车灯区域。

2.1 自适应亮度阈值

车灯检测的第一步, 是要是用二值化的方法将图像中亮的区域与暗的区域进行分割, 进而从亮的区域寻找可能的车灯位置。但是, 由于夜间道路上光照条件复杂, 如重要路段处, 路灯与车辆较多, 路灯与车灯的照射, 使得整个画面中像素点的亮度值均较高。此时车灯所在区域与其他区域亮度值差值较小。于此相反, 若在乡间小道, 光源较少, 车灯处亮度值明显大于其他区域。此时, 若使用固定的阈值, 在当前场景适用的阈值, 在其他场景可能过于严苛或宽松, 对车灯检测造成很大障碍。因此, 自适应的阈值选择机制, 对于车灯检测是十分重要的。

本文使用了最大类间方差的方法进行自适应的阈值选择, 并对如图1所示的原始图像进行处理。该方法是一种基于聚类的图像二值化方法。它的使用前提是假定图像中根据亮度值特征分为两类像素。而最佳阈值使两类像素的类内方差最小, 即类间方差最大。最大类间方差的方法可以有效分割图片中亮度高的区域, 并且面对变化的环境有很好的自适应性。如图2所示, 尽管有路灯和道路、车辆反光等影响, 但输出的图像里车灯区域十分清晰, 说明最大类间方差法是有效的二值化方法。

2.2 基于形态学的车尾灯配对方法

经过图像二值化之后, 得到的图像主要反映了亮度超出阈值区域的形态。通过一系列形态学的处理, 可以使车灯凸显出来, 并通过先验知识, 将车灯检测出来。

尽管经过二值化处理, 并且应用了自适应的阈值, 可以消除大部分噪声像素点的影响。但是夜间光线条件极差, 摄像头采集到的图像有很多噪点。仍然无法完全避免孤立的噪点对算法的影响。先使用开运算消除图像中的孤立噪点, 平滑较大物体的边界。接着使用闭运算, 填充物体内部, 使较大的物体内部得到填充, 形成连通区域。如图3所示, 从图中可以发现, 图像经过形态学处理后, 孤立的噪点通过上述处理基本已被过滤。车灯所在区域形成一个闭合的连通区域, 且面积未受影响。

接下来对图像中白色区域的特征进行分析。因为车灯是一种人工物体, 具有与反光等干扰源相比, 有很强的特点。因此, 可以总结车灯的特征, 通过先验知识建立如下约束:

(1) 单个车灯大小不超过阈值。车灯作为一个单独模块, 其的大小相对固定。

(2) 面积一致性。两个车灯之间的面积差异不能太大。

(3) 两车灯处于同一水平区域。车灯间宽度通常为1.7m, 且纵坐标相近。

通过这些约束, 可以找到配对的车灯。但在实际环境中, 成对的信号灯也可能符合上述约束, 造成误检测。此时, 引入摄像头针孔模型, 近似认为车尾灯贴近地面, 可以排除上图中信号灯对于检测结果的影响。最终检测到车辆尾灯, 标记尾灯, 并框选出车辆位置。

3 基于粒子滤波器的车辆跟踪

使用上述方法进行车辆检测, 并不能保证每一帧图像中的车辆都能够被识别出来, 即单纯的车辆检测方法有一定的漏检几率。此时车辆检测将出现漏检。在实际的驾驶过程中, 1秒的漏检都可能带来危险。因此引入目标跟踪的方法, 避免车辆的漏检, 提升可靠性。

粒子滤波是一种基于蒙特卡洛方法的滤波算法。这种方法广泛应用于SLAM (即时定位与地图构建) 等领域。粒子滤波器首先提取跟踪目标的特征, 再在待检测图像上均匀分布检测粒子。粒子计算所在区域的特征值, 并将其与跟踪目标的特征值对比, 以最相近处为跟踪区域。下一帧图像, 粒子滤波器对图像进行重采样, 但在本文的应用场景下, 因为汽车的位置不会突变, 可以使用符合高斯分布的粒子分布方式进行采样, 跟踪到新的区域。

此处用于跟踪的特征选取HOG特征。在图像中, 局部目标的表象和形状能够被梯度或边缘的方向密度分布很好地描述。HOG对图像几何或光学的形变都能保持很好的不变性。因此, HOG特征非常适合用于车辆的跟踪。

当车辆检测模块出现漏检时, 车辆跟踪模块可以使用最后一次记录的车辆区域特征值进行跟踪, 保证检测过程的连续性。

4 实验结果分析

在实验中, 得到如图4所示的输出图像。

从图中可以看出, 此时车辆所处的环境, 光照条件较差, 图像有很多噪点, 地面、路牌等的反光是严重的干扰源, 且路灯、信号灯与车灯十分相似。但检测系统可以准确地检测到匹配的车灯, 将与车灯极其相似的信号灯过滤, 最终准确标记出车灯位置和车辆区域。

5 结论

夜间环境下的车辆检测是车辆检测技术中的一大难点。本文提出了一套基于车灯的夜间车辆跟踪检测方案, 利用自适应阈值法提取可能的车灯位置, 根据先验知识得到实际车灯区域。同时, 结合目标跟踪的方法, 保证检测过程连续, 避免漏检。实验结果说明本文提出的方案在实际的夜间行驶中, 能够有效地实现准确的车辆检测。

参考文献

[1]Z.Sun, R.Miller, G.Bebis, and D.Di Meo, “A Real-Time Precrash Vehicle Detection System”, Proc.IEEE Int’l Workshop Application of Computer Vision, 2002.

[2]R.Chellappa, G.Qian, and Q.Zheng, “Vehicle Detection and Tracking Using Acoustic and Video Sensors”, Proc.IEEE Int’l Conf.Acoustics, Speech, and Signal Processing, 2004.

[3]Amitabha Basu, Arpit Awasthi, Chandrakant Khandelwal, Jitendra Deshpande, ”Night Time Vehicle Detection for Adaptive Beam and Collision Avoidance Systems”, SIAT, 2013

第一单元跟踪检测卷 篇4

一、填一填。(每空2分,共28分)

1.右边的三个图形分别是从什么方向看到的?填一填。

2.用一些小正方体搭成一个几何体,从两个角度观察所得的图形如下,那么这个几何体最多是由()个小正方体搭成的。

3.再添一个同样大小的小正方体,小明就把小丽搭的积木(图1)变成了十种形状(图2)。

图1            图2

(1)从左面看,小明搭的积木中,()的形状和小丽搭的是相同的。

(2)从正面看,小明搭的积木中,形状相同的是(),或者(),或者()。

4.添1个小正方体(添加的小正方体与其他小正方体至少有一个面重合),若使右图的几何体从左面看到的图形不变,有()种摆法。

5.小明用正方体积木搭成了一个几何体,从正面和上面看到的图形

都相同,如下图。

(1)从上面看,摆()个正方体就够了。

(2)从正面看,第二层至少需要摆()个正方体。

(3)搭这个几何体,至少需要()个正方体。

6.用5个同样的正方体搭成一个立体图形,从一个方向最多可以看到()个正方体,最少可以看到()个正方体。

二、辨一辨。(对的在括号里打“√”,错的打“×”。每题2分,共10分)

1.如果从正面看一个几何体得到的图形是,这个几何体一定是由2个小正方体搭成的。

()

2.同一个几何体从不同的方向看到的图形可能相同,也可能不同。

()

3.一个几何体是用相同的小正方体搭成的,从正面看到的图形是,从左面看到的图形是,小正方体一定只有4个。

()

4.左边三个几何体从正面看到的图形都是。

()

5.()

三、选一选。(将正确答案的序号填在括号里。每空2分,共14分)

1.由5个小正方体摆成的立体图形,从正面看到的形状是,从左面看到的形状是,下列立体图形不符合的是()。

2.一个几何体,从正面看到的是,从左面看到的是,摆成这样的几何体至少需要()个小正方体。

A.4

B.5

C.6

D.8

3.如下图,从正面看是图(1)的立体图形有();从左面看是图(2)的立体图形有();从左面和上面看都是由两个小正方形组成的立体图形是()。

4.小刚搭的积木从上面看到的形状是,小正方形上的数表示在这个位置上所用小正方体的个数。从正面看是(),从左面看是()。

四、我会按要求正确解答。(共48分)

1.哪个几何体符合条件?在括号里打“√”。(每题4分,共8分)

(1)

(2)

2.右面的三个几何体,哪个符合左面的三个条件?把它圈出来。(3分)

3.画一画:把下面的几何体从正面、上面、左面观察到的图形在方格纸上画出来。(9分)

4.空间想象能力。(每空4分,共8分)

搭的这个立体图形,从正面看到的图形是________,从左面看到的图形是________。

5.搭一搭,想一想。(共12分)

(1)从正面看到的是的有();从左面看到的是的有()。(4分)

(2)从上面看到的是的有()。如果从上面看到的和⑤一样,用5个小正方体摆一摆,有()种不同的摆法。(4分)

(3)你还能提出一个什么问题并解答?(4分)

6.观察下图,回答问题。(共8分)

(1)这个几何体是由多少个小正方体搭成的?(4分)

(2)取走哪个小正方体后,从正面、上面、左面看到的图形仍然保持不变?请你把那个取走的小正方体涂色。(4分)

答案

一、1.正 左 上 2.7

3.(1)①⑤⑦⑧(2)①⑤⑦ ④⑥ ③⑧⑨⑩

4.4 5.(1)3(2)1(3)4 6.5 1

二、1.× 2.√ 3.√ 4.×

5.× 【点拨】可以观察后面的几何体,看是否与前面的一致。

三、1.C 2.A 3.AD ABC A 4.B C

四、1.(1)

(2)

2.3.4.① ④

5.(1)②、④、⑥ ⑤、⑦、⑧、⑨

(2)③、⑧、⑨ 4

(3)(答案不唯一)如:从右面看到的是的有(②、⑥、⑩)。

6.(1)20个 【点拨】列式为1+3+6+10=20(个)。

(2)

夜间车道线检测与跟踪算法研究 篇5

汽车智能辅助安全驾驶系统的前提在于快速准确检测与跟踪车道线,以正确划分本车的有效驾驶区域,为测量前车的距离和速度做准备。目前,对于白天车道线检测的研究,由于光照充足,车道线与路面之间对比度大,因此很容易利用各种常规边缘检测算子获得清晰的车道轮廓信息,然后选取合适的阈值对图像进行二值化处理,最后采用Hough变换识别车道线[1,2,3]。然而,由于夜间光线不足,光照复杂,夜间图像的光强分布不能直接反映车道线本身的突变性质,所以白天车道线检测所用的常规边缘检测算子在夜间工作时失效。因此,本文在车道线检测时采用了一种基于光密度差的对数Prewitt边缘检测算子,以消除夜间光照不均匀对车道线检测的影响。另外,目前白天车道线的跟踪研究主要采用固定区域法或者Kalman滤波法,根据前一帧车道线检测的结果来划分感兴趣区域,以实时跟踪车道线[3,4,5,6]。然而,固定区域法对两帧图像的相关性依赖大,划分感兴趣区域大,实时性差;Kalman滤波法划分感兴趣区域小,在夜间容易产生检测误差,而造成跟踪误差累积,跟踪正确率不高。因此,本文在车道线跟踪时提出了一种融合固定区域法和Kalman滤波法划分感兴趣区域的新方法。

1 算法总体设计

夜间车道线的检测与跟踪算法分为单帧车道线的检测和连续车道线的跟踪两个部分,具体流程如图1所示。

对于夜间单帧车道线的检测,算法首先对车道图像进行必要的预处理,去除噪声并确定有效检测区域。然后采用基于光密度差的对数Prewitt边缘检测算子,以获得清晰的车道线轮廓。接着选取合适的阈值将含车道轮廓的图像二值化并进行细化处理。最后在有效检测区域内进行Hough变换,以确定车道线在图像中的位置,同时累加帧数计数器,记录本帧车道线的基本信息。

对于夜间连续车道线的跟踪,算法前半部分与单帧车道线的检测相同,都需要进行图像预处理,基于光密度差的Prewitt边缘检测,二值化与车道轮廓细化等操作。其核心部分在于:当算法进行第二帧处理并在跟踪有效的情况下,需根据前一帧图像中车道线检测的结果,将固定区域法和Kalman滤波法结合起来划分感兴趣区域,并在该区域内进行Hough变换,实时跟踪车道线。

算法通常在处理第一帧车道图像时直接进行车道线的检测,而在处理第二帧图像起,开始进行车道线的跟踪。每次跟踪车道线之前要对每帧车道图像进行跟踪有效性判别:若跟踪有效时,累加帧数计数器,记录本帧车道线的基本信息,同时转到下一帧的车道线跟踪部分;若跟踪失效时,立即将帧计数器置为1,同时转到车道线检测部分。重复上述过程直到用户终止该算法。

2 图像预处理

图像预处理包括:去除CCD摄像机实时采集车道图像时产生的各种噪声;划分车道检测有效处理区域。车道图像去噪可采用均值滤波法、高斯滤波法和中值滤波法处理。车道检测有效处理区域的划分则要根据摄像机的焦距、水平角和俯仰角等参数,计算出成像的视场,在视场中确定车道消失点以下的区域为包含车道的有效区域,从而去除亮度较高的夜空等干扰,减少图像处理的运算量[7]。车道原图和图像预处理后的结果分别如图2、图3所示。

3 基于光密度差的对数Prewitt边缘检测

由于夜间图像像素的灰度值g(x,y)可以表示为入射光强i(x,y)与物体表面反射率r(x,y)的乘积,如式(1)所描述[8]:

g(x,y)=i(x,y)r(x,y)(1)

式中入射光强反映了成像的光照条件,而物体表面反射率才是物体的固有属性,所以通过求车道线与路面之间反射率的变化Δr(x,y)就能检测出明显的车道轮廓。对式(1)取对数可得光密度log[g(x,y)]的表达式如下:

log[g(x,y)]=log[i(x,y)]+log[r(x,y)](2)

由式(2)可知,一幅图像的入射光强是相同的,所以光密度之差即消除入射光强的影响,反映了物体反射率之差。由于对数Prewitt算子[9]如式(3)所示,即反映了像素之间光密度之差,所以可用其进行夜间车道图像的边缘轮廓的检测。

A(x,y)={log[Ρ(x+1,y-1)]+log[Ρ(x+1,y)]+log[Ρ(x+1,y+1)]}-{log[Ρ(x-1,y-1)]+log[Ρ(x-1,y)]+log[Ρ(x-1,y+1)]}B(x,y)={log[Ρ(x-1,y+1)]+log[Ρ(x,y+1)]+log[Ρ(x+1,y+1)]}-{log[Ρ(x-1,y-1)]+log[Ρ(x,y-1)]+log[Ρ(x+1,y-1)]}G(x,y)=|A(x,y)|+|B(x,y)|(3)

4 二值化阈值的选取

完成基于光密度差的对数Prewitt边缘检测后,要对图像进行二值化处理,以便利用Hough变换进行车道线检测。由于光密度的微分d[log(I)]=dI/I表示光强变化与光强的比值,恰好是对比灵敏度的定义。由文献[9]可知,人眼的对比灵敏度在光强的中高强度区域内是一常量,约为0.02,也称韦伯比。因此,在韦伯比的光强范围内,相等的光密度变化必然有相等的刚刚可辨认的光强变化。利用这条性质可以直接二值化对数Prewitt边缘检测后的图像。

由于对数Prewitt边缘检测算子共进行6次减法运算,不考虑噪声的影响,理想情况下光密度差取韦伯比,即0.02,所以中高强度区域的灰度二值化阈值为0.12;而低强度区域的灰度二值化阈值,可用一段抛物线表示。综合上述两种情况,给出具体阈值公式如下:

ΤΗ=A[(Ι-B)/B]2+C,0ΙBΤΗ=C,BΙ255(4)

由于在繁华的市区和高速公路两旁,光照不同,式(4)中A,B,C的取值亦有所不同。实验显示:

繁华市区车道,阈值可能受到一定噪声干扰,光密度差定义应比理想情况稍大些,可取0.025,此时背景相对较亮,可定义灰度低于60为低强度区,则A,B,C分别取2.5,60,0.5。

高速公路车道,阈值受噪声干扰程度更大,光密度差定义应比理想情况大得多些,可取0.03,此时背景相对较暗,定义灰度低于30为低强度区,则A,B,C分别取2.5,30,0.18比较合适。

根据以上阈值进行二值化的图像如图4所示。

5 车道轮廓细化

经对数Prewitt算子检测后的二值图像虽然包含了车道的轮廓,但为了用Hough变换检测出车道线的内外边缘,还需在保持车道线拓扑结构不变的情况下将其收缩为单像素,即车道轮廓细化。为提高算法的效率,可采用最简单且常用的Hilditch细化算法[9],结果如图5所示。

6 Hough变换

由于高等级公路的直道多,弯道少,即使有弯道,弯道的曲率也很小,而且CCD摄像头的焦距较大,可近似将曲率很小的弯道当作直道处理,所以本文采用Hough变换检测车道线的方法是建立在道路直线这个假设基础上的[3]。对有效区域实施Hough变换后车道线检测结果如图6所示。

7基于固定区域法和Kalman滤波法的感兴趣区域划分

车道原图中,路面上的大部分信息对车道线的跟踪是不需要的,真正有效的区域只集中在道路标识线附近一个很小的区域内,即感兴趣区域。划分感兴趣区域的目的是直接去除离车道线很远,明显对车道线检测没有帮助的区域,不对其进行任何处理,从而节省了大量的计算时间,明显提高算法的实时性[7]。

划分感兴趣区域的方法有固定区域法和Kalman滤波法。用固定区域法划分感兴趣区域的优点是方法简单,缺点在于划分感兴趣区域依赖于相邻两帧图像的相关性。当车速低时,各帧图像间的相关性大,划分的感兴趣区域小。但是随着车速加大,各帧图像间的相关性减小,感兴趣区域就取得很大。此时就会严重影响系统的实时性。因此,为了能够根据图像处理的历史数据动态调整感兴趣区域的大小,提高系统的实时性,本文引入Kalman滤波法。然而,该方法是利用前面所有的结果来预测下一时刻的位置,如果单独采用该法进行车道标识线的跟踪,一旦预测出现粗大误差,就会影响到后面一系列的跟踪效果。为了提高车道线跟踪的可靠性和实时性,本文采用了基于固定区域法和Kalman滤波法融合的方法来划分感兴趣区域,从而发挥两种方法各自的优点,避免各自的缺点。

两种方法融合的原理是:如果基于Kalman滤波的方法预测的感兴趣区域在固定区域法预测的感兴趣区域内,则Kalman滤波法预测更准确,并按照该方法预测的感兴趣区域进行车道线跟踪;如果Kalman滤波法预测的感兴趣区域与固定区域法预测的感兴趣区域相交,为了提高跟踪的可靠性,则认为Kalman滤波法预测的感兴趣区域不够准确,此时取两种方法预测的感兴趣区域的并集;如果Kalman滤波法预测的感兴趣区域与固定区域法预测的感兴趣区域不相交,则认为Kalman滤波法出现较大误差,此时应按固定区域法预测的感兴趣区域进行跟踪。

8 跟踪有效性判别准则

当车道线被前车或其他物体严重遮挡,或车辆换道或转弯时,车道线跟踪模式就会失效。实际应用中,为保证算法能在跟踪模式失效的情况下及时恢复对车道线的正确检测,每次进入车道线跟踪前要对每帧车道图像进行跟踪有效性判别。具体方法如下:在感兴趣区域内,当连续2次用Hough变换检测出车道线两侧中任何一侧车道线像素数低于某一固定值,或者检查当前帧的车道线参数与上一帧相比发生突变时,即认为跟踪失效,否则认为跟踪有效。其中,两帧车道线检测突变的判断依据要实验确定,通常认为两帧车道线的斜率变化量不应超过3°,截距不应超过15个像素。

9 实验结果

本文以光照条件较差的高速公路车道线的检测与跟踪为例,对前述算法进行了实验验证。实验时黑白CCD摄像机安装在车辆前挡风玻璃后部中央位置,车道线的检测与跟踪处理算法用C++ Bulider 6.0编程实现,在研华PC104工控机(CPU为Pentium M 1.6 GHz,内存为1 GB)上运行。算法以10帧/s的采集速度在合宁高速公路上实验,选取其中的600帧车道线图像序列进行分析,实验结果如图7所示。

算法对第1帧车道图像进行车道线检测状态,车道线检测准确。第2帧车道图像随即进入车道线跟踪状态,一直持续到第562帧车道图像。这一过程中,即使出现如第300帧所示在远方有一定弯曲的车道线,算法也能准确地跟踪上车道线。车道图像在第563帧时出现偏差,算法根据跟踪有效性判别准则,判别此时跟踪失效,所以到第564帧时转入车道线检测状态,并很好地检测出车道线。之后算法又转回车道线跟踪状态。在有效区域检测一帧图像车道线的处理时间大概为80 ms,而用基于固定区域法和Kalman滤波法划分感兴趣区域跟踪车道线的平均处理时间在42 ms左右。仿真结果表明,本算法基本满足高速公路上汽车辅助驾驶系统对准确性和实时性的要求。

10 结 语

本文根据夜间公路照明不均的特点,在检测单帧车道线时,采用先基于光密度差进行非线性边缘检测,以消除影响,后进行Hough变换的方法,提高了夜间车道线检测的准确性。在跟踪连续车道线时,提出固定区域法融合Kalman滤波法划分感兴趣区域,并在感兴趣区域进行Hough变换的方法,提高了夜间车道线跟踪的实时性。另外,由于加入了跟踪有效性判别准则,算法能及时处理跟踪失效的情况,更适合于实际应用。惟一不足的是目前算法只能检测与跟踪直线型车道线,而任意形状车道线的检测与跟踪需要进一步研究。

参考文献

[1]郭磊,王建强,李克强.存在车辆干扰的车道线识别[J].汽车工程,2007,29(5):372-368.

[2]王荣本,余天洪,郭烈,等.强光照条件下车道标识线识别与跟踪方法[J].计算机应用,2006,26(6):32-34.

[3]田炳香,郑榜贵,吴晴.高速公路车道线检测与跟踪算法研究[J].现代电子技术,2008,31(9):180-183.

[4]Aufrere R,Chapuis R,Chausse F.A Modeldriven Approachfor Real-time Road Recognition[J].Machine Vision andApplication,2001,13(1):95-107.

[5]Redmill K A,Upadhya S,Krishnamurthy A.A Lane Track-ing System for Intelligent Vehicle Applications[J].IEEE,2001:273-279.

[6]Seung Gweon Jeong.Real-Time Lane Detection for Auton-omous Navigation[A].2001 IEEE Intelligent TransportationSystems Conference Proceedings[C].Oakland(CA),2001:508-513.

[7]苗冬霜.基于单目视觉的道路检测与跟踪的研究[D].秦皇岛:燕山大学,2006.

[8][美]Rafael C Gonzalez,Richard E Woods.数字图像处理[M].北京:电子工业出版社,2007.

基于运动检测的目标跟踪算法研究 篇6

首先将摄像机拍摄的模拟图像转化成计算机能识别和处理的数字图像, 再运用数字图像相关算法进行处理和存储。运动目标检测主要检测出图像特定区域的运动物体并标注, 目标跟踪算法对运动物体进一步识别并对它在视野中的路径进行跟踪。在前景中找到运动目标, 获取特征后反馈给跟踪系统, 跟踪系统就根据获取的运动目标的特征进行跟踪, 是行为分析和图像理解的重要依据。

1 运动目标检测

运动目标检测是运动目标跟踪的基础, 只有检测到了运动目标, 才能利用目标跟踪算法进行运动目标的跟踪。所谓运动目标检测, 就是运用数字图像处理方法找出视频中连续帧间的相关性, 检测出视频中运动物体的位置和大小。运动目标检测的基本方法主要有三种:帧间差分法, 背景差分法和光流法。

1.1 帧间差分法

帧间差分法主要是对连续两帧图像作差, 如果对应像素点无差别则认为其为背景像素点, 否则为运动前景。最后遍历整帧图像得到的检测结果为两帧图像中运动前景所在位置。从理论上来说检测结果并不是运动前景的完整表示, 一般情况下为了消除噪声影响会设定一个阈值K对差值结果进行二值化。

当摄像头固定时不需要背景图像也能检测出运动目标, 算法简单保证运动目标跟踪的实时性。运动目标整体颜色很相似时只能检测出运动目标边界;如果运动目标的速率太快, 检测结果会是两个分离的运动目标;如果时间间隔太短, 两帧图像中运动目标就会在同一位置, 运动目标被误当成背景差分掉了, 导致检测不出运动目标。

假设在t时刻当前帧像素点 (x, y) 处的像素值为f (x, y, t) , t时刻背景模型中像素点 (x, y) 处的像素值f (x, y, t-l) , 则背景差分法的数学表达式为:

然后对背景差分后的结果图像二值化:

其中fout (x, y, t) 为输出的检测结果, K为所设的阈值。

当摄像头固定时不需要背景图像也能检测出运动目标, 并且算法简单, 所以实际应用中可以保证实时性。但是当运动目标速率太快, 或者与背景颜色接近时效果不太理想。

1.2 背景差分法

背景差分法算法简单、对硬件的要求低, 同时运动目标检测的速度快、当背景环境不发生变化时, 精确度很高, 基本原理是用视频中当前帧与背景图像作差。当运动目标与背景的差别较大时, 不仅能检测出运动目标的位置, 而且能准确的检测出运动目标的大小。最关键步骤是得到准确的实时背景图像, 常见的背景建模方法主要有中值法, 均值法, 卡尔曼滤波器法, 单高斯分布法, 多高斯分布法。

假设在t时刻当前帧像素点 (x, y) 处的像素值为fn (x, y, t) , t时刻背景模型中像素点 (x, y) 处的像素值fb (x, y, t) , 则背景差分法的数学表达式为:

然后对背景差分后的结果图像二值化:

其中fout (x, y, t) 为输出的检测结果, K为所设的阈值。

一般情况下在对检测结果二值化以后都需要对其连通性进行分析和数学形态学处理, 以去除检测结果内部的空洞和图像中出现的噪声, 同时也可以对运动目标的分裂和多个运动目标融合的情况进行分析。由公式可以看出背景差分法最关键的步骤是得到准确的实时背景图像。

1.3 光流法

光流法其实是目前运动目标检测最准确的算法, 算法复杂度高。它主要是把三维空间中的运动投影到二维的平面中就会呈现中光流的表象, 通过二维平面中每一个像素的灰度信息的分析得到灰度运动的瞬时速度。在摄像机固定的时候, 背景一般不会发生变化, 所以其灰度不变, 其对应的光流为0, 也就是说光流不为0的地方就是前景, 当摄像机运动的时候可以分析像素灰度的相对运动来检测运动目标。

外界的光线变化时即使没有运动目标也会产生光流;灰度等级不够时由于被量化, 变化被隐藏观测不到光流。

2 运动目标跟踪

运动目标跟踪建立在运动目标检测基础上, 是计算机视觉领域的重要内容。目标跟踪主要分为特征提取和匹配搜索两个步骤。主要有基于目标模板的跟踪、基于目标特征的跟踪、基于目标区域的跟踪及基于目标轮廓的跟踪四种基本跟踪方法。

2.1 基于模板的跟踪

模板匹配法是最基本的算法, 基本原理是用运动目标的像素信息作为模板, 选用一种搜索算法用当前帧中搜索区域与模板进行比对, 判断的标准主要依据相似性度量, 核心是获得正确目标模板。

2.2 基于特征的跟踪

基于特征的跟踪是最普通的目标跟踪, 首先对目标的特征进行提取, 常见特征提取方法有不变矩特征、颜色特征、空间直方图特征等, 然后找到一种相似度量进行目标匹配。基于灰度图像相关度量有ABS (Absolute balance search) , 归一化相关匹配, 直方图匹配等算法。

2.3 基于区域的跟踪

基于目标区域的跟踪把检测到的运动目标区域当作目标模板, 用运动目标的颜色信息进行匹配。运动目标以颜色作为相似度量, 特征的提取主要包括以像素值统计为基础的颜色直方图, 以图像像素的矩为基础的颜色矩以及以视觉颜色空间为基础的颜色集。

2.4 基于轮廓的跟踪

基于目标轮廓的跟踪首先表示出运动目标的大体轮廓信息, 然后将目标边界作为特征模板进行搜索。比较经典的搜索算法主要有全局搜索, 分布搜索, 钻石搜索以及改进的三步搜索和四步搜索法。

3 相关性度量算法

目标的匹配通过计算相关性实现, 方法主要有ABS和归一化相关匹配。ABS匹配算法主要是用从运动目标中获取的像素模板图像与视频序列中的图像的像素值的差的绝对值来表示二者的相关性, 找出相关性最大的点作为最佳匹配点。常用算法有最小均方误差 (MSE) , 最小平均绝对值差值 (MAD) , 最大匹配像素统计 (MPC) 。归一化互相关匹配算法通过计算目标模板与当前帧图像互相关性匹配, 互相关性最大点就是最佳匹配点。

4 结语

目前运动目标的跟踪算法还存在一些尚未很好解决的共性问题, 如跟踪过程中目标性状、尺寸、位置、运动方向的改变;背景环境及光照条件的改变;目标被遮挡及部分遮挡的情况等。如何利用DSP等实现运动目标的实时性检测与跟踪, 多个摄像机之间如何进行联合跟踪, 这些问题都需要进一步探索和研究。

参考文献

[1]庞国瑞, 葛广英, 葛菁等.基于金字塔多分辨率和钻石搜索的目标跟踪算法及其在DSP上的实现[J].数据采集与处理, 2012, 27 (6) 710-716.

视频序列中目标的检测与跟踪 篇7

目标的检测与跟踪涉及到人工智能、机器视觉、生物医学、自动控制等多个学科,近年来,随着计算机技术的发展,得到了广泛的研究与应用[1]。目前比较流行的目标检测算法包括帧间运动估计和背景差分的方法,帧间运动估的方法是利用图像序列中相邻帧图像之间的差来提取图像的运动区域的。该方法实现简单,但只能检测相对运动的目标,并且检测出目标的位置不够精确。背景差分法首先定义视频图像的特定帧为背景,然后将当前帧和背景进行差分比较,如果同位置的像素特征、像素区域特征或其他特征的差别大于选定的阈值,则当前帧中该位置的像素区域就判定为前景目标区域,反之则为背景。该方法容易受到光线亮度变化的影响[2]。基于上述原因,本文提出了一种基于时间序列的编码建模算法,该算法能够解决像素剧烈变化的问题,可以提高复杂背景下目标检测的稳健性。目标的跟踪是通过算法获得目标在特定时间段上的运动轨迹,包括目标的产生、运动和销毁三个过程。由于算法中涉及到帧间目标空间位置的测量,在传统的跟踪算法中,当目标数目增加的时候,算法的时间复杂度呈指数形式增加。本文在分析上述问题基础上,将KD-Tree方法[3]引入目标跟踪算法之中,降低了算法的时间复杂度,同时降低了算法对目标数目的敏感程度,实现了高精度、高效率的目标检测与跟踪。

1 目标检测

很多场景都包含复杂的运动目标,诸如摇曳在风中的树、转动的风扇、摆动的窗帘等。通常这种场景中还有光线的变化。解决这个问题最好的方法是采用基于时间序列的编码建模算法,对每个像素或者一组像素建立时间序列模型,在每个像素点进行抽样,根据颜色扭曲尺度和亮度边界聚类获得编码本的集合,并不是所有像素点拥有相同数量的编码本数量。通过编码本表示的聚类子不需要对应单个高斯分布或者其他参数的分布,因此该编码方式是以像素为基础的。

归一化颜色算子是用来处理全局和局部亮度变化的方法,该技术在图像的暗色区域效果不理想,因为颜色比率的不确定性与亮度相关,所以灰度级低的像素点相对与灰度级高的像素点不确定性更高。这些不确定性使灰度级低的区域变得不稳定,在可能聚集在低灰度级的区域造成无检测[4]。本文通过建立颜色模型来估计颜色的亮度和扭曲,该模型依赖于编码元素主轴界定在亮度值高低边界的背景像素值。对于输入像素点pixi=(B,G,R)和编码本ci,定义Vi=(Bi,Gi,Ri),可得

pixi2=B2+R2+G2(1)

Vi2=Bi2+Gi2+Ri2(2)

由式(1)和式(2)可得

(pixi,Vi)2=(BiB+GiG+RiR)2 (3)

颜色扭曲度为

colordst(pixi,Vi)=pixi2-u2(4)

u2可以由式(5)求解

u2=(pixi,Vi)2Vi2(5)

此外,统计地分配亮度变化的最大和最小值,将其赋给一个编码本,在特定的范围内限制阴影水平和焦点水平,能够有效地适应亮度的变化。为了去除图像中引入的噪声,首先对目标检测完成的图像进行3×3的中值滤波,然后进行形态学处理,使待检测的目标形成一个完整的连通域,并在一定程度上消除中值滤波无法消除的噪声,最终得到比较理想的目标图像。

不同处理阶段目标检测的结果如图1所示。可以看到,在经过上述处理,得到了完整的目标。

2 目标跟踪

目标跟踪是建立在目标检测的基础上的,即确定实时视频帧中检测到的目标的运动轨迹,这种轨迹的建立可以通过目标特征的匹配来实现,通常采用的特征信息有目标的位置、尺度、形状以及颜色等。本文采用目标的位置(即每个目标的质心坐标)建立运动模型,实现目标轨迹的精确匹配。

将每帧图像检测出的多个目标同上一帧图像检测出的目标进行比较并分类,主要有3种情况:1)当前目标是由上一帧中某个目标运动得到的(运动速度大于或等于0);2)当前目标在上一帧中没有出现,是新增加的目标;3)某些目标在上一帧中出现过,但在当前帧消失了。

在跟踪用摄像机完整标定的情况下,视场中的目标的运动速度会保持在某个区间之内,即可以通过实验的方法确定某一类别目标的最大运动速度,因为摄像系统的帧率是一定的,所以可以确定目标在两帧之间的时间间隔内的最大位移,定义为D_max,以此作为阈值条件。然后把上一帧的所有目标的质心坐标放在一个数组中,作为一个待遍历的集合Vec。将当前帧的每一个目标的质心坐标在集合Vec中寻找出与之几何距离最近的对应目标A,然后计算该距离dD_max的关系:1)如果dD_max,当前帧的目标是从上一帧的目标A运动得到的;2)如果d>D_max,当前帧的目标是新增加的目标;3)如果在上一帧的目标中存在没有和当前帧目标相对应的,则说明没有对应的这些目标在当前帧中消失了。

针对上述3种情况,本文采用KD-Tree算法[5]实现目标跟踪。KD-Tree算法是一种由二叉搜索树推广而来的用于多维检索的树的结构形式(K即为空间的维数,此处定义K=2)。与二叉搜索树不同的是,它的每个结点表示k维空间的一个点,并且每一层都根据该层的分辨器对相应对象做出分枝决策。顶层结点按由分辨器决定的一个维度进行划分,第二层则按照该层的分辨器决定的另一个维度进行划分,以此类推在余下各维之间不断地划分。直至一个结点中的点数少于给定的最大点数时,结束划分。

如图2所示,在二维空间内存在点A,B,C,D,E,首先以A点的y维度为起始点,将点集分为2个部分,然后在左右2个子树中以B点和C点的x维度将左右2个子树分为2个部分,以此类推,在B点、C点各自的子树当中,以D点、E点的y维度对其子树划分,遍历集合当中的每一个点,就可以得到1个完整的KD-Tree。目标轨迹建立的过程就是在KD-Tree中搜索最近点的过程,采用KD-Tree进行最近点搜索可以提高系统的工作效率。

算法流程如下:

1)定义目标质心点坐标存储结构体,即

typedef struct Blob2D32f

{

int ID;

float x;

float y;

} kidBlob2D32f;

其中ID为每个目标对应的序号,xy分别为每个目标质心坐标的横、纵坐标值。

2) 将第i帧的每个目标(定义为Blobi,其中i=1,2,3,…,N)的横纵坐标按照Blob2D32f结构体形式进行存储,ID号从0开始顺次排列,然后存放在起始帧数组ArrayL中。

3) 将第i+1帧的每个目标的横纵坐标按照Blob2D32f结构体形式进行存储,ID号不填充,然后存放在当前帧数组ArrayN中。

4) 对起始帧数组ArrayL建立KD-Tree。

5) 定义D_max。

6) 遍历当前帧数组ArrayN中的每个Blobi,搜索其在KD-Tree中最短距离元素,定义最短距离为d

7) 如果d>D_max,则该Blobi为新当前帧新增加的目标,将其赋予一个新的ID;如果dD_max,则该Blobi为由上一帧的目标运动得到的,将其ID更新为ArrayL数组中与其距离最短的目标的ID,并将其对应元素在ArrayL数组中删除。

8) 遍历结束后,ArrayL数组中余下的Blobi即为上一帧存在但当前帧消失的目标,将其删除。

9) 将当前帧数组ArrayN中的元素更新到ArrayN数组中。

10) 循环执行步骤3)~9)过程,直到程序结束。

随着视频帧数据的不断采集,循环进行上述过程,即实现了目标的检测与跟踪。流程图如图3所示。

3 目标跟踪实验

采用三轴云台固定摄像机进行实验,视频图像分辨力为640×480,背景模型建立过程累积了35帧图像,在普通PC上目标检测与跟踪的速度可以达到25 f/s(帧/秒)。

图4分别为第4,6,26,150帧时目标跟踪的情况,可以看到,目标被完整地检测出来,在目标物像素尺寸相对整个视频帧图像的比例较大的时候,没有出现单一目标被误检测成多个目标的现象,且目标的运动能够被较好地跟踪。

4 结论

本文讨论了几种目标检测中背景建模的方法,并重点说明了背景差分的建模方法,对差分后的图像进行滤波和形态学处理之后,可以得到较完整的目标轮廓,并且通过KD-Tree算法对目标进行跟踪,大幅度提高了跟踪效率。

参考文献

[1]蔡荣太,吴元昊,王明佳,等.视频目标跟踪算法综述[J].电视技术,2010,34(12):125-127.

[2]潘翔鹤,赵曙光,柳宗浦,等.一种基于梯度图像帧间差分和背景差分的运动目标检测新方法[J].光电子技术,2009,29(1):34-36.

[3]SPROULL R F.Refinements to nearest-neighbor searching in K-dimen-sional trees[J].Algorithmica,1991,6(4):579-589.

[4]KIM K,CHALIDABHONGSE T H,HARWOOD D,et al.Real-time fore-ground-background segmentation using codebook model[J].Real-TimeImage,2005,11(3):172-185.

注:本文为网友上传,旨在传播知识,不代表本站观点,与本站立场无关。若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:iwenmi@163.com

上一篇:室内排球下一篇:教育研究现代化

付费复制
期刊天下网10年专业运营,值得您的信赖

限时特价:7.98元/篇

原价:20元
微信支付
已付款请点这里联系客服
欢迎使用微信支付
扫一扫微信支付
微信支付:
支付成功
已获得文章复制权限
确定
常见问题