基于检测跟踪

2024-10-03

基于检测跟踪(精选12篇)

基于检测跟踪 篇1

摘要:基于视觉进行夜间的车辆检测一直以来是个难点。本文提出一套基于车灯的夜间车辆跟踪检测方案。利用在夜间最明显的车灯特征作为检测依据。通过自适应阈值法和形态学方法对图像进行处理, 根据先验知识得到车灯位置。同时利用粒子滤波器进行目标跟踪, 保证了车辆检测的连续性, 取得了良好的检测效果。

关键词:机器视觉,车辆检测,目标跟踪

1 前言

有统计表明, 90%的交通事故是由于人的因素造成的, 危险来源于复杂的交通状况, 包括不合理信息、缺少信息以及过度紧张等。近年来, 随着计算机视觉等技术的进步, 以及传感器的发展, 高级驾驶辅助系统应运而生。在这其中, 基于前方车辆检测的驾驶辅助系统具有智能化、主动性强、适用性广等特点, 最受人瞩目。

目前的前方车辆检测的方法使用的传感器有雷达、激光、摄像头等。这其中, 摄像头相较于雷达、激光等主动式传感器, 具有信息丰富、可视范围大、价格低廉等特点, 更加适合大规模地应用。基于摄像头的检测方法, 又分为单目视觉和立体视觉两种。后者对摄像头校正要求高, 特征点匹配计算量大, 实时性差, 硬件要求高。因此, 现有的方法多是基于单目摄像头实现车辆检测的。

当前, 车辆检测的方法多是针对白天光照条件较好的场景。首先, 利用车辆作为人造物体与自然物体的差异, 如对称性、颜色、阴影、边沿等特征得到车辆候选区域。在得到候选区域后, 利用模板匹配、SVM等方法进行确认, 最终检测到车辆。但是这些方法对图像要求较高, 需要车辆在图像中显现出明显的外形特征, 难以用于夜间的车辆检测。因此, 夜间场景的车辆检测是一个研究难点。

夜间环境下, 光照条件较差, 难以获得车辆的外形特征。但此时, 汽车会打开前照灯及车尾灯, 高亮度的车灯就成为车辆的主要特征, 可以作为检测的依据。目前不少基于视觉的夜间车辆检测方法均将车灯检测作为了主要检测手段。一般过程为, 利用固定阈值对图像进行二值化, 提取亮度高的区域。然后, 对高亮度区域进行先验知识的分析, 如形状、对称性等, 最终实现车灯检测, 进而实现车辆检测。

但是这种方法存在一定的局限性。首先固定的阈值对环境的适应性不好, 当遇到光源较多的场景, 容易出现干扰区域。其次, 随着人们对个性化的需求提高, 车灯也呈现各种形状。仅靠圆形等规则形状作为检测依据也不妥当。最后, 仅使用基于车灯的检测方法, 并不能保证每一帧图像都准确检测。一旦出现漏检, 这种方法没有补救措施, 就可能在汽车的高速行驶下造成不利影响。

针对传统方法的这些局限性, 本文提出一种基于车灯检测并结合跟踪方法的夜间车辆检测技术。利用最大类间方差法自适应地确定灰度阈值, 实现图像的二值化。针对车尾灯, 基于颜色信息进一步减少搜索范围。再根据先验知识, 寻找匹配的车灯对, 作为车辆区域。引入跟踪的方法, 对检测出来的车辆区域进行跟踪, 保证在出现漏检时仍然可以提供车辆位置信息。另外, 对于偶然出现的误识别, 通过对比跟踪和车灯检测得到的结果, 可以进行剔除。

2 车灯检测

车灯区域最主要的特征就是亮度高。因此, 首先在亮度空间自适应地确定阈值, 对图像进行二值化。然后搜索图像中的连通区域, 作为候选车灯。接着, 使用先验知识对候选车灯进行匹配, 匹配成功的即为车灯区域。

2.1 自适应亮度阈值

车灯检测的第一步, 是要是用二值化的方法将图像中亮的区域与暗的区域进行分割, 进而从亮的区域寻找可能的车灯位置。但是, 由于夜间道路上光照条件复杂, 如重要路段处, 路灯与车辆较多, 路灯与车灯的照射, 使得整个画面中像素点的亮度值均较高。此时车灯所在区域与其他区域亮度值差值较小。于此相反, 若在乡间小道, 光源较少, 车灯处亮度值明显大于其他区域。此时, 若使用固定的阈值, 在当前场景适用的阈值, 在其他场景可能过于严苛或宽松, 对车灯检测造成很大障碍。因此, 自适应的阈值选择机制, 对于车灯检测是十分重要的。

本文使用了最大类间方差的方法进行自适应的阈值选择, 并对如图1所示的原始图像进行处理。该方法是一种基于聚类的图像二值化方法。它的使用前提是假定图像中根据亮度值特征分为两类像素。而最佳阈值使两类像素的类内方差最小, 即类间方差最大。最大类间方差的方法可以有效分割图片中亮度高的区域, 并且面对变化的环境有很好的自适应性。如图2所示, 尽管有路灯和道路、车辆反光等影响, 但输出的图像里车灯区域十分清晰, 说明最大类间方差法是有效的二值化方法。

2.2 基于形态学的车尾灯配对方法

经过图像二值化之后, 得到的图像主要反映了亮度超出阈值区域的形态。通过一系列形态学的处理, 可以使车灯凸显出来, 并通过先验知识, 将车灯检测出来。

尽管经过二值化处理, 并且应用了自适应的阈值, 可以消除大部分噪声像素点的影响。但是夜间光线条件极差, 摄像头采集到的图像有很多噪点。仍然无法完全避免孤立的噪点对算法的影响。先使用开运算消除图像中的孤立噪点, 平滑较大物体的边界。接着使用闭运算, 填充物体内部, 使较大的物体内部得到填充, 形成连通区域。如图3所示, 从图中可以发现, 图像经过形态学处理后, 孤立的噪点通过上述处理基本已被过滤。车灯所在区域形成一个闭合的连通区域, 且面积未受影响。

接下来对图像中白色区域的特征进行分析。因为车灯是一种人工物体, 具有与反光等干扰源相比, 有很强的特点。因此, 可以总结车灯的特征, 通过先验知识建立如下约束:

(1) 单个车灯大小不超过阈值。车灯作为一个单独模块, 其的大小相对固定。

(2) 面积一致性。两个车灯之间的面积差异不能太大。

(3) 两车灯处于同一水平区域。车灯间宽度通常为1.7m, 且纵坐标相近。

通过这些约束, 可以找到配对的车灯。但在实际环境中, 成对的信号灯也可能符合上述约束, 造成误检测。此时, 引入摄像头针孔模型, 近似认为车尾灯贴近地面, 可以排除上图中信号灯对于检测结果的影响。最终检测到车辆尾灯, 标记尾灯, 并框选出车辆位置。

3 基于粒子滤波器的车辆跟踪

使用上述方法进行车辆检测, 并不能保证每一帧图像中的车辆都能够被识别出来, 即单纯的车辆检测方法有一定的漏检几率。此时车辆检测将出现漏检。在实际的驾驶过程中, 1秒的漏检都可能带来危险。因此引入目标跟踪的方法, 避免车辆的漏检, 提升可靠性。

粒子滤波是一种基于蒙特卡洛方法的滤波算法。这种方法广泛应用于SLAM (即时定位与地图构建) 等领域。粒子滤波器首先提取跟踪目标的特征, 再在待检测图像上均匀分布检测粒子。粒子计算所在区域的特征值, 并将其与跟踪目标的特征值对比, 以最相近处为跟踪区域。下一帧图像, 粒子滤波器对图像进行重采样, 但在本文的应用场景下, 因为汽车的位置不会突变, 可以使用符合高斯分布的粒子分布方式进行采样, 跟踪到新的区域。

此处用于跟踪的特征选取HOG特征。在图像中, 局部目标的表象和形状能够被梯度或边缘的方向密度分布很好地描述。HOG对图像几何或光学的形变都能保持很好的不变性。因此, HOG特征非常适合用于车辆的跟踪。

当车辆检测模块出现漏检时, 车辆跟踪模块可以使用最后一次记录的车辆区域特征值进行跟踪, 保证检测过程的连续性。

4 实验结果分析

在实验中, 得到如图4所示的输出图像。

从图中可以看出, 此时车辆所处的环境, 光照条件较差, 图像有很多噪点, 地面、路牌等的反光是严重的干扰源, 且路灯、信号灯与车灯十分相似。但检测系统可以准确地检测到匹配的车灯, 将与车灯极其相似的信号灯过滤, 最终准确标记出车灯位置和车辆区域。

5 结论

夜间环境下的车辆检测是车辆检测技术中的一大难点。本文提出了一套基于车灯的夜间车辆跟踪检测方案, 利用自适应阈值法提取可能的车灯位置, 根据先验知识得到实际车灯区域。同时, 结合目标跟踪的方法, 保证检测过程连续, 避免漏检。实验结果说明本文提出的方案在实际的夜间行驶中, 能够有效地实现准确的车辆检测。

参考文献

[1]Z.Sun, R.Miller, G.Bebis, and D.Di Meo, “A Real-Time Precrash Vehicle Detection System”, Proc.IEEE Int’l Workshop Application of Computer Vision, 2002.

[2]R.Chellappa, G.Qian, and Q.Zheng, “Vehicle Detection and Tracking Using Acoustic and Video Sensors”, Proc.IEEE Int’l Conf.Acoustics, Speech, and Signal Processing, 2004.

[3]Amitabha Basu, Arpit Awasthi, Chandrakant Khandelwal, Jitendra Deshpande, ”Night Time Vehicle Detection for Adaptive Beam and Collision Avoidance Systems”, SIAT, 2013

[4]Ba Ngu Vo, Wing Kin Ma.The Gaussian mixture probability hypothesis density filter[J].IEEE Transactions on Signal Pro-cessing, 2006, (11) :4091-4104.

基于检测跟踪 篇2

一、填一填。(每空1分,共28分)

1.在体育运动中,秒表用来记录以()为单位的时间。

2.秒针走1圈,就是走60小格,也就是()秒,这时分针走()小格,也就是()分,所以()分=()秒。

3.在括号里填上合适的单位。

4.如下图,小明朗读四首诗大约要()秒,合()分钟。

5.如上图,小红做完一道数学题的时间,分针要走()大格,秒针要走()圈。

6.如上图,小亮踢一场足球的时间约是()分钟。

7.3分=()秒

1分-45秒=()秒

4时=()分

2分10秒=()秒

8.在里填上“>”“<”或“=”。

60秒

6分

180秒

3时

1时20分

80分

8时

500分

5时

30分

1分35秒

85秒

9.一节课40分钟,课间休息10分钟,再加上()分钟就是1小时。

二、辨一辨。(对的画“√”,错的画“×”)(每题1分,共5分)

1.秒针在钟面上走一圈是1小时。

()

2.钟面上走得最快的是时针,走得最慢的是秒针。

()

3.做一遍眼保健操的时间多于1分钟。

()

4.读一篇200字的文章大约要用1小时。

()

5.分针走1大格,秒针走1圈。

()

三、选一选。(把正确答案的序号填在括号里)(每题2分,共10分)

1.钟面上()走得最快。

A.时针    B.分针

C.秒针

2.明明吃一顿饭约用()分钟。

A.2

B.15

C.150

3.小学生1分钟能跑()米。

A.3

B.30

C.300

4.一架客机本应该10:25到达,现在晚点15分钟,()能到达。

A.10:10

B.10:40

C.11:40

5.100米游泳比赛中,你认为()游得最快。

A.小刚

B.小林

C.小超

四、按要求解决。(共30分)

1.连一连。(8分)

2.下面是体育课上三名同学单脚站立的时间,请在括号里填上相应的序号。(6分)

3.看图写时间。(每空2分,共16分)

(1)

(2)

五、解决问题。(3、5题每题6分,其余每题5分,共27分)

1.电影5:50开演,芳芳5:20就到了。芳芳提前多少分钟到达电影院的?

2.全市马上举行“中国梦”书法比赛。爱好书法的强强每日坚持练字。先计算强强练字结束的时间,再在下图中画出练完字后的时间。

3.李东早上7:20从家出发。(不考虑等车时间)

(1)他能准时上8:00的第一节课吗?

(2)他最迟什么时间从家出发才能赶上第一节课?

4.吴老师上午8:00上班,11:30下班,下午1:30上班,4:00下班。吴老师一天上班多长时间?

5.下面有一段“停电预告”。

(1)哪个地区停电时间最长?有多长?

(2)芳芳在下午1:30回到家,发现家里停电,你知道她家住在哪儿吗?还需要多长时间才会来电?

答案

一、1.秒 2.60 1 1 1 60

3.分 秒 小时 分 秒 秒

4.120 2 5.1 5 6.65

7.180 15 240 130

8.< < = < > > 9.10

二、1.× 2.×

3.√ 4.× 5.×

三、1.C 2.B 3.B 4.B

5.B

[点拨]时间用得最少,速度才最快。

四、1.

[点拨]先找出完成最快的那件事情,再找出时间中最短的时间,这两者就是“对应关系”。

2.A B C

3.(1)

(2)

[点拨]经过的时间可以从钟面直观得出。如:分针从“10”走向“12”,走了10分钟,分针又从“12”走向“2”,又走了10分钟,合起来就是20分钟。

五、1.5时50分-5时20分=30分钟

答:芳芳提前30分钟到达电影院的。

2.8时25分+40分=9时5分

[点拨]

时间计算,时与时相加减,分与分相加减,当分与分相

加满了60分,就要向“时位”进1时。

3.(1)15+35=50(分钟)

7时20分+50分>8时

答:他不能准时上8:00的第一节课。

(2)8时-50分=7时10分

答:他最迟早上7:10从家出发才能赶上第一节课。

[点拨]用准时上课时间-路上共用的时间=最迟从家出发的时间。

4.11时30分-8时=3小时30分钟

4时-1时30分=2小时30分钟

3小时30分钟+2小时30分钟=6小时

答:吴老师一天上班6小时。

5.(1)徐东路一带:10时30分-8时=2小时30分钟

积玉桥一带:11时30分-8时=3小时30分钟

海港一区:12时-10时=2小时

2小时+1小时20分钟=3小时20分钟

海港二区:3时-1时=2小时

答:积玉桥一带停电时间最长,是3小时30分钟。

(2)3时-1时30分=1小时30分钟

基于检测跟踪 篇3

摘 要:毕业生的就业质量反映了一个院校的人才培养质量和专业建设水平。本文以食品营养与检测专业为例,对毕业生的就业质量和毕业生对学院教育教学及管理工作满意度进行调研,结合用人单位对毕业生的综合评价,较为真实客观地反映了毕业生的就业情况,体现了人才培养的成果,也总结了专业发展中存在的问题。

关键词:就业质量 调研 食品

课 题:以职业能力为核心的高职食品营养与检测专业课程体系研究与实践,项目编号:JG2014020249。

一、调研概述

黑龙江农垦职业学院是教育部高职高专人才培养工作水平评估优秀院校、黑龙江省骨干高职院校建设单位、黑龙江省食品类专业教指委主任单位。学院以提高人才培养质量为核心,在校企合作、人才培养模式改革、课程建设、师资队伍建设、校内外实训条件建设、社会服务能力建设等方面取得了显著的成效。学院高度重视毕业生就业情况,对毕业生就业质量进行了多年的持续跟踪调研。本文以食品营养与检测专业为例,客观真实地体现了毕业生的就业情况与就业质量。

1.调研目的

了解企业用人需要,明确专业定位,有针对性地进行人才培养规格分析,调整优化课程体系,使专业更好地服务企业、对接产业。

2.调研对象

调研对象是2012、2013、2014届食品营养与检测专业毕业生200人,及毕业生所在的黑龙江地区和垦区的大中型以上食品加工和流通企业。

3.调研方式及手段

调研方式主要有网络调研、问卷调研和深入企业访谈等。

4.调研组织与实施

由分院领导、食品营养与检测教研室全体教师和分院实习就业干事共同组建就业生毕业质量调研小组,通过网络平台联系应、往届毕业生进行问卷调研,通过电话、实地访问、发放问卷等形式深入企业调研。

5.调研内容及主要评价体系

(1)调研内容。主要包括毕业生的就业质量,如工作岗位、工资待遇等,毕业生对于母校的意见和建议,就业单位对学院毕业生的评价,及对学院人才培养工作的建议。

(2)主要评价指标体系。

就业评价体系:毕业生主要就业质量监督指标,包括工作岗位类型、岗位与专业的对口率、岗位薪酬、工作稳定性、工作总体满意度等。

对学院教育教学评价指标:根据高职人才培养质量评价标准以及学院人才培养实际情况,本专业设计了教育教学评价指标,包括教学活动就业影响、学习收获、毕业生知识能力、教学管理、学生素质培养五个指标。

二、调研数据分析与结论

1.毕业生就业质量评价

调研数据表明:食品营养与检测专业毕业生主要就业于民营(私营)等企业单位,其次是事业单位、国有企业,虽然自主创业的学生所占比例不高,但呈逐年上升趋势。学生主要从事基层技术、管理或营销岗位的工作,经过两年成长,部分同学升职为部门主管或单位负责人。绝大多数毕业生从事工作与所学专业比较对口,经过一段时间工作,薪资待遇普遍有较大提升,在校所学专业知识和技能基本满足工作需要,毕业生在职业生涯中晋升机会较多。

2.毕业生对学院教育教学及管理工作评价

调研数据表明:笔者学院基本教学设施能够满足教学需要,专业设置和课程设置比较合理,教学方法和手段适合职业教育教学,实践教学活动安排符合职业岗位工作需要,毕业生对于专业基本理论和实践技能掌握情况良好。学院教风学风端正,专业核心课程设置有效,教师与学生交流较密切。学院对于学生价值观的形成具有积极正面的影响,社团活动丰富。学生对教学工作满意度、生活服务满意度、学生工作满意度、就业工作满意度都较高。

3.用人单位综合评价

调研数据表明:用人单位认为学院毕业生与其他高校毕业生在综合素质上相比有一定优势,认为学院毕业生从上岗到胜任工作适应较快,毕业生的可持续发展潜力比较大,毕业生在专业知识储备上比较充足。用人单位认为学院毕业生所具备的比较好的素质依次是适应环境能力、敬业精神和职业素质、沟通能力和亲和力,比较欠缺的依次是表现能力、自我调控能力和工作激情。用人单位认为学院毕业生应加强应用分析能力和科学思维能力的培养;在人才培养和教学方面要注重基础知识的学习,拓宽知识面;人际沟通能力及协调能力在未来工作中有很重要的作用,应加强培养;同时毕业生应具备一定的写作水平及语言表达能力。

三、建议

第一,注重毕业生的就业质量,在广度上和深度上密切与省内外企业的合作。这对专业学生职业技能提高和职业生涯发展都有重要的促进作用,对于学院知名度的打造也就有深远的影响。

第二,建立机制使学生的在校表现与第三年实习及就业挂钩,使品学兼优的学生更有机会进入更好的企业,也促使学生注重在校期间表现。

基于运动检测的目标跟踪算法研究 篇4

首先将摄像机拍摄的模拟图像转化成计算机能识别和处理的数字图像, 再运用数字图像相关算法进行处理和存储。运动目标检测主要检测出图像特定区域的运动物体并标注, 目标跟踪算法对运动物体进一步识别并对它在视野中的路径进行跟踪。在前景中找到运动目标, 获取特征后反馈给跟踪系统, 跟踪系统就根据获取的运动目标的特征进行跟踪, 是行为分析和图像理解的重要依据。

1 运动目标检测

运动目标检测是运动目标跟踪的基础, 只有检测到了运动目标, 才能利用目标跟踪算法进行运动目标的跟踪。所谓运动目标检测, 就是运用数字图像处理方法找出视频中连续帧间的相关性, 检测出视频中运动物体的位置和大小。运动目标检测的基本方法主要有三种:帧间差分法, 背景差分法和光流法。

1.1 帧间差分法

帧间差分法主要是对连续两帧图像作差, 如果对应像素点无差别则认为其为背景像素点, 否则为运动前景。最后遍历整帧图像得到的检测结果为两帧图像中运动前景所在位置。从理论上来说检测结果并不是运动前景的完整表示, 一般情况下为了消除噪声影响会设定一个阈值K对差值结果进行二值化。

当摄像头固定时不需要背景图像也能检测出运动目标, 算法简单保证运动目标跟踪的实时性。运动目标整体颜色很相似时只能检测出运动目标边界;如果运动目标的速率太快, 检测结果会是两个分离的运动目标;如果时间间隔太短, 两帧图像中运动目标就会在同一位置, 运动目标被误当成背景差分掉了, 导致检测不出运动目标。

假设在t时刻当前帧像素点 (x, y) 处的像素值为f (x, y, t) , t时刻背景模型中像素点 (x, y) 处的像素值f (x, y, t-l) , 则背景差分法的数学表达式为:

然后对背景差分后的结果图像二值化:

其中fout (x, y, t) 为输出的检测结果, K为所设的阈值。

当摄像头固定时不需要背景图像也能检测出运动目标, 并且算法简单, 所以实际应用中可以保证实时性。但是当运动目标速率太快, 或者与背景颜色接近时效果不太理想。

1.2 背景差分法

背景差分法算法简单、对硬件的要求低, 同时运动目标检测的速度快、当背景环境不发生变化时, 精确度很高, 基本原理是用视频中当前帧与背景图像作差。当运动目标与背景的差别较大时, 不仅能检测出运动目标的位置, 而且能准确的检测出运动目标的大小。最关键步骤是得到准确的实时背景图像, 常见的背景建模方法主要有中值法, 均值法, 卡尔曼滤波器法, 单高斯分布法, 多高斯分布法。

假设在t时刻当前帧像素点 (x, y) 处的像素值为fn (x, y, t) , t时刻背景模型中像素点 (x, y) 处的像素值fb (x, y, t) , 则背景差分法的数学表达式为:

然后对背景差分后的结果图像二值化:

其中fout (x, y, t) 为输出的检测结果, K为所设的阈值。

一般情况下在对检测结果二值化以后都需要对其连通性进行分析和数学形态学处理, 以去除检测结果内部的空洞和图像中出现的噪声, 同时也可以对运动目标的分裂和多个运动目标融合的情况进行分析。由公式可以看出背景差分法最关键的步骤是得到准确的实时背景图像。

1.3 光流法

光流法其实是目前运动目标检测最准确的算法, 算法复杂度高。它主要是把三维空间中的运动投影到二维的平面中就会呈现中光流的表象, 通过二维平面中每一个像素的灰度信息的分析得到灰度运动的瞬时速度。在摄像机固定的时候, 背景一般不会发生变化, 所以其灰度不变, 其对应的光流为0, 也就是说光流不为0的地方就是前景, 当摄像机运动的时候可以分析像素灰度的相对运动来检测运动目标。

外界的光线变化时即使没有运动目标也会产生光流;灰度等级不够时由于被量化, 变化被隐藏观测不到光流。

2 运动目标跟踪

运动目标跟踪建立在运动目标检测基础上, 是计算机视觉领域的重要内容。目标跟踪主要分为特征提取和匹配搜索两个步骤。主要有基于目标模板的跟踪、基于目标特征的跟踪、基于目标区域的跟踪及基于目标轮廓的跟踪四种基本跟踪方法。

2.1 基于模板的跟踪

模板匹配法是最基本的算法, 基本原理是用运动目标的像素信息作为模板, 选用一种搜索算法用当前帧中搜索区域与模板进行比对, 判断的标准主要依据相似性度量, 核心是获得正确目标模板。

2.2 基于特征的跟踪

基于特征的跟踪是最普通的目标跟踪, 首先对目标的特征进行提取, 常见特征提取方法有不变矩特征、颜色特征、空间直方图特征等, 然后找到一种相似度量进行目标匹配。基于灰度图像相关度量有ABS (Absolute balance search) , 归一化相关匹配, 直方图匹配等算法。

2.3 基于区域的跟踪

基于目标区域的跟踪把检测到的运动目标区域当作目标模板, 用运动目标的颜色信息进行匹配。运动目标以颜色作为相似度量, 特征的提取主要包括以像素值统计为基础的颜色直方图, 以图像像素的矩为基础的颜色矩以及以视觉颜色空间为基础的颜色集。

2.4 基于轮廓的跟踪

基于目标轮廓的跟踪首先表示出运动目标的大体轮廓信息, 然后将目标边界作为特征模板进行搜索。比较经典的搜索算法主要有全局搜索, 分布搜索, 钻石搜索以及改进的三步搜索和四步搜索法。

3 相关性度量算法

目标的匹配通过计算相关性实现, 方法主要有ABS和归一化相关匹配。ABS匹配算法主要是用从运动目标中获取的像素模板图像与视频序列中的图像的像素值的差的绝对值来表示二者的相关性, 找出相关性最大的点作为最佳匹配点。常用算法有最小均方误差 (MSE) , 最小平均绝对值差值 (MAD) , 最大匹配像素统计 (MPC) 。归一化互相关匹配算法通过计算目标模板与当前帧图像互相关性匹配, 互相关性最大点就是最佳匹配点。

4 结语

目前运动目标的跟踪算法还存在一些尚未很好解决的共性问题, 如跟踪过程中目标性状、尺寸、位置、运动方向的改变;背景环境及光照条件的改变;目标被遮挡及部分遮挡的情况等。如何利用DSP等实现运动目标的实时性检测与跟踪, 多个摄像机之间如何进行联合跟踪, 这些问题都需要进一步探索和研究。

参考文献

[1]庞国瑞, 葛广英, 葛菁等.基于金字塔多分辨率和钻石搜索的目标跟踪算法及其在DSP上的实现[J].数据采集与处理, 2012, 27 (6) 710-716.

第3单元跟踪检测卷 篇5

一、填一填。(1~6题每题2分,7、8题每题4分,共20分)

1.1.8÷0.25=()÷25

4.7÷1.23=()÷123

2.1.05959…是()小数,它的循环节是(),可以简写为(),保留两位小数约是()。

3.两数相除的商是6.72,被除数和除数都扩大为原来的100倍后,商是()。

4.在、0.303、、0.3031四个数中,最大的数是(),最小的数是()。

5.先找规律,再填空。

(1)1.2 0.6 0.3()

(2)6.4()0.4 0.1

6.一只蜗牛爬行0.36

m用了45分钟,平均每分钟爬行()m;

它爬行1

m要()分钟。

7.在里填上“>”“<”或“=”。

1.26÷1.011.26

3.66÷3.71

4.32÷0.1243.2÷1.2

0.75÷0.890.75×0.89

8.在里填上合适的运算符号。

360.5=72

360.5=18

362.5=14.4

362.5=33.5

二、辨一辨。(对的在括号里画“√”,错的画“×”)(每题1分,共5分)

1.小数除以整数(0除外),商的小数点要和被除数的小数点对齐。()

2.小数除以小数,先移动被除数的小数点,使它变成整数。

()

3.8.858858858…的循环节是885。

()

4.小数可以分为有限小数和无限小数。

()

5.一个数除以0.5,与这个数乘2的结果相等。

()

三、选一选。(把正确答案的字母填在括号里)(每题2分,共10分)

1.0.75÷0.012的商的最高位是()。

A.十位

B.个位

C.十分位

2.不用计算,判断出商最大的是()。

A.56.9÷1.09

B.56.9÷1

C.56.9÷0.77

3.计算42÷28时,你同意()的简算方法。

A.42÷(20+8)

B.42÷4÷7

C.42÷7÷4

4.如图,装11.7

kg油至少需要()个这样的油桶。

A.2

B.2.6

C.3

5.妈妈买了14个橘子共重2.1千克,如果买这样的橘子10千克,有()。

A.50多个

B.60多个

C.80多个

D.100多个

四、计算挑战。(共30分)

1.直接写出结果。(每题1分,共6分)

0.72÷0.8=

3.6÷0.09=    4.8÷0.01=

100÷0.5=

8÷0.2=

1÷0.25=

2.列竖式计算。(带△的需验算,带※的商保留两位小数,商是循环小数的要简写)(每题3分,共12分)

4.872÷2.4

△11.7÷0.18

※5.63÷7.8

4÷15

3.计算下面各题,怎样简便就怎样算。(每题3分,共12分)

0.78+0.22÷5

4.8÷2.5÷0.4

(6.3+0.72)÷0.9

(7.5-2.3×0.4)÷0.01

五、按规律填数。(每空1分,共3分)

81÷9=9

88.2÷9=9.8

88.83÷9=9.87

88.884÷9=()

88.8885÷9=()

88.88886÷9=()

六、解决问题。(1~4题每题5分,5、6题每题6分,共32分)

1.三峡永久船闸的闸门共24扇,最大高度达到38.5

m。

2.大地社区开展节约用电活动,小兰、小强两家哪家平均每月节约的电费多?

3.同学们去春游,需要租几辆大巴车?

4.2019年春运期间,某4个汽车客运站一周(7天)运送旅客达72.8万人次,平均每个汽车客运站每天运送旅客多少万人次?

5.每冲一杯咖啡大约需要15

g咖啡和7

g咖啡伴侣。冲完这瓶咖啡,大约需要多少克咖啡伴侣?

6.某日,中国银行外汇牌价如图,这一天:

(1)一位香港人士要在内地买一块这样的手表,需付多少港元?(结果保留整数)

标价2000元

(2)100元人民币可以买几个这样的玩具?

每个标价2.8美元

答案

一、1.180 470 2.循环 59 1.0 1.06 3.6.72

4.0.30 0.303 5.(1)0.15(2)1.6 6.0.008 125

7.< < = > 8.÷ × ÷ -

二、1.√ 2.× 3.× 4.√ 5.√

三、1.A 2.C 3.C 4.C 5.B

四、1.0.9 40 480 200 40 4

2.=2.03 =65(验算略)

≈0.72 =0.2

3.0.78+0.22÷5

4.8÷2.5÷0.4

=0.78+0.044

=4.8÷(2.5×0.4)

=0.824

=4.8÷1

=4.8

(6.3+0.72)÷0.9

=6.3÷0.9+0.72÷0.9

=7+0.8

=7.8

【点拨】形如(a+b)÷x的题型,可以运用“乘法分配律”进行简算。

(7.5-2.3×0.4)÷0.01

=(7.5-0.92)÷0.01

=6.58÷0.01

=658

五、9.876 9.8765 9.87654

六、1.38.5÷1.4=27.5

答:闸门的最大高度是我身高的27.5倍。

2.小兰家:58.8÷6=9.8(元)小强家:23.7÷3=7.9(元)

9.8>7.9 答:小兰家平均每月节约的电费多。

3.(10+166)÷40≈5(辆)答:需要租5辆大巴车。

【点拨】此题用“进一”法取近似数。

4.72.8÷4÷7=2.6(万人次)

答:平均每个汽车客运站每天运送旅客2.6万人次。

5.500÷15≈33(杯)33×7=231(g)

答:大约需要231

g咖啡伴侣。

6.(1)2000÷0.89≈2247(港元)答:需付2247港元。

(2)2.8×6.89=19.292≈19.29(元)

100÷19.29≈5(个)

答:100元人民币可以买5个这样的玩具。

基于计算机视觉的船模位置跟踪 篇6

(上海海事大学商船学院,上海 201306)

0 引言

在水池实验室中可实现各种实验:如利用相似性原理研究船舶的相关性能,模拟船舶的操纵[1],用船模做自航、耐波实验等.实验需要对船模的运动状态进行跟踪,而状态跟踪的基础是船模位置的跟踪.随着科学技术的发展,计算机视觉技术[2]在图像的三维重建[3]、道路交通中的车辆跟踪[4-5]、机器人跟踪[6-8]、水上弱小目标检测[9]等领域已经被广泛应用.本文提出的将计算机视觉技术应用于船模位置跟踪的方法具有系统工作稳定性高,安装简单方便,跟踪精度高、效果较好等特点.利用跟踪得到的位置坐标计算出船模的航速和航迹向,可以实现这两个状态参数的跟踪.本文使用计算机视觉技术中的 CamShift[10-11]跟踪算法和图像逆透视投影矫正算法[12-13]实现船模位置的高精度实时自动跟踪.

1 船模位置跟踪技术总体流程

船模位置跟踪技术主要包括图像采集模块、逆透视投影矫正模块、CamShift算法跟踪船模模块、船模图像坐标到实际坐标的换算模块,其总体流程见图1.

图1 船模位置跟踪技术总体流程

2 图像逆透视投影矫正

在实际应用中,摄像头得到图像的过程需要经过透视投影,即需要将三维物理世界中的点投影变换到二维图像平面中,所以为了计算船模的位置必须先对已经透视畸变的视频图像进行逆透视投影矫正[13],使水池在视频图像中呈正视效果.本文用投影矩阵法对图像进行逆透视投影矫正,即将透视畸变图像的4个标定点坐标投影到正视图的4个标定点坐标,产生一种能保持连续性和连通性的光滑映射.已知一个二维图像经过透视变换成为另外一个平面图像的过程可以表示为

式中:H为3×3的映射矩阵.设q为任意尺度的比例系数,(u,v)是正视图图像的坐标,(x,y)是畸变图图像的坐标,将式(1)写成

由式(2)可得

消去式(3)中的q可得

H有9个自由度即9个参数,而h33与其他8个未知数存在线性相关性,此时透视变换只需8个有效自由度就能计算出畸变图到正视图的映射关系矩阵,因此可指定式(4)中的h33=1.这样,已知畸变图与正视图上对应的4对标定点就可以准确地求解H.当标定点多于4对时可以采用最小二乘法求出上述方程的解,以降低标定误差对结果产生的影响.

在得出H后,只需将H乘以摄像头获取的原始透视畸变图的每个像素,经一一映射后便可获得经逆透视投影矫正后的图像.

3 CamShift算法跟踪船模

CamShift算法是以颜色直方图产生目标概率分布并在统计意义上以鲁棒的动态概率分布模式跟踪目标的算法,可以有效解决目标变形及遮挡问题,且运算效率较高.在运用CamShift算法跟踪目标之前需先将视频图像从RGB颜色空间转换到HSV颜色空间,以减少光照亮度的变化对跟踪效果产生的影响.[9]CamShift的算法流程见图 2.

图2 CamShift跟踪算法流程

在使用CamShift算法实时跟踪船模目标时,首先要选择初始化窗口,使窗口能够有效包含船模表面的颜色标签;然后采样窗口中每个像素在H(色调)通道上的值,通过计算得到船模颜色标签的色调直方图,并将其保存下来.在跟踪过程中,对视频图像计算处理区域的每一个像素,通过查询船模标签颜色的直方图模型,可以得知该像素是船模颜色标签的概率,将计算处理区域之外其他区域的颜色概率全设为0.这样,视频图像就转换为船模的颜色概率分布图,即船模颜色标签的反向投影图.此后,将反射投影图转化为8位的灰度投影图.设概率为1的像素值为255,概率为0的像素值为0,其余概率的像素也转换为相应的灰度值.所以,灰度投影图中越亮的像素为船模颜色标签像素的可能性就越大.当搜索窗口缩小到一定值时说明船模已经跟丢,此时程序可将窗口自动扩大到适当的值,开始新的跟踪,这种方法可以有效防止船模意外跟丢.图3为原始跟踪图与对应的灰度投影图,两张图中椭圆所包围的区域为被跟踪的船模颜色标签.

图3 原始跟踪图及其对应的灰度投影图

得到图像的灰度投影图后便可进一步确定船模颜色标签的重心.设点(x,y)为搜索窗口中某像素的坐标,I(x,y)为投影图中点(x,y)处的像素值,则船模跟踪过程中搜索窗口内像素分布的重心计算公式为

式(5)中零阶矩的计算式为

一阶矩的计算式为

确定M00及重心坐标后,便可根据M00调整搜索窗口的大小,同时将搜索窗口的中心移动到计算出的重心处.如果移动距离大于预设的固定阈值,就会重新计算调整后的窗口中心,开始新一轮的窗口位置及尺寸的调整,直至窗口中心与重心间的移动距离小于预设的阈值,或者循环的次数达到某一最大值时才认为满足收敛条件,进入下一帧图像进行新的船模目标的搜索.而在新的图像帧中,可利用上一帧图像中最终得到的重心位置和零阶矩M00,设置其新的搜索窗口的位置和尺寸.CamShift跟踪算法在图像帧内与帧间都是根据上一步得到的M00及重心自适应地调整搜索窗口的大小及位置,其在船模转向或者由远及近的运动等产生动态变形的情况下仍能够取得良好的跟踪效果.

4 实例

4.1 实验步骤

实验中使用分辨率为640×480的高清摄像头Logitech C310,并在 VC++6.0编程环境下加载OpenCV开源库编写软件,实现相关算法及技术.利用实验室现有的水池模型和遥控船舶模型搭建相关实验平台,测试相关数据,并分析所得数据的误差.

步骤1 准备好水池和摄像头,在水池底部画一个黑色矩形框并装上水,测得矩形框的实际大小为91 cm×186 cm,同时在矩形框内的几个特定位置上方放置一个硬币作为船模的参考点,并将摄像头以一个合理的高度和视角安装好,使得水池在图像中占的面积尽可能大,并使黑色矩形的底边尽可能与图像的底边平行,以减小误差.

步骤2 制作一张紫色的颜色标签,将其贴于船模表面,同时做一小圆柱桶,其高度与船模浮在水面时颜色标签相对池底的高度一致,同样也在圆柱桶上方贴一紫色标签,见图4.

图4 船模颜色标签及圆柱桶标定标签

步骤3 利用步骤2中制作好的圆柱桶标签经人工标定法获得与船模颜色标签处于同一水平面的黑色矩形框4个角点的图像像素坐标A(186,445),B(468,445),C(400,103),D(209,106),各点的位置见图5(a).C,D点的y坐标存在的微小差别是由摄像机的视角及测量误差造成的,其对最终跟踪结果的影响在精度允许范围内.设正视图中与这4个点对应的 4个矩形角点坐标为 A'(186,445),B'(468,445),C'(468,105),D'(186,105).利用这4对点坐标求得逆透视投影变换矩阵

步骤4 通过步骤3求得的逆透视投影变换矩阵H对获得的视频图像进行逆透视投影矫正,矫正前的畸变图与矫正后的正视图见图5.

图5 视频图像矫正前后的对比

步骤5 在获得正视图的实时视频图像后,在程序中将图像坐标的原点从其左上角设置到左下角.然后再将圆柱桶标签放在黑色边框的4个角点处获得其在此时的正视图中的坐标值A″(186,35),B″(468,35),C″(468,369),D″(186,373).经过逆透视矫正,船模颜色标签所在的水平面成像到视频图像,正视图中像素的距离与实际的水平面空间距离成正比,所以当以A″点为原点、(xP,yP)为船模颜色标签的重心坐标时,船模在水池中的实际坐标为

式中:371为C″和D″点y坐标的平均值.这样,只要利用CamShift算法实时跟踪船模颜色标签在图像中的重心P的坐标,即可由式(9)实时计算出船模在水池中的实际精确坐标位置,实现船模位置的跟踪.同时,只要以固定的帧率采集视频图像,就能够由跟踪得到的实时船模位置实时计算出船模航速和航迹向参数.

4.2 实验结果与讨论

图6 各硬币测试点的放置位置

如图6所示:将15个硬币放在水池中15个确定的位置 E,F,G,H,I,J,K,L,M,N,O,P,Q,R,T 处作为测试点,将船模固定放置在测试点上方,利用第4.1节的实验方法求得船模在这些点处的跟踪坐标值,其真实值与跟踪值数据见表1.

船模位置坐标在这些测试点处的真实值与跟踪值对比见图7.跟踪结果在x轴方向上的坐标误差见图8,在y轴方向上的坐标误差见图9.

从以上各实验结果可以看出,虽然只用4个点求取逆透视投影变换矩阵,但已经得到相对理想的效果.跟踪误差基本都控制在3 cm以内,相对于本身尺寸达到7.5 cm宽度的船模而言其精度非常高.实验结果可以满足水池实验室环境对船模位置跟踪的精度要求.

表1 各硬币测试点处的真实值与跟踪值 cm

造成实验中船模位置跟踪误差的原因很多:首先,船模放置过程中放置点的确切坐标位置本身有偏差,这种偏差会对跟踪结果产生一定的影响;其次,4个人工标定点提取的精确性会直接影响到逆透视矩阵的计算准确性,进而影响到图像中船模质心像素坐标的计算准确性;再次,船模航向角的不同以及船模离摄像头的远近不同会造成计算出的船模颜色标签重心有所差异;最后,摄像头的透镜畸变也会对位置计算造成微小误差.但是,使用本实验平台在水池环境下跟踪船模的位置所产生的误差基本都在可接受的范围之内.

图7 测试点真实值与跟踪结果值对比

图8 跟踪结果在x轴方向上的误差

5 结束语

通过建立实验平台,运用图像逆透视投影矫正结合CamShift跟踪算法实现船模位置的高精度实时自动跟踪,并对实验结果与误差进行分析讨论,利用获得的位置坐标可以求得船模的航速和航迹向这两个状态参数.本文的技术可为水池实验室的建设奠定技术基础.后续工作将在本文的基础上重点研究如何实时跟踪船模的航向状态.

[1]金长奎.船舶操纵模拟方法及模拟器精度分析[J].上海海运学院学报,1988,10(3):87-96.

[2]侯志强,韩崇昭.视觉跟踪技术综述[J].自动化学报,2006,32(4):603-617.

[3]杨忠根,张葆成.单视图线性三维重建的6点算法[J].上海海事大学学报,2006,27(2):42-45.

[4]童剑军,邹明福.基于监控视频图像的车辆测速[J].中国图像图形学报,2005,10(2):192-196.

[5]蒋刚毅,郁梅,叶锡恩,等.一种基于视觉的车辆跟踪及交通流量参数估计新方法[J].电路与系统学报,2001,6(4):69-73.

[6]欧宗瑛,张艳珍,袁野.基于颜色信息足球机器人视觉跟踪算法[J].大连理工大学学报,2000,19(6):729-732.

[7]杜欣,赵晓光.基于彩色图像的机器人视觉跟踪[J].武汉大学学报:信息科学版,2006,31(2):136-139.

[8]MIRO J V,ZHOU Weizhen,DISSANAYAKE G.Towards vision based navigation in large indoor environments[C]//Environ Int Conf Intelligent Robots & Systems,2006:2096-2102.

[9]冉鑫,任蕾.基于可见光视频图像处理的水上弱小目标检测方法[J].上海海事大学学报,2010,31(2):11-16.

[10]BRADSKI G R.Real time face and object tracking as a component of a perceptual user interface[C]//Proc Fourth IEEE Workshop on Applications Comput Vision.Princeton,NJ:1998:214-219.

[11]张宏志,张金换,岳卉,等.基于CamShift的目标跟踪算法[J].计算机工程与设计,2006,27(11):2012-2014.

[12]石睿,李华.一种基于透视投影的纹理校正方法[J].计算机应用,2001,21(4):30-32.

[13]LU Shijian,CHEN Ben M,KO C C.Perspective rectification of document images using fuzzy set and morphological operations[J].Image & Vision Computing,2005,23(5):541-553.

[14]万卫兵,霍宏,赵宇明.智能视频监控中目标检测与识别[M].上海:上海交通大学出版社,2010:204-209.

基于检测跟踪 篇7

在现代工业自动化生产中,涉及到各种各样的产品在线检查、测量和识别应用,例如:产品外观缺陷检查、零配件加工精度检查、IC 器件管脚和标识、电子装配线的元件自动定位等。通常这种带有高度重复性和智能性的工作只能靠人工检测来完成,这种靠人工的传统检测手段给工厂增加巨大的人工成本和管理成本,检测精度也易受检测人员技术的影响,且效率非常低。因此将基于图像处理的智能化机器视觉算法引入流水线产品检测,实现全自动在线检测将大大提高劳动生产率及产品质量,以适应现代化的大规模流水线生产。近年来,人们提出了许多方法用于检测和跟踪序列图像中的运动目标, 在生产线上是固定摄像头,因此静态背景下运动目标检测算法受到广泛关注,常用的方法有帧差法[1]、光流法[2]、背景减除法[3]等。由于受到算法复杂度和计算机运算速度等限制,使得在检测和跟踪运动目标的实时性和稳健性等方面总是不太理想。本文将从边界边缘检测入手取得稳健的轮廓跟踪。

表示一个目标轮廓的方法可以分成两类:参数化的轮廓和非参数化的轮廓。前者的跟踪方法中使用参数表示轮廓,多数采用snake模型[4]:卡尔曼snake [5]和吸收自适应运动snake[6]。后者的跟踪方法中,目标的轮廓用边界表示,轮廓被描绘成一系列像素。其中Paragios等的算法[7]及Nguyen等的算法[8]很受欢迎。Paragios和Deriche提出了使用测量正向轮廓与水平集规划进行目标轮廓跟踪,该方法在静态的背景情况取得较好的结果。Fu等提出了一种使用阻塞自适应运动迂回模型的轮廓跟踪方法[6],该方案使用了正向轮廓模型[4],需要确定很多参数,而且分割轮廓存在困难。Nguyen等提出了一种在一个视频码流跟踪非参数化的目标轮廓的方法[8],该算法使用分水岭算法和一个加在能量最小化函数分水岭线平滑能量确定了新的追踪轮廓。然而,Nguyen等的方法会留下许多不相干的边缘阻碍了准确地轮廓跟踪。

为了解决这些问题,本文提出一个在跟踪的在线产品边界中仅选择适当边界的方法。首先利用边缘运动移除背景边缘。背景边缘去除后,在上一帧轮廓的正常方向上计算平均亮度梯度,这里仅考虑具有高梯度值的边缘作为跟踪目标的边界边缘。所以,即使一个产品边缘不清晰,有复杂纹理的背景和目标,上面的轮廓跟踪方法是稳健的。实验结果表明,该轮廓跟踪的方法是可靠。

1 在线产品轮廓跟踪算法

1.1 边界边缘检测

边界边缘选择的过程包括两个步骤[9]:首先,利用边缘运动移除背景边缘;第二,采用轮廓法线方向上的梯度选择边界边缘像素。从边缘地图Θ(R)(t)上得到边界边缘地图Θ(B)(t)。

1.1.1 利用边缘运动移除背景边缘

通过比较目标的运动和背景的运动移除背景边缘,计算出跟踪目标的运动和背景边缘运动。使用来自坎尼边缘发生器产生的边缘地图的光流计算边缘运动。

计算跟踪目标运动矢量Vp(t),每一个边缘像素的运动矢量是相对Vp(t)的测试,如果两个向量之间的差额大于特定常数Te,被认为是一个背景边缘像素。假设Θ(I)(t)是在当前帧检测的边缘地图,矢量OEdge是在Θ(I)(t)的边缘像素计算出的光流。使用下式估计出主导平移矢量Vp(t)

Vp(t)=argminVΨpΩ(t-1)[Ι(p,t-1)-Ι(p+V,t)]2(1)

式中:Ψ是速度空间;Ω(t-1)是属于在(t-1)帧的目标区域的像素。

Θbackground(t)={EdgeΘ(I)(t)|‖Vp(t)-OEdge‖>Te} (2)

Θ(R)(t)是Θbackground(t)减去Θ(I)(t)的一个边缘,Θbackground(t)而是一个背景边缘地图。

利用边缘运动移除与跟踪目标运动不同的背景边缘,该方法不依赖边缘地图的复杂程度,能准确地去除所有不同运动的背景边缘像素。

1.1.2 边界边缘像素选择

首先进行图像的梯度的计算。

为了移除噪声及与目标无关的边缘需要计算每个像素轮廓正常方向的亮度梯度。设轮廓的参量表示为,r(s)的切线方向是r′(s),如图1a所示,r(s)的正交方向是r′⊥(s),仅仅考虑r′⊥(s)方向上的图像梯度。I(m,n)是图像的亮度函数。

D(r(s)t)=1(dx(s)/ds)2+(dy(s)/ds)2×(Ιndx(s)ds-Ιmdy(s)ds)(3)

沿着轮廓上每个像素点r(si)的正常方向的平均彩色梯度D^(r(si))用式(3)计算。r(si)是r(s)像素点之一。D^(r(si))的计算过程如下:1)在方向r′⊥(s)和r′(s)的两个主要轴上画一个椭圆,尺度是适当可调的。2) 将椭圆中的像素点分成两部分,用沿着r′(s)方向的一条线,如图1b所示。3) 计算被r(s)分开的两个部分的像素平均亮度值,计算的结果就是D^(r(si)),图1c表示像素的轮廓正常方向,像素属于∂rT(si)为计算ΤD^i(rΤ(si))

下面介绍边界边缘像素选择的过程。

考虑目标边缘运动移除背景边缘以后,选择边界边缘像素。Θ(R)(t)是移除背景边缘以后的边缘地图。r(s)是预测轮廓∂Ω(P)的参数化表示,N为∂Ω(P)像素总数,r(si)为∂Ω(P)的像素,其选择过程是沿着∂Ω(P)进行的,这里i=1,2,…,N,它是每一个像素地图Θ(R)(t)的一部分。在一个以r(si)为圆心,以cΦ(一个特定的常数)为半径的圆心区域,Θi(R)(t)有边缘,rT(si)是在Θi(R)(t)上的边界像素之一,rT(si)可以被认为是像素点之一。是r(s)被(rT(si)-r(si))的一个参数化的曲线转换,∂ΩΤ(Ρ)是∂Ω(P)被(rT(si)-r(si))的一个轮廓转换。图2的左边部分显示了∂ΩΤ(Ρ)和噪声边界像素Θ(R)(t),右边部分是该圆的一个封闭区域。这个圆形的边缘地图表示为Θi(R)(t)。在rT(si),∂ΩΤ(Ρ)的正常方向的梯度是在Θi(R)(t)上的每一个像素点上计算出来的。为了检测边界边缘K个可能的像素,需要计算∂ΩΤ(Ρ)Θi(R)(t)的每一个边缘像素点上正常方向上的梯度,这里K是一个特定的常数。∂rT(si)是rT(si)在∂ΩΤ(Ρ)上上述圆形区域的一组像素,ΤD^i(rΤ(si))D^s沿着∂rT(si)的像素参考rT(si)的总数。图1c显示了∂rT(si)和为计算ΤD^i(rΤ(si))属于∂rT(si)的像素的轮廓正常方向。在选择边界边缘的时候用到有大值的最大的ΤD^i

ΤD^i(rΤ(si))=rΤ(si)(D^i(rΤ(si)))(4)

1.2 基于边缘检测的轮廓跟踪

在边界检测的步骤中,用到地形学距离的概念,分水岭分割被最小化。这个算法,用到两个边缘指数函数h(B)(x)和h(P)(x),它们分别衍生于Θi(B)(t)和∂Ω(P),边缘指数函数的具体算法在Nguyen等的论文中有描述[8]。边界边缘地图Θi(B)(t)在参考文献[8]中提到的算法得到。∂Ω(P)被Vp(t)翻译∂Ω(t-1)而得到。用两个指数函数提取的分水岭线变成了当前帧的一个新的轮廓。

2 实验结果

实验中的视频是从网站收集到的,用MATLAB进行仿真,跟踪结果为:在高速运转的月饼生产流水线上,产品快速移动,产品的轮廓尺寸随着人与相机的相对位置发生变化。同时,车间的背景存在一些复杂的纹理,也产生了一些复杂的边缘,使得轮廓的跟踪变得困难。采用本文的跟踪算法可以得到精确的跟踪,如图3所示。

3 总结

本文中,为了改进在流水线中用静态摄像机拍摄的视频流中的纹理目标的跟踪精度提出了一种新的轮廓复杂方法。该方法选择了跟踪目标边界周围的有效的边缘,边界边缘选择包括两步,首先,利用目标和背景边缘运动的不同移除背景边缘。有不同运动的边缘被认为是多余的背景边缘被移除掉。其次,采用计算从第一步输出跟踪轮廓的相同方向的产生物来选择边界边缘。

精确的选择轮廓边缘不会受噪声边缘的影响,为了表示这个更新的轮廓,用到了水蛇模型。尽管目标边缘是复杂的,边缘也能足够好的提取。实验结果表明,本文的方法进行的边界边缘检测并进行适当的选择是足够能处理在复杂的背景下目标形状的变化,基于边界边缘选择的跟踪是非常成功的。

产品流水线实时检测所涉及的相关技术很多,而且要取得有效的检测效果,往往要对不同的产品及检测要求采取特殊的技术手段。除了如何有效解决流水线上运动产品图像跟踪以外,在以后对工作中如何提高高速流水线的产品检测实时性、可靠性及智能化等问题作进一步研究。

摘要:产品流水线实时检测需有效解决流水线上运动产品的图像跟踪,提出仅选择在视频码流中跟踪目标的一个边界边缘来实现产品轮廓的跟踪。首先利用边缘运动去除背景,随后使用跟踪轮廓的正常方向导数选择边界边缘。准确跟踪是基于减少无关边缘的影响,因此仅选择边界边缘像素。使用边缘运动消除背景边缘需要计算跟踪目标的运动,同时移除边缘的运动和边缘与目标不同方向的运动,从而得到运动产品的轮廓。仿真实验结果表明,该跟踪方法对流水线上的产品有较好的跟踪效果,且具有较强的稳健性。

关键词:目标轮廓跟踪,在线产品,边界边缘检测,边界边缘像素,轮廓正常方向

参考文献

[1] NERI A, COLONNESE S, RUSSO C,et al. Automatic moving object and background separation[J]. Signal Processing,1998,66(2):219-232.

[2] BARRON J, FLEET D, BEAUCHEMIN S. Performance of optical flow techniques[J]. International Journal of Computer Vision,1994,12(1):42-77.

[3] STAUFFER C,GRIMSON W E L. Adaptive background mixture models for real-time tracking[C]//Proc. IEEE Conference on Computer Vision and Pattern Recognition,1999. Fort Collins,CO,USA:IEEE Press,1999:246-252.

[4] KASS M,WITKIN A,TERZOPOULOS D. Snakes:active contour models[J]. Int. J. Computer Vision,1987, 1(4):321-331.

[5] PETERFREUND N. Robust tracking of position and velocity with Kalman snakes[J]. IEEE Trans. Pattern Anal. Mach. Intell.,1999,21(6): 564-569.

[6] FU Y,ERDEM A T,TEKALP A M. Tracking visible boundary of objects using occlusion adaptive motion snake[J]. IEEE Trans. Image Process,2000,9(12):2051-2060.

[7]PARAGIOS N,DERICHE R.Geodesic active contours and level sets forthe detection and tracking of moving objects[J],IEEE Trans.Pattern A-nal.Mach.Intell.,2000,22(3):266-280.

[8]NGUYEN H T,WORRING M,VAN DEN BOOMGAARD R,et al.Track-ing nonparameterized object contours in video[J].IEEE Trans.ImageProcess,2002,11(9):1081-1091.

基于检测跟踪 篇8

运动目标跟踪是计算机视觉领域中最活跃的研究主题之一,其核心是利用计算机视觉技术从图像序列中检测、跟踪、识别目标并对其行为进行描述,它在军事视觉制导,机器人视觉,安全检测等方面都有广泛的应用。

粒子滤波[1,2]技术通过非参数的蒙特卡罗模拟方法实现递推的贝叶斯滤波[3],较好的解决了非高斯非线性观测下的目标跟踪问题。其关键的步骤是确定建议分布,建议分布越接近后验概率分布,粒子滤波的性能越好。围绕建议分布概率密度函数的选取,出现了各种形式的粒子滤波[4,5]。传统粒子滤波利用先验概率密度函数作为建议分布,具有权值易于计算和建议概率密度易于被采样的优点,但其建议概率密度与当前量测无关,使粒子的使用效率不高。

针对传统粒子滤波的不足,本文在粒子滤波视频跟踪应用的框架下,提出了一种基于运动检测的建议分布改进方法,并给出了传统粒子滤波方法与本文提出方法实验效果的对比。

1 粒子滤波器基本原理

粒子滤波的主要思想是用一组具有权值的粒子来描述系统状态的后验概率函数。根据蒙特卡罗理论,当粒子数目足够多时,这组带有权值的粒子就能够完全的描述后验概率分布,此时,粒子滤波就是最优的贝叶斯估计。

假设系统状态量和观测量分别为x:0k和z:1k,k时刻的粒子及其权值为{xi:0k;i=,1,…N}和{wki(x:0k);i=,1,…N},则k时刻的系统后验概率密度函数可以近似表示为

其中δ(⋅)为克罗内克尔函数。直接从后验概率p(x:0k|z:1k)中进行采样比较困难,所以引入了一个容易采样的分布q(x:0k|z:1k),称为建议分布,实际上粒子滤波是从这个建议分布中采样得到N个粒子。则由序列重要性采样原理[3]可以得出权值的递推公式为

其中:p(zk|xki)称为似然概率,表征系统状态由xk-1转移到xk后和观测值的相似程度;p(xki|xik-1)由上一步系统状态转移过程所得,称为先验概率。从式(2)易得出建议分布在粒子滤波器的性能中起着非常关键的作用。一般地,q(x:0k|z:1k)越接近p(x:0k|z:1k),则用粒子近似后验概率的效果越好。

2 基于粒子滤波的视频跟踪模型

在传统的粒子滤波框架下,运动目标跟踪方法主要分为以下几个步骤。首先,通过人机交互的方法确定目标区域,并建立目标模板,即获得目标的初始位置、尺度信息。根据这些初始参数对各个粒子进行初始化,并将其权值设为1/N。之后,由于传统的粒子滤波方法选择系统转移密度分布作为建议分布,所以只需要对上一时刻的后验目标状态进行状态转移即可得到当前时刻目标的先验分布,然后利用系统观测,更新粒子权值,并将所有粒子加权求和得到目标状态的后验估计值。最后判断是否需要重采样,若需要,进行重采样,然后转入下一次算法迭代,否则,直接进入下一次迭代。

2.1 系统状态描述及状态转移模型

视频跟踪的目的是为了获取运动目标的位置坐标和大小信息。对于运动目标而言,随机游走模型很难满足运动的描述,所以引入速度分量,同时为适应目标大小的变化引入目标宽度和高度分量,则目标的状态向量可由一个六维向量表示:

其中:ckx、cyk为目标的中心坐标,vxk、vyk为目标沿x、y方向的速度,kw、kh表示目标的宽度和高度。

由于粒子滤波的蒙特卡洛随机模拟机理,目标状态可通过多假设样本稳健的估计,因此,基于粒子滤波目标跟踪的稳健性并不过度依赖于系统状态转移模型的精确性,本文选择简单的一阶自回归模型作为状态转移模型的近似:

式中:A为系统状态转移矩阵,vk为过程噪声。

2.2 系统观测模型

常见的目标特征可以分为颜色特征、纹理特征和几何特征等,其中颜色特征稳定性比较好,且运算量较小,因此本文选用灰度分布来描述目标。目标灰度分布描述的有效方法是核概率密度估计。假设将目标灰度分布离散化为B级,并定义灰度量化函数b(li):R2→{1,…,B},表示把位置li处的像素灰度值量化并将其分配到对应的灰度等级中,其中B是量化等级数,本文取16。于是,对于给定的目标状态xi,目标的灰度分布pl={pl(u)}u=,1,…,B定义为

其中:l表示目标中心;M表示目标区域的总像素数;h表示目标区域的大小;k(⋅)表示核函数(本文选择均匀核函数);δ(⋅)为克罗内克尔函数;C为归一化常数。

定义参考目标x与样本xk(i)的灰度分布描述分别为{ql(u)}u=,1,…,B和{pl(u)}u=(i),1,…,B,选择Bhattacharyya距离[6]D(p(i),q)作为参考目标x与样本xk(i)的相似性度量。于是,系统的观测概率模型可定义为

式中λ为控制参数,本文取20。

结合式(2)和(7)得到相似性度量D(p(i),q)越小,似然概率p(zk|xki)越大,此时样本的权值增大,可靠度增强。

2.3 粒子重采样

在传播过程中,有一部分偏离目标实际状态的粒子的权值会越来越小,以至于最终只有少数粒子具有大的权值,导致无谓的计算量浪费在小权值粒子上。尽管这些小权值粒子也代表目标状态的一个可能性,但是当可能性太小时,应当忽略这部分粒子,而将重点放在可能性较大的粒子上。重采样技术在一定程度上可以缓解这个问题。抛弃部分权值过小的粒子,而从权值较大的粒子衍生出一些粒子。

3 基于运动检测的粒子滤波跟踪方法

传统的粒子滤波跟踪方法选择目标的先验密度作为建议分布,如式(8)所示。这种方法的优点是便于实现。然而,这种建议分布只是依赖于预测的前一步,没有考虑当前的测量值,使xk严重依赖于模型。如果似然分布相对转移概率分布比较狭窄,许多粒子会得到很小的权重,这意味着浪费了大量的计算。

针对传统算法的这一不足,本文提出了结合运动检测的建议分布改进方法。为了利用到当前帧的信息,在粒子重要性采样时,从传统的建议分布函数仅采样部分粒子,然后在检测到的运动区域中分配其余的粒子。这样的重要性采样结果既考虑了目标状态的转移,又利用到当前的观测信息。

3.1 运动检测方法

从视频序列中提取运动物体,有三种常用方法:背景减除法[7,8],时间差分法[9]和光流法[10]。由于时间差分法对于运动背景比较敏感,而光流法的时间复杂度过高,所以本文选择基于单高斯环境建模的背景减除法来提取运动区域。

单高斯分布背景模型适用于单模态背景的情形[8],它为每个图像点的颜色分布建立了用单个高斯分布表示的模型η(c,µk,σk)。设图像点的当前颜色度量为ck,如果|ck-µk|≥t|σk|(本文取t=3),则该点被判定为前景点,如果|ck-µk|

由于本文考虑的是复杂背景和运动背景下的目标跟踪问题,如果检测整幅图上的运动区域,则容易受到其它运动物体及背景运动的影响,使得跟踪不稳定,同时考虑到处理速度问题,所以仅在图像局部进行运动检测,用目标当前时刻先验状态中的位置分量确定差分区域的中心,并引入参数γ,将目标大小的γ倍作为差分区域大小。

3.2 粒子重新分配

传统的粒子滤波跟踪方法仅从系统状态转移密度分布中采样粒子,没有利用到目标的运动信息。本文方法在检测到的运动区域分配一定比例的粒子,使粒子的先验分布结合了目标的运动信息,与其真实分布更加接近。为此,引入粒子分配比例系数β(0<β<)1,给运动区域中分配的粒子数为Nmove=βN,那么从系统转移密度分布中采样选取的粒子数为Ntransfer=1(-β)N。当前的粒子集合可由下式表示:

这样粒子的分布就包含了当前帧的观测信息。其中β值的选取可以根据目标运动特征的重要程度而定,如果目标运动特征比较明显,则可以选取较大的β值,否则,应选择较小的β值。

3.3 改进的粒子滤波跟踪流程

本文提出的基于运动检测的粒子滤波跟踪方法流程如图1所示。与传统粒子滤波跟踪方法相比,该方法在利用上一帧目标后验分布经过系统状态转移方程产生部分粒子的同时,还在检测到的运动区域中分配了一定比例的粒子,使粒子的先验分布结合了当前时刻观测到的运动信息。

4 实验结果及分析

为了验证改进建议分布后粒子滤波跟踪效果,本文用两组不同的视频序列进行实验。两个实验都是在Pentium(R)D CPU 3.40 GHz、内存1G的PC机上采用MATLAB7.0软件平台实现的。待跟踪目标的参考模板在图像的第一帧手动选择。目标灰度量化等级为16,采样粒子数为N=40。

图2为第一个实验序列为静态复杂背景下的人体跟踪,且目标运动过程中存在遮挡现象。由于背景静止,因此将确定差分区域大小的参数选择为γ=3,并且运动信息的可信度较高,所以选择粒子分配比例参数β=0.5。该实验序列长度为120帧,每帧图像大小240×320,每隔30帧显示跟踪结果。图3为第二个实验序列是在动背景下跟踪车辆,且车辆在运动过程中存在局部遮挡,为避免背景运动引起的运动检测偏差,选择差分区域大小参数为γ=2,粒子分配比例参数β=0.25。该实验序列长度为120帧,每帧图像大小640×480,每隔30帧显示跟踪结果。由上面两个实验结果可以看出:本文提出的改进建议分布粒子滤波方法对于复杂背景下完全遮挡以及动态背景下局部遮挡的运动目标的跟踪是有效的和稳定的。

为了定性分析改进算法的跟踪效果,针对上面两组视频序列,在相同的软硬件平台上应用传统粒子滤波跟踪方法进行实验。图4给出了两种方法跟踪目标时的误差比较,误差定义为每帧中目标的真实位置(xr,yr)与跟踪的目标位置(cx,cy)之间的欧氏距离。由于第一个视频序列目标运动过程中出现了完全遮挡,而且背景比较复杂,所以在目标第二次被完全遮挡后,传统粒子滤波跟踪出现了丢失目标现象,从图中可以看出70帧之后,传统粒子滤波跟踪误差不断增大,说明此时目标已经丢失。第二个视频序列传统方法虽然一直都能跟上目标,但是由于背景和目标都在变化,使得跟踪过程的误差较大,而本文方法利用高斯背景建模进行运动检测,对缓慢变化的背景并不敏感,依然能够提取到目标的运动信息,所以与传统粒子滤波跟踪方法相比误差较小。从上面的实验结果可以得出本文提出的基于运动检测的粒子滤波跟踪方法与传统的粒子滤波跟踪方法相比有明显的优势。

(a)为实验一的跟踪误差;(b)为实验二跟踪误差(a)Tracking error of the first experiment;(b)Tracking error of the second experiment

结束语

本文在传统的粒子滤波目标跟踪框架下,运用基于单高斯背景建模的运动检测方法改进建议分布,通过在运动区域中分配粒子,使建议分布利用到当前时刻的观测信息。用该改进算法对在复杂背景和动态背景下的运动目标进行跟踪,实验结果也证明了该方法的有效性和稳定性。

摘要:针对传统粒子滤波的建议分布没有利用到当前观测信息的不足,本文提出了一种基于运动检测以改进建议分布的粒子滤波跟踪方法。该方法利用系统的状态转移密度分布,结合目标当前时刻的运动信息共同决定目标的先验分布。首先从一阶自回归的状态转移模型中生成部分粒子,然后采用单高斯背景建模进行局部运动检测,在检测到的运动区域中采样其余粒子,由此得到粒子的先验分布。用该方法分别对动态背景和存在完全遮挡情况下的运动目标进行跟踪,实验结果表明该方法有较高的跟踪精度和较强的稳定性。

关键词:计算机视觉,粒子滤波,目标跟踪,建议分布,运动检测

参考文献

[1]YAN Zhai.Improved Nonlinear Filtering for Target Tracking[D].Norman Oklahoma:University of Oklahoma GraduateCollege,2007:5-14.

[2]GUNNARSSON F,BERGMAN N.Particle filter for positioning,navigation,and tracking[J].IEEE Transactions on SignalProcessing(S1053-587X),2002,50(2):425-437.

[3]姚剑敏.粒子滤波跟踪方法研究[D].长春:中国科学院长春光学精密机械与物理研究所,2004:13-27.YAO Jian-min.Study On Particle Filter Based Visual Tracking Method[D].Changchun:Institute of Optics Fine Mechanics andPhysics Academia Sinica,CAS,2004:13-27.

[4]ARULAMPALAM S,MASKELL S,GRODON N,et al.A Tutorial on Particle Filters for Online Nonlinear/Non-GaussianBayesian Tracking[J].IEEE Transactions on Signal Processing(S1053-587X),2002,50(2):174-188.

[5]HUE C,CARDRE J P Le,PEREZ P.Tracking multiple objects with particle filter[J].IEEE Transactions on Aerospace andElectronic Systems(S0018-9251),2002,38(3):791-812.

[6]CZYZ J,RISTIC B,MACQ B.A particle filter for joint detection and tracking of color objects[J].Image and VisionComputing(S0262-8856),2007,25:1271-1281.

[7]STAUFFER C,GRIMSON W.Adaptive Background Mixture Models for Real-time Tracking[C]//IEEE Conference onComputer Vision and Pattern Recognition,Fort Collins,Colorado,June 23-25,1999:247-251.

[8]黄薇,肖平,冯刚.一种具有良好完整性的运动检测与跟踪算法[J].计算机与数字工程,2007,34(9):45-48.HUANG Wei,XIAO Ping,FENG Gang.A Good Integrality Method for Moving Detecting and Tracking[J].Computer andDigital Engineering,2007,34(9):45-48.

[9]LIPTON A,FUJIYOSHI A,PATIL A.Moving Target Classification and Tracking from Real-time Video[C]//IEEE Workshopon Applications of Computer Vision,Princeton,NJ,October 19-21,1998:9-10.

基于检测跟踪 篇9

关键词:火焰检测,色彩空间,混合高斯模型,卡尔曼滤波,多特征融合

随着CCTV (Close Circuit Television, 闭路电视) 监控技术的发展, 一种基于视频的火焰检测技术引起了业内的广泛关注。Healey等人[1]利用颜色和火焰运动的特性来区分火焰和非火焰区域, 然而这种方法是依赖于理想环境 (不具有类似火焰颜色的干扰物体的场景) 中实现的。Foo[2]基于高速摄像机的灰度视频提出基于统计的方法, 这种方法虽然计算量较小, 但是不具备很好的抗干扰特性, 而且对普通的摄像机视频30帧/秒 (f/s) 的情况就显得有效性不足。Phollips等人[3]利用火焰的灰度直方图强度以及相邻帧的时间变化进行火焰识别, 同样需要比较好的检测环境 (较少的移动的非火焰亮光干扰) , 而且其实验数据特征为自己主观确定的, 若输入数据发生变化, 则效果会大打折扣。Yamagishi和Yamaguchi[4]提出了一种基于神经网络的火焰检测方法, 在HSV色彩空间的火焰颜色模型来减弱环境对火焰检测的影响, 依据火焰区域颜色的饱和度和色调的持续变化来进行火焰区域的分割, 最后训练神经网络用于识别火焰, 这个算法取得的实验结果非常准确, 但是对于实时性的应用而言计算量过大。

然而, 以上方法都集中关注火焰的存在性, 不能提供燃烧的状态和过程信息, 需要人工估计误检率, 并且很难满足高检测率、低误检率、实时的工业需求。本文提出了一种基于目标跟踪和多特征融合的火焰检测算法, 能够较好地适用于存在干扰的监控环境, 能够有效排除干扰, 及时发现火焰, 并且可以对火焰进行持续跟踪和判断其变化状态。

1 算法描述

整体算法的流程如图1所示。

1.1 混合高斯背景建模提取运动前景

火焰的特性之一就是燃烧过程中的闪动特性, 通常监控视频中的背景都是静止不动的, 本文采用混合高斯建模[5]来背景建模。通过对背景建模, 对一幅给定图像分离出前景和背景, 从而达到运动物体检测的目的。

对差值图进行二值化处理然后经过降噪滤波, 得到较好的二值前景图, 将检测为前景的区域结合火焰的颜色特征再次进行判断, 进一步提取出疑似火焰区域。

1.2 火焰颜色模型

在彩色图像中, 高温的火焰内核会呈现亮白色, 由内向外随着温度的降低颜色会由黄变橙、变红[6]。根据火焰颜色的以上特征, 本文对火焰的内焰和外焰分别进行建模, 然后将内焰和外焰组合, 从而得到疑似火焰区域。内、外焰模型分别为

图2、图3、图4分别为Capture1, Capture2, Capture6经过高斯背景建模和继续经过颜色模型过滤得到的前景二值图。从图中可以看到相比只进行背景重建得到的前景运动目标的二值图, 再经过颜色模型过滤可以得到位置相对准确的疑似火焰区域, 用此区域进行Blob提取处理。

1.3 Blob特征提取

在二值图中, 运动目标呈现一个个白色的连通域 (即Blob) , 本文采用二值图像连通域标记算法将运动目标从二值图中提取出来, 然后对原图像只进行一次扫描后, 通过特殊的边界像素标记, 便能获得目标集合特征参数。

经过Blob特征提取[7]扫描, 可以获得目标的轮廓, 根据轮廓可以通过运算得到目标外接矩形、重心、周长和面积等特征信息。

1.4 基于Kalman滤波器的运动目标跟踪

在利用Blob提取运动目标特征的基础上, 系统采用了基于卡尔曼 (Kalman) 滤波器的算法[8]实现运动目标的跟踪。卡尔曼滤波器可以用状态方程和观测方程来描述其数学模型:

状态方程为

观测方程为

根据Blob提取得到的重心、外接矩形、运动速度等信息来描述运动目标在每一帧中的运动, 因此状态向量取Xk=[x, y, vx, vy]T, 观测向量取Zk=[x, y]T, 其中x和y是运动目标的横纵坐标, vx和vy是运动目标在水平方向和垂直方向上的运动速度, Wk为系统噪声向量, Vk为观测噪声向量。

状态传递矩阵A, 测量矩阵H, 系统噪声Wk的协方差矩阵Q, 测量噪声Vk的协方差矩阵R的值设定如下:

参数确定之后, 基于卡尔曼滤波器的算法便可以经过以下4个步骤完成对运动目标的跟踪:

1) 根据重心坐标初始化卡尔曼滤波器, 设运动速度初始化为0;

2) 使用卡尔曼滤波器预测下一帧中对应的目标区域, 并在下一帧中的预测区域进行目标匹配;

3) 如果目标匹配成功, 则更新卡尔曼滤波器, 并记录当前帧中运动目标的特征信息;

4) 如果匹配不成功, 则扩大搜索区域, 重新搜索当前帧, 或者丢弃前一帧, 直接处理下一帧。

火焰疑似目标跟踪的效果如图5所示, 图5a、图5b、图5c为时间间隔相同的3个时刻的跟踪结果。用跟踪到的疑似火焰目标进行特征提取。

1.5 特征提取

火焰具有许多独有的特征。单纯依靠火焰颜色特征来进行火焰检测得到的结果是不可靠的, 特别是在有火焰颜色的运动物体存在的情况下。为了提高检测的可靠性, 以加权的方式结合火焰的多个特征, 当火焰特征的加权值超过预先设定的报警阈值时, 就确认检测到的运动目标为火焰。

1.5.1 火焰区域增长性

在燃烧初期火焰的面积不断的增大[9], 这个特征可以有助于区分与火焰颜色相似的大小固定不变的运动物体, 比如汽车车灯等。本文用视频帧数来表示时间, 根据Blob特征提取得到的疑似火焰面积, 求得第i帧到第i+k帧的火焰面积变化率, 可用下面的公式表示

式中:Si和Si+k分别为第i帧和第i+k帧的疑似火焰面积, ΔSi即为间隔k帧的火焰区域像素的增长率, 设定上下限阈值dhigh和dlow, 当dlow<ΔSi

1.5.2 火焰形状的形状相似度识别

相对成熟的图像相似性度量可以归结为两大类:距离度量和相关度量[10]。可以用作相似度量的典型结构描述包括颜色、亮度特性、区域的面积、形状和区域结构等。

相邻帧的图像之间的相似度在一定的区间内变化。在火焰识别的过程中主要存在的干扰包括大面积光照变化和快速移动的亮点, 因此可考虑利用早期火焰形体相似度的变化规律来区分真实火焰与干扰。

计算前后两帧图像相似度的方法如下:

设得到的前后两帧疑似火焰区域二值图分别为binary1 (x, y) , binary2 (x, y) , 疑似火焰区域分别为Ω1, Ω2, 前后两帧图像的相似度ξ定义为

一般的, 当ξ小于某个阈值T1时, 即认为待识别物体是快速运动的亮点。而ξ大于某个阈值T2时, 认为存在固定发光区域。当ξ在2个阈值之间时, 可以认为该区域为火焰区域。表1所示为火焰视频 (Capture1, Capture4) 和干扰视频 (Capture10, Capture12) 的连续8帧的相似度列表。可以看出, 火焰视频连续帧相似度和干扰视频连续帧相似度存在明显的差距, 通过设定合理的阈值即可区分。

1.5.3 火焰跳动频率

火焰另一个区分于一般运动物体和光照的显著特征就是燃烧过程中火焰闪烁的特性。众多学者经过大量的实验分析得出, 火焰闪动在具有一定的动态频率范围 (7~10 Hz左右) 即目标轮廓、色度或亮度都具有0.5~20 Hz之间的变化频率时可能存在火焰的重要信号[11]。本文通过统计1 s内对跟踪到的疑似火焰目标跳动方向的变化次数来判断火焰的跳动频率。计算方法如下

由式 (7) 可以计算出疑似火焰的跳动频率。如果Freq在0.5~20 Hz之间, 则表明疑似火焰具有火焰闪烁的频率, 增加一个报警权值。

1.6 特征融合与火焰判定

对得到的以上3个火焰动态特征进行分析, 给出合适的报警信号。分析方法如下:设火焰区域增长性、形状相似度、跳动频率的报警权值分别为α, β, γ, 报警阈值为μ, 报警结果为S, 则有

当S=1时, 认为是火焰, 否则认为目标区域具有火焰颜色, 但不是火焰。确定疑似火焰目标为火焰后, 将此运动目标标记为火焰, 运用其外接矩形和面积可以判断火焰燃烧的变化趋势。

2 实验结果

测试用PC配置为CPU Intel Core i3 M330 2.13 GHz, 内存为2 Gbyte, 所有视频的分辨率为704×576。本文实验视频主要是用手持摄像机和室内监控摄像头拍摄的, 此外, 还有从网站上下载的视频, 其中包括美国国家标准研究院建筑与火灾研究实验室的视频http://www.fire.nist.gov/tree_fire.htm, 共12个, 测试库视频描述如表2所示。

实验1, 对各视频从火焰出现的前150帧分别使用单特征和特征融合进行检测 (见表3和表4) 。实验2, 运用本文算法对测试视频进行火焰检测, 并记录全过程 (见图6、图7) 。

从表3和表4可以看出, 单特征的检测无法达到高检测率、低误检率的工业需求, 而三特征融合可以有效提高检测率, 降低误检率。

图6是Capture4的检测结果图, 识别出的火焰用绿色框高亮显示, 火焰第一次出现在第226帧, 检测到火焰是在第278帧, 结果表明本算法检测到火焰只需2 s左右的时间。图6中图片顺序为从火焰开始到结束, 表明本算法可以对火焰的发展过程进行全程跟踪, 有助于判断火势。

图7是不同场景的测试结果图, 结果表明本算法成功排除光照、颜色、移动灯光等干扰, 稳健地检测出不同场景、不同光照下的火焰。而且在应用中火焰检测的处理效率达到了25 f/s (帧/s) , 能很好地满足工业需求。

3 总结

本文针对目前视频火焰检测算法无法达到高检测率、低误检率、实时的工业需求, 提出了一种基于目标跟踪和多特征融合的火焰检测算法。经过实验证明, 在普通的监控视频25 f/s的情况下, 本文的算法能够较好地适用于存在干扰的监控环境, 能够有效排除干扰, 及时发现火焰, 并且可以对火焰进行持续跟踪, 判断其变化状态。与传统的算法相比, 具有更好的普适性、可靠性、实时性以及过程性。

参考文献

[1]HEALEY G, SLATER D, LIN T, et al.A system for real-time fire detection[C]//Proc.Conference on Computer Vision and Pattern Recognition (CVPR’93) .[S.l.]:IEEE Press, 1993:605-610.

[2]FOO S Y.A rule-based machine vision system for fire detection in aircraft dry bays and engine compartments[J].Knowledge-Based Systems, 1996, 9 (8) :531-540.

[3]PHILLIPS W, SHAN M, LOBO N V.Flame recognition in video[C]//Proc.the Fifth IEEE Workshop on Applications of Computer Vision.[S.l.]:IEEE Press, 2000:224-229.

[4]YAMAGISHI H, YAMAGUCHI J.Fire flame detection algorithm using a color camera[C]//Proc.1999 International Symposium on Micromechatronics and Human Science.[S.l.]:IEEE Press, 1999:255-260.

[5]TURDU D, ERDOGAN H.Improving gaussian mixture model based adaptive background modeling using hysteresis thresholding[C]//Proc.15th Signal Processing and Communications Applications.[S.l.]:IEEE Press, 2007:1-4.

[6]LIU C B, AHUJA N.Vision based fire detection[C]//Proc.the 17th International Conference on Pattern Recognition (ICPR’04) .[S.l.]:IEEE Press, 2004:134-137.

[7]张修军.带标记矫正的二值图连通域像素标记算法[J].中国图象图形学报, 2003, 8 (2) :198-202.

[8]KALMAN R E.A new approach to linear filtering and prediction problems[J].Journal of Basic Engineering, 1960, 82 (1) :35-45.

[9]CHEN T H, YIN Y H, HUANG S F, et al.The smoke detection for early fire-alarming system based on video processing[C]//Proc.the 2006 International Conference on Intelligent Information Hiding and Multimedia Signal Processing.[S.l.]:IEEE Press, 2006:427-430.

[10]刘兴洪.基于内容相似性的图像特征提取[D].重庆:重庆邮电大学, 2007.

基于检测跟踪 篇10

关键词:无人机,目标检测,目标跟踪,图像融合

引言

无人机相关的关键技术主要包括目标识别和跟踪技术, 具体包含以下内容:无人机图像的预处理、特征提取、目标跟踪技术以及图像据融合等。光流法、背景区别法、帧区别法等是目前典型的目标检测即使。静止目标识别的方法比较多, 主要包括目标点获取、霍夫变换以及贪心算法等。我们根据目标的特征进行参数估计, 以进行目标跟踪。然后与其他技术相结合, 例如卡尔曼滤波以及人工神经网络等技术。

一、图像识别

无人机目标识别在一定意义上可以理解是图像识别, 即在一定的图像中提取感兴趣的目标。图像与图像处理的关系非常密切很难把它们截然分开。为了进行图像识别, 首先要进行图像处理。利用图像处理方法, 可大大减少工作量, 将图像变换成便于人们观察、适于无人机识别的目的。

二、无人机图像融合技术

为改善无人机系统的目标识别与跟踪的能力, 对相关的图像融合的研究具有十分重要的意义。

2.1目标图像融合。一般情况下, 通过多路径将采集到无人机图像数据经过处理和计算, 处理过程中, 每个途径都尽量提取的目标信息, 然后将相关的信息综合, 得到最终的目标图像。这样可以改善原有数据, 以利于读取和处理。图像在处理过程中, 尽量避免被加入噪声和任何干扰, 同时注意消除存在的冗余, 才能对目标进行准确地刻画。所以, 图像融合技术在无人机的目标识别方面的应用具有重要的研究价值, 也是在航天、航空的技术难点。相关的算法可以利用目标的均值、标准偏差等, 这些算法可以捕捉目标的细微差别与典型特征。

2.2图像目标的配准。要进行目标图像的融合, 首先必须进行图像目标的配准, 目标图像一般会存在大小比例、位移、角度等不匹配的问题, 不能直接融合, 否则会得到错误的结果。配准的主要方法有异构图像配准技术、自动配准技术、快速图像配准算法和高精度图像配准算法等

2.3快速小波变换的图像与处理。对原始采样图像进行滤波可以有效地消除噪声的影响, 但常用的滤波算法不仅平滑了噪声还模糊了边缘, 从而使目标的形状发生改变, 从而影响了目标分割和特征提取的准确性, 采用计算效率很高的快速小波变换进行图像预处理, 该算法在信号处理中的应用得到了很大的发展。

2.4目标图像的阈值分割。假如无人机的图像存在和北京不用的灰度集合, 我们可以采用一个灰度级阈值进行分割处理。根据一个阈值与目标中各像素的灰度值比较, 根据比较结果分割为大于阈值和小于阈值的两种情况。

2.5跟踪系统运动区域的分割方法。通过检测图像和移动目标的相关区域, 以进行目标的跟踪和处理。我们可以采用前面所述的目标图像阈值分割方法进行分割。本文的图像分割属于第一组分割方法, 可以利用直方图来确定图像分割的阈值。本文采用对相邻的直方图元素的局部平均, 取代起初的灰度的频率值, 完成对直方图的局部平滑处理。

三、无人机地面目标跟踪系统的建模与控制

对无人机地面目标跟踪系统进行了分析, 并建立了各个子系统的数学模型, 提出了一种轨迹规划与跟踪算法, 该算法既可以使无人机与目标保持一定距离, 又保证了无人机在飞行过程中始终朝向目标。结果阈值分割处理后得到的分割图像上, 目标的背景区域用特殊的像素来表示, 而运动目标的区域采用不用的其他像素表示。真正的目标和及干扰都存在运动区域中, 在像平面上, 目标像素和干扰像素之间有显著的区别。当把图像经过一定的区域标示, 我们就可以很明确的判断哪一个是真正的跟踪目标, 那些是干扰。

四、结束语

本文研究围绕着无人机图像识别与跟踪所涉及的图像处理算法, 无人机图像处理及其目标跟踪检测技术等多个方面进行研究, 目标是构建一套实用的无人机目标识别与跟踪实验系统, 并验证其有效性。

参考文献

[1]黄大羽.复杂环境下弱目标检测与跟踪算法研究[D].华东理工大学, 2012.

基于检测跟踪 篇11

关键词改进混合高斯模型目标间差分自适学习权重

目前,国外学者提出了多种针对不同应用条件的背景模型。Wren C的实时系统[1]对跟踪对象采用多类的统计模型,在初始化一个没有运动物体的背景后,这个系统能得到较好的效果,但在户外环境中,该算法跟踪效果不佳。Ridder C 等人[2]采用Kalman滤波,对每个像素构建一个模型,该算法虽然能适应灯光的变化,但背景自适应能力缓慢,处理多层次的背景没获得满意的结果。

Friedman N 等人[3]利用自适应混合高斯模型在处理光照变化、树叶抖动等获得较好的效果,但混合高斯背景模型采用固定学习权重,难以适应运动目标运动快慢变化。更新权重高导致慢运动目标误判为背景并引入大量噪声;更新权重低则在停滞物体逃离背景时长时间留下前景运动物体和降低对光照变化的适应能力。

针对上述问题,对传统混合高斯模型作了改进,设计了自适应学习权重。结果表明基于改进的跟踪系统获得良好效果。

1混合高斯背景模型

1.1混合高斯密度函数

Grimson和Stauffer中提出的背景模型[4][5]采用K(3-5)个高斯分布统计每帧中相同像素点的最近t帧值(X1,X2,…,Xt),从而得到下一像素点值在当前帧的密度概率函数:

■ (1)

(2)

式中,ωi,t表示t帧的值(X1,X2,…,Xt)落入第i个高斯分布的比率,μi,t和∑i,t分别表示高斯分布的期望值和方差,∑i,t=σ■■I(假设像素点的GRB个分量互相独立,且有相同的方差,I为单位矩阵)。K个高斯分布总是按照优先级λi,t=ωi,t/σ■■(i=1,2,…,K)从高到低的次序排列,ηi,t为与ωi,t对应的高斯分布。

1.2混合高斯模型更新和背景生成

对某像素点的每个新样本点Xt+1判断其与已存在的K个高斯分布进行匹配,若满足条件Xt+1-μt<2.5σi,则Xt+1与该分布匹配。如果Xt+1都不匹配,则增加新高斯分布或者用新高斯分布代替λ最小的分布。新的高斯分布以Xt+1作为均值,方差用经验值30。

高斯分布权重、均值和方差分别按式(3)、式(4)和式(5)更新。对于匹配的分布Mi,t+1=1,否则Mi,t+1=0。不匹配的分布,均值和方差都保持不变。

■ (3)

■ (4)

(5)

■ (6)

高斯模型更新完毕后,从新排列优先级λi,t,取前B个高斯分布生成背景:

■ (7)

■ (8)

该模型中有两个重要参数α(学习权重)和H,其中1/α表示训练P(Xt)的最大样本空间中的样本点个数;H用来确定作为背景模型的分布,H取经验值0.8。

2自适应学习权重

传统混合高斯背景模型采用固定学习权重,难以适应目标运动快慢变化,易把缓慢运动目标融入背景中,从而引起误检测。图1(a)是没有出现目标缓慢挪动的背景模型;图1(b)是运动目标在A位附近进行缓慢挪动的原视频帧;若采用固定学习权重更新背景,当运动目标出现缓慢运动时,背景模型会出现图1(c)长期留下运动目标痕迹。

2.1目标分割

文灏等人[6]采用背景模型直接对当前帧相减,以此获得运动目标。但在运动目标检测过程中,常因快速的光照变化、树叶运动时反射色差较大或运动目标颜色和背景颜色相似而导致背景区出现大片干扰或目标区内断裂和空洞现象。本文采用极限误差作分割标准,在高斯模型中随机量落在极限误差3σ以外认为是前景。某像素点Xt+1满足Xt+1-μt>3σi,则判为前景,将该像素点R、G、B三分量置为255,反之则判为背景并置0。该法不但填补了目标体内的裂痕和空洞,而且在背景区引入的噪声少。图2(d)为极限误差分割法的前景,比图2(a)直接相减后得到的前景区,其含目标体内裂痕、空洞和背景区的噪声明显要少。

2.2小面积噪声消除

系统设计是面对室外复杂环境的目标跟踪,改进后的背景模型虽然能消除树叶的轻微抖动、光照的缓慢变化,但在较大的风速或背景颜色和前景颜色接近时,便不可避免在目标分割后存在一些小面积的噪声。

常用的消噪方法有形态学闭运算或是中值滤波,但对于小面积噪声消除不净,且易造成目标的变形或目标裂痕加大。因此设计了基于标记的小面积噪声消除法。

一般地,二值化后的图像中单个运动目标都是较大的连同区域,而噪声的面积比目标小得多。直接把连通区域像素标记为同一目标,计算各个分离目标的面积(像素个数),将面积小于预定阈值的像素置0,从而保留了面积大于预定阈值的目标。

设:带噪声二值图像为f(x,y),宽为w,高h,即像素(x,y)的灰度为f(x,y),x=0,1,…w-1;y=0,1,…h-1。x为横坐标,y为纵坐标,图像左上角为坐标原点。图像背景为黑色,灰度值为0;运动物体为白色,灰度值为1。

图像像素(x,y)对应像素的物体编号为I(x,y)。当前物体编号为K,K=0,1,…,M。背景像素物体编号K=1,当某一像素的物体编号K=0时,表示该像素还没有被标定属于那个物体。物体编号最大值M为当前帧中非连通块的个数。

nlc202309031430

物体编号为K的像素个数为N(K),并设定阈值为Yu。当前景图像(x,y)的邻近坐标为(u,v),其中x-1≤u≤x+1,y-1≤v≤y+1,且(u,v)不等于(x,y)。

消除噪声算法步骤如下:

(1)给像素编号

a. 初始K=1。对每一个像素(x,y),若该像素为黑色目标像素,则设置物体编号I(x,y)=1;否则该像素为背景像素即灰度f(x,y)=0。

b. 从坐标y=1,x=1,物体编号K=0开始。

c. 判断当前坐标位置像素的物体编号。若当前像素物体编号I(x,y)=0,执行下一步,否则当前像素的物体编号I(x,y)不等于0时,转步骤g。

d. 当前物体编号K增加1。

e. 递归函数开始。将当前像素物体编号I(x,y)置为K。

f. 当前像素有8个邻近像素,邻近像素坐标为(u,v)。若物体编号I(u,v)为0,则将(u,v)视为当前像素,递归调用步骤e;否则下一步。递归完毕。

g. 当前坐标位置往右移动一个像素,即x=x+1。当超过右边边界,就往下一行左端移动,即y=y+1,x=0。若坐标没有达到右下角,则转步骤c,否则执行下一步。

(2)计算每个编号的像素个数

a. 初始化K=1,2,3,…M,令N(K)=0;

b. 遍历每个像素,即对于x=0,1,…w-1;y=0,1,…h-1,当编号I(x,y)=K,令像素个数N(K)=N(K)+1。

(3)删除小面积噪声

若像素个数N(K)

2.3区域细分与自适应权重

对33帧和34帧分别采用极限误差分割法和噪声消除后,得到图4(a)和图4(b)连续两帧的目标区。两帧差分得到图4(c)连续两帧目标间的变化区。变化区与33帧异或得过去目标区,如图4(d);变化区与34帧异或,得到当前目标区。变化区域被分割成属于过去一帧(33帧)的过去目标区和属于当前帧(34帧)的当前目标区,分割结果如图4(d)和图4(e)所示。

在运动目标运动缓慢时,易给混合高斯背景带来大片干扰(如图1(c)示),本文采用自适应更新权重消除此干扰。对背景区域采用小的更权重(α取0.002),以维护高斯模型的统计特性;对过去目标区采用较大更权重(α取0.1),可消除运动目标由于缓慢运动留下的痕迹;而对当前目标区不作更新,消除当前帧运动目标给背景模型引入干扰。

3实验结果

对在风力4级、存在树叶抖动剧烈的室外环境下拍摄的视频进行仿真实验,测试软件为MATLAB7.0。图5(a)为原算法背景模型,由于运动目标出现停滞而留下的干扰难消除。图5(b)为改进后背景模型,在运动目标出现停滞的处获得了较满意的修复效果。

基于改进后的背景模型,运动目标系统在室外复杂环境下获得了良好的跟踪效果。跟踪效果如图6所示。

4结论

对传统混合高斯背景模型作了改进,有效消除传统模型中难以适应运动目标出现缓慢运动而引入噪声的情况。因采用了噪声消除和目标间差分,很好区分了背景不同性质区,对不同区域用不同学习权重,是背景模型具有自适应性,因此背景模型在受运动目标干扰的区域得到快速的修复。实验结果表明,该算法有效的提高了混合高斯背景模型的鲁棒性,为后继运动目标检测、识别、跟踪提供了良好基础。

参考文献

[1] Wren C,Azarbayejani A,Darrell T,et a1.Pfinder:real—time tracking of the human body [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.

[2] Ridder C,Munkelt O,Kirchner H. Adaptive background estimation and foreground detection using Kalman·filtering[A].In:Proceed· ings of the Int’1 Conference on Recent Advances Sinmechatronics [c],Istanbul,Turkey,1995:193-199.

[3] Friedman N, Russell S. Image segmentation in video sequences: A probabilistic approach[A]. In: Proceedingsof the13 Conference on Uncertainty in Artificial Intelligence [ C ], Rhode Island, USA, 1997:175-181.

[4] W E mixture models for Stauffer C.GrimsonL.Adaptive background real—time of IEEE Conference on tracking[A].In:Proceedings Vision and Pattern Collins,Computer Recognition[C],Fort Collins,Colorado,USA,1999:246-252.

[5] Stauffer C,Grimson W E L.Learning patterns activity using real time Transactions Pattem and Machine tracking[J].IEEE Analysis InteHigence,2000,22(8):747-757.

[6] 文灏,陈红涛.基于减背景与对称差分的运动目标检测[J].微计算机信息,2007,23(9):18-20.

Research of Tracking Moving Objects Base on Improved Mixture Gaussian Model

Liu Yongfu1,Tan Jianbin2

(1. Guangdong Polytechnic Institute,Guangzhou 510091,China)(2. Foshan Polytechnic,Foshan 528137,China)

AbstractSystem made improvement to traditional Gaussian mixture background to eliminate the effect of slow movement objects on background model. System use target difference to identify the movement area of coherent frames, and it will adopt different learning weight updated strategy to each areas. The experimental results show that this improved algorithm has strengthened background model and achieved a better result in tracing system.

Key words improved mixture Gaussian model,objects subtraction,Adaptive learning weight

(收稿日期:2012年7月21日)

基于检测跟踪 篇12

雷达信号分选[1]就是在多部雷达脉冲交迭在一起的情况下,分离出各部雷达脉冲串的技术。其实质就是脉冲信号的去交迭、去交错的过程[2]。目前基于PRI参数提出很多分选方法[3],随着新体制、新技术雷达的不断出现,雷达接收机收到的雷达信号更加密集和复杂,如频率交迭而成的密集脉冲流,运用传统的分选方法进行分选越来越困难。

本文研究了一种基于SDIF算法和序列相关法的联合检测法,及基于该方法的一种被动雷达信息处理系统信号分选跟踪机设计与硬件实现。该信号分选跟踪机在复杂的电磁环境中,如果没有任何先验数据,通过SDIF算法分析雷达参数,再通过序列相关法验证信号的存在性,增加检测概率;如果有先验雷达参数,只需用序列相关法验证信号的存在性即可。联合检测方法可实现该信号分选跟踪机对信号的准确、快速分选,进而依据一定威胁判断准则找出威胁等级最高的雷达,然后通过跟踪器跟踪该部雷达,正确给出跟踪波门。

1 系统概述

被动雷达信息处理系统由信号分选跟踪机、窄带数字接收机及测向处理机三部分组成(见图1),通过各分机的数据处理和分机间通信,即可完成辐射源信息采集与处理,并输出控制信息,完成对辐射源的跟踪。信号分选跟踪机主要完成对环境的分选、识别、分析,对威胁信号提供PRI跟踪波门,可在系统引导下对通过滤波器的信号进行PRI跟踪,实时监视跟踪信号的变化,引导跟踪器跟踪。

信号分选跟踪机接收来自微波前端的载频码、两路视频信号流及来自窄带数字接收机的窄带高灵敏度脉冲流,对接收的信号进行分选、识别、分析,将脉宽类型选择(SEL)信号输出给窄带数字接收机,将信号流(Signal)、宽波门(Gate_W)及载频码(CF)同时输出给窄带数字接收机和测向处理分机,并将频综调节码、PIN控制码及波段选择信息输出给微波前端。

2 信号分选跟踪机设计

2.1 信号分选算法

2.1.1 分选概述

信号分选是从大量随机交叠的脉冲信号流中分离出各个雷达脉冲串,并选出有用信号的过程。信号分选的实质就是脉冲信号去交叠、去交错的过程。

一般来说,脉冲信号的分选是根据信号到达角(DOA)、脉宽(PW)、载频(CF)、脉冲到达时间(TOA)、信号幅度(PA)等参数进行的[4]。在本信号分选设计中,脉冲描述字PDW是由PW、CF和TOA组成的。预先测得的载频码(或者装载数据库)可传给接收机前端的频综,将其调整到相应的本振频率上,以保证信号经多次混频后能够落入高中放带宽内,进而缩小信号频率搜索范围;此外,根据前端测得载频码可以进行捷变频分析,从而分选出捷变频信号。脉宽和脉冲重复周期对于视频信号处理至关重要,脉宽用于确定产生波门的宽度;脉冲重复周期则是跟踪的关键,在确定时域上的一个基准信号后,要根据它产生下一个波门的位置,进而判断在该波门中是否存在实际的信号。

由此可见,PRI分选是整个信号分选算法的核心。

2.1.2 分选算法对比分析

(1) 积累差直方图法(CDIF)。

它用脉冲间隔直方图分析方法来分选复杂雷达信号,准确性高,可靠性好,可有效克服脉冲重频分频、倍频的问题。但是,算法的运算量很大;其检测门限不是最佳检测门限;大量脉冲丢失时,会检测出谐波。

(2) 顺序差直方图法(SDIF)。

它比CDIF法更快,更清晰,因为它只有当前差,并与门限比较,无需用两倍PRI值与门限比较。该算法具有最佳检测门限,在大量脉冲丢失时,它采用次谐波校验防止虚假检测,适于常规、捷变频和重频参差雷达信号分选。

(3) 序列相关法。

原理比较简单,易于实现,是重频分选的经典方法之一。当然,运算量较大,在一次分选过程中,通常需要多次选择准PRI进行序列相关试探,而且每一次序列相关最多只能分选一部雷达脉冲列,故该方法计算量较大。由于容差的门限较小,故对脉冲干扰和脉冲丢失都很敏感。对于重频参差雷达信号,总是分选为PRI等于帧周期的多个脉冲列。它更加适用于已知可能的PRI或者工作在数据库方式,将它和SDIF算法综合使用再配合参差鉴别等可以获得较好的分选结果。

(4) PRI变换法[5]。

该方法由于采用了复值自相关积分,从根本上解决了二次谐波抑制的问题,用来检测由多个具有恒定PRI脉冲组成的脉冲串的PRI很有效。并且,由于采用了通过时间而移动的叠加PRI直方图单元方法,可以有效获得跳变脉冲串的PRI。但是,它的运算量极大,因为它不仅要基于每一对TOA之差进行运算,还要对相应的每个TOA进行复指数计算,并且在前面运算的基础上,还要对每个时间间隔计算的值进行叠加。显然很难满足实时性要求,它的性能可能只是在实验室的仿真中才能体现出来,对于设备量有限,实时性要求极高的系统来说,显然很难满足实时性要求,是无法采纳的。

另外,有一些文献还提出了一种用于密集信号分选的平面变换技术算法[6],该算法能比较直观地显示分选结果,但在用DSP做分选运算时其优势并不明显,不满足实时分选要求,故也不采用。

从上面的分析可以看出,这些算法所做的主要工作就是从大量交叠的密集脉冲中检测目标辐射源的PRI序列是否存在,进而将已识别的目标辐射源从存在缓存里的采样数据中检索出来的过程。信号分选器工作在复杂的电磁环境中,在无任何先验数据的情况下,可通过SDIF算法分析雷达参数,再通过序列相关法验证信号的存在性;在引导方式下有先验雷达参数,只需用序列相关法验证信号的存在性即可。

因此,可采用SDIF算法和序列相关法联合检测,配备参差鉴别分析等处理方法可以实现信号的准确、快速分选。

2.2 系统实现

2.2.1 系统工作概述

信号分选识别跟踪器可工作在引导、独立两种工作方式。在引导工作方式下,信号分选跟踪处理器根据预先装订的威胁目标雷达数据库进行分选和跟踪,并给出跟踪波门;在独立工作方式下,没有威胁目标雷达数据库,信号分选器根据一定的算法,分析信号脉宽、载频、重频的规律,依据一定威胁判断准则找出威胁等级最高的雷达,然后通过跟踪器跟踪该部雷达,并给出跟踪波门。

本系统在接到飞控系统(设备)的分选命令后,就开始采样空间信号并进行参数测量,采样结束后同时完成脉宽PW的分类,再进行捷变频分析和PRI分析,最后将分选结果上报飞控系统(设备),再由飞控系统(设备)判断给出需要跟踪的雷达参数或分选跟踪器分系统本身根据一定的威胁判断规则装载跟踪器,再启动跟踪器。跟踪器跟踪成功后,给出跟踪波门。

跟踪器开始跟踪分选出来的雷达信号以后,这时分选器就不再进行其他工作,以免造成资源的浪费。为确保跟踪器跟踪的准确性,在跟踪器开始跟踪的同时,指定分选器软件监视这一部雷达参数变化;如果跟踪器跟踪丢失,就询问分选器的监视情况。如果分选器也没有监视到此部雷达,跟踪器就报送跟踪丢失;如果分选器能够监视到此部雷达,则跟踪器重新开始跟踪。

2.2.2 硬件框图及接口设计

分选跟踪处理器硬件基本设计框图如图1所示。

整个系统以一片DSP为主处理器,配合FPGA及其他外围电路设计出用于实现雷达信号分选跟踪的处理器[7]。其中,DSP主要用于实现整个分选算法,并与控制系统进行通信及数据交换,同时给跟踪器装载相关参数;FPGA主要负责系统中的译码电路、信号预分选中信号参数的测量、缓冲存储读取,根据DSP装订的参数装订滤波器,滤掉不符合目标特征的脉冲然后进行采样和分选,及信号跟踪器中根据DSP装订的参数装订滤波器,滤掉不符合目标特征的脉冲然后进行跟踪,并输出跟踪波门。

2.2.3 软件总体流程

分选算法所作的主要工作就是从大量交叠的密集脉冲中检测目标辐射源的PRI序列是否存在,进而将已识别的目标辐射源从存在缓存里的采样数据中检索出来的过程[8]。信号分选器工作在复杂的电磁环境中,在无任何先验数据的情况下,可通过SDIF算法分析雷达参数,再通过动态序列相关法验证信号的存在性。因此,可采用动态序列相关法和SDIF算法联合检测,配合参差分析等处理方法实现信号的准确、快速分选。

本机系统工作总过程如图2所示。信号分选跟踪器系统上电复位以后,处于等待控制系统命令状态,这时由控制系统给出控制命令。信号分选器接到开始工作命令后,开始进入分选流程,先采样一段数据以后,采用相关算法对采样数据进行处理。得到信号参数后,装载参数给跟踪器,然后开跟踪器,跟踪器开始工作,跟踪成功后,给出波门信号。同时上报分选器跟踪状态,分选器再将跟踪状态转发给上位机。

2.2.4 信号采样

首先确定取样时间。为了可靠完成对某个辐射源的分选,那么必须拥有该部雷达脉冲不小于5个,实际中一般取10个脉冲。技术指标中威胁雷达辐射源的最大重复周期为10 ms,则10个脉冲,9个间隔,所以取样时间至少为90 ms,为了对低重频信号在一定的虚警概率下仍能够获取足够的样本个数,采样时间定为100 ms。实验证明,100 ms的采样时间对低重频信号在一定的虚警概率下也能实现准确分选。技术指标中给定的最小重复周期为3.3 μs,这样在1 ms时间间隔内已经有300个脉冲了,所以取样时间过长,脉冲数目过多,这样不但不会提高脉冲提取的可靠性,而且会给后续处理电路增加负担。系统中对相同脉宽和载频的到达时间并不是无限制地存取下去,而是分配一定的存储空间,比如128个字(128×16 b),这样,即使有脉宽相同、载频相同的多部信号交叠在一起,按照只要连续捕捉到5个脉冲就认为该部信号存在这一条件,也可将多部信号一一提取出来。

2.2.5 信号分选

加至信号处理系统的信号是密集交迭的脉冲流,信号分选是指从这种随机交迭的脉冲信号分离出各个雷达的脉冲序列并选出有用信号的过程。因此,信号分选的实质就是去交错的过程[7]。

信号分选是利用信号参数的相关性来实现的[9],在实际实现中主要可以用到的参数有PW,CF,TOA这三个参数,CF由前端给出,PW,TOA由在FPGA内构造的测量硬件模块给出。

在本分选系统中采用SDIF算法与动态序列相关法对信号进行分选。分选流程如图3所示。流程图主要画出了脉宽集合形成之后的分选算法,包括载频分选和PRI分选。

3 仿真测试及其结果分析

3.1 软件仿真测试及其结果分析

这里仿真采用Matlab语言进行分选工作的仿真。三部雷达信号分选仿真结果如图4所示。

从图4仿真结果可以看出,基于SDIF与序列相关法的联合检测可以较好地分选出空间各个雷达信号;在空间含有大脉宽和小脉宽情况下,该检测方法也具有较好的鲁棒性;但是随着空间雷达信号密集程度的加重,脉冲丢失情况出现,这时序列相关法检测就比较重要,根据检测到某一类脉冲超过5个脉冲就认为存在该雷达信号,可以增加检测概率。当然,假如空间信号出现更多混叠现象,该分选算法可能会出现少分多分甚至错分的情况,这时考虑再增加一维参数的分选是一个解决方法,比如到达角[10]。

3.2 硬件仿真测试及其结果分析

设备:某型雷达信号分选跟踪平台一部,EM1716直流稳定电源一台,某型自制雷达信号源一台,计算机一台,Tektronic示波器一台,ICETEK-5100USB开发器一件,五部雷达信号参数设置见表1。

通过实物分选跟踪硬件平台的大量实验结果表明:基于SDIF算法和动态序列相关法的联合检测法可以实现对空间多部不同雷达信号进行正确地分选,并能对常规雷达、参差雷达、抖动雷达以及捷变频雷达等正确给出跟踪波门。

4 结 语

本方案充分利用了SDIF算法和序列相关法的优点,通过联合检测处理实现信号的准确、快速分选,仿真结果验证了该方案的优越性。基于本设计思想开发的信号分选跟踪机已在某被动雷达信息处理系统中试用,具有集成度高、可靠稳定的优点。

上一篇:防范模式下一篇:DB2数据库