行人目标检测

2024-08-19

行人目标检测(共7篇)

行人目标检测 篇1

摘要:针对经典Vibe算法在实际视频图像中,对行人目标检测不够精确,主要存在“鬼影”、光照误检的干扰问题,结合三帧差分算法及LUV均匀色彩空间的特性,提出了一种改进的Vibe算法。该算法首先通过三帧差分对视频进行预处理,获取真实背景,然后结合LUV空间的均匀色彩特性降低对光照的敏感度,最后对空洞填充并获取行人目标的最小外接矩形。实验结果表明,该算法能有效地消除“鬼影”问题,并在光照突变情况下具有良好的鲁棒性,在复杂环境的实时监控视频流中具有理想的行人目标检测效果。

关键词:经典Vibe算法,三帧差分,LUV色彩空间,行人目标检测

0 引言

运动目标检测是计算机视觉领域中重要的研究课题之一,融合了图像处理、模式识别、人工智能以及自动控制等多个领域的内容,是一个跨学科、富有挑战性的前沿课题。行人目标检测作为运动目标检测的一个实例,随着我国智慧城市建设的大力开展,智能视频分析需求的亟需提高,它在视频监控系统中得到了广泛应用[1]。但在复杂的现场环境中,诸如光照突变、动态背景、“鬼影”等干扰因素,给行人目标检测技术带来了很大的挑战。

目前常见的目标检测方法有: 光流法[2]、帧间差分法[3,4]、背景减去法[5,6,7,8]。光流法由于计算十分复杂,从而导致算法的实时性差、实用性低。帧间差分算法相对简单,利用图像序列中相邻帧之间的图像差分来提取运动的目标区域,但往往不能提取出完整的目标。背景减去法通过实时的背景提取和更新实现运动目标的检测,算法简单且实时性好,但其检测性能与背景模型的准确性有较大的相关性。

为了建立适应动态背景的有效背景模型,学者们提出了多种背景建模算法,例如: 混合高斯模型( Gaussian mixture model,GMM)[9]、码本模型( Code Book)[10]、GMG算法[11]和Vibe算法[12]。其中,Olivier Barnich等[12]学者提出的基于像素非参数化随机样本模型( Visual Background Extractor,Vibe)的背景减除算法,以其计算量小、检测速度快等特点得到了广泛应用,但该算法对“鬼影”的滤除以及光照的处理方面未做太多考虑。本文在Vibe基础上结合三帧差分以及LUV均匀色彩空间,提出了一种改进的Vibe算法,用于视频监控中行人目标的检测。实验结果表明,本文算法与传统Vibe算法检测结果相比,不仅实现了对“鬼影”的快速抑制并提高了对光照影响的鲁棒性,同时还保证了视频监控的实时性需求。

1 Vibe运动目标检测算法

Vibe算法,即视觉背景提取算法,用来实现快速的背景提取和运动目标检测。该算法首次直接对单帧图像进行初始化建模,并将随机化的方法引入到背景模型中,提出一种随机更新背景模型的策略。由于算法的实时性和鲁棒性较高,一经提出就很快被用于实际应用中。算法的核心思想主要包括背景建模、前景检测及背景模型的更新。

1. 1 背景建模及前景检测

对视频第一帧图像的每一个像素点建立一个包含N个样本的像素模型,根据相邻位置像素值具有相似时空分布的特性,随机选取每个像素的八邻域中某个像素值来初始化背景模型中该像素的值。定义v( x) 为RGB彩色空间中x处的像素值,vi为选取的样本,则像素v( x) 的背景模型记为:

定义一个圆域SR( v( x) ) ,如图1 所示,中心为像素v( x) ,半径为R ,统计落在圆域内的样本的个数,记为#{ SR( v( x) ) ∩ { v1,v2,…,vN} } ,给定一个阈值#min ,若满足:

且在RGB通道上,样本像素的色彩差满足公式( 3) 时,则将v( x) 分类为背景,否则认为是前景。

其中,c代表R,G,B这三个通道。

1. 2 背景模型的更新

随着时间的推移,背景不可避免会发生一些变化,如光照,前景遮挡等等。因此需要不断地更新背景模型,才能达到较强的抗噪性。Vibe算法在模型更新时引入随机策略,提出了一种简单快速的更新方法:

1采用无记忆更新策略,随机选取样本更新。每次确定需要更新像素点的背景模型时,从新像素点的八邻域中随机选取一个样本,替代原有背景模型中随机选取的一个样本值。这样保证了样本在背景模型中存在寿命的平滑指数衰减,避免了先入先出方法造成的变化速度不能正确处理的问题。

2随机决定是否更新背景模型。即并不是每处理一帧数据,都需要更新处理,而是按一定的更新率更新背景模型。增加一个时间二次抽样因子记为φ ,以1 / φ 的概率更新背景模型。从而进一步提高了背景模型的时间相关性,并有效地防止周期或者伪周期的背景运动。

3随机更新邻域像素点。图像中邻域的像素具有相似的时空分布,因此背景模型中的样本也要更新对应的邻域。增加一个时间二次抽样因子 φ ,以1 / φ 的概率更新该像素的八邻域中的某一像素。这样有效地保证了空间一致性,可以随时间恢复被前景遮挡的背景像素。

2 改进的Vibe算法

Vibe算法程序简单,特别是对于场景中有快速运动的物体、规律闪烁的背景以及遮挡的背景等情况的处理具有良好的鲁棒性。针对原算法中存在“鬼影”以及对于图像中发生光照突易产生误检现象的问题,本文对视频进行三帧差分[13]预处理并结合形态学及LUV色彩空间[14,15]的方法提出了一种改进的Vibe算法。

2. 1 基于三帧差分的背景获取

在Vibe算法中,由于直接对第一帧进行背景建模,若目标在第一帧中出现,则得不到纯净的背景,因此本文利用预处理过程来获取相对真实的背景。帧间差分法采用基于像素的时间差分来提取图像中的运动区域,具有实现简单,计算量小,对光线等场景变化不敏感,对动态环境具有较强的自适应性,且不会产生“鬼影”的特点。本文预留视频的前n帧( 当i < n时) 使用三帧差分算法得到运动目标的位置信息,通过运动特征在不同帧中提取内容来填充真实背景。背景获取预处理具体步骤为:

1设定预处理帧数n 、帧处理步长step ,当前处理帧号i ,背景生成帧号t 。

2获得运动目标的位置信息: 从第t帧开始,令i = t ,提取视频中第t - step 、t 、t + step帧图像做三帧差分,差分后的图像直方图具有明显的双峰特征,即背景和目标之间的类间方差很大。基于这种特性,使用大津法对结果进行二值化处理,获得第t帧图像中运动目标的位置,将第t帧中除去移动目标位置外的部分作为真实的背景信息。

3运动目标位置填充: 将当前处理帧后移step帧( 即i = i + step ) 。

当i < n时,用t - step 、t 、t + step做三帧差分,通过差分结果图像判断第i帧位于第t帧图像运动目标位置处是否有未填充的背景信息,若有,则将第i帧此位置的像素填充为背景,同时填充该像素的八邻域; 否则,转步骤3。

若第t帧图像运动目标位置已经全部填充完毕转步骤4; 否则转步骤3。

当i ≥ n时,根据邻域像素的相似时间分布特性,选择最近邻域背景像素填充,转步骤4。

(4)真实背景输出。

2.2 LUV颜色空间

RGB空间是非均匀色彩空间,对图像中的光照改变非常敏感,会导致错误地标记光照改变时的背景为前景。因此本文把RGB图像转换到LUV颜色空间,以提高算法对光照的抗干扰性。LUV全称为CIE1976( L*,u*,v*) ,是均匀色彩空间,具有视觉统一性。其中,L*代表亮度信息,u*和v*代表色度信息。LUV色度坐标可以由RGB坐标转换得到:

其中,R,G,B分别代表像素v( x) 在x处的色彩值。u' 和v' 是色度坐标,

采用式( 5) - ( 7) 形成标准化的坐标,令( Lb*,ub*,vb*) 为像素vb的采样值,( Lt*,ut*,vt*) 为vb在t时刻的采样值。如果背景完全静态,当光照变暗时,此时的背景像素对比原先的背景像素要暗: α ≤Lt*/ Lb*≤ 1; 相反,当光照变亮时,此时的背景像素对比原先的背景像素要亮: 1 ≤ Lt*/ Lb*≤ β。因此,光照强度的容差变化范围可以表示为: α ≤ Lt*/L*b≤β。

在LUV色彩空间中式( 3) 可以改写为式( 8) ,当#( v( x) ) ≥ #min时,像素v( x) 被判为是背景。

这里s、α 和 β 都是经验常数,本文实验中,设置s = 0. 03,α = 0. 6,β = 1. 5。

2. 3 算法步骤

本文算法流程框图如图2 所示,具体步骤如下:

1使用三帧差分算法预处理得到真实背景。

2背景建模。对预处理得到的背景进行建模,得到20 幅背景样本。

3前景检测。对图像中的每一个像素,根据式( 8) 计算与每一幅背景样本中对应像素的欧氏距离#( v( x) ) ,设定阈值R = 20 ,#min = 2 。即如果至少有2 个结果小于20,则该像素点判断为背景,转步骤4; 否则为前景,对二值图像进行膨胀处理,再做闭操作,填充小空洞。计算像素值为1 区域的面积A ,当A ≥ 300 时对区域做最小外接矩形,即为目标检测结果。

4更新背景。如果当前像素判断为背景像素,设定时间二次抽样因子 φ = 16 ,即随机选取背景样本中以1 /16 的概率更新样本。同时以1 /16 的概率更新该像素的八邻域中的某一像素。

3 实验结果分析

算法运行环境为CPU: Intel( R) Core( TM) i5 -2450M@ 2. 5GHz; 内存: 4. 00GB的笔记本上; 程序代码使用VS2010 + opencv2. 4. 8 编写。本文的实验过程中其它参数设置n = 50,step = 5,i = 5,t = 5,φ = 16。在对视频行人目标检测的效果进行评价时,本文采用主观评价。

实验采用Cell_phone_Spanish视频对本文算法进行测试,同时与传统Vibe算法进行比较。实验过程中,算法采用的参数与原文相同。实验结果如图所示,图3 是算法的背景图像对比图,图3( a) 为视频第一帧,即原始背景,图3( b) 为预处理后得到的真实背景。图4 是存在“鬼影”时检测结果图,图4( a) 为传统Vibe算法的检测效果,可以直观地看出,由于“鬼影”干扰,产生了误检现象; 图4( b) 为本文算法检测效果,预处理后很好地消除了“鬼影”影响,检测结果较好。实验视频是高速运行的列车上拍摄得到,外界光照变化对视频中目标检测存在影响。图5 给出了光照变化情况下的检测结果,图5( a) 为传统Vibe算法的检测结果,大片光照会产生误检,而且不做形态学处理,得到的检测结果也不够精确; 图5( b) 为本文算法的检测结果,转换色彩空间并加入形态学处理后,算法对光照的鲁棒性得到了显著增强,同时提高了检测的准确性。

4 结束语

本文提出了一种基于Vibe的改进算法,该算法的主要贡献有: 1实现复杂环境视频下行人目标的检测。2该算法利用三帧差分算法获取视频的真实背景进行初始化,从而有效降低了“鬼影”对背景模型的影响。3通过引入LUV颜色空间,提高了算法对光照的抗干扰性,明显降低了误检率。本文算法在保证复杂环境视频中目标检测实时性的同时提高了检测效果的准确性,并提高了算法对光照的鲁棒性。

行人目标检测 篇2

目标被其他物体遮挡、目标运动出摄像机视野等, 在单摄像机跟踪里面也是常见的问题, 单个摄像机难以解决。此时, 我们就需要使用多个摄像机来扩大监控范围、增加监控角度以解决这类问题。这时候就体现了智能视频监控系统在解决这些问题时的优越性。而多摄像机则可以有效地将监控范围扩大化、增加监控角度以解决这类问题。多摄像机监控系统能够全方位多角度的监控一些场景范围较大, 视野较为宽广的场景, 并且能够延长跟踪的时间, 不受行人遮挡与颜色相近物体的干扰, 在一些公共场所, 都能实现对行人的特征与车辆的实时跟踪, 具有良好的性能[3]。目前国内外也有很多科研机构开展了一些智能视频监控系统的研究, 比如国内, 对这一实验开展得较为好的北京邮电大学, 西安交通大学, 浙江大学等, 都取得了较为理想的科研成果[4]。

运动目标跟踪是智能视频监控系统中的一个非常重要的部分。而行人的干扰与遮挡, 都会给视频监控带来一定的困难, 如果在这些干扰与遮挡问题下, 实现准确实时地跟踪, 降低目标跟踪的丢失率, 这也是很多学者正在研发待解决的问题。而运动目标跟踪, 则是在一段视频序列中, 能非常准和快的对运动目标立即找出活跃的最感兴趣的那帧图进行运动参数的估计, 从而获取目标运动状态的方法, 确定运动目标的轨迹与位置, 从而实现有效的跟踪[5]。

基于综述, 为此本文提出了基于多摄像头的行人视频运动目标追踪研究方法, 以Kalman滤波算法为基础, 对Kalman滤波与Camshift两种结合算法进行了分析, 从而能准确的获知多摄头像下的行人目标运动视频的范围及位置, 大大提高了运动目标视频的准确率, 降低了丢失率。

1 Kalman滤波器问题描述

Kalman滤波器是一种高效的、实时的递归滤波器, 它利用前一状态的估计值和当前状态的观测值, 从一组包含噪声的观察序列中, 预测、估计当前状态的值, 及目标的位置坐标, 通过递归的方式, 依次估计每一个时刻的状态值[6]。它是一种构造无偏线性最小方差估计的递归估计方法。该方法计算量小, 可以实时计算[7]。

Kalman滤波器系统的观测与状态方程分别如下:

其中, sj= (st, yj, wsj, wyj) j, sj, ϖj表示目标的质心的位置坐标, sj+1, sj分别表示j+1, j时刻系统的状态向量, ϖsj, ϖyj表示目标在x轴和y轴的运动速度;tj+1表示系统的观测向量;而φj则表示系统的状态转移矩阵, sj表示系统的观测矩阵

ϖt表示输入矩阵

ϖt表示系统噪声, vt表示观测噪声, 二者是互不相关的零均值白噪声, 协方差矩阵分别为S和W。

1.1 基本方程

Kalman滤波的基本方程如下:

其中, ϖt表示Kalman增益, kt表示μt的协方差矩阵。

1.2 迭代过程

Kalman滤波器的终极目标是要求出状态ϖt的无偏线性最小方差估计、估计误差与协方差矩阵值。Kalman滤波的迭代过程如下:

1) 首先将参数进行初始化, 令初始状态为ϖo,

其中, ϖ0, r0为初始目标窗口的质心坐标, 则μϖ0=0, μs0=0.

2) 假设设定现在时刻是W, 根据系统的迭代过程模型, 基于上一个时刻的状态, 利用公式 (6) 来预测当前时刻的状态, ϖ0是上一时刻状态的最优值, 而μt+1则是根据上一时刻的状态, 可进行预测的结果值;

3) 利用公式 (8) 计算Kalman滤波器增益值;

4) 利用测量方程计算当前状态的测量值;

5) 最后将测量值与预测值二者相结合, 利用公式 (9) 计算得出当前状态的最优估计值μϖ0, 再同时利用公式 (10) 更新当前时刻的协方差矩阵值。

2 Camshift与Kalman结合算法

是利用目标物体的颜色直方图作为匹配模型的Camshift算法, 不会轻易地受目标形状变化的影响, 因而可以有效地解决目标运动过程中的形状变化问题且可实现实时目标跟踪。但当目标物体与背景的颜色非常相近时, 其跟踪效果不是特别理想, 尤其是当运动目标背景也是动态的时候, 更不容易实现跟踪。由于Kalman滤波器可以准确地预测运动目标的位置和速度, 因此将Kalman滤波器与Camshift算法结合起来, 可大大地提高运动目标跟踪的准确度, 获取有用的信息内容。

当把运动目标提取出来之后, 将初始窗口的位置和大小作为Camshift算法的初始值输入, 设定初始状态向量为OY;整个目标运动追踪的过程中, 用Kalman滤波器对跟踪窗口的大小与位置进行预测, 然后再将预测所得到的运动目标位置估计值作为Camshift算法初始迭代的位置, 再在这个邻域内寻找最佳匹配位置。因为之前对目标在下一时刻的位置进行了预测, 因而其搜索的范围得到了减少, 这样就能更有效地降低计算量, 避免运动目标跟踪丢失现象的发生, 其跟踪的效率得到了大大的提高。

3 实验结果与分析

3.1 实验环境

本实验在MATLAB6.0环境下进行编程实现, 硬件平台处理器为Intel Core i5 CPU2.30GHZ, 内存5.00G, 操作系统环境为Windows 8, 64位。本实验中所使用的视频, 其视频分辨率为329×247, 帧率为27帧每秒, 摄像机所拍摄的角度与位置将其固定不变。文中主要是对Kalman滤波器与Camshift算法结合起来在行人目标运动跟踪方面进行的实验与分析。主要测试了有行人遮挡与行人干扰的两种情况, 通过对传统的原始Camshift算法, 与和Kalman滤波器与Camshift算法结合起来算法的不同跟踪结果, 来进一步证明两种结合算法的有效性与准确性。

3.2 行人干扰情况下实验数据1

从图1可看出, 图1所测试的是在有行人干扰的情况下, 而且目标并无行人遮挡的情况下, 将行人的颜色与跟踪目标的颜色进行对比, 得知二者颜色相差较大。图 (a) 是使用Camshift算法进行跟踪的结果, 从图 (a) 可以看出, 虽然对运动目标基本可以实现跟踪, 但是红色跟踪框对目标的定位并不准确, 时上时下, 具有不稳定性;而图 (b) 显示的则是Kalman滤波器与Camshift结合算法的跟踪结果, 由图 (b) 可以看出, 其跟踪效果要比图 (a) 好, 对目标的定位其准确性更高, Kalman滤波器与Camshift算法结合起来的结合算法能够对跟踪目标进行很好的跟踪, 质心波动很小, 不会时而向上, 时而向下, 会紧紧地进行跟踪, 与目标的实际运动很吻合, 具有稳定性。

3.3 行人遮挡情况下实验数据2

从图2中可看出, 图2测试的是有行人遮挡, 且行人在短时间内遮挡了目标的情况下, 发现行人与所跟踪目标二者的颜色非常地相似。图 (a) 是显示的是用Camshift算法的跟踪结果, 图 (b) 显示的是使用Kalman滤波器与Camshift算法结合起来的跟踪目标运动的结果图。从图 (a) 中, 我们不难看出, 在目标被行人遮挡之后, 目标会丢失, 红色跟踪杠定位也会弄错行人, 跟踪目标失败;而图 (b) 是利用Kalman滤波器与Camshift算法结合的, 跟图 (a) 所跟踪的结果有着很大的差别, 从图 (b) 中我们可以看出, 运用CK结合的算法比传统的方法相比, 它能够更为准确的跟踪目标, 在目标被颜色相近的行人遮挡之后, 并不会造成视频运动目标跟踪的丢失, 其效果更佳, 更具有稳定性。

综上所述, 在运用行人干扰与行人遮挡两组实验数据中, 当有行人遮挡与有行人干扰的情况下, 运用Camshift与Kalman结合之后的算法, 比传统的方法, 其目标跟踪的准确度会更高, 同时能够在有颜色与运动目标的颜色非常接近的情况下, 仍然能够保持目标视频的跟踪, 使得目标跟踪丢失的可能性得到了下降, 使得目标跟踪的质心更具有稳定性, 以实现和获取最佳的追踪目标效果。

4 结束语

针对单摄像机视野范围的局限性, 不能适应大场景的目标运动跟踪, 该文提出了基于多摄像头的视频运动目标追踪方法研究, 传统的Camshift算法是利用目标物体的颜色直方图作为匹配模型, 虽然不易受目标形状变化的影响, 可以有效的解决目标运动过程中的形状变化问题;运用该算法也能够实现简单的实时跟踪。但是当目标物体与背景的颜色非常相似或相近, 且被行人干扰或行人遮挡时, 其运动目标视频跟踪出来的效果并不令人满意。而Kalman滤波器却可以解决这一缺陷, 成功地并且十分准确地预测出运动目标的位置与速度, 实现更为有效的跟踪。因而本文结合二种算法的优点, 提出了将Camshift算法与Kalman滤波器这两种算法结合起来, 即使运动目标视频跟踪的原物即使是与颜色相近或相似, 亦或有颜色相近的行人物体遮挡的情况下, 也能实现实时跟踪。采用该CK结合算法, 不仅使得运动视频目标跟踪的准确度得到了提高, 同时也降低了目标运动视频丢失的可能性, 使得目标跟踪的质心更加稳定, 进行更为持续有效地实时跟踪, 其稳定性更好, 具有较强的鲁棒性。然而行人检测的运动目标视频追踪目前仍还存在着很多的问题与困难, 如何在有限的时间内实现更为准确的跟踪, 仍然是今后要研发的一个方向。

摘要:为了解决单摄像机在目标视频运动中提取信息时存在的缺陷性, 提出了基于多摄像头的行人视频运动目标检测追踪算法研究, 首先以Kalman滤波理论为基础, 对Kalman滤波的运动目标跟踪算法的迭代过程、基本方程进行了分析, 从而能预测出下一帧中目标所处的位置及范围, 并进行Camshift运算;然后再分析了Camshift与Kalman结合算法;最后, 为了进一步检测方法的有效性, 对多摄像头的视频运动目标追踪Kalman滤波与Camshift结合算法进行了实验, 实验结果表明:该方法能有效的解决遮挡视线问题, 比传统的方法, 其准确度更高, 降低了目标跟踪丢失率, 具有较强的鲁棒性。

关键词:行人视频运动,多摄像头,算法,检测

参考文献

[1]李志华, 田翔, 谢立等.视频监控系统中的多摄像机跟踪优化设计.哈尔滨工业大学学报, 2008, 40 (8) :1485-1490.

[2]梁艳.多摄像机环境下目标交接的研究[D].天津:河北工业大学, 2010.

[3]王津, 张学杰.多摄像头视频监控系统中基于SIFT特征的目标匹配研究[J].云南大学学报, 2009, 31 (S1) :37-42.

[4]Motamed C, Wallart O A.Temporal fusion strategy for cross-camera data association.Pattern Recognition, 2007, 28 (2) :233-245

[5]黄梅.基于改进RANSAC算法的图像拼接技术[J].海南大学学报自然科学版, 2011, 29 (2) :172-177.

[6]曹红杏, 柳稼航, 阮萍.基于角点变换矩阵的图像拼接[J].科学技术与工程, 2008, 8 (16) :4536-4539.

行人目标检测 篇3

随着计算机和机器人技术的飞速发展,智能车辆(Intelligent Vehicle)研究已经取得了长足进展,并广泛应用于军事、科研、民用等各个领域。从长远来说,智能汽车技术可以广泛应用于各行业和各个领域。导航技术是智能车辆的关键技术之一。要使智能车实现视觉导航,必须实现两个基本任务:一是能够实时跟踪车道的变化;二是能够检测车道内的障碍物(车辆、行人、其他)。只有精确了解车道信息,才可以准确地获得本车相对于车道的位置和方向;只有准确地检测出车道内的障碍物,才能有效地避开障碍物。在此主要介绍对车道线内行人的检测。

由于车道线内行人的出现具有不可预知性,无法根据预先设定的电子地图避开,只能在行驶过程中及时发现,而且必须实时处理。这就要求检测必须具有实时性和较高的准确性。

采用Adaboost算法构造基于行人外形特征的检测器,力求减小训练时间,提高检测准确率。试验证明,本系统具有较高的检测率,并且处理速度能够满足实时处理的要求。

2 Adaboost算法

Adaboost算法是1995年由Yoav Freund和Robert E.Schapire提出的,是目前最具实用价值的机器学习方法之一,它是一种迭代的学习方法,可以将一组弱学习算法提升为一个强学习算法。Adaboost算法本身是通过改变数据分布来实现的,它根据每次训练集中每个样本的分类是否正确,以及上次的总体分类准确率,来确定每个样本的权值,将每次训练得到的弱分类器最后融合起来,作为最后的决策分类器。这里所说的弱分类器是指它的分类结果应该比随机猜想的准确性稍高,即准确率大于50%,随着弱分类器个数的增加,最终集成的强分类器的错误率将趋近于零[1]。

2.1 矩形特征

Adaboost用于行人检测时,需要从行人中抽取大量的一维简单特征,这些简单特征均能在一定程度上区分行人和非行人。Adaboost算法中选取的弱特征是由1~4个矩形组成的矩形。Viola选取的矩形特征原形有4种,如图1所示。矩形特征值就是图中灰色部分所有像素的灰度值之和减去图1中白色部分所有像素的灰度值之和后得到的值。其中的方框表示所被检测的矩形区域。在这样的一个区域内,这4种矩形特征的大小和位置都是可以任意选择的。

在检测系统中,标准检测窗口大小为24×24。计算特征矩形的特征值时,需要扫描检测窗中的所有部分。如果每次都按照定义分次统计矩形内所有像素值的差值,计算量非常大,为了提高计算速度,应用积分图计算特征值。

2.2 积分图

所谓的积分图像其实就是对原图的一次双重积分(先是按行积分,然后是按列积分)。那么它的积分表示即为:

其中,是原图像,是积分图像。

积分图包括图中一个点的上面和左面的所有像素值的和,可见是一个离散的加和,因此在点x,y的积分图像的计算方法就如下所示:

如图2阴影部分的像素值和。

图3中在点1的积分图像的和可以通过矩形A内的点的和得到。在点2的值就是A+B,在点3的值就是A+C,在点4的值就是A+B+C+D。在D内的点的和可如下计算得到:4+1-(2+3)。

2.3 弱分类器

为了能使得这些分类器足够简单,就把分类器和这些矩形特征做个一一对应。亦即每个分类器就由一个特征的值来决定。于是得到如下的简单分类器原型:

其中——基于简单特征的分类器,x———待检测子窗口,———对于子窗口x的矩形特征值计算函数,———一个表示不等式方向的符号因子,只有正、负两种,———对应分类器的阀值。

3 训练分类器

3.1 单个强分类器训练过程

(1)取N个训练样本其中yi的取值范围为{1,0},对应样本的真与假。假设训练样本中有m个假样本,n个真样本(m+n=N)。

(2)初始化权值:

(3)在第t步,

1)权重归一化:

2)对每一个特征,为其训练一个简单分类器,即确定和以极小化指标:

3)取第t代的特征为,其中,即把获得最小分类误差的那个特征作为这一代选取的特征。

4)对权重进行更新:,其中,而

5)迭代完T步后,可以获得T个分类器,H1,H2,……,HT,则最后的强分类器构造为:

3.2 分类器工作过程

将多个强分类器级联(cascade)起来就可以组成一个行人检测系统。组成强分类器的弱分类器个数随着级数的增加而增加。每层的强分类器经过阈值调整,使得每一层都能让几乎全部的行人样本通过,而拒绝很大一部分非行人样本。而且,由于前面的层使用的矩形特征数很少,计算起来非常快,越往后通过的候选匹配图像越少,尽管矩形特征增多,计算量却减少,检测的速度加快,使系统具有很好的实时性。其工作过程如图4所示。

4 实验结果

实验利用OpenCV作为二次开发工具,它是Intel公司开发的数字图像处理和计算机视觉软件,可以进行数字图像处理和计算机视觉识别。

构造了对动态视频检测的行人检测系统,配置是P IV 2.0G 256M DDR内存,PCI-X400图像采集卡,运用2000样本,构造了20层分类器,准确率可达93%,误检率为1%,可以做到行人实时跟踪。检测不出来的情况多发生在多个行人聚集在一起的情况,如行人呈一纵列时,后面行人遮挡当了前面行人的大部分时,前面行人检测不出来,但这不影响实际应用,因为智能车辆只要检测到前方有行人,就会自动采取措施。实验结果如图5所示。

5 结语

基于Adaboost算法将多个简单分类器组合成一个强分类器,再将多个强分类器级联(Cascade)组成一个行人检测系统。实验证明,以上算法具有检测精度高、实时性好的优点,应用前景广阔。

参考文献

[1]Freund Y,Schapire R E.A Decision—theoretic generaliza-tion ofonline learning and an application to boosting[J].Jour-nal of Com—puter and System Sciences。1997,55(I):1-19.

[2]P.Viola.Rapid Object Detection using a Boosted Cascade ofSimple Features.In Computer Vision and Pattern Recognition,2001.

基于无监督学习的行人检测算法 篇4

一,在安防监控、智能驾驶、人机接口、运动感知等领域有着广泛的应用。行人姿势、衣着、光照和背景引起的目标外观的多样性是行人检测的研究难点。

目前主流的行人检测方法大致分为两类[2]:基于形状信息的行人检测方法和基于学习特征的行人检测方法。

(1)基于形状信息的方法包括基于人体模型和基于模板匹配的方法。人体模型的方法在构造精确人体模型的基础上可较好的解决遮挡问题,但人体模型的构建过程非常复杂;模板匹配的方法通过灰度或者轮廓模板表征行人,此类方法虽简单但却无法有效解决行人多姿态的问题。

(2)基于学习特征的方法通过对训练样本的监督学习,在样本空间中产生合适的区分函数,采用形成的分类器或结构参数对行人目标进行分类决策。此类方法拥有较高的鲁棒性,缺点是需要大量的训练样本进行长时间的训练。常用的统计分类的方法有基于支持向量机、基于Adaboost和基于神经网络的方法。

底层特征可以有效地对行人进行检测,但是与底层特征结合的混合特征必须通过学习训练才能有效地识别行人目标。多层级识别器[3]利用部分先验信息进行层级特征的端对端学习获得分类器。现有训练特征基本是通过监督学习获得,此过程中需要使用标记样本训练得到学习模型。在主流数据集中,未标记样本的数量已远远超过已标记样本[4]。针对此问题,本文提出一种基于无监督学习的行人检测方法。该方法可以充分利用所有样本提高训练得到的学习模型的泛化能力。

1 无监督多层次特征学习

在行人检测研究中,设计具有很好表征能力的特征描述子一直是研究的重点。本文将采用通用特征学习算法产生拥有很强行人表征能力的特征提取器。在图像检测中,端对端监督学习系统在拥有大量标记样本时能够达到很好的效果。针对大量数据集中无法找到足够数量的标记样例的情况,本文采用多层次模型[5],首先利用无监督学习算法从前一层级的输出中训练通用无监督模型,然后利用标记样例对提取的特征进行监督更新。

1.1 分层模型

分层特征提取系统[6]包含多层次特征提取器对样本进行连续的过滤和非线性变换操作。通过特定的通用参数化函数可以逐步将输入样本映射成更高层次的表征。本文采用稀疏卷积分层模型对样本进行特征学习,每层都采用包含有稀疏卷积编码算法和预测函数的无监督模型,其中预测函数有助于快速推理。底层之后使用分类器对学习的特征表征进行分类标记。

1.2 无监督学习

稀疏编码[7]算法是一种无监督学习方法,它用来寻找一组“超完备”基向量来更高效地表示样本数据。稀疏编码算法的目的就是找到一组基向量,使得我们能将输入向量表示为这些基向量X的线性组合:

此处,需要找到一组“超完备”基向量来表示输入向量。把有m个输入向量的稀疏编码代价函数定义为:

此线性重建模型中,混合系数。为了获得最优稀疏值,须对式(2)求极小值。取决于所使用的稀疏编码算法,本文所使用的是标准代价函数,所以为的绝对值之和。为获取通用特征提取器,对式(2)进行最优化:

式(3)对参数和是凹函数,然而固定一参数后,函数对另一参数仍然是凸函数。所有采用矩阵字典的稀疏建模算法都利用这个性质并采用了坐标下降法,例如对所用变量进行更新后求极小值。通常,我们采用稀疏字典学习来表征图像。在大部分稀疏编码模型中,我们假设所有相邻的图象块都是相互独立的,使用图像小块作为输入x获得字典,然后用超完备基表征整幅图片,然而这种方法获得的字典是冗余的。为解决冗余表征的问题,本文采用拥有快速预测函数的卷积预测分解模型[8]建立层级行人特征表达。本文采用预测函数如下:

其中, D为大小为K的过滤字典, β是超参数。无监督学 习过程分 为两个步 骤 : ( 1 ) : 保持变量不变,式(7)最小化获得最优稀疏表征值Z* ,(2):保持Z*不变,使用随机梯度算法W对进行更新:为学习率参数。

对于彩色样本图像或者其他多模型表征特征,预测函数如式(9)所示,

卷积能量为:

单层无监督在线训练步骤如下:

随机初始化和,取空集。

循环:利用快速迭代收缩阈值算法FISTA[8]最小化式(9)

收敛结束循环

(5)返回

1.3 非线性变换

单层无监督学习完成之后,使用训练获得的特征进行下一阶段的训练。为获得下一层级的特征表征,使用预测函数f(x)预测,之后进行非线性变换和合并操作。按照图2所示多尺度卷积网络框架,进行绝对值校正,局部对比度归一化和均值下采样操作。

绝对值校正是对所有f(x)的输出特征进行分量方式运算,以避免归一化和合并过程中的撤销问题。局部对比度归一化是强化最活跃特征和一直其他特征的非线性过程。操作步骤如下:

其中, i是特征图索引, ω是拥有归一化权重的高斯归一化权重函数且。对于所有样本,常数c取σ的均值。均值下采样操作使用特定步长的棚车内核。内核的大小以及步长在下文给出。卷积网络中的单层训练完成后,下一层级的训练样本特征通过预测函数和非线性变换获取。详细训练过程如算法2所示。

第一层级的特征能在参数空间中展示出因为参数空间和输入空间相同,第二级更高层级输入空间特征的可视化只有在层级间进行可逆化操作后才有可能。本文采用了绝对值校正和局部对比归一化操作,因此无法将第二层级的特征映射到输入空间。

层级无监督学习过程如下:

(4)结束。

2 行人检测

无监督学习算法通过利用大量未标记的样本,并有效剔除误标记样例,进而提高分类器的性能。行人检测面临着复杂多变的环境,造成行人与检测背景之间的差异过小,导致行人无法被高效识别。因此,为获得高效的分类器需要获得大量的未标记训练样本。针对此问题,本文利用无监督学习算法能够学习无标记样例的优势,提出了基于无监督学习算法的行人检测方法。

2.1 系统框架

行人检测系统通常包括两个模块:感兴趣区域划分(Regions of Interest,ROIs)和分类器设计。ROIs分割的是为了提取图像中可能包含行人的窗口做进一步检测。分类器设计是行人检测的核心步骤,分类器对ROIs进行验证,判断区域中是否包含行人。分类器的性能决定了整个系统的检测精度。行人检测流程如图3所示:

2.2 行人检测算法流程

在前文无监督学习和创建的分类器的基础上,建立行人检测系统,系统分为在线训练阶段和检测阶段。如图3所示:

(1)在线训练阶段。在线训练阶段利用上文提到的特征提取算法,首先利用无标记样本提取行人特征,建立起丰富的特征集,然后利用线性逻辑回归分类函数对特征进行分类,并使用标记样本进行随机在线训练。

(2)检测阶段。对于输入的图像,首先滑动窗口提取特征,并利用训练阶段的行人特征获取距离特征向量,然后进行SVDD常态类建模并对行人窗口异常检测,最后,利用非极大值抑制算法获取最终检测结果。

3 实验结果及分析

本文采用了INRIA数据库训练学习参数,该库包含训练集和测试集。训练集中包含有2416张正样本图片和1218张无行人图片;测试集中包含有1132张正样本图片和453张无行人图片。本文实验在PC(Intel(R) Core(TM) i3,3.20GHz,2.0GB)环境下进行,软件平台为Microsoft Visual Studio 2010。

3.1 数据准备

卷积网络在INRIA行人数据集上进行训练。数据库中图片大小为126*78,图片中行人与背景比为1.4——即行人高度为90像素值,相应背景为30像素值。为了对数据库进行扩展,增加样本数量,对数据库中的图片进行镜像处理。于此同时,对图片进行5个维度图像失真处理——如缩放和图像平移。缩放比例为0.95至1.05,平移值为-2到2个像素值。图像的失真处理目的是使图像的不变性发生微小变化。失真处理的范围决定了行人检测过程中行人识别和定位精度之间的权衡。从负样本图片中提取相同数量的背景图样,其约占总样本数的10%——训练集中包含有21800张包含行人的样本以及2045张不包含行人的样本。

3.2 行人检测

为验证本文检测方法的性能,实验在同等条件下进行。首先在卷积分层迭代网络中对训练集进行无监督特征提取,经过线性逻辑回归分类函数在标记数据中进行在线训练。对比实验包括集成分类器时延和监督/无监督实验。

监督分类器将标记样本和测试集作为训练集对分类器进行训练,无监督训练集包含前期无标记样本和后续标记样本。使用相同的测试集上的实验结果如表1所示。

表1可以看出,本文的方法在INRIA数据库中表现优于其他全监督单特征行人检测方法。因此,通过无监督学习无标记样本可以提高分类器的表现性能,证明本文方法的有效性和可行性。

图4出了各种检测方法在复杂场景下,行人被局部遮挡、部分重叠情况下的检测结果。

从检测结果可以看出,无遮挡情况下的行人大部分被检出,只有少部分的误检和漏检,检测效果较好。在图中行人出现遮挡和重叠时,本文方法也可以检测出行人,不过,图中和行人相似、竖直形状的区域存在误检;对遮挡比例过大或姿态变化较大的行人会出现漏检。

4 结论

本文提出了一种基于无监督学习算法的行人检测方法,在INRIA数据集中验证结果显示此方法高效可行。该检测方法充分利用了无监督学习算法对未标记学习样例的学习能力,同时利用监督学习对学习过程进行修正,这个过程获得高效的分类器,提高了行人检测的精度。由于本文的方法使用非监督学习方法,因而检测速度有待提高,因此,未来将进一步提高检测的速度。

参考文献

[1] 苏松志,李绍滋,陈淑媛,等.行人检测技术综述[J].电子学报,2012,40(4):814-820.

[2] 李斌,史忠科.基于计算机视觉的行人检测技术的发展[J].计算机工程与设计,2006,26(10):2565-2568.

[3] Enzweiler M,Gavrila D M.Monocular pedestrian detection:Survey and experiments[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2009,31(12):2179-2195.

[4] Vázquez D,López A M,Ponsa D.Unsupervised domain adaptation of virtual and real worlds for pedestrian detection[C]//Pattern Recognition(ICPR),2012 21st International Conference on.IEEE,2012:3492-3495.

[5] Hinton G E,Salakhutdinov R R.Reducing the dimensionality of data with neural networks[J].Science,2006,313(5786):504-507.

[6] Kavukcuoglu K,Sermanet P,Boureau Y L,et al.Learning convolutional feature hierarchies for visual recognition[C]//Advances in neural information processing systems.2010:1090-1098.

[7] Lee H,Battle A,Raina R,et al.Efficient sparse coding algorithms[C]//Advances in neural information processing systems.2006:801-808.

[8] Beck A,Teboulle M.A fast iterative shrinkage-thresholding algorithm for linear inverse problems[J].SIAM Journal on Imaging Sciences,2009,2(1):183-202.

地铁监控中的行人检测方法 篇5

数学形态学是一种非线性图像信号处理和分析理论,它不但符合人的感知系统,而且在描绘区域和结构表达方面有很大的优势,所以受到了很大的重视。借助数学形态学在处理形态相关的图像中的优势,该文通过对地铁监控图像中提取的序列图像进行预处理;再用背景建模法,得到运动人体目标。

1 预处理

因为天气环境的变化等因素常常会引起拍摄图像的变形失真,所以有必要采取合理的预处理措施来改善图像质量。首先,对序列图像中值滤波,它在一定的条件下可以克服线性滤波器等带来的图像细节模糊,而且对滤除脉冲干扰及图像扫描噪声较为有效。然后,采用直方图均衡对图片进行增强,增加对比度以便图像的后处理。

2 背景建模

相比于其他运动目标提取方法,背景建模可以完整的提取运动信息,计算较简便。它是基于序列图像中相邻两帧图像的比较,这样可以将背景与前景分割出来,实现运动目标的识别。基于这种理念,分割性能的好坏与场景中的动态变化联系密切。目前,背景建模的主要方式有Kalman滤波器模型、单高斯分布模型以及混合高斯分布模型等[3]。为了减少动态变化的影响,利用文献2提出的更新背景区域的建模方法对背景进行建模,具体步骤如下:

1)取出图像序列中第s帧和第s+1帧,并做两帧的差分图像,得到运动区域图像,记为M(x,y)。得到的若干个运动区域表示为:

2)以第s帧为背景,取出第t帧和t+1帧,并做两帧的差分图像,得到运动区域图像,记为N(x,y)。得到的若干个运动区域表示为:

3)利用1、2步在s帧中找出静止的区域,记为K(x,y)。

4)观察区域K(x,y),若静止的概率大于3/4,则认为是背景区域。

5)当背景区域不断更新时,前景区域也在不停更新,当背景帧图像近似均匀分布时,可作为终止条件,此时可以得到目标运动区域。

3 运动人体分割

数学形态学是一种非线性图像信号处理和分析理论,它不但符合人的感知系统,而且在描绘区域和结构表达方面有很大的优势,所以受到了很大的重视。该文首先对运动人体利用当前帧与背景帧做差,然后对差图像灰度化,再利用形态学开闭运算进行滤波,并二值化,通过填充孔洞和边界清除,便得到了完整且清晰的运动目标区域。

4 实验结果

本文对自然环境下,地铁站视频图像进行分析,在背景较为复杂的情况下,实现了运动人体检测。采用数学形态学处理,能够满足硬件并行计算的要求,同时满足了地铁站视频监控系统的实时性。从图1可以看出,该方法可以正确分割运动行人。

5 结束语

提出了一种将背景建模与形态学相结合的行人检测算法。通过对地铁站监控图像分析,该算法能在较为复杂的环境中,准确建模,解决了运动目标区域定位问题;实现了人体分割。但是,若地铁站行人较为密集,行人被一些物体遮挡以及光线过明、过暗等情况,该算法不能很好的提取目标区域。

摘要:针对地铁视频监控中行人检测问题,提出了一种将背景建模与形态学相结合的行人检测方法。算法首先对视频序列图像进行预处理;然后利用背景建模不断更新复杂环境中运动区域,提取目标区域;再通过改进的形态学算法对目标区域进行人体检测。实验结果表明,该方法能够准确地检测地铁视频监控中的行人,运算速率较快,鲁棒性较高。

关键词:背景建模,骨架提取,运动分析

参考文献

[1]车志富,苗振江,王梦思.地铁视频监控系统中的行人检测研究与应用[J].现代城市轨道交通,2010:31-36.

[2]雷涛,罗薇薇,樊养余,等.复杂背景下的运动人体骨架提取算法[J].计算机应用研究,2010,27(8):3194-3200.

基于碰撞检测的行人疏散算法研究 篇6

1 行人单步行走流程

本文提出基于邻域空间的方位距离效应函数,并结合经典的碰撞检测算法,构建微观行走仿真模型,来模拟行人在疏散过程中的单步行走。

图1为行人的单步决策流程,行人首先根据周围环境中行人的密度确定初始速度,如果环境比较宽松,行人以期望速度(desired_speed)行走,如果周围环境开始发生拥挤甚至出现恐慌时,行人将以最大速度(max_speed)行走。然后对行人邻域完整空间状态进行方向选择,转向范围受到周围行人和障碍物的约束。经过转向决策确定行进方向之后,在当前行人位置搜索距离最近的行人,并开始预碰撞检测,然后对满足预碰撞条件的行人组进行精确碰撞检测,当检测到行人将要发生碰撞行为时,根据行人出行目的以及个人的性格特征作出适当的调整来避免碰撞发生。需要对以下两点进行特别说明。

(1)图1中深色填充区域所示的“基于邻域空间决策原理的行人转向决策”、“行人预碰撞检测”和“行人精细碰撞检测”三个环节是由下文所述的微观行走决策模型负责解决的问题。

(2)行人能感知到周围完整邻域空间的正确信息,行人采取加速行进时,其速度不会超过最大速率。不发生碰撞时,行人会以期望速度行进。

2 邻域空间决策模型

2.1 邻域空间状态描述方法

邻域空间决策模型对行人的邻域空间状态采用极坐标系进行描述。此极坐标系的极点为行人重心所在位置,极轴为行人当前行进方向。对于行人邻域空间内的任一点使用极坐标(θ,R)表示。其中以逆时针方向作为方位角θ的正方向,其有效取值范围为(0,360]。R表示空间某一点到行人重心的距离,有效取值范围为(r,stadia),其中r为行人的身体半径(即行人的半个肩宽),stadia表示行人在单步决策中考虑的最远距离,称其为单步可行最大距离。

2.2 邻域空间决策原理

由于行人在运动过程中对各种外因作用的综合考虑过程是一个典型的非线性处理过程。因此不能简单地把各种外因作用进行线性加和。本文在此提出一个邻域空间决策原理。邻域空间决策原理是将行人行走邻域空间的各种因素综合考虑的决策原理。而且行人行进速率大小的调整和方位角度的选择依据取决于行人周围完整的邻域空间。

2.3 方位距离主观效应函数

方位距离效用受多个因素的影响,其中包括目标方向、当前行走方向、周围行人以及障碍物、以及距离的远近,对于不同的因素,其影响的模式不同,具体表现在:单步可行距离内偏向当前行走方位越近的方位角效用越高;单步可行距离内偏向目标方位越近的方位角效用越高;单步可行距离内覆盖同伴行人区域内的方位角效用升高;单步可行距离内覆盖障碍物区域内的方位角效用降低;单步可行距离内覆盖陌生行人区域内的方位角效用降低;单步可行距离内同伴行人的吸引作用随方位距离的增加而增强;单步可行距离内陌生行人的排斥作用随方位距离的增加而减弱。

(1)当前前进方向的方位距离效应函数fw(θ,r)=a*cos|θ|

其中,θ为方位数值,r表示空间某一点位置到当前行人的距离,a表示转向引起的效用损失参数。

(2)目标方位所产生的方位距离效应函数fd(θ,r)=b*cos|θ-θd|

其中,θ为方位数值,ed为目的地所在的方位数值,b表示偏离目标方向引起的效用损失参数且满足b>a>0。

(3)障碍物引起的方位距离效应函数

undefined

其中,自变量θ为方位数值,d为正,表示邻近障碍物对当前行人的排斥作用参数,L为障碍物与当前行人的距离,r为空间点到行人的距离,最大为L。表示排斥作用随距离的变化模式。

(4)邻近陌生人引起的方位距离效用函数

undefined

其中,自变量θ为方位数值,c为正,表示邻近行人对当前行人的吸引作用参数,L为陌生人到当前行人的距离,r为空间点到行人的距离,最大为L。

(5)邻近朋友的p*的方位距离效用函数

undefined

其中,自变量θ为方位数值,c*为正的常数参数,表示邻近朋友对当前行人的吸引作用,L为p*到当前行人的距离,r为空间点到行人的距离,最大为L。

据此得出叠加之后的方位距离主观效用函数(ABF)表达式为:

f(θ,r)=fw(θ,r)=fd(θ,r)+fo(θ,r)+fp(θ,r)+fp*(θ,r)

由于方位距离主观效应函数f(θ,r)是关于θ,r的相互独立的函数,在求最大方位效应角度时,可把r当作常数,因此只需对f(θ,r)函数中θ求导,即可得到最大值,就是所求的最大方位效应的转向角度。

3 行人碰撞检测模型

3.1 行人碰撞检测筛选和预检测

从一般仿真系统碰撞检测的设计中可以看出,不仅仿真系统的实时性大大降低,而且计算机的系统资源也浪费不小。为了解决这个问题,本文在微观行人行走仿真模型的精确碰撞检测算法构建之前添加一个筛选机制。首先,介绍两个时钟周期,计算机仿真时间步长T1和碰撞筛选周期T2,T1为“决策—行动”周期,也就是仿真时间步长,计算机仿真时间步长一般设定在0.5s左右,T2为检测计算机仿真场景中所有行人是否发生碰撞的时间间隔。

系统设定:T2大于T1且T2=MT1(M>1);任意两个行人a和b之间的距离记为Sab,速度记为Vab,两者大小相接近。

undefined

式中,mod为忽略余数的商值取整函数,如果m1小于M,则在m1个时间步长内不需要对实体a和b进行碰撞检测。如果m1大于M,则在m2个筛选周期内不需对实体a和b进行碰撞检测。

经过筛选后,在计算机仿真时间步长内,大大减少了需要进行碰撞检测的行人对数,实时性得到了很大的提高,系统资源占用也明显减少。

根据《中国成年人人体尺寸标准GB1000-88》,18岁~60岁成年男子的最大肩宽的95%分位数为46.9cm,胸厚的95%分位数为24.5cm,18岁~55岁的成年女子最大肩宽的95%分位数为43.8cm,身体厚度的95%分位数为23.9cm。为了更精确地描述行人的微观行为,本文将每个行人占用的平面空间[7]设定为50cm×30cm。

通过筛选后,在计算机仿真时间步长内检测的行人都是有可能发生碰撞的个体,但又不是肯定会发生碰撞,为此微观行人仿真系统碰撞检测模型设计了预检测过程。以行人a与行人b是否碰撞为例进行说明。在这里,为行人建立一个圆形包围盒,此包围盒外切于50cm×30cm的矩形包围盒,构成一个混合包围盒。首先进行预检测,即确定线段dAB和半径ra、rb的关系。有如下两种情况:

(1)dAB>ra+rb,则行人a与行人b不发生碰撞。

(2)dAB≤ra+rb,行人a与行人b有可能发生碰撞。

其中,A、B分别为行人a和行人b的中心点;dAB为两行人中心点之间的距离;ra、rb为行人a与行人b的半径,行人设置相同的尺寸,半径为undefinedcm。

若为第(1)种情况,则系统认为两行人未发生碰撞,所以本组行人不进入碰撞检测。若为第(2)种情况,则要进行精确检测过程。

3.2 精细碰撞检测

由于仿真系统中行人的运动是慢速运动,其自身的行人尺寸与其在计算机仿真时间步长时间间隔内运动距离的数量相当,因此,在这里将2行人下一步的冲突简单归结成下面两种:相交碰撞和同路碰撞[8],如图2所示。相交碰撞是指即将发生碰撞的2个行人其轨迹连接线的交点在其中一行人的轨迹连接线内;同路碰撞是指发生冲突的2个行人其轨迹连接线的交点在其中一个行人轨迹连接线段的延长线上。碰撞检测算法中,关键在于确定碰撞的阈值ξ,如果行人在下一仿真时间步长内运动的距离不超过阈值,即检测未发生碰撞,反之则会有碰撞。

3.3 行人精确碰撞检测算法步骤

结合经典包围盒法,设计了行人疏散仿真模型中精确碰撞检测步骤,如下所示。

第1步,计算当前仿真时间步长内当前行人与周围行人的距离并找出距离最近或碰撞威胁最大的行人;第2步,对威胁最大的行人做碰撞类型的判断;第3步,对碰撞阈值ξ进行计算;第4步,对行人采取如下调整,未达到其阈值,继续行进;达到其阈值,则采取避让措施。

(1)相交碰撞检测

undefined

式中:vi(t)为行人i当前的行走速度(m/s);Δt为计算机仿真时间步长(s);dij为当前时间步长行人i的位置(A)与行人j的位置(C)之间距离;dij*为当前时间步长行人i位置(A)与下一仿真时间步长行人j(D)之间距离;a为AC与行人i速度方向之间的夹角;b为AD与行人i速度方向之间的夹角;c为AC与AD之间的夹角;rij为行人i与行人j半径之和;vj(t)为行人j当前的行走速度。

(2)同路碰撞检测

undefined

式中:j位置的涵义与上述相见碰撞检测算法中的j位置涵义有所不同,这里的j位置指行人j在当前时间步长的位置与下一时间步长内距离i较近的一个位置;α为A*B*连线与行人i的速度方向之间的夹角。

3.4 行人碰撞避碰措施

当碰撞检测到后,行人会立马做出决策,在本文的决策中,选取了3种有效的避碰方法。(1)绕道:改变当前的期望行进方向,绕开当前冲突区域,从而避免碰撞发生。(2)原地停止或减慢速度:在他人通过之后自己再前行,或尾随他人慢慢前行,但速度方向不改变,从而避免碰撞。(3)加快速度:提升行走的速度,快速超过冲突区,从而避免碰撞,不改变速度方向。

4 实验与分析

4.1 室内人群疏散

以理工大学教学南楼403房间发生突发事故作为疏散模拟场景。房间面积20m×15m。房间内部设有统一样式的障碍物,障碍物长×宽×高为3m×0.5m×1.6m,随机摆放在房间各个位置,房间设有出口1个,宽度0.8m,设置在房间南侧中部。为减少计算量,未对其他障碍物等进行建模,房间布局如图3所示。

房间内设置70个行人,在微观仿真分析平台PTsim中,导入本文所构建的基于碰撞检测的邻域空间决策算法。图4为仿真应用之一:模拟人群在房间内的疏散场景,其中图4(a)为未构建碰撞检测算法的仿真效果图,可以明显看出其中行人体之间的交叠现象;而图4(b)为构建了碰撞检测算法的仿真效果图,在仿真效果中人群比较拥挤,但明显没有出现4(a)图中的行人交叠现象。因此,在行人疏散算法中引入碰撞检测能够完好地解决行人之间由于太靠近在下一时步就会碰撞到一起的情形。

4.2 碰撞检测对行人疏散时间的量化影响

将行人对障碍物、周边行人、目的地和碰撞检测的认知作用引入邻域决策算法中,建立了考虑碰撞检测作用的邻域决策疏散算法,并通过该算法分析构建碰撞检测对疏散时间的量化影响。从图5中可以看出,构建碰撞检测的疏散算法所需的疏散时间小于未构建碰撞检测的疏散算法所需的疏散时间,这是由于未构建碰撞检测算法时,行人全部同时涌向房间出口,当出口宽度为0.8m时,一个行人通过存在较大空余,而两个行人又无法同时通过,当行人无序涌向门口时,致使潜在的空间冲突更加频繁。当两个行人距离足够近时,引入碰撞检测算法,对于即将发生碰撞的行人对分别采取各种避碰措施,化解行人之间的空间冲突,行人就可以快速有序地通过出口,极大地节约了所需的疏散时间。

在疏散过程中,行人由于恐慌等因素而提高自身的期望速率,选择盲目地快速逃生,但是期望速率的提高并不会显著地缩短人群整体疏散时间,当速度达到一定程度甚至延长疏散时间。从图6可以看出,随着行人期望速率的增加,疏散时间先减少后增加。转折点大致位于3.0m/s处。当行人的期望速率超过3.0m/s,换言之,行人开始尝试以快速奔跑逃生时,总的疏散时间出现不减反增的现象。因此,本疏散算法可以找到最合适的疏散速度,可为室内应急灾害中行人疏散提供决策参考。

5 结束语

算法采用基于行人完整邻域空间决策的行人微观动作描述方法,不仅考虑了行人邻域内各种因素的影响,而且结合了基于经典包围盒的碰撞检测算法,妥善地解决了微观仿真应用中出现的行人交叠问题。本算法根据行人微观仿真平台开发中的实际需求,在阐述行人碰撞检测基本方法的基础上,分解出行人碰撞预检测和精细检测状态,构建了相应的适合行人的精细碰撞检测算法,并实际应用于计算机仿真系统,合理地描述了疏散仿真中行人的决策过程,提高了行人疏散效率。此算法同时对可以简化成矩形的智能体运动碰撞检测具有参考价值。

摘要:采用方位距离效应驱动行人的行走决策,并结合碰撞检测,构建一个适用于行人疏散的仿真算法。算法以经典的包围盒法为基本思路,首先经过预碰撞检测,然后再分解出交叉和同道两类精确碰撞类型,来检测行人之间是否发生碰撞。将该算法应用于计算机室内行人疏散仿真系统,有效地解决了疏散仿真过程中由于路线选择造成的行人交叠问题。

关键词:方位距离效应,包围盒,预碰撞,精确碰撞,单步决策

参考文献

[1]Kardi Teknomo.Microscopic Pedestrian Flow Characteristics:De-velopment of an ImageProcessing Data Collection and SimulationModel[D].School of Information Sciences,Tohoku University,Ja-pan,2002.

[2]Blue V J,Adler J L.Using Cellular Automata Microsimulation toModel Pedestrian Movements[C].Proceedings of the 14th Interna-tional Symposium on Transportation and Traffic Theory,1999,7:235-254.

[3]Weifeng Y,Kang Hai T.A novel algorithm of simulating multi-ve-locity evacuation based on cellular automata modeling and tenabilitycondition[C].Physica A:Statistical Mechanics and its Applica-tions,2007,379(1):250-262.

[4]Xu X,Song W G,Zheng H Y.Discretization effect in a multi-gridegress model[C].Physica A:Statistical Mechanics and its Applica-tions,2008,387(22):5567-5574.

[5]Liu Shaobo,Yang Lizhong,Fang Tingyong Liu,et al.Evacuationfrom a classroom considering the occupant density around exits[C].Physica A:Statistical Mechanics and its Applications,2009,388(9):1921-1928.

[6]何伟.微观交通仿真中的碰撞检测算法研究[D].成都:西南交通大学,2009.

[7]沙云飞.人群疏散的微观仿真模型研究[D].北京:清华大学,2008.

计算机视觉——行人检测方法改进 篇7

该文针对计算机视觉中的行人检测部分做了深入的研究,力求能让计算机能够高速高质量的辨别一段视频中的人。下面详细的对所做的实验的方法以及结果做以介绍。

1 行人检测方法改进的主要思路

实验的主要思路为在行人检测研究时,根据现有的级联分类器的不足之处,提出了融合两个级联分类器来进行行人检测的方法。具体采用了表观特征向量来描述人体,并结合统计学习的分类方法来检测视频中的行人。为了保证融合分类器的检测性能和实时性,融合的两个分器分别选取了类Haar特征分类器和Shapelet特征分器,前者作为第一级分类器,后者作为第二级分类器。提出了使用Haar-like结合人体头肩的特征和Shapelet结合人体头肩的特征来描述人体;在分类器训练时,采用的是Gentle-Adaboos机器学习算法;并且为提高分类器检测速度,首先对视频序列进行了前景标注,采用背景差分将前景点标注出来,这样在检测时只需检测前景点即可,减少了大量背景上的检测时间。该文检测方法的具体流程如图所示。

2 研究的范围与方法

2.1 本实验主要研究的是静态背景下的行人检测

根据拍摄的摄像头的情况,可以将运动目标检测的研究主要分为两大类:动态背景情况下的目标检测与静态背景下的目标检测。前者主要是在拍摄的过程中,摄像头是跟着目标前进,后退等方式移动的,背景环境因此也是不断变化的;后者情况下,摄像头是固定的,相对于目标场景来说是静止的,因此背景环境是相对不变的。而视频监控系统中使用的大多数方式便是固定摄像头,所以本实验主要研究的是静态背景下的目标检测。

另外此实验是基于统计方法的行人目标检测。采用统计分类学习来研究目标检测问题。该方法通过统计学习获得的分类器某个类别目标的检测器(例如人脸、汽车和行人等),然后根据得到的检测器来进行目标检测。基于统计方法的目标检测方法一般被分为两个阶段:离线检测模型的训练和在线目标检测阶段,在离线训练阶段,首先要收集大量的样本,包括与正样本和负样本,正样本指包含着目标类别的图像,负样本指不包含目标类别的图像;接着对收集好的正负样本做标记(用y表示),与正样本标为+1,负样本标为-1;然后对样本进行配准、对齐和大小归一化;再接着在归一化后的正负样本上提取出特征向量x(x∈Rd),和对应的标签y一起组成最终用以统计训练学习的特征向量集合S={(x1,y1),⋯(xN,yN)};最后使用选定的统计学习方法根据训练数据集S训练分类器的参数以供检测阶段使用。

在线检测阶段首先需要在待检测图像上提取得到与训练阶段使用的相同的特征向量,然后与离线阶段的分类器对该特征向量进行分类差别。由于不知道目标在图像中的大小和位置,因此在检测时需要在不同的尺度和位置对目标进行检测,即需要在不同的尺度位置空间中逐窗口进行遍历判断。。尺度空间通过对图像逐级缩放做金字塔分解(Pyramid decomposition)实现;位置空间通过遍历每个尺度下图像中的每个空间位置实现。因此检测目标时某个尺度下对于目标大小为w×h,图像尺寸为W×H时,需要分类判断的窗口数目约是WH个,数量巨大。在不同的尺度与位置空间进行窗口遍历时,如果该窗口被判别为目标类别,则记录其位置和当前的尺度,否则丢弃,最后将不同尺度和位置上得到的检测结果进行聚类或者最大化抑制输出最终的检测结果。

2.2 本实验采用的是基于部件的行人检测方法

行人统计学习算法根据检测方式的不同基本可以分为两类:基于人体整体的统计学习方法和基于人体部件的统计学习方法。前者将整个人体作为特征进行分类器训练,对于待检测图像,其进行整个人体的特征提取,然后再用分类器进行分类即可,而后者则将人体的各个部件均看作是人体的一个特征,然后分别进行分类器训练,得到各自的分类器,在检测时,先检测各个部件,然后根据分析各个部件的相互约束关系来最终做出判决。

本采用的便是第二种方式,基于部件的行人检测方法,但区别于以上的方法,该文采用的是用两种不同的特征分别训练相同的一个部件的方法,最后综合两个分类器的结果做出决策

人体检测中的特征是对目标的描述,是用来有效的区分目标与非目标的,是目标检测的基础,在检测目标的过程中,如果能够提取出有效区分目标类与非目标类的特征,那么检测的性能就会有巨大的提升,相反,如果一个特征不能区分目标类与非目标类,那么有检测时,便不能与待检测的目标很好的匹配,或是与其他物体相似,便可能造成误检。所以,提取什么样的特征来描述目标是目标检测中和首要问题。接下来介绍的是该文主要使用的是类Haar特征和Shapelet特征。

Shapelet特征是通过先局部,后整体的思想,先在局部提取小特征集作为最基本的低层特征,然后通过统计学习算法得出中层特征,最后再由中层特征构成分类器,层层进行筛选,把分类能力较弱的特征一层层筛掉,最后得到包含更多有用信息的特征用来分类,特征的维数相对来说是非常低的,计算也简单;而且特征是由低层特征训练而来,类间的区别能力更强,在基于行人的检测方面,性能尤其卓越,比Dalel的HOG特征算法的误检测率降低了整整10倍。实验已经证明,通过自适应学习而来的Shapelet特征相比其他的固定特征来说,能捕捉到更多有用的用于判别的信息,因而训练出的检测器性能可以达到非常优秀的水平。类Haar特征可以快速的进行行人检测,但是在检测的过程中,由于该特征主要描述的是行人与背景之间的差异性,对于人体内部的差异性描述的精度不够,所以该文采用融合分类器进行行人检测时,先使用类Haar特征训练人体头肩生成的分类器进行检测,可以快速的对非人体目标进行排除。

对于级联分类器来说,级联分类器在检测率,漏检率,虚警率,和时间等性能上的变化,通过一系列实验我们可得知随着分类器级数的增加,在分类器的后面几级中被过滤掉的样本中正样本所占的比率呈直线上升的方式增加。

3 行人检测方法改进具体步骤

该文的设计方法均是在OpenCV的基础上,采用Visual Studio 2010实现的。本实验的参数设置如下:正样本和负样本在级联Adaboost分类器中的单级通过率分别为99%和50%。分类器在尺度空间上对检测窗口搜索的步长设定为1.05(经验值)。在实验过程中,Haar特征级联分类器和Shapelet特征级联分类器分别采用了900张正样本和2000张负样本,并对人体的头肩部分做了人工标注,作为训练数据集,训练数据集的归一化大小为20*20。为了增加训练数据集,该文对标准数据库中的正样本进了竖直方向的镜像对称,使正样本的数量增倍。Haar特征级联分类器由20级Adaboost分类器构成,Shapelet特征分类器由10级Adaboost分类器构成。

3.1 本实验采用一种新的级联分类器的融合方式

笔者提出一种新的级联分类器的融合方式,以期随着分类器级数的增加,检测率不断提升的前提下,能有效的遏制正样本被过滤掉的概率的增加,以此来增强分类器的性能,使分类器的检测率更加提升。

根据之前的分析类Haar特征运算简单,快速,采用它训练的分类器可以在分类器的前几级快速的排除掉大量的背景区域,但是类Haar特征描述的主要是人体与背景之间的差异性,因此在分类器随着性能的增加,分类器复杂度提高的情况下,在分类器的后几级,类Haar特征对区别与行人轮廓类似的物体时,非常不敏感,很容易将这二者混淆,将行人误判为非行人,或将非行人误判为行人,导致分类器的虚警率和漏检率的增加;而Shapelet特征在基于行人的检测方面,性能则尤其卓越,通过自适应学习而来的Shapelet特征相比其他的固定特征来说,能捕捉到更多有用的用于判别的信息,特别是人体的头肩部分,Shapelet的描述更加的精确,对于区分与行人非常类似的物体,具有很高的性能。

为此,我们采用基于人体头肩部件的类Haar特征和Shaplet特征来训练分类器,根据二者各自的性能,该文先用类Haar特征级联分类器对检测窗口进行分类,在分类器的前面就快速的排除掉大量的背景区域,然后,在分类器的后面几级,对于分类器的排除掉的样本,再用Shapelet分类器来进行分类,将在Haar特征分类器中被漏掉的目标区域检测出来。最后根据两个分类器的结果进行决策。这样就对那些在Haar特征分类器中被错误过滤掉的目标样本进行了二次分类,降低了分类器漏检率的增加。

3.2 本实验采用前景标注的方法为了提高分类器的检测速度

我们会在待检测的视频图像上对前景进行标注,在检测的过程中根据标注只需要在前景部分进行行人检测即可,不必在全局图像中进行搜索匹配,这样既可以减少检测的数量,又可以节约检测计算时占用的空间,对于视频分析中时间和空间进行了双重的优化。该文的前景标注的过程主要是:采用背景差分法得到图像的前景,然后对于得到的前景建立一张标注表,与原图像进行对应,在检测时,标注为前景的像素点则在原图像上进行目标检测,若标注为背景,则不进行检测。

4 结论

该文通过对行人检测所使用的统计方法和特征进行了分析比较,并分析了级联分类器的特点,得出级联分类器级数越高,在最后几级中被排除掉的样本中正样本的比率上升很快,会引起分类器漏检率的急剧增高,因此,该文提出了基于融合分类器的行人检测算法,该融合方法选择两个级联分类器(分别为类Haar特征分类器和Shapelet特征分类器)进行级联融合;根据监控视频领域中一般情况下都是静态背景,而且为了提高检测的速度与避免背景的干扰,该文提出了在检测前先进行前景标注的方法,然后再在带标注的图像上进行行人检测。

参考文献

[1]贾慧星,章毓晋.车辆辅助驾驶系统中基于计算机视觉的行人检测研究综述[J].自动化学报,33(1):84-90,2007.

[2]Xu Fengliang,Fujimura K.Pedestrian detection and tracking with night vision.Proceeding of IEEE Intelligent Vehicles Symposium[M].Versailles,France:IEEE Press,2002:21-30.

上一篇:班级管理的点滴体会下一篇:九原电力有限责任公司