视频烟雾检测

2024-05-22

视频烟雾检测(精选3篇)

视频烟雾检测 篇1

1 引言

为防止火灾发生和危险化学品泄漏,现有技术大致分为:吸气式烟雾探测器、单点式烟雾探测器(离子式烟雾探测器、光电式烟雾探测器)、投影束式烟雾探测器、反射束式烟雾探测器、空气取样烟雾探测器、辐射的能量感应烟雾探测器(紫外线烟雾探测器、红外线烟雾探测器、火花灰烬烟雾探测器)、图像对的单点式模拟探测器等。其检测原理是依据烟雾、气体、温度等物理量的变化,提出快速报警[1,2,3,4,5,6,7]。然而,上述技术需要在离烟雾发生源比较近的地方才能快速、有效地发挥探测作用。在空间距离和占地面积都较大型的场所(如:电站、粮油库、飞机库、大仓库、古建筑群、隧道、车站、购物中心等),或存在着强气流的地方,安装上述烟雾探测器则难以发挥作用,其防火、防泄漏的早期报警始终是很困难的问题。

通过光学成像的视频烟雾探测,其作用距离相对较远,毋需等到烟雾接近或到达检测器安装点,便能感知事实的存在。许维胜等人[8]提出了基于RGB三色差值特征,结合一阶矩与小波变换,利用BP神经网络有监督学习,建立图像特征向量与三维火灾向量联系的图象识别方法,能较好地识别火焰图像。Phillips等[9]提出了基于视频像素点颜色和时域变化信息进行火焰检测的算法。Liu等[10]则进一步提出光谱、空域和时域的联合模型,用于表示视频序列图像的火焰区域。光谱模型表示火焰像素点的颜色概率密度,空域模型用Fourier系数捕获火焰区域轮廓变化的形状结构,这些系数随时间变化的特征用来描述火焰区域。其采用了Fourier系数序列的自回归模型来检测火焰。然

而,Fourier域方法的主要问题是:火焰闪烁呈现随机性,并非严格的正弦规律,故很难测到FFT图上的峰值点,且Fourier变换不带任何时间信息,其所加的时间窗大小成了检测成败的关键。Chen等[11]则用变化量检测框架来检测火焰区域的闪烁特征。小波分析在烟雾检测中已被普遍采用[11,12]。背景图像中的轮廓边缘被烟雾覆盖会变得模糊,且可能因烟雾变厚而在一段时间后消失,导致小波系数值因能见度降低而减少。小波子图像LH、HL和HH包含了图像的水平、垂直和对角的高频信息,其轮廓边缘在小波子图像中产生局部极值。

然而,大扰动环境下的动态背景自动学习,以及对类似烟雾的静态、动态目标的自动剔除,是保证早期烟雾特征视频检测的关键。为此,本文在文献[14-16]研究结果的基础上进一步提出四阶段的早期烟雾视频检测新方法,其核心算法流程见图1。

2 色域RGB分量运算

图像预处理常用0.3R+0.59G+0.11B或(R+G+B)/3线性组合来将彩色图像转换成灰度图,再进行识别处理。但这会将完全不同的颜色值转变为相同的灰度值,丢失图像颜色证据。Collins等在解决强光与阴影对目标识别的影响时,发现图像中RGB分量线性组合构成的候选特征集具有特定颜色特征增强能力。其在强光下用R-G来提取目标,在阴影下用2G-B来提取目标。经常被提到的颜色分量线性组合还有单一R、G、B分量,(R+G+B)/3,以及所谓的近似色度特征(如G-B)和过量颜色特征(如2G-R-B)等。

受文献[17]的启发,将颜色分量线性组合的范围从[-2,-1,0,1,2]的5个取值组合,扩展到了[-n,n]域内有限实数的组合。该线性组合可表示为

式中:F为颜色分量线性组合运算后的结果特征,n为有限实数界限值。计算中,将所有经过RGB线性组合运算后的像素值规则化到0~255(若出现负值,置为0)。该分量运算的组合系数ω1,ω2,ω3是由有监督的自动学习确定的。分割灰烟、青烟、黄烟的组合系数是有差异的。先根据文献[15]通过RGB色域特征循环学习结合连通分析来获得兴趣区的学习模板,再自动穷举[-3.00,3.00]内0.01步长的RGB组合系数,并按式(1)求取特征图,将其与兴趣区学习模板求二值图差分的绝对值,统计该结果图像素值为1的数量,以搜索其最小值来判断学习效果,以及控制学习终止点。本文以ρ表示二者匹配的似然度:

式中:r、c分别表示为匹配图像的行、列数,Pk(i,j),Q(i,j)分别表示第k次组合结果和兴趣区学习模板的二值图。

3 颜色位屏蔽压缩

多数情况下,有限颜色的图像更易被理解和处理。颜色压缩也是图像表示、转换和分割的重要任务。然而,按颜色距离最近原则的自适应颜色聚类压缩优化,计算量巨大,对大尺寸图像的计算更慢。为此,本文采用具有实时计算能力的颜色位屏蔽压缩法[14]。

所谓颜色的位屏蔽是一种在3D的RGB真彩空间中近似均匀采样的颜色压缩方法(即将被屏蔽的颜色位设置为0,具体可采用移位运算实现)。例如:屏蔽RGB颜色各分量8位中的末3位颜色(即将扫描到的像素分量值和11 111 000求与运算⊕),压缩后的图像在视觉效果上改变不大,但搜索空间则被大大压缩。如:屏蔽某图像末3位颜色后,实验显示:R分量可从实际的146个亮度值等级被压缩为19个,G分量可从实际的154个亮度值等级被压缩为19个,B分量可从实际的198个亮度值等级被压缩为24个。将RGB颜色分量运算后的特征图的R、G、B三个颜色分量的末7位屏蔽,可以得到理想的二值图(0,128),从而达到一般意义上的阈值分割效果。

4 复杂场景背景学习与维护

图2(a)经RGB分量运算和位屏蔽颜色压缩后再割原图,类似烟雾颜色的天空因也被割出了,见图2(c)。因天空在长序列视频中变化缓慢,而烟雾区则一直在变,故将当前帧与学习所得的动态背景,在分别进行RGB分量运算+位屏蔽后做差分,基本去掉了相对静态的类似烟雾区,如:天空、建筑物部分。图2(d)为类似烟雾区在RGB三维空间的位置分布。

(a)Original image;(b)-R+G+2B⊕10 000 000 of image(a);(c)Segmentation of image(a);(d)Color mapping in RGB 3D space

本文提出的动态背景学习维护模型由永久背景和临时背景两部分组成。在更新背景时,首先更新临时背景,当临时背景变化量积累到一定程度时,再更新永久背景。引入临时背景作为更新缓冲区的好处,在于永久背景在复杂的场景中不会轻易地被污染,又能随着动态场景的变化而自适应地被更新。该临时-永久背景模型算法如下:

1)根据移动物体判别准则,识别移动目标;

2)对判为非移动目标的区域,在临时背景中更新其对应的图像分块;

3)当图像分块的临时背景与永久背景的差值累积超过一定的阈值,则更新其永久背景。

4.1 移动物体判别准则

若当前帧中的某像素分块与永久背景中的相应区域差值较大,则该分块可能是移动物。该移动物判别准则为

式中:In(x,y)为第n帧上第(x,y)像素块,Bg(x,y)为永久背景上第(x,y)像素块,T1为判别阈值。然而,仅凭此准则不能使背景模型响应场景的变化,导致无法有效更新背景。因此,本文增加了一些判别准则,以准确、有效地更新背景:

1)差值差分

本文的差值差分指:前后两帧与永久背景差值的差分。动态背景场景中,当背景发生变化时,当前帧与原背景的差值较大,会导致该部分被判为移动物。若其差值的差分值依然很小,则可据此更新背景,使得背景模型能自适应地被调节维护,随着实际背景的变化而变化。该二阶差分可表示为

为使背景更新不过于灵敏,在计算当前帧与背景帧的差值时,加入了累积因子,以控制更新速度,并识别出缓慢移动的前景物体。上式中:

式中θ为累积因子,θ越大则实际背景变化时,背景模型的更新速度越慢。

2)帧内变化均值

因移动物变化幅度相对于背景自然变化的幅度要大很多,可将帧内各像素分块与对应背景的差值平均作为判别阈值,大于此阈值判为运动目标。该阈值的算法为

式中N为帧内像素分块数。

4.2 背景分块的更新维护

如果帧内像素分块的变化不满足上述移动物体判别准则,且变化幅度值大于零,则需在临时背景中更新对应区域的背景分块。每经过一段时间或当临时背景更新时,判断被记录的差值累积量达到设定阈值后,永久背景才被更新。通过设定永久背景更新的能量阈值,可调节对缓慢运动物体的识别强弱或识别灵敏度。本文的二级自适应的背景分块更新算法为

式中:Btmp为临时背景,Bperm为永久背景,In(x,y)为当前帧,α为迭代控制参数,其可控制临时背景的更新速度,一般取0.95。永久背景更新方式与临时背景的相同,β为永久背景更新速度的控制参数,一般取0.7。各波形[14]类似图3。

The original background is the first frame,the curve of current frame is labeled with red,the temporary background is labeled with green,and the permanent background is labeled with blue.

5 小波去噪与序列分析

5.1 空域小波去噪

对视频帧采取一层离散小波分解,分解后包括一幅低频成分的子图LL和三幅高频成分的子图HL、LH、HH。HL、LH、HH分别为垂直、水平、对角方向高频的边缘和纹理信息。烟雾的弥漫、半透明性能使图象边缘、纹理锐性降低,导致小波子图中的高频部分能量减少,通过检测小波子图的能量变化来消除动态的类似烟雾区干扰。基于该事实,定义:

式中:wn(x,y)表示第n帧原图(x,y)位置的能量值(见图4(b)的左上角图),LHn(x,y)、HLn(x,y)、HHn(x,y)分别表示第n帧(x,y)位置对应高频成分的一级小波系数。为降低噪声影响和提高运算效率,可将原图分为(k1,k2)大小的分块,本文取2 pixels×2 pixels。每分块的能量E(l1,l2)计算如下:

若在YUV空间处理图像,可对Y分量(亮度)做小波变换;若在RGB空间处理,一般选R分量。而本文用RGB空间的分量运算利用了颜色后来形成灰度图,然后对该灰度图进行小波变换。图4为分量运算+小波分析+位屏蔽获得的强噪声位置分析图。其中,图4(b)为RGB分量运算+小波变换图,图4(c)为对图4(b)进行7位屏蔽后的二值结果。

从上述显见:经分量运算及小波变换的数据,再经位屏蔽,刚好可隔离出强噪声区域(见图4(c)的左上角图)。本文采用该RGB分量运算+小波分析+位屏蔽的方法,通过对照判断图3结果与类似烟雾标记点的共同区域,来消除动态“减背景”遗留下来的强噪声点,获得干净的、动态的类似烟雾区。

5.2 小波能量的序列分析

跟踪序列图像中某一分块(4 pixels×4 pixels红色标记框)在序列中能量的变化见图5。随着烟雾产生并逐渐弥漫遮挡背景的边缘和纹理,可发现背景的小波子图能量值逐渐减少。当烟雾完全遮挡住背景后,背景的小波子图像的能量趋于零。这是因为烟雾的纹理相对平滑,其高频部分的能量较低。从图5(e)的能量波形图可见:烟雾覆盖背景表现的能量变化过程是沿着一条平滑曲线缓慢变化的。当有类似烟雾颜色的干扰物(如人物)进入监视区时,遮挡了背景,则背景的小波子图能量会发生剧烈变化,且能量值突然增大。基于能量变化平稳性,可进一步判断烟雾区的真伪。本文采用一个长度为80帧左右的时域分析窗,在长序列中移动该80帧的时域窗,统计每像素分块作为烟雾侯选区出现的次数Nn1(l 1,l2),以及经预处理的前后两帧差分作为烟雾候选区出现的次数Nn2(l 1,l2)。若某分块(l1,l2)在时域窗内统计的Nn1(l 1,l2)和Nn2(l 1,l2)次数超过设定的对应阈值,则判为真正的烟雾区,反之被判为干扰物,以此消除类似烟雾颜色的移动物干扰。该判别式如式(10)。

最后,通过对被判为烟雾的各分块进行连通域分析,滤除掉面积小于设定阈值(如20个像素点)的标记区,即可获得干净的真正烟雾标记。

(a)1st frame;(b)123th frame;(c)152th frame;(d)174th frame;(e)Waveform of the wavelet energy of the sub-tile at(213,97)in a smoke video sequence

6 实验结果分析

为检验本文方法的有效,对2段复杂场景下的烟雾视频长序列进行了检测分析。实验硬件环境:512 M内存,AMD 800+,SONY数码摄像机拍摄的320×240分辨率视频;软件环境:Window XP和VC.net。按照本文提出的早期烟雾检测的算法流程进行处理。需要长序列分析,目的在于使烟雾证据在动态变化的复杂场景中,逐步被积累起来。

视频序列1共有893帧,其第1帧就存在烟雾,从第80帧起开始被自动标记出烟雾核心区,而从烟雾区旁边走过的人未被当作烟雾标记,尽管该人衣着的袖管与被测烟雾具有相似的颜色,结果举例如图6所示。视频序列2共有1 397帧,该视频是Ugur[13]发布在网上用于实验对比的视频序列。Ugur的研究目标是动态地检测火焰区,而烟雾是火灾的早期现象,故本研究视频烟雾检测的意义要比其火焰检测重大,相应地,分析烟雾的难度也要比分析火焰高得多。视频2中,其第1帧就存在点烟人,第15帧起来烟雾,人衣着与被测烟雾的颜色类似。本文实验从第80帧起开始标记出其核心烟雾区,该标记区随着烟雾的飘动而移动,但始终锁定在被测烟雾上,而身着与被测烟雾类似颜色衣物的点烟人的走动,并没有当作烟雾被误标记,见图7(d)。在我们网站http://www.wseen.com/register.asp上还有5个检测结果视频可下载,用于对比和评价。实验表明:本文方法对于320×240分辨率彩色视频的分析判别速度可达16~20 fps,并可在3~4 s内准确判别出在动态场景下发生的烟雾,不存在判断丢帧现象,且不受大空间、开放环境的限制,在去除动态场景干扰上,具有很强的误报免疫能力。

(a)170th frame(original image);(b)R-G+3B⊕10 000 000 of image(a);(c)Segmentation of image(a);(d)Result of 170th frame.

(a)Result of 80th frame;(b)Result of 100th frame;(c)Result of 120th frame;(d)Result of 140th frame.

7 结论

本文提出了一种基于视频实时分析的烟雾检测新方法,分析了类似烟雾的静态和动态特征。首先,采用RGB分量运算和位屏蔽颜色压缩,根据烟雾的颜色特征来提取烟雾类似区域,通过背景维护下的减背景操作来消除静态的类烟雾区域干扰;其次,采用小波变换,根据视频序列中图像分块的小波能量变化情况,来消除动态的烟雾类似区域干扰;最后,通过长序列视频的累积证据来标记出真正的烟雾区域,该被标记出的区域主要集中在核心烟雾区。实验表明:该方法具有很好的实时性和抗干扰免疫特性,可为火灾报警系统提供早期预警。今后,将重点研究多线程地同时判断灰烟、青烟、黄烟等来自动选择相应的RGB分量运算系数组合,并研究火灾烟雾与水蒸气、雾气的细微差异,以消除类似气体现象的动态干扰。

摘要:针对火灾早期预警和危险化学品气体泄漏的在线检测问题,提出了一种基于视频的早期烟雾检测新方法。整个检测过程主要由四部分组成:1)RGB分量运算参数的离线学习;2)用RGB分量运算+位屏蔽,实时分割出类似烟雾区;3)用在背景维护下的减背景来消除场景中静态的类似烟雾区干扰,再由小波变换去除场景中动态的类烟雾区干扰;4)通过长序列的多帧证据积累分析,判别标记出真正烟雾。实验表明,该方法对于320×240分辨率彩色视频的分析判别速度可达16~20fps,并可在3~4s内准确判别出动态场景下的核心烟雾区,且不受大空间、开放环境的限制,具有较强的误报免疫能力。

关键词:烟雾检测,RGB分量运算,位屏蔽,小波分析

视频烟雾检测 篇2

中国是多森林的国家,而森林又是火灾的重灾区,近年来森林火灾频发,给国家和人民带来了巨大的损失。因此,对森林火险进行早期预警是降低森林火灾损失的一个有效途径,而森林火险预警的重要手段之一就是对森林现场的直接观测,随着图像处理技术的日益成熟和数据传输网络的高效快捷,实现森林地区全天候图像监测和火情分析也必将是森林防火发展的必然趋势,我们都知道,森林燃烧物在开始燃烧直至出现火苗的过程中都会伴随有烟的产生,如果我们提前能检测到烟雾的产生,那么我们就可以准确做出预警和防备措施,从而降低发生重大损失的可能性。

1 研究现状

目前的森林火情图像检测方法主要分为三大类:基于卫星图像检测方法、基于红外图像检测方法、基于地面塔台可见光图像检测方法。为了提高烟雾检测的可靠性和实时性,美国的McNamara Donna等人开发了用于环境卫星上的多传感器的火灾和烟雾检测系统;日本的Fujiwara等人利用分形编码的方法,根据烟雾的自相似性来提取和识别烟雾区域;清华大学和中国科学技术大学的疏学明、方俊等人分析了火灾烟雾颗粒的凝并分形特征,通过扫描电镜获取烟雾图像,对不同的烟雾粒子分形维数、分形系数等特征分析,从而判断烟雾区域[1]。而这些检测方法都有比较特定的适用范围,利用卫星图像检测代价高昂,其他检测方法对检测仪器的准确性和精密度都有比较严格的要求,且成本比较高。对于森林面积广袤的中国来说实施起来不是很实际。本文介绍的基于视频的烟雾检测主要利用可见光波段 CCD摄像机架设于较高的观察塔顶,对场景进行监控,通过对捕捉到的场景空间可疑图像进行提取检测,进而进行火灾发生的前期判断。根据火灾发生规律可以得出,火情烟雾的出现早于明火的出现,且烟雾不容易被遮挡,因此基于地面塔台的视频图像烟雾检测方法是森林火情检测领域的一个重要研究方向,而且整套检测设备的成本不高,且检测效果比较好,具有较高的实际应用性。

2 烟雾图像特征

我们要检测烟雾、分析烟雾图像,首先要了解烟雾的图像特征。烟雾作为一种物体,必然存在一些独特的特征。最常见的图像特征具有如下三个方面[2]:

(1) 烟雾图像的背景区域纹理变模糊的特征 由于烟雾是由微小的颗粒状物质构成,因此当烟雾散布在空气中,浓度大于一定值时,背景开始变得模糊。

(2) 烟雾的扩散特征 由于烟雾的密度要小于空气的密度,烟雾的出现会从根部点不断向空间各个方向膨胀,在图像上来看就是它的光流场是不断发散的。

(3) 烟雾的主相角特征 在一些空气不流通的环境内,出现的烟雾经常是向空间的上部扩散,并且扩散的方向几乎在一定范围内,于是把满足这一范围内的烟雾的主向角作为一个特征。

从以上三个特征来看,应用较广、较重要的是前两个特征,本文也是基于前两个特征来进行图像识别和检测的。

3 烟雾检测预警系统流程图

根据以上图像特征的分析,我们可以得出整个预警系统的设计流程图[3],如图1所示。

4 烟雾图像的提取

4.1 基于颜色特征的烟雾图像提取

烟雾在颜色空间中也具有颜色特征,但其颜色与背景反差较小, 因此将背景中的非烟雾区域判定为烟雾区域的概率也较大[4]。针对这一特征, 对烟雾的图像提取(图2(a)为原始图像,图2(b)为提取后的图像)可以使用RGB 彩色向量进行颜色聚类算法的分割。

它通过确定图像中小波系数变化范围最大的区域, 在此区域内选取一组彩色样本点, 获得一个“平均”的颜色估计。然后根据这个颜色估计对图像中的每一个RGB 像素进行分类, 判断每一个像素是否与样本相似。这就需要一个相似性度量。本研究中采用的聚类算法的相似性度量的距离取自马氏(Mahalanobis)距离[5],实验中在样本点周围区域取点, 取点的轨迹可描述为一个实心三维椭球体, 椭球体主轴取在最大的数据扩展方向上。在扩展三维彩色数据时,使用椭球会比使用圆球匹配得更好, 烟雾图像提取效果更佳。

4.2 基于帧间变化信息的烟雾图像提取

在获取的视频图像序列中,烟雾的产生阶段也会有很明显的动态特征,有其特定的变化频率,故可使用帧间的变化信息来进行烟雾场景的提取[6]。事实上,由于分辨率的原因,视频图像获取近处的物体比远处物体在像素灰度级上表现出更高的变化率,根据这个事实,可以通过存储若干幅烟雾序列图像计算图像中的像素在每个时间段内灰度值的线性组合方法来实现对烟雾的提取。如图3、图4所示。

我们可以设定在任意时刻T,任意像素X,计算出该像素的任意动态量P(T,X),具体表达式如式(1):

Ρ(X,Τ)=i,j=0,Νij|f(X,Τ-iΤ)-f(X,Τ-jΤ)|(1)

其中f(X,T)是像素X在时刻T的灰度值,ΔT是视频图像的采样时间,N是视频图像连续存储的帧数, ∂ij成为可调系数,∂ijN的选择主要是考虑到采样频率、系统内存的大小和保证实时性所需的时间大小。因为实验中系统的采样周期是一定的,进而ΔT也是不变的。但在采样过程中如果ΔT越小,捕捉快速运动的物体也就越强,进而需要N的值要足够大,才可以顺利捕捉到变化比较缓慢的烟雾[6]。但现实中的图像采集容易受到电子干扰,为了保证数据的准确性,我们在处理过程中要进行去噪操作,其中去噪后的表达式为:

P(X,T)=|f(X,T)-f(X,T-NΔT)|-

(|f(X,T)-f(X,T-ΔT)|+|f(X,T-

(N-1)ΔT)-f(X,T-NΔT)|) (2)

其中,|f(X,T)-f(X,T-NΔT)|表示烟雾的变化,(|f(X,T)-f(X,T-ΔT)|+|f(X,T-(N-1)ΔT)-f(X,T-NΔT)|)表示噪声。而实际生活中火灾烟雾的上升过程中会产生持续的运动轨迹,我们结合这一特点,可以计算累积运动数据的方法估计出烟雾的运动轨迹,进而得到烟雾的大致轮廓。求累积数据的表达式如下:

PC(X,T)=(1-ρ)P(X,T-ΔT)+ρP(X,T) (3)

其中ρ=1/N表示存储容量的一个常数,通过上边的P(X,T)可以计算得到PC(X,T),最终我们可以实现对烟雾的准确定位。

5 烟雾图像的特征检测

5.1 烟雾图像背景模糊度特征分析

随着烟雾的不断扩散,使得获取到的视频图像中背景纹理和边缘变得更加模糊。由于这些边缘和纹理对应图像中的高频信息,因此与之相对应的是小波图像的能量值的减少[5]。根据以上事实,通过监控图像中背景边缘像素小波系数在一段时间内的减少情况来检测在该区域是否有火灾烟雾产生,如图5所示。

首先将视频烟雾图像分解为一幅低分辨率图像和三幅高频分量子图像,分别包含水平方向 ( SF ) 、垂直方向( HF)和对角方向(DF)的边缘信息。当烟雾产生一段时间后,会变得越来越浓,边缘信息将会逐渐消失,对应子图像的能量值也会减少[7]。将子图像分成大小为(K1,K2)的小块,则每块的能量 E(l1,l2)按照以下公式计算:

E(l1,l2)=x,yRiWn(x+l1k1,y+l2k2)(4)

Wn(x,y)=|SFn(x,y)|2+|DFn(x,y)|2+|HFn(x,y)|2 (5)

其中Wn(x,y) 表示包含高频信息的图像,Ri 表示小波子图像中大小为(k1,k2)的子块。在实验过程中,如果某个子块的能量值E(l1,l2)减少,则说明该场景或边缘区域不再像先前一样锐利,则该区域可能产生了烟雾。

通过对实验结果图5的(b)和(d)比较,烟雾图像由于自身的模糊特征,经二维离散小波变换后提取出的背景模糊模型区域的像素面积,要远远大于非烟雾图像所提取的背景模糊模型,因此,背景模糊模型作为烟雾图像区分非烟雾图像的一个标志,是比较明显的。由图5的图像对比可以看出,对于非烟雾图像的背景模糊模型得到的像素块往往是孤立的,当对它们进行形态学处理后,将这些孤立的小块滤除掉,得到的图像与原图像基本相同。

5.2 烟雾面积扩散性特征分析

在火灾发生的早期阶段,随着燃烧的进行,烟雾不仅会有整体的缓慢移动,而且也会向四周扩散在空气中占据了越来越大的空间。由于烟雾有颜色、浓度提高、烟雾的透明度降低,可见度也随之提高,使得烟雾在视频中的面积随着时间的推移逐渐变大[8]。我们可以用以下公式来定义烟雾区域面积的相对增长变化率:

vs=S1-S2ΔΤ并且vα<vs<vβ (6)

由于烟雾区域的面积经常会受到空气流动的影响,为得到一个更加准确的增长率,有必要通过平均值来衡量,这里将采用平均增长率来判断,公式如下:

Δsi¯=1ni=1nΔsi(7)

式中Δsi¯即对nΔsi求平均值。因为在现实的烟雾区域变化过程中,其面积不可能不变也不可能变化很快,所以必存在上下阈值vαvβ,如果结果值在阈值外边的话视其为干扰源。因此,当Δsi¯在这两个阈值之间则可判定为烟雾区域,否则为非烟雾区域。

当视频序列同时满足文中提出的烟雾区域提取算法,烟雾图像特征检测算法之后,就可以准确确定该区域有烟雾产生。图6中是一些视频序列的烟雾检测结果图。

6 结 语

本文提出了一种针对森林区域自然环境下进行火灾识别方法和基于实时视频图像的烟雾预警系统设计的具体流程,主要通过对视频烟雾图像的提取和特征检测,来判断火灾发生的可能性,并针对识别流程中的每一步骤的算法进行了较为详细的说明, 整个判断方法遵循由简到繁的原则, 在保证准确度的前提下,最大限度地减少了对实时图像的大量运算。对视频中的烟雾图像特征进行检测时,既有静态特征的检测,也增加了动态特征的检测,大大提高了烟雾检测的准确性,有效地增强了对烟雾的识别率,为森林火情的准确判断提供了可靠的依据。

摘要:运用数字图像处理技术,提出利用烟雾来识别森林火灾的思想,给出森林烟雾监测预警系统的设计方法。该方法对获取到的图像进行处理,处理后再提取可疑区域并对可疑区域火灾发生时烟雾的特征进行识别,主要包括烟雾的背景模糊度特征和扩散性特征,针对烟雾的这些特征设计了相应的检测算法,实现对视频中的烟雾图像的提取、检测并自动报警。分析结果表明,结合烟雾特征设计的烟雾检测预警系统具有较好的识别效果,在森林防火预警中有很强的实用性。

关键词:烟雾提取,特征检测,相似性度量,背景模糊度,小波分析,累积的动态数据

参考文献

[1]徐琼,詹福如,苏国锋,等.火灾烟雾探测技术的发展与探索[J].火灾科学,2002,11(2):113-118.

[2]林宏,陈旭,等.视频火灾自动预警中烟雾检测的研究[J].人工智能与识别技术,2009:81-82.

[3]陈悦,刁若飞,刘志伟,等.烟雾检测火灾报警系统的设计[J].微计算机信息,2007,8(23):93-95,[4]邓彬,刘辉,连国云,等.基于视频的烟雾检测[J].长沙大学学报,2007,21(5):87-89.

[5]帅师,周平,汪亚明,等.基于小波的实时烟雾检测[J].计算机应用研究,2007,24(3):309-311.

[6]王欣刚,魏峥,等.基于烟雾动态特征分析的实时火灾检测[J].计算机技术与发展,2008,18(11):9-12,17.

[7]金华彪,夏雨人,张振伟.数字图像处理在火灾探测技术领域的应用[J].微型电脑应用,2003,19(5):25-27.

视频烟雾检测 篇3

近些年来,随着数字图像处理技术、智能控制技术及计算机模式识别技术等的快速发展,视频火灾检测技术应运而生。此技术的出现,为上述问题的解决提供了新的方向。该项技术不仅具有响应时间快、监测范围广、非接触、抗干扰、智能化等技术优势,还能为监控人员实时提供火灾所发生的地点、火情发展程度等具体信息,给救援人员赢得了宝贵时间,从而使火灾所造成的损失降到最小,因此成为火灾探测领域研究的热点。

1 视频火灾探测技术的基本原理

视频火灾检测技术的基本原理如图1所示。该项技术使用普通的CCD摄像机或造价高昂的红外摄像机来进行场景的监控,进而获取视频图像。经图像采集卡将拍摄到的视频图像转变为相应的数字图像,并传送到监控系统的主机,等待下一步的处理与分析。系统主机通过对提供的数字图像进行分析、判断,且结合多种火焰或烟雾特征判据,从而做出有无火灾出现的结论。

2 视频烟雾检测算法的发展现状

目前,国内外对于视频烟雾检测算法的研究虽然尚处于起步阶段,但仍取得了一定的成果。Toreyin等人利用背景减除法、小波变换等方法来提取烟雾的边缘、纹理、运动等有效特征,以此来判断视频中是否存在烟雾。Kopilovic等人提出可以利用烟雾具有不规则运动这一特征,并运用光流法对疑似烟雾区域进行分析、判断。袁非牛等人提出了一种通过分析烟雾的累积量和主运动方向的方法,以确定图像中是否存在烟雾。

笔者在对已有的视频火灾烟雾检测算法进行分析和总结的基础上,提出了改进的烟雾检测算法,算法的主要实现过程如下:一是运用基于混合高斯模型的背景差分法实现对运动目标区域的检测;二是利用烟雾的多种图像特征对目标区域进行分析与判断;三是依据烟雾特征判据结果,确定测试视频中是否含有烟雾区域。

3 运动目标区域的检测

3.1 运动目标检测方法的确定

运动目标检测作为烟雾检测算法的首要构成部分,其检测效果将直接关系到后续能否正确识别出图像序列中的烟雾区域,而帧间差分法、光流法和背景差分法这三种方法是目前比较常用的运动目标检测方法。

通过对上述三种检测方法的利弊进行对比与分析,确定使用背景差分法实现运动目标区域的检测。但该方法需对背景图像进行实时建模与更新,而混合高斯背景建模法能够在多种复杂、混乱的环境中构建背景图像模型。因此,为了满足算法的整体需求,选择采用混合高斯模型的方法先对背景建立模型,背景建模完成后,再运用背景差分法提取出运动目标区域。

3.2 运动目标区域检测效果

笔者运用基于混合高斯模型的背景差分法得到的运动目标区域检测效果图,如图2所示。其中,测试图像中所包含的场景分别为:正常行走的路人、多辆正在行驶的车辆。从效果图中可以看出,此方法能够准确检测出目标区域的位置,且提取出的目标轮廓较为完整、清晰。

4 烟雾静态特征与动态特征的提取与分析

将运动目标从背景图像中分割出来后,分析和判断该运动目标区域中是否存在烟雾将是后续的研究重点。

4.1 烟雾静态特征

烟雾的静态特征主要是指在视频序列的某一帧静止图像中,烟雾所表现出来的若干图像特征,一般包括烟雾的颜色特征和凸形度特征。

4.1.1 烟雾的颜色特征

当火灾发生时,所产生烟雾的颜色通常可以分为白色、灰色、青色、黑色。经过研究后发现,白烟、灰烟和黑烟的RGB颜色模型中的红色、绿色、蓝色三个颜色分量的值很近似,而青烟的蓝色分量值通常要大于红色和绿色的颜色分量值。因此,笔者采用以下判别算法来判断测试图像中是否存在满足烟雾颜色条件的疑烟区域,以排除掉一些与烟雾颜色相差很大的非烟雾区域。具体算法如式(1)所示。

条件1:|Pmax-Pmin|<Z1

条件2:Z2<I<Z3

条件3:Pmax=B AND |Pmax-Pmin|<Z4

式中:Pmax为在RGB彩色空间中最大的颜色分量,相应的Pmin为最小的颜色分量;I为在HSI彩色空间中的强度信息。

若条件1和条件2同时成立或条件2和条件3同时成立时,则视为满足烟雾颜色的条件,已检测出的运动目标区域就可以确定为疑似烟雾区域;反之,则视为非烟雾区域。在条件1中,阈值Z1的取值范围为15~25;在条件2中,阈值Z2和Z3的取值分别为80、220;在条件3中,阈值Z4取值应略大于Z1。

4.1.2 烟雾的凸形特征

烟雾一般会受到外界环境(温度、湿度等)的影响而连续地对外膨胀,因其内部大气压力要远大于外部压力,故烟雾图像会明显表现出凸形特性。

通常在边缘长度相等的所有封闭平面曲线中,以圆形所围成的面积是最大的。所以,可以通过运用疑烟区域面积和与之相等边缘长度的圆的面积之比来检测目标区域的凸形特征,具体算法如式(2)所示。

式中:s1、s2分别为疑烟区域面积的像素总数和与之同周长圆的面积的像素总数;L为疑烟区域周长的像素总数;T1、T2为满足烟雾凸形特征的两个阈值,试验后得出其值分别为0.04、0.2。若s1与s2的比值k在区间(T1,T2)范围内时,则经过烟雾颜色特征判别后的疑烟区域就视为满足烟雾的凸形特征,并进行下一步的判别;反之,则视为非烟雾区域。

4.2 烟雾动态特征

烟雾的动态特征是指在连续的视频帧图像中,烟雾所表现出的一些特有图像特征,其中包括烟雾的形状不规则性特征和运动扩散性特征。

4.2.1 烟雾形状的不规则性特征

由于气流的因素,导致烟雾在扩散过程中其形状会连续发生变化,此为烟雾的形状不规则特征。通常两个物体在面积相等的条件下,形状规则物体的周长会比形状不规则物体的周长要短一些。可以通过运用疑烟区域的周长和面积之比来检测其形状的不规则性,具体算法如式(3)所示。

式中:ASEP、ASTP分别为提取出来的疑烟区域的周长与面积的像素总数;ASTD为区分烟雾与形状规则物体的临界阈值,经过多次测试后得出其值为0.5。若式(3)成立,则满足烟雾静态特征判据的疑烟区域更加接近于烟雾区域;反之,则视为不满足烟雾形状不规则特征,停止下一步对疑烟区域的判别。

4.2.2 烟雾运动的扩散性特征

在火灾形成初期,由于烟雾运动的扩散性特征,使得烟雾在短时间内占据了大量的空间,此现象在视频图像中表现得尤为明显。因此,疑烟区域在经过烟雾的静态特征和形状不规则性特征分析后,可以运用烟雾的扩散性特征对疑烟区域中是否存在烟雾区域做出最后的判断。具体算法如式(4)所示,计算出在某一时间段内疑烟区域面积的变化率,以判别其是否满足烟雾的扩散性这一运动特征。

式中:Ri+m和Ri分别为在图像序列中的第(i+m)帧图像和第i帧图像疑烟区域总的像素个数;ΔYdi为从图像序列中的第i帧到第(i+m)帧这一时间段内,疑烟区域像素总数发生改变的变化率。m的取值通常要大于1。

为了获得更为准确的疑烟区域面积发生改变的变化率,可以对n个不同的面积变化率 ΔYdi取平均值,以得到疑似烟雾区域面积的平均变化率,如式(5)所示。

烟雾区域面积的平均变化率往往在一定的区间范围内,若疑烟区域面积的平均变化率满足式(6),则该疑烟区域就可以确定为烟雾区域;反之,则视为非烟雾区域。

式中:E1和E2分别为烟雾区域面积平均变化率所在区间的两个阈值。

5 测试结果与分析

目前,国内外研究学者虽然提出了多种不同类别的视频火灾烟雾检测算法,但是对于各种算法性能指标(探测率、实时率、误报率、时间和空间消耗等)的评价尚未形成一个标准的体系。而且,由于缺少统一标准的火灾烟雾测试图像资源,试验中所用到的图像样本多数是个人拍摄获取或是直接从网络上下载得到的。

为了验证笔者所述视频火灾烟雾检测算法的可靠性和准确性,分别以室内和室外环境中的多个视频图像作为测试样本来进行试验研究。这些图像样本中既包含烟雾图像,也包含一些非烟雾图像。以下是部分图像样本的场景描述信息和烟雾检测结果,分别如表1、表2所示。

分析结果发现,笔者的烟雾检测算法拥有较高的识别率和较低的误报率、漏报率。但当测试图像中出现一些与烟雾颜色、形状等特征极其相似的非烟雾目标对象时,检测结果会出现少量的误报。部分图像样本的烟雾检测效果图和非烟雾检测效果图,分别如图3、图4所示。

从图3、图4能够看出,此算法能够在含有烟雾的图像样本中,识别出大部分的烟雾区域;在不含有烟雾的图像样本中,排除掉多数的非烟雾目标对象。

6 结束语

笔者在运用基于混合高斯模型的背景差分法来提取出运动目标区域的基础上,利用火灾烟雾所表现出的特有静态特征和动态特征,对运动目标区域进行分析与判断,并将符合烟雾图像特征判据的目标区域划分为烟雾区域。测试结果证明,该算法能够在开阔的室内场所以及大面积的室外环境中应用,为及时探明火情,并有效控制火情的发展提供有力保障。

此烟雾检测算法虽然在一定程度上取得了良好的检测效果,但在算法当中仍存在一些不足,对测试图像样本中一些场景信息的烟雾检测偶尔会出现一定数量的误报和漏报。在今后的研究和工作中,需要对现有的算法进行改进,将其他更多、更为有效的烟雾图像特征判据加入到算法中,并运用图像分类的方法对烟雾的特征进行融合判断,最终得出图像中是否存在烟雾区域的结论,以此来进一步提高视频烟雾检测算法的准确率。

摘要:在综述视频火灾探测技术的基本原理和现有视频火灾烟雾检测算法的基础上,提出了一种结合烟雾静态特征与动态特征进行研究的视频火灾烟雾检测算法。介绍运动区域目标检测与提取方法及效果,以及烟雾静态特征和动态特征的提取和分析。测试结果证明该算法能够准确且迅速地探测出火灾烟雾,误报率低,可靠性好。

关键词:烟雾,静态特征,动态特征,火灾探测算法

参考文献

[1]孙宇臣,王自朝,葛宝臻.视频火灾探测系统现状分析[J].消防科学与技术,2007,26(4):414-417.

[2]薄立矗.图像型火灾烟雾探测技术及发展前景展望[J].武警学院学报,2010,26(8):14-16.

[3]Toreyin B U,Dedeoglu Y,Cetin A E.Wavel-et based real-time smoke detection in video[C]//Proceedings of European Signal Processing Conference,Antalya,Turkey,2005.

[4]Kopilovic I,Vagvolgyi B,Sziranyi T,Applica-tion of panoramic annular lens for motion an-alysis tasks:surveillance and smoke detection[C]//Proceedings of International Conference on Pattern Recognition.Barcelona,Spain,2000.

[5]袁非牛,张永明,刘士兴,等.基于累积量和主运动方向的视频烟雾检测方法[J].中国图像图形学报,2008,13(4):808-813.

[6]魏晓慧,李良福,钱钧.基于混合高斯模型的运动目标检测方法研究[J].应用光学,2010,31(4):574-578.

[7]许峰,于春雨,徐放.视频烟雾火灾探测技术研究趋势[J].消防科学与技术,2012,31(11):1185-1188.

[8]王媛彬.基于图像型的火灾烟雾检测技术研究[J].消防科学与技术,2014,33(9):1052-1055.

上一篇:闭孔疝的CT诊断价值下一篇:绿色创新绩效