火灾视频图像(共8篇)
火灾视频图像 篇1
第一代商用的视频图像检测(Video Image Detection,VID)火灾探测器出现在2000年左右,它在原有的辐射能量型火焰探测器基础上做出改进。VID使用黑白CCD获得火灾特征,而不是传统技术中使用的紫外或红外光谱传感器。传统的辐射能量火焰传感器可测量预先定义的单个或多个波长的能量总和,以此确定测量的信号是真实的火灾,或是错误特征干扰。然而,VID改变了算法,通过测量光强、颜色、形状、移动、闪烁频率和每帧图像时间的改变确定火灾。两年以后开发出可以检测烟雾的VID软件,宣称可以配合现有的安防摄像头,安装在客户现有的个人电脑上使用。但是随着摄像头技术的进步,分辨率增高,产生太多的附加数据,使现有的软件无法正常工作。另外,如果在黑暗环境下烟雾识别软件也无法工作。在以上技术的基础上,2005年出现第二代VID火灾探测器,它将火焰探测和烟雾探测结合起来,使用高感光或者内建红外光的摄像头,并使用数字信号处理器完成视频图像的处理和检测算法。2008年出现的最新一代VID火灾探测器,将火焰和烟雾的视频图像检测紧密结合,有效整合成一个产品。
1 视频图像检测火灾探测技术
基于视频图像检测技术的火灾探测器,包括一个常规彩色摄像头、一个红外摄像头,一个红外光源,图像俘获处理和数字信号处理器(DSP)。使用红外摄像头是为了增强探测器检测火焰并减少误报的能力。红外摄像头提供的图像中只能看到火焰和热源。红外光源使探测器能在黑暗的环境工作,特别是检测烟雾火。图1为探测器的结构示意图。
探测器可以将视野分为16个子区域,包括重要监控区域和非重要监控区域,重要区域可能存在的错误和干扰源或者火灾发生的可能性非常小。DSP中装载了智能图像识别和处理算法。首先输入来自常规彩色摄像头和红外摄像头的数字图像,然后通过数据滤波处理、背景学习和建模、物理特征分析、数据融合、报警可行性计算,最后输出。算法流程如图2所示。
VID系统有两种类型的报警输出——烟和火焰。火焰和烟信号的识别和处理是分离的。在探测中,一帧或多帧图像被放上疑似火焰或烟雾的标记。这些标记在视频屏幕监控器中被追踪并显示。DSP将量化和处理来自多张图像的烟雾和火焰特征。一旦烟雾和/或火焰特征的可能性超过预先设定限度,图像帧的颜色将从绿转红。然后,探测器发布火灾报警给本地火灾安全系统,同时VID火灾探测器上的报警灯也打开。
VID系统可作为独立的火灾探测器使用,视频处理和报警算法执行在探测器内完成。也可组成中心化检测系统,单个计算单元可连接和处理8个以上的摄像头信息。VID探测器会将烟和火灾的检测灵敏度分为5级,1级最高,5级最低,3级是VID探测器的默认灵敏度等级。灵敏度的等级可根据应用的环境调节。探测器摄像头的视野决定了在VID系统应用中的性能。可通过使用不同的透镜调节视野大小,默认设置是32°。
2 技术比较
现有5种火灾探测技术,包括:视频探测器、线型温度探测系统、火焰探测器、烟雾探测系统和点式探测器[3],其性能比较列于表1。
3 结束语
视频探测器结合了火焰探测器和烟雾探测系统的功能,基本可以取代后面4种技术。点式探测器主要是和火灾安全系统中的水喷淋头结合使用,探测对象包括温度、烟雾以及气体等。线型温度探测系统包括传统的基于电传感的感温电缆、新型的拉曼散射感温火灾报警系统(欧洲)和光纤光栅感温火灾报警系统(中国)。这些新型的基于光纤传感技术的火灾报警系统具有探测区域范围广、受环境影响小以及可靠性高等优点。VID火灾探测技术和其他技术比较起来有反应速度快,定位火灾的同时可监测火灾的发展。但是可靠性和有效性不确定,因为该技术受环境影响较大,如:镜头被污染及应用现场能见度低等。VID火灾探测技术可作为辅助手段配合感温火灾探测系统一起工作。
图像与视频的理解和处理 篇2
图像视频的结构化分析
在智能交通监控和智能安保系统当中,需通过对大量的图像、视频进行提取和分析,才能进行内容的识别和行为的检测。
显著性区域检测
显著性区域检测,就是在图像、视频中找到最容易引起视觉注意的区域,比如前景,或者运动的物体等。通过显著性检测,可以优先分配计算资源,提高目标识别、内容分割和检索的准确性。在城市安防、交通监控、公共安全、刑侦等方面,可以用于灾害的检测、异常行为检测、犯罪线索搜索等,它是一个非常底层的算法,通过这个显著区域检测,可以做前景的分割。它的重要意义是基于全部的对比要比基于局部的对比的方法优秀,识别与检测工作可基于这一基本判断,即当找这个显著性区域的时候,就可以做全局性对比。区域显著性主要是由它和周围区域的对比度决定的,相对较远的区,作用会较小。另外,做显著性检测算法的时候速度一定要非常快,因为它处于底层,需处理海量的图像数据。团队主要的想法就是提出一个“直方图对比度方法”。
团队还提出了基于区域对比度的方法,这个算法在目前最大的公开测试集上做了测试,在精度和召回率方面,都比原来有很大提高。这个工作发表在2011年的CVPR(IEEE Conference On Computer VisiOn and Pattern Recognition,IEEE国际计算机视觉与模式识别会议)上,现在国内外700多个大学在应用这个算法。
相互几何结构的检测
清华团队提出了一种基于简单交互的相似物体快速检测方法,并在此基础上进行了物体的几何对应关系计算。主要流程是用户选一个物体后,程序会通过轮廓带图法来检测相似的物体,然后就可以再进一步做对应关系、层次、补全等应用。核心技术轮廓带图法是一种图像比对的方法,它利用所选图像的信息做扫描、比配,来找其它相似的物体,然后可以做几何层次结构图恢复。例如在一张图上描绘有若干个蒙古包,通过相互几何结构的检测可以自动识别与其相似的物体,赋予图形不止有像素的概念,还有物体的概念,这样即可同时对它们进行编辑,当对一个蒙古包图形进行添加门的编辑操作时,就可以让其它的蒙古包图形同时加上门。
场景几何构图的分析与优化
清华团队提出了一种基于视觉和心理学准则来自动评价视频图像数据中物体几何构图的方法,指导用户的构图。利用这个方法可以做很有趣的事情,可以把前景物体自由摆放到恰当的位置,让人感觉效果比较好。
关于图像与视频的编辑
由于摄影、摄像等终端采集设备与网络技术的广泛推广,图像与视频数据呈几何爆炸增长。在智能交通监控,或者交互公共服务中,原始数据必须要经过自动编辑处理才能进入应用阶段,而视频内容也可以通过交互式的编辑用于演示与分析。在这方面,清华团队主要进行双目立体图像的视角编辑、鱼眼视频校正、视频的时空编辑三方面的工作。
余眼视频校正
目前很多监控视频都采用鱼眼镜头,鱼眼镜头是超广角镜头,视角很大,它拍的东西图像是扭曲的,为保持显著图与实物的一致性,清华团队提出一种高效并且具有鲁棒性的鱼眼视频校正算法。通过该校正算法,可对广角镜头拍的原始的视频进行校正,重新裁剪,使其就变成一个比较正常的视频。
视频的时空编辑
视频的时空编辑就是在时域上以时间线来编辑视觉体校,这是在电影中经常被使用的方式。通过对城市中拍摄的视频进行时域编辑,可以展示很多智慧城市的不同风貌。例如对视频中的运动对象做时间轴的编辑,可以在不改变物体运动轨迹的情况下,改变它们的运动速度,以达到不同的效果。清华团队制作了一个软件界面,把视频中汽车的轨迹用柱状物表达出来,然后从另一个界面来控制它,视频中本来会相撞的车,通过更改其速度会变成不撞车。使用这个时空编辑可以进行很多交通情况的分析,和案件再现、分析等。在视频的时空编辑方面,现在国际上才刚刚开始做。
图像视频的增强
今年雾霾成为全国的热点。清华团队提出了一个去雾的模型和方法,主要是对数字图像进行深度估计,然后基于深度图优化,利用优化和深度图来做去雾的生成,效果不错。第二个是边缘敏感的图像滤波。提出了一种通用的滤波算式来做图像的处理,但是希望保持边缘结构。算法的思路是,利用简单的图像滤波器,在图像的每个较小的子窗口上获得满意的输出结构,然后将局部滤波效果无缝拼接起来。这样就可以对图像的细节度和对比度进行调节,改变图像效果。另外还可以做图像增强,如高动态防伪的图像增强。
平台的实际应用
在这些关键技术上的研究成果之上,清华团队参与实施两个实用平台,一个是腾讯街景项目,第二个是非常简单的面向公安的图像搜索。
腾讯街景
城市街景是智慧城市重要的一环,已成为国际上的热点,谷歌和微软都在花大力气做这个事情。城市街景提供了极为丰富的地理信息和各种相关信息,方便了城市居民的生活。另外它也逐渐会成为一种新兴的商业媒介,成为互联网企业赢利的新平台。街景可以很自然地把数字城市和商业结合起来,比如做街景游戏、街景广告等。街景同时也是国家重要的战略资源,街景数据是城市合理规划的重要依据。
街景的前景如此美好,但也存在一些关键问题。一是数据的获取和数据化,图像拍摄采集的数据细节非常多,但是数据系数却缺失严重。二是数据拼接和补全,直接采集的海量街景数据,有很多质量上的问题,比如逆光,采用360度拍摄的街景,一定会有一个方向是逆光的,这会影响使用效果。三是利益分析和检索,城市街中包含大量的文字、图形、符号等,它们构成了城市的标识,用来表示位置、方向、内容等,怎么样做到识别和检索,都会带来很多的挑战。四是传输、呈现和漫游,海量的街景数据中包含大量的有用信息,基于街景数据特征的高效压缩与编码技术,是解决街景呈现的重要元素。清华大学和腾讯去年承担了国家863信息领域的项目,要构建适应海量数据和大规模用户的城市街景应用验证平台,这个街景前段时间已经上线了。通过这个街景大家可以看到很多没有去过的地方。
面向公安系统的图像智能搜索
城市社区有大量的监控图像,这些会给当地案件的破案提供很多关键线索,但实际上现有技术解决不了所有问题,不可能实时发现、监控、检索等。现在每个公安局的刑侦大队都会雇几十个甚至上百个协警看视频图像,研究人员主要通过相关特征对人和车进行搜索。通过这个平台,计算器可以进行并行计算,在庞大的图像库里算出匹配概率最大的车,查找时间大大减少。目前,清华团队已跟浙江有关地级市的刑侦大队进行了合作,提供软件给他们试用。
随着媒体信息获取设备的不断普及,不断产生一些新的技术需求,促进图像与视频技术的发展,图像与视频技术的发展,特别是3D技术的突破,将会进一步促进城市智慧化和高效化的进程。在智慧城市的建设过程中,图像与视频的理解和处理技术有广阔的应用前景和发展空间。
火灾视频图像 篇3
关键词:森林火灾图像,火焰识别,动态特性,区域增长法,隶属度函数
1 引言
基于视频的火灾检测方法是当前火灾检测领域的重要手段,能有效克服传统检测技术的有效探测距离短、覆盖范围小等缺点,使大空间对火灾的检测成为可能。近年来,人们针对视频的火灾检测技术已经展开了深层次的研究[1,2,3,4,5,6,7,8]。Phillips W等[1]利用色彩视频序列图像中物体的颜色和抖动来确定火焰的存在;沈诗林等[2提出的一种基于图像相关性进行火灾检测的方法以及Yamagishi等[3]提出的基于HSV空间和神经网络的彩色图像火焰检测算法,对静态图像判决较好,但却没利用动态特征;袁菲牛等[4]提出的通过度量火焰轮廓信息,并在频域内进行分析来对火焰进行识别,此方法能准确地度量图像的时空闪烁特征,张本矿等[5]提出了将神经网络和模糊函数相结合的办法,通过神经网络学习功能,自动生成隶属度函数,但算法复杂,在嵌入式系统中实现较为困难。
针对上述问题,笔者提出了一种基于视频的火灾图像检测算法,以火焰疑似目标的重心和面积的变化率作为特征量,通过设定隶属度函数来确定对火焰的隶属程度,从而判断是否有火焰发生。
2 火灾识别算法
笔者提出的火灾识别算法分两个步骤:1)先对现场图像进行预处理,利用火焰的静态和动态特性,通过阈值对现场图像进行分割,进而提取主要检测目标;2)通过设定模糊判定法则以及隶属度函数来判断目标是否为火灾。
2.1 疑似目标提取
色彩是火焰的主要静态特征,HSI色彩空间是从人的视觉系统出发,用色调(hue)、饱和度(saturation)和亮度(intensity)来描述色彩,更加方便色彩的处理和识别。图1是一幅火灾图像及其色调、饱和度和亮度的分量图。图中显示,火灾图像的饱和度和亮度的分量图最能体现火焰特征。
因此,本文的火焰目标提取主要针对火灾图像的饱和度特征和亮度特征进行处理。对于视频图像中的第帧图像,分别通过对其饱和度分量图和亮度分量图设定阈值,进行二值化处理,提取饱和度分量图和亮度分量图的公共目标区域,作为Gi。
由于火焰燃烧时的相邻图像间火焰图像部分存在差异,而背景图像部分基本不变,因此利用火焰图像的上述动态特性进行火焰图像提取。对相邻两帧图像提取目标区域图像为Gi和Gi+1,然后对这两幅图像进行相减处理(对于小于0的值设为0),生成图像GD(x,y)
应用Wiener滤波器对GD(x,y)进行平滑除噪处理,去除孤立点噪声。然后利用以下方法判断出图像Gi+1中的火灾区域。本文改进了区域增长法,不仅种子的选取采用差分图像,增长条件也从一般的判断单方向梯度改进为判断各个方向梯度的最大值,可有效减少像素的漏判。步骤为:
1)以图像GD(x,y)作为开始检测目标像素集。
2)以新的像素集作为检测起始点。
3)确定聚类条件作为像素增长准则。
(1)与种子点相邻。
(2)像素点本身的亮度值大于T。经试验,T一般取值在0.9左右比较合适。
(3)定义Gi+1图像中各方向的梯度最大值R(x,y),因为火焰区域中R(x,y)一般取值较小,因此设定R(x,y)小于0.1基本可以有效检测到火焰区域。其中,R(x,y)定义为
4)对整幅图像进行搜索,找到符合步骤3)的像素,加入到像素集。生成新的像素集,判断像素集是否增加,如果增加,回到步骤2),如果没有增加,执行步骤5)。
5)用像素集里的像素生成图像G2′。
2.2 模糊判定法则
由于火灾监控现场的复杂性,各种干扰源都可能出现,因此对火灾目标的识别存在模糊性。本文定义模糊数学的隶属函数来判断目标是否为火灾。提取疑似火焰图像后,主要从疑似火焰图像的重心位置变化和面积变化比率来分析。
面积定义为目标提取二值图像中像素为1的点的和
对于一个m×n大小的图像面积变化率定义为
首先考虑重心位置变化,定义目标图像的重心位置,则二值化图像G2′重心位置C(xc,yc)为
通过计算各帧图像的重心坐标位移偏移量CDLi,以及与目标图像标准长度大小LS的比率Lv来设定隶属函数。CDLi,LS,Lv分别定义如下
由于火灾现场的火焰处于一种不稳定状态,其变化十分复杂,因此构建两层模糊分类系统,定义两个隶属函数分别为
由于面积变化率和重心坐标偏移率具有非相关性,任何一条都可以独立判断火灾是否发生,因此两者的乘积对判断火灾更为准确。最后的隶属度函数定义为σ,其表达式为
3 实验结果及数据分析
为了验证算法的性能,对大量火灾视频进行了研究实验。图2a是从火灾视频中提取的12帧连续变化的火焰图像,通过2.1节的火焰目标提取方法,得到了目标提取图像,如图2b所示。
可以看出,火焰目标提取算法能基本有效提取火焰目标。通过实验得出,当tS1=0.25,tS2=0.75,tl1=0.01,tl2=0.12时一定有火灾发生。图3显示了上述12帧火焰图像序列的面积变化率△S和重心偏移量比率Lv都在阈值范围内。
对灯光图像和蜡烛图像进行测试,分别提取了连续的5帧图像,并按式(10)分别计算了隶属度,表1为计算结果。
对各种目标的分析如下:1)路灯,光亮部分基本静止,重心偏移量比率及面积变化率都接近为0,因此隶属度为0;2)蜡烛,重心偏移量比率及面积变化率都很小,因此隶属度很小;3)公路上车灯,重心偏移量比率较大,但面积变化率接近为0,因此隶属度为0。
4 小结
笔者提出一种面向视频图像序列的火灾识别算法,本算法兼顾了利用火灾图像的静态特征和动态特征,构造模糊隶属度函数来判断火灾是否发生。本文方法计算速度快,耗时较少,对火灾图像识别率高,可以在嵌入式系统中实现,对于实时的火灾检测十分有效,值得进一步研究。
参考文献
[1]PHILLIPS W,SHAH M,LOBO N V.Flame recognition in video[J].Pattern Recognition Letters,2002,23(1-3):319-327.
[2]SHEN S,YU C,YUAN F.Renovated method for identifying fire plume based on image correctation[J].Journal of Safety and Environment,2007,7(6):96-99.
[3]YAMAGISHI H,YAMAGUCHI J.Fire flame detection algorithm using a color camers[C]//Proc.1999 International Symposium on Micro-mechatronios and Human Science.Nagoya,Japan:[s.n.],1999:255-260.
[4]袁非牛,廖光煊,张永明.计算机视觉火灾探测中的特征提取[J].中国科学技术大学学报,2006,36(1):39-43.
[5]张本矿,吴龙标,王进军.火灾探测的模糊神经网络方法研究[J].科技导报,2000,22(4):687-691.
[6]王跃宗,刘京会.基于视频的火灾实时检测方法[J].计算机工程与技术,2009,30(18):4330-4332.
[7]王亚军,徐大芳,陈向成.基于火焰图像动态特征的火灾识别算法[J].测控技术,2007,26(5):7-9.
火灾视频图像 篇4
随着我国经济建设的飞速发展,建筑物的迅速增多,火灾探测形式日益严峻。近年来,全国发生多起造成财产损失和人员伤亡的重大火灾。例如2008年9月20日,深圳市龙岗区一个俱乐部火灾,43人死亡;2009年2月9日,央视新大楼火灾,1人死亡,损失上亿;2010年7月19日,乌鲁木齐市区一个自建建筑物火灾,12死亡;2010年11月15日,上海市余姚路胶州路火灾,58人死亡;2011年11月5日,吉林商业大厦火灾,19人死亡;2011年4月25日,北京大兴区南小街三村火灾,18人死亡;2011年5月1日,吉林通化市如家酒店大火,11人死亡;2012年6月30日,天津市莱德商厦大火,10人死亡。这些重大火灾事故,在国内造成了很大的影响,已引起国家有关学者的极大关注。火灾探测成为目前迫切需要解决的重大问题之一。
火灾发生时伴有火焰、温度、烟雾和燃烧波等火灾参量,通过对这些特征参量的测量、分析,可以判定被测区域是否有火灾存在。根据探测火灾特征参数的不同,火灾探测器可以分为火焰探测器、感温探测器、感烟探测器等。这些传统的探测器一般应用在建筑物、隧道灯火灾预警中,但在高大空间的火灾报警中和环境恶劣的条件下,不能很好地适用。
随着社会的不断进步,计算机技术的不断发展,人们对火灾认知的不断深入,针对火灾的特征学者们提出了更多的探测方法。其中,基于视频图像的多特征火灾检测技术得到了国内外广大学者专家们的关注。这种方法利用普通的监控摄像机作为前端探测器,对采集到的连续图像信息进行图片预处理、火焰特征提取,然后通过计算机对火焰特征量进行分析,最后判断是否发生火灾,并进行报警、消防联动等处理。和传统的火灾探测方法相比,这种基于视频图像的火灾探测方法具有响应时间短、探测范围广、准确判断火情等优势,目前已经引起国内外大量专家学者的广泛关注。
1 视频图像型火灾探测技术的基本原理
图像型火灾探测器安装在火灾监控现场,采集现场的视频图像,通过视频专用电缆传输到图像型火灾探测系统主机上,由主机上的管理软件对现场视频图像进行分析、识别,如果图像中某一区域的灰度变化、闪烁频率、颜色和运动模式等参数符合火焰的特有特征,则管理软件作出火警判别,并发出火警报警信号。
2 火焰的图像特征提取
目前,视频火灾探测技术主要是依据火灾早期火焰特征和烟雾特征的分析,来判断是否发生火灾。由于对火灾早期的烟雾捕捉困难,此方法不能达到快速、准确的报警效果,所以火焰特征分析成为当前广大学者专家们研究的重点。
火焰特征主要分为静态特征和动态特征,对视频单帧图像进行分析,获得火焰的静态特征;对视频连续帧图像进行分析,获得火焰的动态特征。火焰的静态特征有颜色特征、光谱亮度、纹理特征;火焰的动态特征有火焰面积增长、火焰闪烁性等。
3 火焰特征识别及提取
3.1 火焰颜色特征
火焰燃烧时,因为其温度的不均匀且表现出一定的规律可以分为外焰、内焰和焰心三部分。由外向内随着温度的升高,火焰的颜色由红色变成橙色,由橙色变成黄色。在火焰灰度图像中,可以看出火焰核心部分比边缘要亮。因此,目前对火焰颜色特征的提取一般是对某一种颜色进行建模,利用阀值法来提取一定范围内的像素。
自然界中任何一种色光都可由R、G、B三基色按不同的比例相加混合而成。根据火焰的颜色特征,文献[1]通过对大量的火焰图像的统计,在RGB色彩空间建立火焰的颜色模型,从而进行火焰疑似区域的特征提取。R、G、B信息相关性强,容易受外界灯光及环境的影响,利用RGB颜色空间和YCbCr、HSV、HSI颜色空间的转换,可以更好地提取颜色特征。文献[2]提出了一种基于模糊逻辑的火焰颜色特征的分析方法,把RGB颜色空间转换到YCbCr颜色空间,通过对视频图像中像素点的颜色特征进行分析,从而提取火焰的疑似区域。文献[3]是Yamagishi等人在HSV颜色空间内建模,利用神经网络的学习能力来分析彩色图像,达到准确的判断效果,但此方法是不断地对采集到的彩色图像进行分析,计算量大。文献[4,5,6,7]则在HSI颜色空间对大量火灾图像的统计分析的基础上来建立火焰的颜色模型。通过对前人研究的总结,文献[8]分别在RGB、HSV和YCbCr三个颜色空间上,提取了最有效的火焰颜色特征,用其颜色规律来建立模型,这种方法可以有效地减少外界光照、环境等带来的干扰。文献[9]利用一个带红色滤镜的CCD摄像机和一个普通的色彩CCD摄像机,通过对采集的视频图像进行图像预处理和图像融合来提取图像特征。这种方法可以准确地提取火焰的轮廓。
颜色特征虽然特征显著,计算简单,但是抗干扰性差。不同材料的火焰颜色存在显著的差异,而且火灾现场存在一些类似烟头、蜡烛、灯光等干扰物,单独使用火焰颜色特征来判断火灾效果不佳。因此,火焰颜色特征只能配合其他火焰特征一起使用。
3.2 火焰静态特征
火焰燃烧时也存在着某一瞬间的静态特征,例如:火焰外形、火焰纹理等。由于燃烧物的性质、当前环境及与摄像机的相对距离等对火焰外形的影响,常规的形状分析方法不能很好、有效地描述火焰的形状。目前,学者们用圆形度、曲率特征和质心等特征来描述火焰的外形。这样可以有效、准确地提取火焰外形特征。文献[7]利用圆形度来排除烟头、蜡烛、灯光等干扰,在此基础上,进一步分析火焰特征,达到准确的火灾报警。但是当摄像机距离火焰较远的时候,火焰的圆形度和干扰源的圆形度无法准确分辨出来。在此问题上,文献[10]通过计算尖角所在连通域面积和火焰面积的比值,判断此尖角是火焰尖角,还是干扰引起的尖角。因为火灾早期的火焰尖角形成得很模糊,这种判断方法无法达到预期效果,因此,专家学者们大多会用尖角特征配合其他火焰特征一起使用,从而提高早期火灾的识别率。
火焰还有一个重要的静态特征———火焰纹理。文献[11]采用空间灰度共生矩阵,计算火焰纹理的能量、熵、相关和惯性矩特征。通过这四个纹理特征可以很好地去除一些常见的干扰,从而提高系统报警的准确性,降低系统的漏报和误报率。
3.3 火焰动态特征
不同于火焰静态特征的单帧图像的分析,火焰动态特征是对视频的连续帧图像进行处理与分析,从而体现出火灾是一个动态过程。
根据周围燃烧物的性质,火灾是一个由小变大再变小的过程,其中火焰面积也是不断变大再变小,如图一所示。火焰面积变化可以有效地排除某些静态干扰物,如蜡烛、烟头、灯光等。文献[9,12]利用火焰的面积增长特征、圆形度特征、形体变化等,对获得的火焰区域进行火焰的动态特征分析,实现对火焰信号的准确判断。文献[13]利用低频重构得到疑似火焰区域的面积变化趋势线,把第30帧与第1帧的火焰面积的比值作为火焰面积的增长速率。虽然一些噪声干扰可以利用小波变换来降低,但小波变换的计算量大,不利于实时探测。而且第1帧火焰面积很小,通过小波降噪后,真实的火焰面积与目标面积差别比较大,从而影响对火焰增长的准确判断。虽然这种方法可以很好地判断出火焰面积的变化,但是也存在着明显的不足,在蜡烛点燃和灯光由远及近的过程中,其面积也是增大的。因此,单一的面积增长也无法准确地判断出是否发生火灾。
火焰的闪动表面看来是变化无常,其实火焰信号的频谱具有特定的规律[14]。学者们经过对不同材料的火焰进行测试实验,分析得出:火焰的闪烁频率分布在3—25Hz,主要频率在7—12Hz范围内。[15]文献[16]通过傅里叶功率谱,根据火焰疑似区域高度变化的特征来判断是否发生火灾。文献[17,18]根据连续帧图像中疑似区域的面积和边缘尖角的变化,来判断是否发生火灾。文献[19]根据火焰的闪烁频率,通过火焰能量密度谱来分析判断是否发生火灾。但由于能量密度谱对灯光等干扰物比较敏感,这种方法很难获得准确的火焰的能量密度谱,使判断效果不佳。火焰闪烁性可以降低燃物性质或摄像机距离等因素的影响,显著提高火灾识别的可靠性和准确性。文献[20]通过统计相邻图像的疑似区域同某一火焰外部轮廓的相似度,来判断疑似火焰区域。但是这种方法对火焰外部轮廓的样本要求比较高,存在漏报和误报现象。
火焰的静态特征和动态特征具有复杂多样性的特点,但它们之间存在共存、互补的相关性。单一的特征无法准确地判断出火灾是否发生,因此只有对两种特征综合考虑才能有效、准确地鉴别火灾事故。
4 火灾的识别方法
火灾识别是对视频图像进行处理、分析、判断的一个过程。由于火灾是一种突发性、随机性强的灾难事故,单纯地利用某一种硬性指标来判断是很困难的。随着神经网络系统和模糊系统技术的发展,越来越多的学者专家把这两种系统运用到火灾识别领域中。文献[21]根据早期火焰的图像的信息特征,利用人工神经网络来进行火灾判断,具有很好的可靠性和容错性。文献[2]利用模糊系统,根据火焰的颜色模型进行火灾判断,以达到比传统判断方法更快、更准的效果。文献[22,23]分别利用神经网络的自学能力和模糊神经网络善于处理不确定知识信息的能力来进行火灾探测,这种方法充分发挥了各个算法的优势,增强了系统的泛化能力。
5 结束语
目前,社会发展迅速,大型商场或高大厂房等人口密集的地方对火灾探测的要求日益增高。传统的温感和烟感探测器因空间和高度的限制无法达到探测要求,基于视频图像的火灾检测技术可以很好地解决这个问题,并且通过和安全监控共用同一个摄像机,可以节约成本和人力。例如,合肥科大立安安全技术有限责任公司的LA100型火灾安全监控系统,通过红外CCD和彩色CCD,将采集到的视频图像信号传送给信息理主机,并对视频图像进行预处理、融合,使火灾探测和图像监控得到有机的结合。视频图像型火灾探测器是利用摄像机进行探测,具有防潮、防腐等功能,对环境有很强的适应能力。目前,火灾识别算法繁多,但在不同的场所中利用一种识别算法来解决并不现实,所以必须以实际情况出发,寻求一种最佳的解决方案。此外,火灾是一种具有破坏性的突发事件,目前尚没有较为完整和权威的公开测试集,大多数研究者的测试视频大多来自互联网或自行录制,而且有些场合无法或难以进行火灾实验,必须寻求其他途径来进行火灾的研究[24]。因此,视频图像的火灾检测是当下火灾检测的重点,各种基于视频图像的火灾检测产品也是今后火灾探测器的主要发展方向。
摘要:文中重点介绍了目前国内外在视频火灾探测领域的基本原理、探测方法的研究现状,着重分析了各个系统及算法的特点,并对此领域的发展前景进行了讨论和展望。
视频烟雾火灾探测技术研究趋势 篇5
一般建筑中所广泛使用的常规点型火灾探测器大多数探测烟气浓度和温度信号,属于接触型探测方式,受到空间的限制,对于超过12m的空间,常规的点型感烟探测器已经不适用。
近年来,火灾探测技术正在向图像化和智能化发展,出现了基于机器视觉和图像处理的视频火灾探测技术,它可以有效地综合烟雾、火焰的图像特征,提供直观的火灾信息。视频火灾探测技术具有响应速度快、监测范围广、距离远的特点,适用于高大空间以及室外场所,使火灾探测更大程度地满足人们对火灾安全的要求,与传统的火灾探测系统在探测能力上相比具有显著的优势,代表了当今火灾探测技术的较高水平。
视频火灾探测技术根据探测对象及识别算法的不同,可分为视频火焰探测技术和视频烟雾探测技术。其中,视频烟雾探测技术识别更是能够及早地发现火灾,实现极早期火灾探测。笔者介绍视频火灾探测技术系统构成,以及国内外火灾烟雾图像识别算法,分析这些算法的特点及存在的问题,并对常见干扰源进行分析和讨论。
1视频烟雾探测技术系统构成
视频火灾探测系统(Video Fire Detection,简称“VFD”)通常包括视频采集、视频处理和报警3个模块,它通过CCD摄像机对监控场所进行监测,并将拍摄到的视频图像通过先进的计算机处理算法在线分析和识别火焰或烟雾,利用火灾燃烧过程中图像的频谱特性、色度特性、纹理特性、运动特性,使其模型化、过程化,形成计算机可识别的火灾模式,从而识别火灾信息,快速、准确地完成火灾检测,并及时发出报警信号。图1为视频火灾探测硬件系统构成示意图。
2烟雾图像特征提取
烟雾是火灾早期最为突出的现象,但是烟雾图像特征的提取相对较复杂,相关的算法研究较少。视频烟雾探测技术的研究在于如何有效利用图像空间中的有用信息进行烟雾的识别,其中最关键的问题是如何选择特征。烟雾视觉特征主要包括两大类:一类是像素级的时空统计特征,如色彩、纹理等;另一类是区域级的变化特征,如轮廓变化、半透明和运动等,如图2所示。
国内外学者正致力于视频烟雾探测技术的研究,他们提出了几种关于烟雾图像的特征提取算法。
2.1烟雾图像像素级特征提取
烟雾的颜色特征是一种静态特征,它是通过建立判别模型来分析图像中像素的颜色或亮度分布,从而判断图像是否存在烟雾区域。Chen的研究认为,由于火灾烟雾颜色一般为灰色或黑色,因此结合RGB颜色模型和HIS颜色模型的I分量联合进行火灾烟雾识别。Guillemant等提出一种应用于森林火灾烟雾探测的算法,该算法通过多维时空聚类分析,研究森林火灾场景烟雾和干扰源图像颜色直方图分布特征的差别。Chen和Turgay Telik的研究通过建立颜色判别模型识别烟雾图像。以上研究都是通过对像素颜色建立模型来识别烟雾图像。使用颜色模型判别烟雾存在的优点是模型简单,计算速度快,是目前使用最广泛的可视烟雾识别算法。但是也存在明显的不足,在实际应用中仅使用颜色判别法则不能很好地区分和烟雾颜色相近的物体,如水蒸气、灰尘、云等。
烟雾图像也具有纹理特征,在正常光照下,烟雾的纹理图像相对较模糊,与清晰的纹理图像或者单一的颜色区域都有所不同,这也就构成了烟雾图像独特的纹理特征。Cui Yu结合小波分析和灰度共现矩阵(GLCM)两种纹理分析算法来提取烟雾的纹理特征,并通过神经网络对特征值进行分类。Yu Chunyu的研究采用灰度共现矩阵(GLCM)来提取烟雾纹理特征值,并实现了基于纹理特征的烟雾图像实时探测。
2.2烟雾图像区域级特征提取
人们的视觉系统对物体认识的初级阶段是对其轮廓形状的认识。因此,在对图像进行模式识别时,经常根据物体的轮廓来识别物体或对其分类。烟雾图像的轮廓具有不规则性,随着时间不断变化,其空间分布也不断在变化。熊子佑的研究中首先提出了利用湍流特征来识别烟雾的方法。该研究中认为,烟雾湍流现象的轮廓复杂性可以利用二维图像周长和面积的比或者三维图像表面积和体积的比来衡量。Fujiwara认为烟雾轮廓在不断变化,用分形维数方法反映烟雾轮廓变化特征。
烟雾部分遮挡背景,使白色墙壁边缘虽仍然可见,但变得模糊,这种视觉特征就是烟雾的半透明特征。B U Toreyin利用小波变换提取烟雾图像边缘特征,根据背景图像在烟雾遮挡下边缘变模糊,边缘信息减少的现象来判别烟雾。Yang发展了一种基于支持向量积SVM的火灾烟雾识别特征分类器,选用的特征值是基于小波分析的烟雾半透明特征值。
烟雾是一种湍流现象,具有在空间不断变化,并在一段时间内在同一区域重复出现的特征,这一特征尤其反映在运动信息上。Yuan的研究提出了基于累积方法的视频烟雾检测方法,提取烟雾的运动特征并进行分析。Yu Chunyu将光流法应用于火灾烟雾视频图像识别,提取烟雾图像运动区域特征点的光流,建立了烟雾图像运动特征判别模型。基于烟雾图像运动特征的判别方法相对其他特征方法准确率更高,但采用运动特征的计算量较大,容易给硬件系统带来较大负担。
综合国内外的视频烟雾探测技术及其应用现状,到目前为止,漏报、误报率比较高。基于颜色模型的判别方法由于算法简单,计算机处理速度快,得到了广泛应用。但由于很多干扰源物体和火焰、烟雾具有相近的色彩统计特征,因此误报相当严重。
3 典型火灾烟雾和干扰图像视频库建立
视频烟雾探测技术的关键在于特征提取,而特征提取中的难点在于干扰的消除。因此,特征提取方法的优劣,关键在于所提取的特征能否准确地将烟雾与其他干扰源区别开。烟雾图像常见的干扰源为噪声干扰、光线的干扰和复杂运动的干扰等。
准确提取烟雾图像特征,以得到更加可靠的识别模型,需要通过分析大量的烟雾和干扰源视频。而目前火灾视频识别还没有标准的视频数据库,为此开展多种场景下火灾阴燃或明火实验,拍摄生成的烟雾视频,同时拍摄各种场景下可能对火灾烟雾图像识别造成误报警的干扰源视频,如粉尘、水蒸气、人走动等,建立烟雾和干扰源特征视频库,以用于特征参数的训练和学习,以及系统性能的验证。开展实验的内容如表1所示。
具体实验内容包括:
(1)木材阴燃火。将75mm×25mm×20mm山毛榉木棍呈辐射状布置在电炉盘上,标准火需要10根木材、二倍火需要20根木材,见图3所示。
(2)棉绳阴燃火。将80根长度为80cm、重3g的棉绳固定在直径为10cm的金属圆环上,然后悬挂在支架上,如图4所示。
(3)聚氨酯塑料火。将3块尺寸为50cm×50cm×2cm、质量密度约20kg/m3的无阻燃剂软聚氨酯泡沫塑料垫块迭在一起,其边缘向卷起,试验时需装入5mL甲基化酒精,如图5所示。
(4)正庚烷火。将952 mL正庚烷(纯度≥99%)与29mL的甲苯(纯度≥99%)混合后,放置于用2mm厚的钢板制成的底面积为1 100cm2(33cm×33cm)、高为5cm的容器中,如图6所示。
(5)干扰源。已知的干扰源中,灯光对于视频火灾探测的干扰最为严重。因此本实验重点采集了多种灯光的视频图像,包括频闪灯、舞台旋转灯、装饰卤素色灯、发光二极管霓虹灯等,如图7所示。光线的变化会对基于像素的烟雾区域提取造成很大的影响。提取烟雾区域不准确,边缘不清晰。有时光线的急剧变化,如开关窗、开关灯时,很多烟雾探测算法容易造成误报。
通过开展了多种火源发烟实验及灯光干扰实验,拍摄烟雾视频和灯光干扰视频,建立了典型烟雾和干扰源视频库,为视频烟雾火灾探测的烟雾图像特征的选择和特征参数训练提供了重要的参考数据。
4 结束语
笔者介绍了视频烟雾探测技术的系统构成,分析了烟雾图像特征,包括像素级的时空统计特征,如色彩、纹理特征等,以及区域级的变化特征,如轮廓变化、半透明和运动特征等。通过开展典型火灾烟雾和干扰试验,准确提取了烟雾图像特征和典型干扰源对其影响的特征。目前,国内外关于视频烟雾探测技术研究已经提出的特征提取方法,还不能从本质上反映出烟雾的物理运动特征,仍然存在较大的漏报、误报问题。随着计算机技术的发展,硬件系统计算速度不断提高,视频烟雾火灾探测技术的特征提取和分析方法势必会向复杂化、多样化发展。
视频烟雾探测算法已有研究大部分都是集中于火灾早期阴燃白烟的研究,而对伴随火焰发生产生的黑烟研究较少。一方面由于火灾发生一般都起始于阴燃阶段,因此对阴燃白烟的识别更能够实现极早期探测;另一方面,火焰对于背景光的影响(尤其在室内环境,这种影响非常严重),使伴随火焰发生产生的黑烟图像变得不清晰,给烟雾图像识别带来困难。在火灾发生时,常常由于障碍物遮挡,火焰无法被及时发现,耽误了火灾扑救时间,而烟雾由于羽流的作用,不会被障碍物遮挡,此时视频烟雾探测显得尤为重要,对于伴随明火产生的黑烟识别也必将成为视频烟雾探测技术的研究热点。
参考文献
[1]Chen Thouho,Yin Yenhui,Huang Shifeng,et al.The smoke de-tection for early fire-alarming system base on video processing[C].In:Proceedings of the 2006International Conference on IntelligentInformation Hiding and Multimedia Signal Processing(IIH-MSP’06),Pasadena,California,USA,2006.
[2]Guillemant P,Vicente J.Real time identification of smoke imagesby clustering motions on a fractal curve with a temporal embeddingmethod[J].Optical Engrg,2001,40(4):554-563.
[3]Chen T,Wu P,Chiou Y.An early fire-detection method based onimage processing[C].In Proc.of IEEE ICIP’04,2004.
[4]Turgayelik,Hüseyinzkaramanl,Hasan Demirel.Fire andsmoke detection without sensors:image processing based approach[C].15th European Signal Processing Conference EUSIPCO 2007,Eurasip,2007.
[5]Cui Yu,Dong Hua,Zhou Enze.An early fire detection method basedon smoke texture analysis and discrimination[C].Proceedings of the2008Congress on Image and Signal Processing,CISP’08,2008.
[6]Yu Chunyu,Zhang Yongming.Texture analysis of smoke for real-time fire detection[C].IEEE Second International Workshop onComputer Science and Engineering.Qingdao,China,2009.
[7]Xiong Ziyou,Caballero Rodrigo,Wang Hongcheng,et al.Video-based Smoke Detection:Possibilities,Techniques and Challenges,IFPA[C].Fire suppression and detection research and applications,Orlando,FL,2007.
[8]Nobuyuki Fujiwara,Kenji Terada.Extraction of a smoke region u-sing fractal coding[C].International Symposium on Communica-tions and Information Technologies,Sapporo,Japan,2004.
基于特征融合的视频火灾检测算法 篇6
关键词:火焰图像,视频图像,RGB,图像处理
为了防止火灾发生,减少其带来的危害,人们对自动火灾检测系统的需求日益增长。传统的火灾探测器如感烟型,感温型,感光型等分别利用火灾前期的烟雾浓度,温度,以及光照等的物理特性对火灾进行探测。对于高大空间而言,它具有举架高,跨度大等特点,传统的火灾探测器在实时性和准确性方面已经不能满足其要求。图像型火灾探测器能够不受环境影响,提供直观的火灾信息,并能够准确实时的对火灾进行报警。文献[3]提出了一种基于亮度与火焰边缘区域颜色分布的火灾火焰检测方法,此方法是根据活在火焰的静态特征进行识别,却缺乏对火焰动态特征的描述。本文研究了火灾火焰的颜色特征并基于RGB颜色空间对明火火焰建立颜色模型,提取疑似火焰区域,然后根据火焰区域面积变化率,相关系数,以及圆形度等特征,对提取的各项特征进行综合分析,从而实现火灾的探测和判别。仿真实验结果证明了算法的有效性,对火灾火焰的识别率较高。
1 基于RGB空间的火焰可疑区域检测
首先将RGB彩色火焰图像S分别取出R,G,B三分量。由于火焰色彩比较明显,一般是在红色到黄色范围内变化,利用RGB颜色模型实现火焰的粗分割;在此基础上,根据火焰具有在较大范围内连通的特点,对粗分割火焰区域中存在断裂、孔洞和分立的现象,利用形态学中用3×3的结构元素进行目标填充,实现火焰的细分割。从参考文献[4][5]得RGB颜色模型提取火焰区域必须满足以下3条表达式:
其中RT表示红色分量的阈值,其中RT=200,ST表示红色分量R为RT时它所对应的饱和度,仿真结果如图1所示。
2 火焰特征提取及火焰判断
由于环境复杂多变以及强光干扰的作用,会影响火焰分割的准确性,因此需要对提取出来的疑似火焰区域做进一步判定。本文根据火灾发生初期火焰在图像上表现出的特征信息和特征提取的有效性,选取了相关性、面积变化率和尖角数三个特征作为火灾识别依据。
2.1 相关系数
在火焰序列图像中,火焰区域在几何上具有连续性,在时间上具有相关性。相关性反映两窗口内图象强度分布的表面起伏特征是否相似。由于火焰的无规则运动,致使相邻两帧图像中火焰区域的相关性在一定范围内波动。式(6)为相关性系数计算公式。相关性可排除颜色均匀的干扰物,如红色衣服的晃动等。
其中r表示两幅图像的相关性,Αˉ和Βˉ表示亮度均值。Αmn和Βmn表示图像在m行n列交叉处像素的亮度值。
2.2 面积变化率
由于火灾的不断燃烧,导致可疑火焰区域的面积大小会不断变化且呈现持续增大的趋势。而非火焰区域的面积随机变化的可能性较小。面积变化率计算公式如(3)所示。面积变化率可排除快速移动及闪烁的物体,如行驶中的车灯,警灯等。
其中Αi、Αi-1表示相邻两帧图像中同一着火区域的面积,Ψ表示面积变化率。
2.3 尖角数
“边缘抖动”是早期火焰的一个重要特征,基于这个特征,本文采用尖角判据对火焰的特征进行提取,一般不稳定的火焰本身具有较多的尖角数,火焰尖角数目呈现不规则的跳动是火焰边缘抖动的一个明显表现,然而你稳定的光源的尖角数目可能会跳动,但是跳动的次数基本固定在一定范围内。规则的干扰物,如打火机、
蜡烛被风吹动时会出现跳动,但是范围不大。其实现算法如下:
1)对图像进行分割以获取可疑图元。此处采用的是第2节中提出的基于RGB颜色特征的的疑似火焰区域的检测方法。
2)提取火焰边缘。
)轮廓跟踪识别尖角。
其仿真结果如表1所示。
从上表可得,火焰的再燃烧过程中尖角数较多且呈现不规则变化趋势,而对于其干扰物而言,其尖角数较少,一般均小于2。所以尖角数可以作为火焰区分起干扰物的一个判据。
2.4 火焰的综合判断
根据火焰特征值的特性,定义火焰判断判据为:
)可疑图元的相邻帧的相关性满足:
2)可疑图元的面积变化率满足:0.1≤Ψ≤0.4
3)可疑图元的尖角数满足:C>3。可疑图元的面积变化率满足:0.1≤Ψ≤0.4
若可疑图元特征值同时符合这3条判据,则可判定该可疑图元为火焰。
3 实验分析
为了验证本文算法的性能,采用了12组视频作为测试数据的来源,分别在室内室外不同光源条件下,引燃汽油、酒精、塑料泡沫、纸质物品、等材质以获取不同环境下得火焰,其中每类火焰视频包括一段有火视频和一段相应环境下的干扰视频。如图2所示。
这些视频可分为五类具有代表性意义的火焰与干扰图像,分别是:室外大空间、室内打空间、高亮背景干扰、人动干扰以及灯光干扰。对五类视频进行了测试,测试图像为随机抽取的连续200帧。表1是在四种不同算法下计算出的火灾识别率。算法一至三分别表示基于火焰的相关系数、面积变化率及尖角数的检测算法,算法四表示基于火灾多种特性的融合检测算法。从表2可以看出,算法四对火焰和干扰的识别率明显高于单一特征的检测算法。
4 结束语
本文提出了一种融合火焰多种特征的检测算法,多种特征分别为相关系数、面积变化率及圆形度。首先在RGB颜色空间进行火焰的分割,然后对可疑图元进行特征提取,再依据联合判别准则判别出图像中是否有火焰出现。实验结果表明,本算法对火焰和干扰图像具有很高的识别率,克服了依靠单一特性检测火焰图像的不足,但对于火焰和周围背景颜色相近的情况仍存在误判的问题,算法仍需进一步完善。
参考文献
[1]王柯,方陆明,付鋆萍.森林火灾图像几何特征提取识别的算法研究,浙江林业科技[J].2009,29(6):38-41.
[2]Celik T,Seyin O H,Demirel H.Fire Pixel Classification Using Fuzzy Logic and Statistical Color Model[C].IC2007.New York:IEEE,2007:1207-1208.
[3]许宏科,房建武,文常保.基于亮度与火焰区域边缘颜色分布的火焰检测[J].计算机应用研究,2010(9):3581~3584.
[4]Chen Thou-Ho,Kao Cheng-Liang,Chang Sju-Mo.An Intelligent Real-Time Fire-Detection Method Based on Video Processing[J].Securi ty Technology,2003:104-111.
基于火焰特性分析的视频火灾检测 篇7
火焰的动态特征在火焰识别中特别重要。早期火焰的动态特征[1]主要包括面积增长特性、相对稳定特性、闪频特性和形状变化特性等。火焰的燃烧是一个连续变化的过程, 在初期会呈现出持续扩张的状态, 图像中就表现为面积区域的扩大;随着火焰面积的增长, 火焰的整体会连续缓慢的向外围移动, 其位置一般不会产生跳跃性变化, 火源处相对来说比较稳定;可燃物在燃烧时都会发出红外辐射, 使火焰的外围很不稳定, 火焰会出现明显的闪烁现象。
本文综合考虑系统识别率、实时性和环境条件, 在上述的火焰特征中, 选择火焰相对稳定性, 面积扩散特性, 闪烁特性和圆形度作为动态特征, 对检测出的可疑火焰目标进行分析, 来实现火灾的检测。
1.1 面积变化特性分析
1.1.1 火焰的面积变化特性
火焰的燃烧是一个连续变化的过程, 在初期会呈现出持续扩张的状态, 火焰的面积呈现出整体扩展的增长趋势, 对应的用摄像机采集的图像中目标所占的面积区域也会逐渐的增大, 在灰度图像中就表现为高亮区域的持续增长, 如图1所示。
火灾的燃烧在初期阶段面积迅速增大, 之后火势处于相对稳定的状态。火焰在面积增长较快的阶段也是平缓的增长, 而不是跳跃性的增大。
1.2 闪烁特性分析
1.2.1 火焰的闪烁特性
火焰在燃烧过程中, 会向外发出较强的辐射, 使火焰的外围很不稳定, 火焰会出现明显的闪烁现象[2]。火焰的闪烁具有其特有的规律, 其频率分布在0~20Hz之间, 火焰的闪烁频率受燃烧物和环境等因素的影响比较小。因此, 可以作为一个比较有效的判据来检测火焰。火焰的闪烁特性可以通过火焰的面积变化来表示.
1.2.2 闪烁特性分析方法
本文主要是利用相邻时刻的火焰面积变化来对提取的可疑火焰区域的闪烁特性进行分析, 采用的方法是判断连续三帧图像中每相邻两帧图像的区域面积变化, 对同时含有增大和减少的现象进行统计, 根据统计的结果判断该区域是否为火焰区域。
在闪烁特性的分析中也需要利用连通区域的面积, 获取到可疑火焰区域的面积后, 对连续3帧图像中的每两帧图像的区域面积差值相乘, 用表示:
根据式 (1) 计算连续三帧图像中的每两帧图像的区域面积差之积, 通过DP的大小判断该时间段区域面积是否发生波动;若小于一定的阈值即-100, 则火焰的闪烁频率加1。
1.3 圆形度分析
经过上述过程分割出的火焰疑似区域, 火焰燃烧过程中外形极不规则, 而大部分的干扰源有比较规则的轮廓, 故可选用圆形度作为判定火焰区域的依据。
1.3.1 圆形度的基本概念
圆形度[3]是在面积和周长的基础上, 计算物体或区域的形状复杂程度或与圆的接近程度的特征量。圆形度可以衡量物体形状的规则程度, 且形状越不规则其值越大。比较常用的圆形度是周长的平方与面积之比, 即
其中, k是图像中待测物体区域的数目, ci为标号为的区域的圆形度, At为区域的面积, Li为区域的边界周长。由公式可以看出:圆的圆形度为1, 物体形状越不规则, 越复杂, 其圆形度就越大。
1.3.2 具体算法
求解圆形度首先要对边缘提取链码[4], 再求解图像面积和周长, 最后由面积和周长计算出圆形度。周长为物体的边界长度, 可从边界链码中得到。周长定义为区域边界像素的8链码的长度之和。像素间的方向有水平, 垂直和对角三种状况, 水平和垂直像素间的距离是一个像素, 对角像素间的距离是个像素。通过去直角处理, 将两个直角步还原成一个对角度, 距离也是个像素。按上述规则遍历边界链码, 即可算出边界长度。区域面积是二值化后区域内的像素总个数。由公式 (2) 即可求出该区域的圆形度。圆形度对圆形物体取最小值1, 物体形状越复杂, 值越大。
2 实验结果
为了验证本文设计的基于火焰特征的检测算法的有效性, 本文采用隧道场景对该算法进行实验。首先选取有火灾发生的场景, 当有火灾发生, 即可检测到如下参数结果。如图2所示。
由图2 (b) 可知, 火灾的火焰面积刚开始是均匀增长的, 一般不会出现跳跃性的变化, 然后燃烧一段时间后, 达到稳定, 面积基本不变, 但是火焰边缘会有抖动。利用短时间内的面积变化对可疑火焰区域的闪烁特性进行分析, 可以得出火灾火焰的闪烁频率。通过上面的分析, 我们对二值化后的图像进行标记, 然后计算各个标记区域面积和周长, 由于火焰的闪烁特性和边缘抖动, 导致火焰的形状复杂, 圆形度大。实验结果如图2 (c) 所示。
摘要:火灾中的燃烧过程是一种复杂且不稳定的过程, 具有多种表征参数。因此, 在火灾检测中, 仅仅通过一两种参数的测量进行火灾的早期预警, 很难达到较高的准确性和适用性, 需要结合多个参数特征来提高系统的识别率。本文提出了一种基于火焰动态特征的火灾检测方法。利用火焰的特征, 对火焰疑似区域进行分析。实验结果表明, 该方法能较有效快速地检测出火灾, 减少损失。
关键词:火灾检测,火焰,动态特征
参考文献
[1]杨俊, 王润生.基于视频图像分析的火燃检测及其应用[J].视频技术应用与工程, 2006 (8) :92-96.
[2]李婷.浅谈火灾探测中的图像分析[J].信息技术, 2006 (11) :35-37.
[3]张进华, 庄健.一种基于视频多特征融合的火焰识别算法[J].西安交通大学学报, 2006 (7) :811-814.
航空视频图像定位技术 篇8
机载航空摄影主要特点是:几何分辨率更高, 视场角较大。因此, 位于扫描航片边缘的图像变形较大;另外, 航空平台的姿态远不如航天平台稳定。
但是, 航片获取的时效性很高, 图像分辨率相对于卫星遥感数据也比较高, 在很多对时间反应要求较高的应用领域, 航空摄影图像发挥着越来越大的作用。因此对于航片的处理有很高的实用价值。
系统几何校正是航空视频图像处理中的重要环节, 通常在遥感图像处理的前端。针对视频处理所采集的单帧视频图像, 并利用该图像对应的遥测数据, 建立几何校正模型, 对图像进行系统几何校正计算, 完成图像的系统级的初步定位, 校正因为传感器倾斜拍摄导致的图像像素的局部变形;系统几何校正处理关系到航拍图像的定位精度, 对于以后的地理精校正、情报应用处理等处理打下基础。
1 系统几何校正模型
本文利用坐标变换方法建立原始图像和输出图像的几何关系, 即几何校正模型, 其步骤如下:
① 建立从当地地理坐标系到相机的空间坐标系群;
② 完成各个坐标系之间的相互转换关系;
③ 把原始图像剖分成适当大小的矩形网格;
④ 根据坐标系转换关系建立几何校正模型;
⑤ 利用几何校正模型, 计算网格点 (i, j) 在WGS-84坐标系下的大地坐标 (LWGS-84, BWGS-84) ;
⑥ 利用 (LWGS-84, BWGS-84) 进行地图投影变换, 得到投影坐标 (Xi j, Yi j) ;
⑦ 再把 (i, j) 、 (Xi j, Yi j) 作为控制点, 利用多项式拟和方法, 对原始图像进行校正, 以下简称为“图像重构”。
1.1 系统概述
本文仅概述图像信息中与几何校正建模有关部分。图像信息获取由机载侦察设备 (光电平台) 完成。对于光电平台, 可以装载CCD光电摄像机 (简称CCD相机) 、前视红外热像仪 (简称红外相机) 。
飞机采用GPS和惯性导航系统进行组合定位、测量姿态;平台采用四框架两轴稳定。
1.2 坐标系
在几何校正模型中采用以下坐标系:
① 地球坐标系 (e系) , 采用WGS-84坐标系;
② 当地地理坐标系 (t系) ;
③ 机体坐标系 (b系) ;
④ 光电平台坐标系, 简称平台坐标系 (p系) ;
⑤ CCD相机坐标系 (c系) ;
设图像共Ic行、Jc列, 中心坐标是 (Ic/2, Jc/2) , 像元cp在图像中的行、列数分别为Icp、Jcp, 像元大小为lc×lc, 相机焦距为fc, 则其相应扫描角αc, 偏角βc, 根据画幅式相机摄像原理有:
(6) 红外相机坐标系 (h系)
设图像共Ih行、Jh列, 中心像元坐标是 (Ih/2, Jh/2) , 像元hp在图像中的行、列数分别为Ihp、Jhp, 像元为方像元lh×lh, 因为图像为正像, 则:其相应的扫描角αh和偏角βh, 则根据全景摄像原理有:
1.3 坐标转换
系统校正的目的是利用目标图像和飞机位置、姿态, 以及平台的参数计算该目标在WGS-84坐标系中的大地坐标, 算法核心是对以上坐标系中进行准确的坐标变换。本文用到的坐标系变换有:
① 由地球坐标系到当地地理坐标系的坐标变换。其变换矩阵R1为:
式 (1) 和以下各式中的Rx (θ) , Ry (θ) , Rz (θ) , 分别表示绕X轴、Y轴和Z轴旋转θ角的坐标旋转矩阵。B0表示飞机当前纬度;L0表示飞机经度。
② 由当地地理坐标系到机体坐标系的坐标变换。其变换矩阵R2为:
式中, Ψ为航向角;θ为俯仰角;γ为横滚角。
③ 由当机体坐标系到平台坐标系的坐标变换。其变换矩阵R3为:
式中, η为方位角;ζ为平台滚动角。
④ 由平台坐标系到CCD相机坐标系的坐标变换。其变换矩阵R4为:
⑤ 由平台坐标系到红外相机坐标系的坐标变换。其变换矩阵R5为:
从CCD相机坐标系到地球坐标系的转换, 利用上述变换矩阵得:
从红外相机坐标系到地球坐标系的转换, 利用上述变换矩阵得:
1.4 激光测距的应用
如果在计算过程中, 光电平台上加载激光测距仪, 能够输出成像时刻的激光测距值, 校正计算的精度将大大提高, 尤其在较高海拔地区。
在原模型中未加入激光测距数据, 因此计算过程中, 默认拍摄地区海拔为0;当平台高低角不为0时 (平台相机光轴指向不是垂直向下) , 计算结果与实际地理坐标有很大出入, 如果海拔较高, 该误差将非常明显, 这样的图像定位结果将无法实际使用。如果加入激光测距, 可以有效计算拍摄图像地区的海拔高度, 降低原模型误差。
1.5 图像输出
建立系统校正模型后, 输入划分的图像网格点坐标, 输出投影坐标。这些点的图像坐标和投影坐标形成一组控制点集, 使用该控制点集, 对原始图像数据进行多项式校正计算, 重采样生成输出图像数据, 根据当前拍摄区域中心点位置, 设置图像投影条带, 指定图像投影信息, 最后输出为图像文件。
2 实验结果以及误差分析初步
根据上述模型, 输入图像文件, 并同时获取与图像生成时所对应的遥测数据, 从中分离出建立模型所需的飞行器位置、飞行器三姿、平台姿态、相机参数、激光测距值等数据。利用这些遥测数据建立系统校正模型, 对输入的图像进行校正计算, 生成图像数据, 写入输出图像文件中。因工程应用需要, 还要在图像中加入地理坐标数据, 图像投影信息等。为后续的图像处理以及情报应用处理提供支持。
在进行图像校正定位过程中, 由于多方面因素, 会导致产生光轴指向误差。造成该误差的因素包括:系统安装误差、飞机位置误差、飞机姿态误差、平台姿态误差、结构安装误差、相机内方位元素误差等。
对于飞机姿态误差、平台姿态误差、相机内方位误差, 通过各个设备出厂调试, 以及在系统联试过程中进行设备调校。
飞机位置, 是由机载GPS定位系统提供, 在实验中, 使用差分GPS以及组合惯导, 通过插值运算得到精度更高的飞机空间坐标, 理论上可以达到10 m以内的误差。
对于结构安装误差, 这也是一个系统误差, 通过地面检测, 可以测出部分误差结果;然后在模型中加入误差修正量, 弥补误差因素对校正计算精度影响。在实验过程中比较常见到, 并且对校正输出结果影响较大的是平台的安装误差, 该误差有时达到十多度, 这意味着, 在飞行器据地几千米的空中, 该误差量直接导致最终图像校正结果将有上百米, 甚至于几百米的定位误差。为了降低该误差, 首先在系统安装时, 进行系统误差校准。另外, 还需要在实验前, 对已安装的平台进行地面测量, 测定该误差值。并将该值加入到校正模型中的误差消除模块, 降低这种系统误差对校正精度的影响。
3 结束语
本文利用坐标变换方法给出了机载CCD电视摄像机和前视红外热像仪遥感图像的几何校正模型, 实施视频单帧图像的几何校正计算, 完成该图像的定位。同时结合实验, 通过对激光测距数据的引入校正模型, 对平台安装误差进行分析和计算, 提高校正精度。在实际应用中, 该方法取得良好的图像定位效果, 但同时也存在不足, 图像定位经度目前还不算太高, 在今后的工作中, 需要继续研究, 以达到更好的结果。
参考文献
[1]张永生.遥感图像信息系统[M].北京:科学出版社, 2000.
[2]朱述龙, 张占睦.遥感图像获取与分析[M].北京:科学出版社, 2000.
[3]黄世德.航空摄影测量学[M].北京:测绘出版社, 1992.