文本检测和定位论文(精选7篇)
文本检测和定位论文 篇1
1 引言
随着当今社会经济的飞速发展,车辆的数量也变得与日聚增起来。高速增长的汽车数量和落后的停车场管理模式形成了鲜明的矛盾冲突。于是,智能车辆管理系统的实现变得尤为重要。实现智能车辆管理系统的核心内容就是能够自动化识别车辆车牌,而作为车牌识别核心技术的第一步——车牌定位技术的好坏极大程度上决定了车牌识别的性能。
目前车牌定位的实现方法大体分为两类,一类是基于灰度图像的车牌区域定位方法,另一类是基于彩色图像的车牌区域定位方法。前者主要有基于纹理特征法、基于数学形态学法、基于小波分析法等方法。后者主要有基于RGB颜色法、基于神经网络法等。本文结合两类不同的方法,先采用改良的RGB颜色法——HSV颜色模型来识别车牌,可以定位出大部分颜色鲜明的车牌,由于此方法受图片质量影响较大,我们在颜色法后采用边缘检测定位法,通过垂直边缘检测,将图片中垂直边缘较多的区域定位出来,两种方法的结合可以获得车辆图片中车牌所在的区域,判断出真正的车牌位置。
2 颜色定位
采用RGB颜色定位方法需要RGB的3个分量(Red分量--红色,Green分量--绿色,Blue分量--蓝色)共同确定一个颜色标准,我国大部分车牌都是蓝色,我们要从Blue分量中找到分量的阈值确定蓝色的范围,这本就不是一件容易的事。但是我们往往不只有3原色构成的车牌,遇到像黄色的车牌时情况会更加复杂,需要考虑Red分量和Green分量的配比问题。这些问题让单纯选择RGB颜色定位变得分外困难。
为了解决这些问题我们采用HSV颜色模型,如图1所示。HSV模型是根据颜色的直观特性创建的一种圆锥模型。与RGB颜色模型中的每个分量都代表一种颜色不同的是,HSV模型中每个分量并不代表一种颜色,而分别是:色调(H),饱和度(S),亮度(V)。
H分量是代表颜色特性的分量,用角度度量,取值范围为0~360,从红色开始按逆时针方向计算,红色为0,绿色为120,蓝色为240。S分量代表颜色的饱和信息,取值范围为0.0~1.0,值越大,颜色越饱和。V分量代表明暗信息,取值范围为0.0~1.0,值越大,色彩越明亮。我们可以从一种纯色彩开始,即指定色彩角H,并让V=S=1,然后我们可以通过向其中加入黑色和白色来得到我们需要的颜色。增加黑色可以减小V而S不变,同样增加白色可以减小S而V不变。这就意味着通过保持V,S不变来找表示颜色的H的范围,再反过来通过H的范围确定V,S的取值范围,从而可以确定出我们需要的颜色范围,如图2所示。
采用颜色定位我们首先需要将图像颜色空间从RGB转换为HSV,再遍历图像的所有像素,将满足HSV范围内的像素点标记为白色,其余部分标记为黑色。所得图片中白色部分为车牌位置。再采用闭操作,取轮廓等操作获取目标车牌。
3 边缘检测定位
边缘检测是图像处理和计算机视觉中的基本问题,边缘检测的目的是标识数字图像中亮度变化明显的点。而本文采用的是基于垂直边缘的检测方法。因为一般的车牌图片在没经过一定的处理之前车牌边缘都有很多垂直边缘,那么就可以以此来判定车牌的位置。
车牌定位准确率的高低与图片的好坏有着密不可分的关系,如图片的天气,环境等外界环境因素直接影响图片的识别率。所以在进行识别之前必须对车辆图片进行预处理,消除干扰并突出车牌特征。
这里对车辆图片进行车牌边缘检测定位的流程如图3所示:
3.1 高斯模糊
对车辆图片先进行高斯模糊就是把图片中某一点周围的像素色值按高斯曲线统计起来,采用数学上加权平均的计算方法得到这条曲线的色值,最后能够留下物体的轮廓。高斯模糊使图片变得更平滑,去除了干扰的噪声对后面车牌的判断打下了坚实的基础。
3.2 灰度化
将彩色图像转化成为灰度图像的过程称为图像的灰度化处理。彩色图像中的每个像素的颜色有R、G、B三个分量决定,而每个分量有255中值可取,这样一个像素点可以有255*255*255种颜色的变化范围。而灰度图像是R、G、B三个分量相同的一种特殊的彩色图像,也正因为如此,对图像的灰度化处理存在的最大争议就是图像信息的丢失,图像信息的丢失可能使得对车牌的识别变得更加复杂。但对于计算机而言,处理灰度化图像相比于处理彩色图像要更加容易,同时,现在已研究的很多处理图像的算法和技术仅支持对灰度化图像的处理,在现今的科技状况下对图像灰度化处理使我们更便捷地获取所需要的信息。但无疑,对彩色图像直接进行判断更符合人眼识别的规律,更趋近人工智能的本质,也是今后研究的方向与趋势。一般有以下四种方法对彩色图像进行灰度化处理:分量法,最大值法,平均值法,加权平均法。
(1)分量法:将彩色图像中的三分量的亮度作为三个灰度图像的灰度值,可根据应用需要选取一种灰度图像。
其中fk(i,j)(k=1,2,3)为转换后的灰度图像在(i,j)处的灰度值。
(2)最大值法:将彩色图像中的三分量亮度的最大值作为灰度图的灰度值。
(3)平均值法:将彩色图像中的三分量亮度求平均得到一个灰度值。
(4)加权平均法:根据重要性及其他指标,将三个分量以不同的权值进行加权平均。由于人眼对绿色的敏感最高,对蓝色敏感最低,因此,按下式对RGB三分量进行加权平均能得到较合理的灰度图像。
3.3 Sobel算子
Sobel算子是边缘检测定位中的核心算法,用于检测图像的垂直边缘,便于区分车牌。
Sobel算子是一阶导数的边缘检测算子,在算法实现过程中,通过3×3模板作为核与图像中的每个像素点做卷积和运算,如下所示,其中A为原图像,然后选取合适的阈值以提取边缘。
许多学者已经提出了很多图像检测算子,如Sobel算子、Laplace算子、Canny算子等。比较常用的有Sobel算子和Laplace算子。Sobel算子求图像的一阶导数,Laplace算子则是求图像的二阶导数,在通常情况下,也能检测出边缘,不过Laplace算子的检测不分水平和垂直。
3.4 二值化
图像的二值化,就是将图像上的像素点的灰度值设置为0或255,也就是将整个图像呈现出明显的只有黑和白的视觉效果。一幅图像包括目标物体、背景还有噪声,要想从多值的数字图像中直接提取出目标物体,最常用的方法就是设定一个阈值T,用T将图像的数据分成两部分:大于T的像素群和小于T的像素群,然后分别设置为黑白两种颜色,实现了整个图像的二值化。
3.5 闭操作
对二值化图像先进行膨胀运算,其次进行腐烛运算,此组合运算即为图像的闭运算。对二值化图像先进行腐烛运算,其次进行膨胀运算,此组合运算即为图像的开运算。闭操作可使轮廓线更光滑,但与开操作相反的是,闭操作通常消除狭窄的间断和长细的鸿沟,消除小的空洞,并填补轮廓线中的断裂。使用结构元素B对集合A进行闭操作,数学表达为:
这个公式表明,使用结构元素B对集合A的闭操作就是用B对A进行膨胀,然后用B对结果进行腐蚀。
3.6 取轮廓,筛选,角度与尺寸判断
经过上述一系列的图像操作我们可以得到一张包含许多独立图块的图像,取轮廓操作就是将图像中的所有独立的不与外界有交接的图块取出来。然后根据这些轮廓,求这些轮廓的最小外接矩形。尺寸判断操作是对外接矩形进行判断,以判断它们是否是可能的候选车牌的操作。经过尺寸和角度判断,会排除大量由轮廓生成的不合适尺寸的最小外接矩形。接下来需要对剩下的图块进行旋转操作,将倾斜的车牌调整为水平,为后面的车牌判断与字符识别提高成功率的关键环节。最后确定我们要识别的车牌的尺寸。
4 结论
本文提出了两种关于车牌识别中车牌定位的方法,采用改进的HSV颜色模型,准确,快速地对颜色鲜明的车牌进行定位,简化了车牌定位中一些图片处理和特征判断的过程。而另一种方法是边缘检测中垂直边缘定位的方法,垂直边缘的选择让此方法能获得更高的准确率,同时采用图像处理,数学形态学等多种算法强化了图片中的许多特征量,极大提高了垂直边缘的判断。
虽然采用两种定位方法的结合,极大提高了车牌定位的准确率,但仍然有不足之处,需要进一步完善。两种方法都需要较高的图片质量,大量的光暗区域和严重的雨雪天气都会对车牌定位的准确率产生较大的影响。还有如颜色定位中一旦车辆的颜色与车牌的颜色一致,那判断的准确率会大大降低。而第二种方法如果遇到大量垂直边缘的车辆也会造成较大的误差。
摘要:车牌识别技术是智能交通管理系统的关键技术之一,而车牌定位则是车牌识别的实现基础。快速,准确,高鲁棒性的车牌定位技术可以给车牌识别带来极大的辅助。针对车牌定位的问题,研究提出了基于HSV颜色模型的颜色定位方法和通过垂直边缘检测的边缘检测定位这两种方法。两种方法的结合使用不仅实现了车牌快速,准确的定位,更为车牌识别后续的字符分割,字符定位等步骤奠定了坚实的基础。
关键词:车牌定位,图像处理,HSV颜色模型,边缘检测,数学形态学
参考文献
[1]魏平顺.智能交通系统中车标图像识别技术研究[D].南京:南京理工大学,2013.16-25.
[2]李侠.车标定位技术研究[D].大连:辽宁师范大学,2011,16-26.
[3]张闯,孙兴波,陈瑶,等.常用边缘检测技术的对比[J].传感器世界,2013,19(11):20-23.
[4]刘毅,赖晓风.基于边缘检测的图像分割技术浅析[J].电子制作,2013(16):67-67.
[5]罗辉武,唐远炎,王翊,等.基于结构特征和灰度特征的车牌字符识别方法[J].计算机科学,2011,38(11):267-270.
基于微博文本和元数据的话题检测 篇2
随着互联网行业的飞速发展,微博的注册用户数量持续升高,微博变得越来越深入大家的日常生活,成为了互联网用户分享生活、联络关系的一个重要平台。最早的微博应用模式来源于2006 年诞生于美国的twitter,随后中国新浪公司在2009 年推出了新浪微博,自此微博正式进入了中文上网人群的视野。随着微博的出现以及爆炸性发展,刷微博逐渐成为了人们获取信息和发表意见的重要方式,从微博中监控舆论也因此成为一种重要的舆论监控方式。
与传统的新闻文本不同,微博的内容简短,长度一般不超过140 字,因此包含的词语数量较少[1]。微博的文风也不像长篇新闻报道那样正式,它的写法随意,语言丰富多彩,行文措辞不规范。微博具有很强的实时性,针对这种特征对微博内容进行处理分析,可以及时检测事件的发生,发现大众观点,从而进行舆论的监控。传统的新闻话题识别[2,3]一般将长文本中的词语视为特征,先利用特征向量来表示文本,再采用一定的聚类算法根据文本向量间的距离对文本进行聚类,然而由于微博的文本简短、词语稀疏、写法随意、发布实时等特点使得传统的聚类或分类方法在微博话题检测方面变得不再适用。
本文仔细分析了微博的特点,提出一种基于微博文本和元数据的话题发现方法,先进行主题词聚类再对微博文本进行二次聚类。首先从词语的角度出发,而不是从整个微博文本比对的角度,使得单条微博中词语稀疏的问题得以解决,同时也使得热点词语的检测变得更加重要。本文在获取微博数据后,采用中科院的ICTCLAS分词库对微博文本进行分词与词性标注,把一个时间段内所有微博包含的词语集合看成一个整体单元,充分结合微博元数据找到该时间段内的TOP-N个热点词语; 然后计算热点词语在微博文本里共同出现的概率,如果两个词语共同出现概率超过一个阈值则可以确定它们之间的语义关系,根据这些关系可以构造出一个N顶点图,由图得到主题词汇簇;最后基于主题词汇簇对微博文本进行二次聚类,从而得到微博中的隐含话题以及相关的微博文本。
1 相关研究
话题检测旨在将输入的报道归入不同的话题簇,本质上等同于无指导的聚类。常用的聚类方法有单通道聚类、凝聚式聚类、层次聚类、增量聚类和K-Means聚类等。CMU的Y. Yang和UMASS的J. Allan等人运用单路径聚类方式实现了话题检测[4; 5]。而CMU的Yiming Yang结合了凝聚式聚类算法与平均聚类算法,使TD系统同时可以用于回顾相关事件[6]。虽然以上算法在特征丰富的传统长文本中取得了不错的效果,但并不适合特征稀疏的短文本类型。随着微博的兴起,针对微博话题检测的研究也越来越多。Changchun Yang等人针对微博的特性使用LSI模型达到降维和去噪的目的[7]。Silong Zhang等人利用LDA来拓展文本特征空间,基于上下文相似度和语义相似度在微博话题检测中取得了不错的效果[8]。上述两种方法都起到了数据降维的作用,并在一定程度上解决了微博特征稀疏的问题,但效果并不明显。之后赖锦辉等人提出了一种消除孤立点的微博热点话题发现方法[9],该方法可以较大程度上提高话题检测的准确性,但文本特征稀疏的问题仍未得到很好的解决。Wenqing Zhao等人不再从微博文本相似度比对的角度出发,而是根据一段时间内词语的变化检测话题,提出了一种基于词共现图的中文微博话题识别方法,从而较好地解决了短文本特征稀疏的问题,更适用于微博的话题检测[10]。之后Suzhi Xue等人对微博话题发现问题引入了二元组的时间序列,提出了基于速度增长的微博热点话题发现方法[11]。微博时间的引入提高了热点话题发现的准确度。Feifei Peng等人则在研究中引入了微博的转发评论量作为热点词语的修正权值,但是他们对微博元数据的考虑还不够充分[12],比如对发布微博者的用户信息的考量。具有不同影响力的用户发布的微博应拥有不同的权值,用户信息的引入将更为有效的提高微博话题检测的准确率。
本文首先从词语的角度出发,与从整个微博文本比对的角度不同,充分利用微博发布时间、用户信息、微博转发评论等元数据来构造描述微博词汇能量的复合权值,找到TOP-N个能量最高的热点词语; 然后基于上下文关系对热点词语构造主题词汇簇; 最后基于主题词汇簇对微博文本进行二次聚类,从而得到微博中的隐含话题以及相关的微博文本。
2 微博话题检测算法
本文采取的基于微博文本和元数据的话题检测算法主要包括以下步骤: 收集数据和数据预处理,结合微博元数据发现热点词语,聚类出主题词汇簇,微博文本二次聚类,聚类效果分析。微博话题检测算法流程图如图1 所示。
2. 1 数据预处理和分词
数据预处理和分词作为微博话题检测的准备工作,有着不可忽视的作用。数据预处理能在一定程度上达到去噪、降维的目的,同时在一定程度上解决了特征稀疏的问题。文本分词效果的好坏则在很大程度上决定着后期的聚类效果。该过程的具体步骤如下:
( 1) 过滤掉互粉人数低于阈值F的用户的微博文本。如果互粉人数过低的一般可以认为是广告账号或者僵尸账号,这些账号所发的微博噪音过大,会对后面的聚类产生干扰,因此提前过滤掉。
( 2) 因为微博文本中常常包含@ 符号,它表示该条微博想让@ 的用户看到。这些用户名可能会对我们后面的分词产生影响,而且用户名并不能表征出微博中所说的话题,因此过滤掉文本中的“@ 用户”。
( 3) 将微博的评论信息和原始微博文本信息进行合并。对一条微博的评论可以看成是对该微博的补充,它们叙说的一般是同一话题。微博与其评论的合并使得文本长度增加,文本包含词语数增多,一定程度上解决了短文本特征稀疏的问题。
( 4) 有不少较为成熟的中文分词算法和工具,本文采用的是中科院的ICTCLAS分词系统的JAVA版本。该工具因分词效果好、使用简单、带有详细词性标注等特点而被广泛应用于科研工作中。通过该分词系统分词后,微博文本转化为一系列的词语,每个词语都带有词性标注,如动词、名词、形容词、副词等等。不同词性的词语对主题表达的贡献程度不同,其中动词和名词具有最高的主题辨识度,因此本文中将主要考虑这两种词性的词语,过滤掉其他词性的词语。
2. 2 热点词检测
我们发现在之前的研究中多采用单纯的词频方式,而忽略了微博所特有的一些元数据,这些元数据包括该条微博的转发量、评论量和微博的用户属性等。一个拥有大量粉丝、经常发布微博的加V用户的微博影响力应比只有少量粉丝、不经常使用用户的微博影响力大。因此在计算微博能量的时候不仅要考虑微博的转发量和评论量,而且要考虑微博发布者的用户属性。微博的能量公式如下:
其中numreplies表示微博的评论数量,numretransmits表示微博的转发数量,u( U) 表示用户信息的影响权值,k表示微博能量。其中u( U) 的计算方式如下:
根据U值的范围决定u( U) 的最终取值。其中U的计算方式如下:
其中numfollowers表示微博用户的粉丝量,numstatuses表示微博用户发布的微博数量,numbi_followers表示微博用户的互粉好友的数量,v用于表示用户是否为认证用户,如果是认证用户则v为100,否则为0。
每条微博文本分词后,词语的出现量将乘以参数k。例如一条关于“中国好声音”的微博文本中“歌曲”这个词语出现了2 次,则这条微博中“歌曲”这个词语的加权出现量将为2k个。
实时性是微博的一个重要特征,微博中热门话题会随着时间的变化而改变。比如关于“李天一案件”的微博文本数量随着时间的变化先增后减,在案件开庭前后的相关微博文本数量最多,这说明了微博是有历史属性的。因此我们不仅要考虑一个时间段内微博词语的出现量,而且要考虑两个连续时间段相同词语出现量的变化。把词语的增长或者减少趋势考虑进来,从而得到关于词语出现量的时间权值t,计算方式如下:
其中numword_now表示当前时间段内词语word的出现量,numword_past表示过去一个时间段内词语word的出现量。如果当前时间段比过去时间段的相应词语多,则t的值大于1,否则小于1。词语最终得分公式如下:
其中t为时间权值,ki为第i条微博的能量,numword_i为第i条微博词语word的出现量,M为微博的总条数。之后根据词语得分进行降序排列得到一个序列,该序列具有明显的长尾现象,得分较低的词语占据了序列的绝大部分,因此只需取top-N个词语作为当前的热点词语。这些热点词语很有可能决定了当前微博的隐含话题,称其为主题词。
2. 3 主题词聚类
如果在一个大规模的语料库中,2 个词语经常出现在同一个单元中( 例如一句话、一段文字、一篇文章等) ,则可以认为这两个词语的组合比较稳定,在语义上存在关联。词语的共现率越高,代表它们之间的关联性越强。每个微博文本可以理解为一个简短的自然段或者文章,当两个词语经常出现在一个微博中时,则可以认为这两个词语存在语义上的关联。
不同主题词在文本中共同出现的现象称为主题词的共现,而存在主题词共现现象的微博文本在总文本中的比率称为主题词的共现率。比如,一共有1000 个微博文本,主题词A和主题词B在其中的100 个微博中同时出现,则主题词A和主题词B的共现率为0. 1。把所有主题词当作点,当两个主题词的共现率超过阈值F时,就连接两点建立边,最终得到一个非连通图。该图中的每个连通子图构成了一个主题词汇簇,由此得到所有的主题词汇簇。
如图2 所示,每一个黑色的圆点代表一个主题词,圆点之间连接的边代表两个主题词共现率超过了阈值F。每一个连通的图构成了一个主题词汇簇,例如图中word 1 - word 4 为一个主题词汇簇,word 5 - word 8 为另一个主题词汇簇,二者分别用于确定一个话题。主题词聚类算法流程图如图3 所示,具体描述如下:
输入:top-N个主题词和主题词之间的共现率
输出:多个主题词汇簇
步骤1 以第一个主题词作为初始簇的第一个词语;
步骤2 输入下一个主题词,分别计算该主题词与每个词汇簇中所有词语的共现率的平均值,并找到最大的平均共现率K,以及对应的词汇簇X;
步骤3 判断最大平均共现率K是否超过阈值F,如果超过则主题词归入词汇簇X; 否则生成一个包含该主题词的新词汇簇;
步骤4 读取top-N列表里的下一个主题词。重复步骤2、步骤3 直到列表里的每个主题词都划入相应的簇中;
步骤5 输出结果。
2. 4 微博文本二次聚类
前面得到的主题词汇簇即可用来确定一个话题原型,词汇簇中包含的主题词具有较好的话题区分度。把微博文本中的每个词语当成一个元素,微博文本可以转化成一个包含n个元素的微博向量t( a1,a2,…,ak,…,an) ,其中下标1 ~ n对应top-N个主题词,ak( 1≤k≤n) 为对应主题词是否存在的逻辑值,如果存在则为1,否则为0。同理,由多个主题词构成的主题词汇簇也可以转换为包含n个元素的主题词汇簇向量w( b1,b2,…,bk,…,bn) 。由向量t和向量w可以求出它们之间的夹角余弦值,夹角余弦值越大代表向量间的相似度越高,而微博向量与主题词汇簇向量的相似度越高,代表微博文本离主题词汇簇越近。根据微博向量和主题词汇簇向量相似度的大小来确定微博文本应该划入哪个主题词汇簇中。微博文本二次聚类算法流程如图4 所示,具体描述如下:
输入: 主题词汇簇和微博文本
输出: 每条微博文本所属的主题词汇簇
步骤1 所有的主题词汇簇转换为主题词汇簇向量;
步骤2 输入一条微博文本,转换为微博向量。计算微博向量与各个主题词汇簇向量的相似度,找到最大相似度simmax和对应的主题词汇簇向量W;
步骤3 判断最大相似度simmax是否超过阈值G,如果超过则将微博向量对应的微博文本划入主题词汇簇向量W对应的主题词汇簇中; 否则该微博不属于任何一个热门话题;
步骤4 重复执行步骤2、步骤3 直到所有微博文本都判断完成;
步骤5 输出结果。
3 实验
本文实验环境为Intel Core i5 - 2400 3. 10 GHz CPU、4 GB内存、500 GB硬盘的PC机。操作系统为Win7,实验工具为eclipse3. 7. 2,JDK版本为1. 7. 0。实验所采用的原始数据集来自于数据堂,内容包括新浪微博几天内与15 个话题相关的4 千多条微博。每条微博都已标注了所属的话题,话题包括“斯诺登棱镜事件”、“李天一案件”等。然后使用新浪微博官方API提取与这些微博相关的元数据,例如微博发布者的用户信息,微博的转发评论数量等。
3. 1 主题词聚类结果分析
主题词聚类为本文话题检测方法的一个重要部分。对实验数据集进行数据预处理、分词和热点词检测,得到top-N个主题词以及这些主题词之间的共现率。把这些主题词以及它们之间的共现率作为微博主题词聚类算法的输入,得到多个主题词汇簇。每个主题词汇簇有着不同的能量值,首先对每个主题词汇簇中包含的主题词的能量进行加和运算以得到该主题词汇簇的能量值,然后将其排序,最后选取数值超过阈值J的主题词汇簇,结果如表1 所示。
从表1 可以看出通过主题词聚类得到的主题词汇簇和对应的话题高度吻合,例如话题“李天一案件”对应的主题词汇簇里的“律师”、“轮奸”、“受害人”等主题词都明显与该话题高度相关。而且主题词汇簇的数量刚好为15 个,与所选的实验数据集中话题的数量一致并且逐一对应,因此可以看出本文采用的主题词聚类算法取得了较好的效果。
3. 2 微博文本二次聚类结果分析
传统的话题检测多采用聚类算法,结合文本间相似度进行聚类。经典聚类算法包括single Pass、kmeans等,它们虽然在传统长文本上取得了不错效果,但是在微博这种短文本上效果却不佳。而单纯基于词频的话题检测虽然适合特征稀疏的短文本,但未考虑微博特有元数据对微博能量的影响。本文提出的方法将微博文本和主题词汇簇作为输入,经过微博文本二次聚类算法得到最终的话题检测结果。为了验证本文所述方法更适合微博的话题检测,将本文方法与single Pass聚类方法、kmeans聚类方法和单纯基于词频方法进行效果评价,结果如图5、图6所示。评价指标为查全率、准确率、漏检率和错检率,各个参数的计算方法如下:
其中a为检测到的话题相关微博文本数; b为检测到的话题不相关微博文本数; c为未检测到的话题相关微博文本数。
由图5 所示: single Pass聚类的准确率和查全率都明显不如本文方法; kmeans聚类虽然由于本身算法特点使得查全率为百分百,但准确率却比本文方法低了很多; 单纯基于词频的话题检测方法由于未考虑微博元数据对微博能量的影响,准确率和查全率不如本文方法。
由图6 所示: 本文方法的错检率相比较其他方法有所下降,特别是对比传统的single Pass聚类和kmeans聚类方式; 本文方法的漏检率相比较single Pass聚类和词频方法也有所降低。
综上所述,本文采用的话题检测方法在实验数据集上取得了较好的效果。
4 结语
微博热点话题的识别有着重要的应用价值,本文在仔细分析微博的特有属性后,提出了一种基于微博文本和元数据的话题发现方法,先进行主题词聚类再对微博文本进行二次聚类。通过数据预处理、分词、发现热点词语、基于上下文关系聚类出主题词汇簇、微博文本二次聚类等步骤最终得到微博中的隐含话题以及相关的微博文本。基于真实数据的实验结果证明了该方法的有效性,但是该方法受限于文本的数量,在大数据时代,实际的数据量往往是TB级,甚至PB级。为了保证算法的效率,有必要将算法移植到分布式平台下并行处理。在保证效率的同时,准确率和查全率的提升也是本文后续研究的重点。
摘要:在微博热点话题发现中,微博文本短、词量少、时效性高,传统的话题检测方法不再适用。针对这些新的特点,提出一种基于微博文本和元数据的话题发现方法。首先利用微博发布时间、用户信息、微博转发评论等元数据构造描述微博词汇能量的复合权值,进而提取出话题的主题词汇,然后基于上下文关系构造主题词汇簇,最后对微博文本进行二次聚类,从而得到微博中的隐含话题以及相关微博文本。在真实微博数据上的实验表明,该方法能有效发现热门话题,提高话题检测的准确率和查全率。
关键词:微博,元数据,聚类,话题检测
参考文献
[1]Kwak H,Lee C,Park H,et al.What is Twitter,a social network or a news media?[C]//Proceedings of the 19th international conference on World wide web,2010:591-600.
[2]Mori M,Miura T,Shioya I.Topic detection and tracking for news web pages[C]//Proceedings of the 2006 IEEE/WIC/ACM International Conference on Web Intelligence,2006:338-342.
[3]Allan J,Carbonell J G,Doddington G,et al.Topic detection and tracking pilot study final report[R].UMass Amherst,1998.
[4]Yang Y,Carbonell J,Brown R,et al.Multi-strategy learning for topic detection and tracking[M].Topic detection and tracking.Springer US,2002:85-114.
[5]Allan J,Lavrenko V,Swan R.Explorations within topic tracking and detection[M].Topic detection and tracking.Springer US,2002:197-224.
[6]Yang Y,Pierce T,Carbonell J.A study of retrospective and on-line event detection[C]//Proceedings of the 21st annual international ACM SIGIR conference on Research and development in information retrieval,1998:28-36.
[7]Yang C,Yang J,Ding H,et al.A Hot Topic Detection Approach on Chinese Microblogging[C]//Proceedings of the International Conference on Information Engineering and Applications(IEA)2012,2013:411-420.
[8]Zhang S,Luo J,Liu Y,et al.Hotspots detection on microblog[C]//Multimedia Information Networking and Security(MINES),2012Fourth International Conference on,2012:922-925.
[9]赖锦辉,梁松.一种消除孤立点的微博热点话题发现方法[J].计算机应用与软件,2014,31(1):105-107,139.
[10]赵文清,侯小可.基于词共现图的中文微博新闻话题识别[J].智能系统学报,2012,7(5):444-449.
[11]薛素芝,鲁燃,任圆圆.基于速度增长的微博热点话题发现[J].计算机应用研究,2013,30(9):2598-2601.
复杂背景下的车体检测和定位 篇3
车牌识别 (License Plate Recognition, LPR) 系统, 是智能交通系统 (Intelligent Transportation System, 简称ITS) 的重要组成部分, 是交通管理自动化的重要手段和车辆检测系统的一个重要环节, 在交通监视和控制中占有很重要的地位。一般可顺序地分为车辆图像获取、车体检测和定位、车牌定位、车牌字符分割和车牌字符识别5个基本部分。
目前的车牌识别方法主要是针对车辆自动注册和收费、停车场管理等场合, 所监视区域的背景一般比较简单。而实际应用中, 所监视的区域往往比较复杂, 普通的车牌识别算法显然不能满足要求。而应用复杂背景下的车牌识别技术, 则能够从各个方位很好的监控过往车辆, 大大提高对超速、失窃、黑牌等车辆的监控力度, 从而保障社会安全稳定, 其实际应用价值非常巨大。
1 车体检测和定位的研究现状
对于复杂背景下的车牌识别研究, 车体检测是非常重要的一步。传统车辆检测器有磁感应线圈、雷达、超声波、红外线等, 但是均有着诸多缺点和局限。随着计算机和图像处理技术的不断发展, 利用机器视觉检测器来进行车辆检测成为潮流的发展方向。
目前的车体检测算法, 大多是基于视频的。首先由摄像头拍摄得到实时交通场景的视频序列图像, 然后对序列图像进行感兴趣区域 (Region of Interesting, RoI) 提取, 其方法主要有帧差法、背景差法等。
帧差法将两帧 (或多帧) 连续图像逐像素相减, 以去除静止或移动缓慢的物体及背景, 它是消除两帧连续图像中的静止物体以及提供运动物体 (车辆) 运动轨迹最直接的方法。如Kameda采用概率统计的方法通过三帧连续图像间的运动信息找出RoI。Paragios等人则利用基于空间Markov随机场的连续帧图像间的差值统计量来描述帧间差异。
背景差法的基本思想是先形成交通场景的背景图像, 然后将待检测图像与背景图像逐像素相减 (理想情况下的差值图像中非零像素点就表示了运动物体) , 进而就可运用阈值方法将运动物体从背景中分离出来, 其中最常用的方法是多帧平均 (Frame Averaging) 法和选择更新 (Selective Updating) 法。
鉴于交通情况的复杂性, 在同一幅图像中不仅会出现路标、广告牌等物体, 也可能会出现行人等运动物体的干扰, 甚至可能会同时出现多个车辆, 而车辆之间有可能出现粘连现象, 使得大多数的算法都有其局限性, 复杂背景下的车体检测和定位技术仍需进一步改进。
2 复杂背景下瞬时差分法检测和定位车体
对于车牌识别, 特别是复杂背景下的车牌识别, 车体检测是进行识别的第一步。检测到车体后, 才能更准确的定位车牌。车体检测的方法很多, 考虑到目标识别系统的实时性要求, 本文在保证能很好的检测车体的前提下, 并不强调用最精确的车体检测方法, 因为精确的定位算法往往意味着所降低系统的实时性。
本文提出用瞬时块差分法来检测车体, 主要思想是对视频序列中连续两帧图像做以点为中心, 基于块差分的变化检测来定位车体。
2.1 经典瞬时差分法
瞬时差分法主要是利用视频序列中连续的两帧或几帧图像的差异来进行目标检测和提取。一个最基本的瞬时差分法的基本过程如图1:
首先, 利用公式1计算第k帧图像与第k-1帧图像之间的差别, 得到差分后的图像 , 然后对差分后图像进行二值化, 当差分图像中某一像素值大于某一给定的阈值时, 则认为该像素为目标像素, 即认为该像素可能为目标上的一点, 反之则认为是背景像素。在对差分图像 二值化后得到 , 最后对图像 进行连通性分析, 当某一连通的区域的面积大于某一给定的阈值, 则检测到目标, 并认为该区域就为目标所占的区域。
基于瞬时差分的两相邻帧差的方法进行目标检测和分割, 算法复杂度低, 便于实时使用。由于相邻帧的时间间隔一般较短, 因此该方法对场景光线的变化一般不太敏感。但是它提取目标的结果不令人满意。在跟踪任务中, 希望提取的目标尽量接近目标的真实形状, 也就是说, 提取出的目标应是完整的, 同时也应该尽量少的包括背景图像。基于瞬时差分的检测方法不可能从根本上解决精确分割目标的问题, 以下将介绍一种改进的基于瞬时差分的检测方法。
2.2 改进的瞬时差分法
对于复杂背景下的车体检测, 由于车体目标较大, 因此其检测相对容易, 关键是要快速检测出图像的运动区域和非运动区域, 并定位出车体。因此, 本文对瞬时差分法做些改进, 使得算法能够在保证实时性的前提下提高精确度。
经典的瞬时差分法是基于点差异的变化检测的, 提取目标的精度以及完整性可能不令人满意。为了突出灰度值的变化, 提高检测精度, 提取更接近真实的目标, 本文对经典法进行改进。改成以点为中心的基于块差分的变化检测, 并取差分的平方, 以加强运动像素与非运动像素的灰度反差。这里采用以点为中心的3 3 框架作为差分区域, 取该区域的灰度均值做差分 (如图2-4) 。差分过程则和经典差分法相似:
D′k (x, y) =|f′k (x, y) -f′k-1 (x, y) |2
其中, f′k (x, y) 为该点的差分区域的灰度均值。
对差分图像进行滤波及膨胀操作 (如图5) , 再根据连通域外接矩形的面积进行过滤并定位车体 (如图6) , 最后分割出车体 (如图7) 。
值得注意的是, 本算法可以用于复杂背景下的多车体检测, 同时检测多个车辆。对于各连通区域的外接矩形, 设定一个阈值, 矩形面积大于该阈值的即判定为车体。再针对不同的车体模块, 分别进行下一步的车牌定位处理。
3 结语
本文概述了运动目标的提取方法和瞬时差分法, 并针对复杂背景下的车辆检测, 对瞬时差分法加以改进。改进的瞬时差分法能够在保证实时性的前提下, 提高车体检测的精确度, 以提取更真实的目标。实验证明, 该算法具有很好的检测效果。
摘要:采用瞬时块差分法来检测车体, 通过对视频序列中连续两帧图像做以点为中心的3 3框架的块差分, 并取差分的平方以加强运动信息, 然后利用滤波、膨胀等技术准确定位车体。实验表明该算法具有很好的检测效果。
关键词:复杂背景,车体检测和定位,差分法
参考文献
[1]Paragios N., Deriche R..Geodesic Active Contours and LevelSets for the Detection and Tracking of Moving Objects[J].In:Proc.IEEE Transactions on Pattern Analysis and Machine Intel-ligence, 2000, 22 (3) :266-280.
[2]陈子辉, 王丽, 郁有建.基于背景差分与时域差分相结合的运动检测算法[J].天津城市建设学院学报, 2009, 15 (4) :297-300.
[3]Hoose N..AnImage Analysis Tool for Motor Way analysis and Sur-veillance[J].Traffic Engineering Control, 1992, 23 (4) :140-147.
网球视频中记分牌的检测和定位 篇4
由于网球视频的可观赏性和巨大的经济潜力[1], 如何从大量的网球视频中检索有用的数据, 已经成为学者的重要研究方向。在网球视频中, 记分牌的比分对网球比赛标注和检索意义重大。一是它能够提供比赛双方的标识名;二是可以根据比赛分值的变化和网球规则来标注出比赛中所有盘局的具体位置;三是通过识别记分牌上的特殊字符串“AD”, 不但能标注出打AD球事件还可以反映比赛的激烈程度;四是利用记分牌上的得分差距可统计破发点数和打关键球事件发生的位置等。而记分牌的检测和定位是获得记分牌比分的基础。
在记分牌的检测上国内外一些学者也进行了研究, Hsieh等人在棒球比赛中提出了模板匹配法[2]进行记分牌检测, 但需要事先存储记分牌模版, 由于不同媒体不同时期会产生不同记分牌就加大了检测难度。北京工业大学陈世举等人在篮球比赛中利用多维相关性分析和提取边缘[3]来检测记分牌, 但是网球比赛中场地线边缘明显且频繁地出现在记分牌周围, 严重影响记分牌的准确检测和定位。清华大学部凡等人在足球比赛中提出了连续帧的强度方差来检测记分牌[4], 而网球视频中场地和记分牌同时出现在同一帧的概率非常大, 连续帧的强度方差不能很好地区别场地和记分牌, 因此这种方法不利于网球比赛中记分牌的检测。
本文提出一种新的方法能准确检测和定位网球中的记分牌, 首先分析了网球比赛记分牌的特点, 然后提出了基于角点区域直方图的方法, 最后对实验进行展示和分析。实验结果表明该方法对网球中的记分牌检测和定位效果明显。
1 记分牌的特点
在一场网球比赛视频中, 记分牌一般是视频直播编辑工作者通过人工的方法加到特定的帧上, 属于视频叠加信息的范畴。记分牌一般具有以下特点[5]:
(1) 同一场比赛记分牌的形状比较规则, 并且在帧中的位置固定;
(2) 记分牌所在的帧占整个视频帧的60%左右;
(3) 记分牌的背景颜色的透明度有多种形式;
(4) 记分牌中所含的图像细节分量较多, 边缘和角点丰富;
(5) 当比赛产生盘局时记分牌会增长, 在球员休息或者交换场地时可能变短也可能消失;
(6) 比赛的记分牌前一半部分是用于显示比赛双方的标识名也叫记分牌不变区域, 在整个视频当中完全相同。
2 角点区域直方图的提出及定义
直方图[5]是一种重要的频率分布图, 除了反映图像的某些特定问题, 还用于图像的相似度度量上。直方图通常有灰度直方图、颜色直方图和颜色相关直方图等, 但这些只是表达图像中颜色和亮度的特性, 在实际应用中往往同一个物体由于受人为因素和外界因素综合影响下, 存在颜色、亮度和透明度的差异性, 这些直方图就不能很好地表征这个物体。角点[6,7] (也称兴趣点) 虽然目前还没有明确的定义, 但普遍认为角点是二维图像亮度变化剧烈的点或图像边缘曲线上曲率极大值的点。这些点保留了图像图形的重要特征, 在人类视觉与机器视觉中都具有着重要的作用, 其信息的含量很高有利于图像的可靠匹配。利用图像的角点特征构造成一个直方图, 将会为研究工作者提供一个很好的研究工具, 下面要构造一种新的关于角点的直方图。
在一幅图像中, 由于颜色取值的多样性, 可以在每个像素点取值基础上获得颜色直方图, 而对角点来说, 每个像素点的取值只能为两个, 是角点和不是角点, 因此在像素点上构造一个实用的和角点有关的直方图是不可能的。考虑到后续的应用我们定义了基于角点区域的直方图, 将图像分割成N×M个小块, N、M分别为图像的高度和宽度的N和M等份, 假设I表示整个图像的全部像素, I以一维数组形式存储, 角点区域直方图可以表示为:
其中i∈{1, 2, …, N}, k∈{1, 2, …, m}, K∈{1, 2, …, M};p (i, k) 表示第i个区域第k个像素点;p (K) 表示整个图像区域第K个像素点;Cp (i, k) 和Cp (K) 均表示统计该区域下角点的个数。第i区域是指图像N和M等份分割成N×M个小块后, 从左到右、从上到下的第i子区域。整个公式表达的含义是第i区域内角点的个数占整个图像区域角点个数的概率。由于记分牌中的标识名部分只有二行, 本文中的实验N取2, M取15, 构建30维角点区域直方图。角点的检测算法有很多种, 其中Harris算法[8,9,10]对图像的灰度函数进行了一阶导数, 使各个方向的变化都包含进去, 克服了其他算法对边缘的敏感性, 本文中选取的就是Harris算法。图1是某一场比赛的记分牌区域的截图, 其中用绿色矩形框定的是记分牌不变区域。图2是不变区域对应的角点区域直方图。通过对比图1和图2可以发现角点区域直方图确实能很好地表达物体的特征。
3 记分牌检测和定位算法
记分牌检测和定位算法包括四个阶段:第一阶段, 记分牌上不变区域的定位;第二个阶段, 模板匹配算法的选取;第三阶段, 记分牌不变区域模板的建立和模板匹配时的自适应阈值的获取;第四阶段, 对帧序列进行模板匹配, 匹配成功的帧进行精确定位。
3.1 记分牌上不变区域的定位
不变区域的定位是后续模板构建的基础, 其算法的基本步骤为:
(1) 从网球视频中抽取n帧。由于网球比赛开始会有一些对球员基本信息进行介绍的镜头, 这些镜头不出现记分牌。为了更准确定位记分牌的位置, n帧抽取的方法为:从整场比赛的1/3时长处开始抽帧, 每隔一分钟抽一帧共取n帧, 实验中n的取值为50;
(2) 粗定位区域的确定。为了减少计算量和提高运算速度, 根据记分牌的特点 (1) 可以初步确定一个定位区域。例如在视频帧左下角, 取高度为帧高的0.25倍, 宽度为帧宽的0.5倍的矩形区域;
(3) 特征的提取。前言中对陈世举等人做的记分牌定位分析得知不能使用边缘作为帧的特征, 而记分牌特点 (3) 表明选择颜色作为特征不会很理想, 再结合特点 (4) 可选用角点作为特征来进行研究;
(4) 记分牌不变区域的确定。对每一帧的粗定位区域进行角点检测形成二维数组Ai, 数组中只有二种类型的数据1和0, 其中1表示该点为角点。把n个Ai进行对应位置相加, 会发现相加之后的数组As记分牌处的数值明显大于周边的值, 可通过设一个阈值T来确定记分牌上不变的区域位置。实验室中阈值取As中最大值的0.8倍;
(5) 记分牌不变矩形区域的起始点坐标以及宽度和高度的确定。从上而下行扫描数组As, 统计同一行上大于T的个数Ci, 如果Ci大于15那么该行记为记分牌的起始行X1, 同理从下而上行描数组As得到记分牌的结束行X2。自左向右列扫描数组As, 统计同一列上大于T的个数Cj, 如果Cj大于X2与X1差值的一半, 那么该列记为记分牌的起始列Y1, 同理自右向左行描数组As得到记分牌的结束列Y2;则记分牌的起始坐标可表示为 (X1, Y1) , 宽度为Y2与Y1的差值, 高度为X2与X1的差值。
3.2 模板匹配算法的选取
所提取的特征大多数都可以表示成向量[11]的形式, 因此常用的相似度比较方法都是基于向量空间模型, 采用几何距离作为相似度度量, 即将特征看作是向量空间中的点, 通过计算二个点之间的接近程度来衡量特征间的相似度, 常用的方法[12]有欧式距离、二次式距离、马氏距离等等。
以上介绍的几种相似度度量方法中每个特征值的重要性是一样, 由于网球中记分牌在区域分割时, 一部分区域会出现角点个数为0或者角点个数特别少情形, 而这些区域在模板匹配时, 对整个记分牌影响较小。基于上述特点本文选择了加权欧式距离[13]作为模板匹配时度量的方法。加权欧式距离的公式为:
其中w1, w2, …, wn表示相应特征值的权重, 权重越大表示该特征值越重要。事实证明加权欧式距离能较好地反映二个向量的相似程度, 但是权重选取特别的困难。本文提出的角点区域直方图, 其某一维的特征值是反映某一区域角点数占整个区域角点数的比例, 实际上这个比例在一定程度也反映了该区域的重要程度, 那么本文权重选取是特征值乘以角点区域直方图的维数。权值wi的公式为:wi=Hc (ik, K) ×N, 其中N为角点区域直方图的维数。
3.3 模板建立和自适应阈值的获取
记分牌特点 (5) 体现记分牌或隐或现这个特点, 加大检测的难度, 这时特点 (6) 就显得重要, 由于记分牌的不变区域一直不变, 可为其建立模板, 用匹配法来断定某一帧中是否含有记分牌, 从而加快了记分牌的检测速度。
样本在一定的程度上也反映整体的性质, 样本的模板可视为整体的模板, 样本获取的匹配阈值可视为整体的阈值。根据记分牌的特点 (2) 可以得出样本中含记分牌的帧也占整个样本的60%左右, 而这些帧的记分牌中不变区域极其的相似, 下面的算法就是充分利用这个特点进行模板建立和自适应阈值的获取。为了保证样本能正确反映整体的性质和减少数据的运算量, 本文中样本是这样抽取的:从视频的第一帧开始, 每隔一分钟抽取一帧, 直到视频结束。模板建立和阈值的获取的算法如下:
首先对算法作初始化工作: (1) 得到抽取样本中所有帧的角点区域直方图Hs; (2) 定义变量Threshold, 表示可比较的阈值, 初始值为0; (3) 定义变量less Count、more Count分别表示统计Hs中某个直方图与其他直方图的加权欧式距离小于等于和大于Threshod时的个数, 初始值都为0; (4) 定义变量i、j, 分别为Hs中第i和第j帧, 其中i和j不相同, 初始值都为0; (5) 定义变量length和size, 初始值分别为Hs的长度和Hs的长度的0.4倍; (6) 定义变量histogram Sum, 存放直方图累加的结果。
算法的伪代码如下:
算法执行完毕得到的角点区域直方图均值为所求的模板, Threshold为二个角点区域直方图加权欧式距离后所参照比较的阈值, 比较结果小于阈值的说明这二个直方图相似, 比较结果小于等于阈值的说明这二个直方图不相似。
3.4 模板匹配和精确定位
按照时间顺序对每一幅网球视频帧中记分牌不变区域的位置进行角点区域直方图提取, 计算提取出的角点区域直方图和模板的加权欧式距离, 如果加权欧式距离小于等于阈值Threshold那么这一帧含有记分牌下一步将要对该帧作记分牌精确定位处理。
考虑到记分牌在整个网球比赛中是变长的, 对含有记分牌的帧使用滑动窗口来实现记分牌的精确定位, 具体步骤如下:
(1) 对帧中的记分牌粗定位区域进行角点检测;
(2) 在该帧中确定记分牌不变区域A。初始化滑动窗口, 高度为A的高度, 宽度为10个像素点, 左边框线为A的右边框线。自左向右滑动窗口, 步长为一个像点的距离;
(3) 每次滑动窗口时, 统计窗口内的角点数目。如果统计的角点数目小于滑动窗口高度的像素点数时, 记下此时的窗口的左边框线Y3, Y3就为所求的记分牌的右边框线;
(4) 对确定好的记分牌用绿色矩形框框定。
4 实验结果和分析
为了验证本文中提出的算法和思想, 实验中使用的数据源如表1所示。
4.1 记分牌定位结果展示
考虑到视频帧的播放速率为15帧/秒—25帧/秒, 而记分牌上的得分至少5秒之后才能改变, 没有必要把视频中所有的帧抽取出来, 实验时每2秒抽取一帧。对上面的每一场比赛都选取了含有记分牌的第一帧和最后一帧来作说明, 记分牌部分是用绿色矩形框进行框定的, 实验的定位结果如图3-图6所示。
从上面的图示可知本文使用的方法对记分牌的定位有着较好的准确度。
4.2 记分牌检测结果和分析
在记分牌不变区域定位好的情况下, 对以上四场比赛分别使用了灰度直方图、颜色直方图、颜色相关直方图和本文提出的角点区域直方图作模板进行记分牌检测对照, 对照结果如表2-表5所示。
表中的误检数是统计检测出所有帧中误检帧的个数, 其中误检帧为不含有记分牌的帧被误检测为含有记分牌的帧。从上面的实验结果来看, 颜色直方图对没有透明度的记分牌检测效果较好, 而对有透明度的记分牌敏感, 会造成一些漏检和误检, 检测效果不是太理想。相比之下角点区域直方图具有鲁棒性对有无透明度的记分牌检测均能取得很好的效果。
5 结语
通过对网球比赛的分析, 本文定义了角点区域直方图, 并把这一方法应用到网球视频中记分牌的检测和定位当中, 并通过4组实验进行对照, 实验表明角点直方图在具有一定透明度的记分牌的检测上, 效果优于其他三种直方图, 这一点体现了它的鲁棒性。另外, 提出角点区域直方图是这篇文章的创新点和亮点, 它有别于其他直方图, 尤其在作直方图相似度匹配时, 能够很好地与加权欧式距离进行结合, 这一点本文的3.2节进行了很好的说明。
摘要:为了在网球视频中精确地检测和定位记分牌, 在总结和分析网球记分牌特点基础上, 提出角点区域直方图的概念并利用其进行记分牌的检测和定位。首先通过角点和角点区域直方图获得记分牌模板, 其次根据自适应阈值进行模板匹配检测记分牌;最后利用滑动窗口对记分牌进行精确定位。实验结果表明该方法查全率和查准率都达到了99%以上, 且对有一定透明度的记分牌也有明显的效果。
文本检测和定位论文 篇5
随着信息技术的发展,人们越来越愿意通过信息技术来解决日常工作中遇到的繁重和重复的问题。车辆牌照的识别技术是图像处理和图像识别在交通领域重要的应用,车辆牌照的准确定位是识别技术中的关键,也是本文重点讨论的对象,它主要包括两方面的工作:首先是对抓取到的车辆的图片进行图像预处理,运用数字图像处理技术进行图片格式的识别、灰度化、边缘检测、膨胀腐蚀、二值化[1,2]等处理。其次是利用不同的算法在已经处理好的图片上准确地定位出车牌的位置,并将车牌位置从整幅图片中分割出来,为下一步的字符切割做好准备。
1 车牌定位
1.1 车牌的特征
车辆牌照本身具有明显的特征,目前我国现行的GA36-2007标准规定了车辆牌照统一特征参数:
(1)颜色:蓝底白字、黄底黑字、白底黑字(红字)。
(2)尺寸:车牌外轮廓为440 mm×140 mm的矩形,字符高度90 mm、宽45 mm,字符间隔12 mm,间隔符宽10 mm。
(3)字符:共7个字符,首字为汉字,代表省份,紧跟着的字符代表城市,后面5位字符是数字和字母的组合,其中字母不超过两位。
通过以上参数可以看出,车牌具有明显的字符纹理特征,有很密集的字符边缘,有统一的外轮廓尺寸,有固定的字符密度。本文主要是基于对外轮廓的宽高比与车牌内部的平均灰度来判定车牌定位是否准确。
1.2 车牌定位的主要工作
车牌定位工作主要是从拍摄的车辆图片中找到车牌的准确位置,由于不同车辆本身的不确定因素很多,这给车牌定位造成了很多困难,为了克服这些不利因素,人们依据车牌的不同特征提出了不同的车牌定位方法,按照原理基本可以分为3类,即基于颜色信息的方法[3]、基于神经网络的方法和基于水平或垂直投影的方法,这3种方法在计算量和环境的适应性方面各有利弊。本文提出了一种环境适应能力较强的车牌定位方法,它克服了车辆颜色的干扰,同时也减少了图像处理的计算量。
2 基于边缘检测和形态学处理的车牌定位算法
2.1 图像的预处理
对图片格式的识别,无论是jpg还是bmp格式的图片都要先读取到矩阵中去,如果图片是彩色的话要将其转化为灰度图像[4],将彩色图片转为灰度图像的公式为:
Gray=0.3R+0.59G+0.11B 。 (1)
其中:Gray代表图像的灰度,R、G、B分别代表彩色模型中红、绿、蓝3个颜色的分量值。
在灰度图像的基础上做top-hat变换,使阴影的细节增强。
2.2 边缘检测
到目前为止,边缘检测最通用的方法是检测亮度值的不连续性。在本次仿真中采用的是Sobel边缘检测器,Sobel边缘检测器使用式(2)和式(3)中的掩模来数字化地近似一阶导数值Gx、Gy:
undefined。 (2)
undefined。 (3)
2.3 形态学处理
在边缘检测和形态学处理之间进行了二值图像的逻辑运算,包括水平方向的噪声去除和消除孤立的亮点,这两个步骤是通过对图像的亮度矩阵行方向的运算和逻辑判断来实现的,这对于实现以形态学为基础的图像处理算法是一种有力的补充手段。在以下4个形态学处理公式中,A代表要被处理的集合,B代表处理中使用的结构元素,在本文随后的应用中A即代表了样本图像,B即为处理中使用的结构元素。形态学处理包括膨胀与腐蚀,膨胀最简单的应用之一是将裂缝桥接起来,对集合z中的集合A和B ,A被B膨胀可定义为:
undefined。 (4)
而腐蚀的一种最简单的用途是从二值图像中根据尺寸消除不相关的细节,对集合z中的集合A和B,使用B对A进行腐蚀,定义为:
A⊖B={z|(B)z⊆A} 。 (5)
膨胀使图像扩大而腐蚀使图像缩小。开操作一般使对象的轮廓变得光滑,断开狭窄的间断和消除细的突出物。闭操作同样使轮廓线更光滑,但是与开操作相反的是,它通常消弥狭窄的间断和长细的鸿沟,消除小的孔洞,并填补轮廓线中的断裂。使用结构元素B对集合A进行开操作,定义为:
A。B=(A⊖B)⊕B 。 (6)
因此,用B对A进行开操作就是用B对A腐蚀,然后用B对结果进行膨胀。使用结构元素B对集合A进行闭操作,定义为:
A·B=(A⊕B)⊖B 。 (7)
2.4 车牌的校正和准确定位
在形态学处理之后已经可以初步确定车牌的位置了,为了能够准确地切割字符,还需要对车牌的灰度图像进行几何校正和精确的定位。这里的几何校正主要指的是角度的旋转,原理是使用Hough变换对边缘检测的图像进行处理。Hough变换可以检测出边缘图像中共线的点的集合,再通过求这个集合中的峰值,也就是图像中最长的一条直线的角度,就得出了车牌的偏移角度,最后根据这个角度对图像进行水平的旋转就可得到几何校正的图像。准确定位的基本原理是检测水平方向的跳变,因为有字符的区域跳变会突然增多,这个跳变次数突然增多的位置就是车牌中字符的上边缘,同理可以检测到下边缘。通过这样的检测达到了精确定位的目的。
3 仿真结果与分析
仿真实验采用的是AMD Turion (tm) 64×2处理器和Windows XP操作系统,使用MATLAB 7.0软件[5],对样本图像进行处理。从仿真实验的运算速度考虑,本文对数码相机采集的图像进行了剪裁,使其长度和宽度都不超过1 000像素,这样不仅可以使仿真的速度加快,而且还能降低以后硬件开发时的设备成本。
仿真的具体过程如下:首先使用数码相机采集车辆正面的图像并进行剪裁,并经灰度处理得到了样本的灰度图像,如图1所示,在灰度图像的基础上进行边缘检测,得到了图像中主要的轮廓,如图2所示;随后进行去噪处理,即top-hat变换、白点消除、行去噪,图3为经过top-hat变换的图像;去噪后要进行形态学处理,即膨胀、开操作、闭操作,图4为闭操作仿真图像;从图4可以看出已基本实现了车牌的初步定位,沿着图4的亮度边缘坐标切割得到了图5。同时对切割后的车牌图像做边缘检测,这是为随后几何校正所使用的Hough变换做准备,初步定位的边缘图像见图6;Hough变换检测出偏移角度后对车牌进行校正;之后开始进行车牌的精确定位,准确定位的基本原理是检测水平方向的跳变,因为有字符的区域跳变会突然地增多,将图6水平方向的灰度相加得到图7;观察图7,可以得出初步定位的图像上、下边缘大概有5个~10个像素是没有亮度的,精确定位的目的就是去掉这些没有字符亮度的区域,得到的精确定位的图像如图8所示,图9为二值化处理得到的图像。将图9进行垂直投影,得到图10。从图10中可以看出字符的亮度分布,并用其来完成随后的字符分割任务,同时也证明了这种车牌定位方法达到了字符分割的要求。
4 结论
通过仿真,验证了通过边缘检测和形态学处理这种方法来完成车牌定位是可行的。此外应用本文算法对多个样本进行了实验,从效率和准确率来看也是较好的。本方法可作为车牌定位的一个基本的思路,在此基础上扩展使其能够满足多种条件多种车牌的定位和识别。
参考文献
[1]阮秋琦.数字图像处理(MATLAB版)[M].北京:电子工业出版社,2005.
[2]阮秋琦,阮宇智.数字图像处理[M].第2版.北京:电子工业出版社,2007.
[3]任文龙,张晓航,巨永锋.一种新的基于边缘检测的车牌定位方法[EB/OL].[2008-10-24].http://www.paper.edu.cn
[4]陈德富,何通能.车牌识别的嵌入式系统研究[D].杭州:浙江工业大学,2006:9-10.
文本检测和定位论文 篇6
关键词:ZigBee,定位,跌倒检测,三轴加速度传感器
老年人由于身体虚弱、平衡能力差以及自我保护能力低等因素,很容易发生意外跌倒。如果跌倒后没有得到及时的救助和处理,将会导致严重的后果,甚至危及到生命安全。因此,开发一个集跌倒监测、跌倒定位和远程报警为一体的监控系统具有很重要的意义。
近年来,MEMS(Micro-Electro-Mechanical Systems)加速度传感器的发展为基于三轴加速度传感器的跌倒监测创造了可能。在参考文献[1]中,采用通过加速度传感器监测人体姿态的方法来监测跌倒;在参考文献[2-3]中,采用基于加速度向量幅值SVM(Signal Vector Magnitude)和微分加速度幅值的绝对平均值MAVD(Mean Absolute Value of Differential)作为跌倒判断标准的检测方法。本文提出一种基于人体跌倒过程中加速度变化趋势的检测算法,该算法实现简单并且具有很高的精度。
人体跌倒时,提供精确的跌倒位置为及时救助提供了方便。常见的基于Zig Bee的定位方法有:基于接收信号强度值RSSI的测距算法[4]、基于到达时间TOA的测距算法、基于到达角度AOA的测距算法以及基于质心算法和DV-HOP算法的估计距离定位算法。但这些算法不是精度低,就是算法复杂,或者成本偏高。本文提出一种基于RSSI查找表和方差分析的定位算法,并采用硬件加速的方法予以实现,不但满足了实时定位的要求,并且具有很高的定位精度。跌倒报警采用移动手机作为监控终端,Zig Bee网络将跌倒信息传到本地监控中心,监控中心完成定位算法后将跌倒坐标通过GSM无线网络发送到医护人员的移动手机上,方便医护人员第一时间为跌倒者提供救助。
1 系统构架设计
系统主要由三大部分组成:可穿戴检测终端、Zig Bee传感器网络和监控中心,如图1所示。可穿戴检测终端由Zig Bee无线模块、ARM处理器和三轴加速度传感器构成,三轴加速度传感器监测人体跌倒过程中的加速度值并产生与跌倒相关的中断,ARM通过I2C总线对三轴加速度传感器进行配置并接收中断进而实现跌倒检测算法,Zig Bee无线模块负责数据传输。Zig Bee传感器网络由携带在人体上的移动盲节点、固定在环境中的参考节点和协调器节点组成,负责传递跌倒信息和生成用于定位的原始数据;监控中心利用Zig Bee网络生成的定位原始数据实现高精度定位并将跌倒信息和跌倒坐标利用GSM无线模块发送至医护人员的移动手机上。
2 算法与实现
2.1 Zig Bee无线传感器网络
无线传感器网络采用的网络类型为网状网,网络中有协调器、路由器和终端三种设备。在该系统中,除了协调器节点外,移动盲节点和固定在环境中的参考节点都是路由器。在网络组建成功之后,协调器将查询移动盲节点,接着盲节点将以单跳方式广播8次blast信息,参考节点接收到8次盲节点的接收信号强度值RSSI(Received Signal Strength Indication)并求平均值之后发送给协调器节点,协调器节点将这些信号强度值发给监控中心作为定位的原始数据。另外,在监测到人体跌倒之后,盲节点将通过传感器网络把跌倒信息发送到监控中心。
2.2 实时室内定位
室内定位问题一直是个难点。由于室内环境的复杂性很高,信号在传播过程中,反射、多径传播、非视距、天线增益等问题都会对信号强度的损耗造成影响。所以,对RSSI进行数学建模需要加入大量的修正因子,由此也加大了算法实现难度或者不能保证实时定位的要求。另外,大量文献中采用的基于RSSI测距再通过三边测量的定位法精度都很难保证。基于这个原因,本文提出了一种根据实际环境构造RSSI查找表、利用方差分析的定位算法。
如图2所示,将参考节点范围内的区域划分成大小相同的若干小正方形区域。构建好传感器网络之后,将移动盲节点放置到每个小正方形区域的中心,测量各个参考节点接收到的移动盲节点的RSSI值;通过多次测量求平均值得到该小正方形区域的RSSI值,同时记录该区域的中心坐标,这样便构建了一个带坐标值的RSSI查找表。这种方法不仅避免了对复杂环境进行RSSI信号建模,同时提高了测量精度。在定位过程中,将移动盲节点的RSSI值与带坐标值的RSSI查找表进行遍历方差计算,找到最小方差值的那个RSSI值对应的坐标即可得到移动盲节点的位置坐标。在实验中,将一个8 m×8 m的房间划分成64个小正方形区域,通过实测构建RSSI查找表,查找表中包括了坐标值和对应该坐标的每个参考节点的RSSI值。基于C语言的定位算法描述如下:
该算法中有大量的加/减法和乘/除法计算,如果采用嵌入式软件方法进行实现,将会花费大量的计算时间,不能满足实时定位的要求。为此,针对该算法设计了一个基于FPGA的硬件加速器,该加速器采用并行计算和流水线的方式实现,其硬件框图如图3所示。
基于硬件加速的定位算法实现流程:将RSSI查找表平均分成8组并行计算;每一组通过减法、乘累加和移位操作计算方差值,并通过比较器找出组内最小方差值和对应标号;8组并行计算得出的最小方差值再通过比较器找到相对于整个RSSI查找表的最小方差和对应的标号,通过标号就可以在RSSI查找表中得到移动盲节点此时的位置坐标。整个流程由控制器控制。
2.3 跌倒监测
ADXL345三轴加速度传感器内置有运动检测功能和中断系统。ARM处理器通过I2C总线接口对传感器的内部寄存器进行配置来设定产生各种中端的加速度和时间阈值;ARM处理器同时接收加速度传感器的中断并通过I2C总线读取跌倒过程中的运动状态来实现跌到检测。
跌倒检测算法主要是研究人体跌倒过程中加速度的变化特性[5]。人体跌倒过程中的加速度变化曲线如图4所示。通过与人体正常活动(上下楼、起立、坐下、跳起、下蹲)过程中的加速度的变化特性相比较,可以得到人体跌倒过程中的4种关键特性(失重、撞击、静止和跌倒后)与初始状态的差异性。对这4种关键特性的检测可以作为检测到人体跌倒的标准。该算法可以很精确地监测到人体跌倒,同时不会将人体正常起居活动误判为跌倒。
人体跌倒过程分析:正常情况下,加速度传感器的矢量和一般大于1 g;失重现象会发生在跌倒之初,此时加速度的矢量和降低至0 g的水平;发生失重后,人体将于地面相撞击,在加速度曲线中表现为剧烈冲击;一般地,跌倒并撞击地面后,人体无法立即站起来,人体会在短时间内保持静止;在跌倒之后,加速度传感器3个轴的值与初始状态相比有很大不同。上述4种情况共同构成了整个跌倒算法。图5所示为在ARM处理器上实现的算法流程。
2.4 报警系统
检测到人体跌倒之后,监控中心实时地计算出跌倒位置坐标并通过向GSM无线模块发送AT命令来发送报警短信。跌倒位置坐标转化成Unicode代码后以PDU格式发送中文短信。接收报警短信的号码可随意设置,比如发送给不同的医护人员、救护中心以及家属,以便最大程度地监控老人跌倒和提供及时救助。
3 系统测试
为了验证本方案的可靠性,进行了充分的实验。在参考节点覆盖的区域内随意移动盲节点,本系统测试得到的位置坐标和实际位置坐标的误差在1 m以内;在人体向前、向后、向左和向右4个方向跌倒时,均可以100%检测到人体跌倒;每次发生跌倒之后,监控手机均能在5 s之内接收到跌倒报警和跌倒位置信息。同时,还测试了本系统对伪跌倒的区分度,人体在正常行走、跑步、起跳、坐下、下蹲和上下楼梯时均不会出现检测到伪跌倒的状况。
本文提出并实现了一个具有定位和远程报警功能的无线人体跌倒监测系统。定位功能以Zig Bee无线传感器网络中参考节点接收到的盲节点的RSSI值为基础,建立RSSI查找表和方差分析的定位算法,并用硬件加速器实现。系统定位实时性高,精度达到1 m。通过研究人体跌倒过程中加速度变化特性,采用三轴加速度传感器和ARM处理器实现了高精度的人体跌倒监测功能。远程报警终端采用常见的移动手机,在被监控者发生意外跌倒时,将发送跌倒报警和跌倒位置信息。
参考文献
[1]MOSTRAC P,ROMAN M,JURCEVIC M,et al.System formonitoring and fall detection if patients using mobile 3-axisaccelerometer sensors[C].2011 IEEE International Workshopon MemeA,Bari,2011:456-459.
[2]CHEN T C.Fall detection and location using ZigBee sensornetwork[C].Cross Strait Quad-Regional Radio Science andWireless Technology Conference,Harbin,2011,2:937-941.
[3]Gao Yang,Gao Jingmin,Wang Jiuhe.Research of humenfall detection algorithm based on tri-axis accelerometer[J].International Conference on Remote Sensing,2012,500:623-628.
[4]Zhang Tong,Wang Jue,Liu Ping,et al.Fall detection bywearable sensor and one-class SVM algorithm[J].LectureNotes in Control and Information Sciences,2006,345:858-863.
文本检测和定位论文 篇7
关键词:GIS局部放电检测,定位技术,现场应用
在我国电力系统中GIS局部放电检测和定位技术出现于20世纪80年代, 并且在这之后随着GIS设备服役时间的增长以及全新的GIS设备的不断投运, GIS设备的出现故障的次数呈上升趋势。因此对于运行中GIS设备的绝缘性能进行跟踪检测也就成为了进行GIS状态检修风险评估的重要手段之一。
1 GIS局部放电检测和定位技术
GIS局部放电检测和定位技术是一项系统性的技术, 这主要体现在超声波定位法、声电联合定位法、便携式定位技术等环节。以下从几个方面出发, 对GIS局部放电检测和定位技术进行了分析。
1.1 超声波定位法
超声波定位法是比较常见的GIS局部放电检测和定位技术, 这一技术的原理主要是GIS内部产生局部放电信号的时候往往会产生冲击的振动及声音, 因此可以用腔体外壁上安装的超声波传感器来测量局部放电信号。除此之外, 在与其他定位技术进行对比时, 超声波定位法由于具有不受电气方面的干扰的优越性而得到了较多的应用。但是超声波定位法的应用对于大型的设备往往较为依赖, 因此在实际的现场应用过程中仍旧存在着较多不便的因素。
1.2 声电联合定位法
声电联合定位法是一种根据现场运行的GIS的结构特点来进行定位的定位技术。通常来说这一技术的应用可以有效的对于GIS进行局部放电在线监测。除此之外, 声电联合定位法的合理应用还可以通过对于两种信号的对比分析来更加有效地排除现场干扰并且更好地提高局部放电定位精度和缺陷类型识别的准确性, 最终可以有效发现并确定绝缘缺陷并且实现GIS的安全维护。
2 GIS局部放电检测和定位技术现场应用
GIS局部放电检测和定位技术的现场应用包括了许多内容。其主要内容包括了应用前提、应用范围、应用实例等内容。以下从几个方面出发, 对GIS局部放电检测和定位技术的现场应用进行了分析。
2.1 应用前提
GIS局部放电检测和定位技术的现场应用有着相应的应用前提。由于气体绝缘组合电器 (Gas Insulated Switchgear, GIS) 会受到内部杂质和毛刺以及部件松动甚至是接触不良等问题的影响, 并且在严重的情况下会导致绝缘老化等现象。在这一情况下如果发现测试数据的可靠性没有办法得到保证, 则可以结合GIS内部SF6气体快速检测进行综合分析来更好地确定设备运行状态。目前采用的GIS局部放电检测和定位技术需要比较灵活、快速、简洁的有效手段来支持。这一手段通过提升其抗干扰能力并且优化现场应用环境来促进GIS局部放电检测和定位技术的现场应用水平的有效提升。
2.2 应用范围
GIS局部放电检测和定位技术的现场应用也有着自身相应的应用范围。通常来说在线检测的进行往往是不会影响GIS的正常运行的。因此在进行GIS局部放电检测和定位技术的现场应用时应当考虑到其相应的抗干扰能力。例如可以采用特高频电磁波传感来有效避开了电晕放电等干扰信号。除此之外, 检测灵敏度也是影响到其应用范围的重要因素, 这意味着检测灵敏度高的情况下能够更好地实现精确定位并且操作也更加灵活方便, 从而能够在此基础上促进GIS局部放电检测和定位技术的现场应用效率的不断进步。
2.3 应用实例
在GIS局部放电检测和定位技术的现场应用过程中我们还需要考虑到对于实际的应用实例进行分析。例如江苏某一大学根据基于声电联合检测法的便携式GIS局部放电检测系统在我国数个省份进行了GIS变电站的现场实测并且在这一过程中取得了很好的效果。另外, 在GIS局部放电检测和定位技术的现场应用过程中某电力企业通过确定绝缘缺陷的具体位置更好地进行设备安全维护, 最终促进了GIS局部放电检测和定位技术的现场应用可靠性和精确性的有效提升。
3 结论
根据电力系统发展速度的持续加快, 气体绝缘全封闭组合电器的应用越来越多广泛。因此在电力系统中GIS局部放电检测和定位技术有着更为重要的意义, 并且通过现场应用的进行来促进我国电力系统整体水平的有效提升。
参考文献
[1]肖燕, 郁惟镛.GIS中局部放电在线监测研究的现状与展望[J].高电压技术, 2005, 31 (01) :47-49.
[2]姚勇, 岳彦峰, 黄兴泉.GIS超高频/超声波局放检测方法的现场应用[J].高电压技术, 2008, 34 (02) :422-424.