检测图像识别(精选9篇)
检测图像识别 篇1
家蚕微粒子病是蚕桑生产上必须引起高度重视的一种传染性疫病, 它通过母体经胚胎传染到下一代, 曾对蚕桑生产造成毁灭性的打击, 是蚕病中唯一法定检疫对象。图像识别技术是把图像信号转换成数字信号并利用计算机对其进行处理, 以对图像进行描述、辨认、分类和解释的技术[1], 由于其具有再现性好、处理精度高、快速和灵活性高等优点, 已开始在农产品品质的检测及分类上广泛应用。图像识别技术是家蚕微粒子孢子自动化检测的一种重要技术手段, 目前国内已有利用图像识别技术对家蚕微粒子孢子自动化检测的研究, 本文简要介绍了生产上家蚕微粒子孢子检测的现状、家蚕微粒子孢子自动化检测研究情况及其存在的问题。
1 生产上家蚕微粒子孢子检测的技术现状
家蚕微粒子病的病原是家蚕微孢子虫, 家蚕微孢子虫属细胞内专性寄生的单细胞真核生物[2]。家蚕微粒子病可以通过食下 (经口) 和胚种 (经卵巢) 两种途径进行传染, 是蚕病中唯一会通过胚种进行传染的疾病。家蚕微粒子病是危害蚕桑产业较为严重的一种传染性疫病, 我国已将其和桑树青枯病一起列入蚕桑产业的检疫对象[3,4]。19世纪中叶, 家蚕微粒子病曾在欧洲大规模流行爆发, 使法国、意大利、西班牙、罗马尼亚等国的蚕业遭受毁灭性的打击。我国苏、浙、粤、桂、滇等省区于1980年-2000年间流行严重, 年均检出200万张的超毒蚕种, 直接或间接经济损失高达千万元[5]。蚕种生产上可谓“谈微色变”, 一方面家蚕微粒子病防控无特效药, 另一方面又存在滥用消毒药物的情况, 导致家蚕生命力降低和生产成本提高。目前家蚕微粒子病虽得到较好的控制, 但如何有效防治仍然是生产上的难点问题。
目前, 蚕种生产上对家蚕微粒子孢子检验最常用的方法是法国微生物学家巴斯德100多年前创立的母蛾镜检法, 主要通过独特的形态特征来发现微孢子虫, 在光学显微镜下, 孢子表面光滑, 呈绿光, 有折光性, 上下摆动, 比重 (1.30-1.35) 比水大, 镜检时沉于标本液下层[6]。该方法采用集团检验, 即1盒母蛾 (原原种14蛾, 原种28蛾, 一代杂交种30蛾) , 经集团磨蛾机磨碎、过滤、离心和点板后用显微镜镜检观察。发现病蛾微粒子孢子后, 淘汰相应病蛾所产的卵 (蚕种) , 确保为生产供应合格蚕种, 从而保障了蚕业的安全生产。母蛾镜检法至今仍是蚕业生产上检测微孢子虫最主要的方法, 对保障蚕桑产业安全生产发挥了重要作用。但该方法也有较大的缺陷, 不利于蚕业产业化发展。一是工作枯燥繁重、检验人员眼睛容易疲劳, 效率不高;二是检验结果时效性强, 无法全部保留检验样本, 发生纠纷时无法复核;三是母蛾镜检法是间接 (母蛾) 检验而非直接检验 (卵或蚕种) , 不符合现代质量检验体系的要求。此外, 母蛾镜检法的特异性主要依靠检测人员的经验, 有效分辨出Nb孢子与细菌芽孢、真菌分生孢子及其它相似物等则需要熟练的技术人员, 非Nb孢子等的存在使鉴别工作更为复杂和困难[7], 故该检测方法存在带毒蚕种漏检导致微粒子病发生甚至大流行的风险和无毒蚕种被错判为有毒蚕种而被烧毁造成无畏浪费的问题。随着免疫学和PCR检测技术的快速发展, 对家蚕微粒子孢子免疫学和PCR检测技术的研究也取得了很大的进展, 但由于在灵敏度、特异性和降低成本等方面未取得突破, 使得这两种技术在生产上的应用受到很大的局限性, 难以全面推广。综上所述, 现行生产上家蚕微粒子病的检验方法一定程度上已成为制约蚕桑产业发展的瓶颈, 特别是给蚕种生产企业带来了很大的困扰。在科学技术高度发达的今天, 家蚕微粒子孢子的检验需要创新应用新技术新方法来满足微粒子病防控面临的新情况新任务, 更好地促进蚕桑产业转型升级与优化发展。
2 图像识别技术对家蚕微粒子孢子自动化检测的探索
图像识别技术是有可能实现自动化检测家蚕微粒子孢子的重要技术手段。它是通过计算机对图像进行增强、去噪、复原、分割、编码、压缩、提取特征等处理的方法和技术, 简单地讲就是利用计算机系统对表征事物或物理现象的各种形式的物理数据、图像信息进行运算加工处理和分析, 以实现对图像进行描述、辨认、分类和解释的目的[8]。图像识别技术包括图像信息获取、图像预处理、图像特征提取、分类决策和输出结果等过程, 它不仅满足人们改善图像质量、提高视觉效果的需要, 还有望实现类似人类视觉系统理解外部世界的智能化需求[9]。该技术起源于上个世纪60年代, 半个世纪以来, 随着计算机技术的发展, 图像识别技术得到迅速发展, 已成为工程学、统计学、计算机科学、化学、物理学、生物医学甚至社会科学等各学科之间学习和研究的对象[10]。目前图像识别技术已广泛地应用于生物医学工程、航空航天、工农业生产、公安军事、文化艺术等领域, 是人类社会生产及生活上不可或缺的工具, 对加快现代社会的发展具有重要的意义。
对家蚕微粒子孢子的鉴定和检测一直是蚕桑产业的重点和难点, 它对我们认识不同类型微粒子孢子的生物特性, 找出经济、有效、安全的防治措施以及研究微粒子病流行机制提供了重要的科学依据。图像识别技术是近年新发展起来的用于微生物自动识别和检测的新技术新方法, 是微生物学的研究热点, 也是微粒子孢子快速自动化检测的重要突破口之一。
随着图像识别技术的发展, 目前国内己有多家科研机构利用该技术检测家蚕微粒子孢子的研究初探。国内最早利用该技术检测家蚕微粒子孢子的是四川大学的周业为等[11], 他们利用CIAS图象分析仪对染色后样品检测的结果和人工镜检的十分接近, 但速度却快得多, 而且可以减低工作人员的疲劳程度。蔡健荣等[12]利用由主计算机、真彩色图象采集卡、CCD传感器、显微镜、CCD与显微镜接口等组成的显微图象处理系统对家蚕微粒子孢子的检测进行了研究, 提出了含微粒子孢子图象的形状特征提取方法, 但由于重叠图块的干扰而存在判别误差。张香琴等[13]的研究是用43幅含微粒子的图像进行识别试验, 识别完全正确率为72.09%, 识别有效率为86.05%, 漏判率为13.95%。由于存在对图像进行全屏、裁减处理等较多的人工干预, 严格地讲不是自动检测。许刚等[14]研制了一套数码显微摄像系统, 解决了微粒子病检测的复现问题, 但没有从图像处理的角度进行分析和处理, 系统也没有达到应用的阶段。黄宏华[15]的研究编制了一套检测家蚕微粒子孢子的软件, 并找到了合适的分割算法, 可将微粒子孢子从复杂的背景中分割出来, 较好地解决了重叠图块带来的干扰。胡新宇[16]对微粒子图像预处理算法、微粒子图像分割技术、微粒子图像多特征提取技术和微粒子图像识别技术等进行了研究, 但仍具有较大的局限性, 对复杂背景条件下微粒子显微图像分割和模糊度高的微粒子孢子图像判别难以深入研究。
3 图像识别技术检测家蚕微粒子孢子存在的问题
图像识别技术以其独特的优势成为国内外研究的热点, 随着图像处理的方法和理论进一步提高和完善, 在产品的自动检测方面也取得了很大进步, 实践表明利用图像识别技术来代替人眼进行产品的自动化检测是可行的。对于家蚕微粒子孢子的自动化检测研究而言, 尚处起步阶段, 还存在以下几个问题。
(1) 国内对图像识别技术的研究多集中于生物医学图像的检测和疾病的诊断上, 而对于微粒子孢子的检测技术依然停顿在100多年前使用的人工镜检方法上, 而没有受到图像识别技术等新技术的“亲睐”, 主要原因, 一是由于蚕桑产业在当前国民经济中的比重偏低, 对人才、资金和技术的聚拢能力相对较差;二是相关通用软件平台的研制涉及蚕学、昆虫学、微生物学、计算机、信息控制和机械工程等多个学科, 需要各学科相关人员的通力协作;三是显微图像的多样性和复杂性特点, 增加了家蚕微粒子孢子自动化检测研究的困难。
(2) 目前的研究多偏重于图像处理技术新理论新方法的理论研究, 注重识别精度与稳定性, 却忽视实际应用性。因此, 目前利用图像识别技术进行产品自动化检测的研究多局限于实验室, 成功推广的案例不多。
(3) 在家蚕微粒子病检测的具体方法上还缺乏系统的研究, 图像增强预处理技术、复杂背景条件下显微图像分割技术和微粒子孢子图像特征的识别模型等方面的研究还比较欠缺。
4 结语
家蚕微粒子孢子只有实现快速准确地检测, 采取科学合理的防治措施, 防止盲目防治, 才能降低蚕桑产业的生产成本, 才能确保蚕桑产业用种安全。为此, 必须充分利用图像识别技术等高新技术, 大力提高蚕业自动化检测装备水平, 改变现有蚕业检疫体系中委托检验, 由间接 (母蛾) 检验向直接检验 (卵或蚕种) 的转变, 建立起符合现代质量检验体系要求的家蚕微粒子孢子检测体系。目前家蚕微粒子孢子自动化检测技术尚未成熟, 也未研制出可适用于生产的装备, 需要各科研单位加大攻关力度、联合开发, 为我国传统蚕桑文明在新时代焕发出新的生命力保驾护航。
检测图像识别 篇2
灰度化
车牌图像灰度化 直方图均衡化 灰度拉伸 二值化
全局阈值法和局部阈值法 适用于车牌的二值化方法 边缘检测 图像梯度
几种常见的边缘检测算子 适用于车牌的边缘检测算子
一、车牌识别系统结构
车牌识别系统通常由数据采集(车牌图像摄取),车牌提取,车牌识别几个主要部分
组成,其系统结构如图 1.1 所示:
车牌自动识别系统中:
1.图像摄取主要由硬件部分完成,它提取汽车的前景图像,将摄像头的视频信号转换为数字图像信号送给计算机处理。
2.车牌图像预处理。由于拍摄的自然环境及光照条件的影响,车牌图像中存在许多干扰,对车牌的定位带来不便,为了更好的提取车牌,需要对车牌图像进行预处理以保证车牌定位的质量。
3.VLP 检测。即图 1.1 中虚线环绕的部分,这一部分是系统的核心,它的实现影响着整个系统的性能,主要利用模式识别、数字图像处理、信息论等知识对车牌图像中的车牌进行定位及提取操作。
4.字符分割及识别。当车牌被成功提取后,需要分割其中的字符,并利用先验知识对其进行识别,以得到最终结果。
二、图像处理具体过程
图像处理是人工智能在计算机图形学中的一个重要分支,是车牌识别系统的理论依据。在自然条件下摄取的车牌,除了包含大量噪声外,还具有多样性。为了使系统能够更好的分离车牌,必须对原始图像进行预处理。本章主要讨论车牌图像预处理的一些常用方法,包括图像的灰度二值化、噪声处理、边缘提取等。当摄像机从外界摄入视频图像时,首先把它转换为静态图片,再送入计算机进行处理。由于拍摄环境的多变性,车牌图像中存在噪声和干扰,这些给车牌提取带来困难。系统首先将输入的彩色图像灰度化,并且进行亮度平均,使图像具有较好的对比度;对图像进行边缘提取操作前,往往先要进行噪声抑制操作,以提高边缘提取的质量;二值化则多用于已提取车牌的处理上。车牌图像预处理的难点在于:
1.车牌图像质量不佳,灰度化后会弱化图像中的车牌信息,因而好的灰度化处理非常必要;
2.由于光照的原因,车牌很可能出现过分灰暗或明亮的情况,这种条件下的二值化处理应该分情况讨论,对应特殊的分割阈值;
3.图像中的复杂背景具有丰富的边缘信息,不但会增加系统识别的难度,也会造成系统的误判,怎样去除这些不必要的背景十分关键。实际操作中,因为车牌处于图像的中部偏下位置,所以通常取图像的下半部分进行处理或优先考虑图像中靠下方的位置。
4.车牌中的字符很容易在预处理中发生变形或丢失信息的情况,要注意保持车牌的字符信息。
2.1 灰度化
在计算机中,一幅图像由若干个像素组成,每个像素都带有图像的相关信息(如背景、目标、噪声等),而图像处理技术则通过对这些像素进行处理而得到我们所需要的关键信息。
2.1.1 车牌图像灰度化
一般情况下,输入计算机的视频截取图像为 RGB 格式,即彩色图片。由于这种图像包含大量的颜色信息,它的每个像素都具有三个不同的颜色分量 R(Red)、G(Green)、B(Blue),这样的图片占据的存储空间很大,而且在对其进行处理时也会耗用较多的系统资源,导致系统的执行效率不高。与之相比,灰度图像只含有亮度信息,从而大大减少了系统的工作时间,满足汽车牌照识别系统的实时性要求。因此,在对图像进行其它预处理之前,一般先将彩色图像转换成灰度图像。
最基本的灰度化方法就是直接使用 R、G、B 三分量中的最大值或平均值来代替各个分量。灰度化以后,相同颜色的像素具有相同的亮度,这就形成了以亮度为层次的灰度图片。灰度值大的像素比较亮,反之较暗。通常把灰度值分为 256 等份,0 度表示最暗的级别,即黑色;255 表示最亮的级别,即白色。图像的灰度化转换还有其它不同的算法,比较常见的是给像素的 R、G、B 分量各自增加一个特定的加权系数,相乘后求和,其计算结果作为灰度值,转换公式如下:
I = 0.229 R+0.587 G+0.114 B 式中 I 表示像素的灰度值。
加权系数的取值建立在人眼视觉模型的基础上,对于人眼比较敏感的绿色分量,赋予较大的系数,而对于人眼比较迟钝的蓝色分量则取较小的系数。这样得到的灰度图像在视觉上比较接近人的主观感觉。
2.1.2 直方图均衡化
由于灰度图像建立在彩色图像的基础上,所以在不同的光照条件下,对同一辆汽车所拍摄的图片有着很大的差异。就车牌图像而言,灰度的动态取值范围越广(即图像的对比度越大)越有利于图像分析。
图 2.1-2.4 分别给出了白天和傍晚时相同汽车的彩色车牌图像及灰度图像。从图中我们可以看出,由于白天的光线较好,使得汽车的灰度图像存在较大的对比度,肉眼上更容易识别。而在实际拍摄条件下,影响图片亮度的因素除了天气外,汽车自身的反光现象也是一个原因。
当车牌图像在反光或傍晚拍摄时,图像中的白色或黑色区域较大,使得图像的整体像素灰度值偏向于两个极值。在这种情况下,车牌区域的对比度就被弱化了。因此,我们要使图像的灰度值分布平均化,这就是直方图均衡化的作用。图像的直方图是一个概率函数图像,它表示了图像中各种像素值的出现概率,而直方图均衡化则是通过某种变换,得到一幅具有均匀灰度密度分布的新图像。其结果是扩展了图像的灰度取值范围,从而达到增强图像对比的效果。设原始灰度图像的像素数目为 N,那么,直方图均衡化的具体计算步骤如下:
直方图均衡化的结果如图 2.5-2.8 所示,可以看出经过均衡化处理后图像的对比度得到了增强,直方图中的灰度函数分布基本平均。
2.1.3 灰度拉伸
由于直方图均衡化是对图像中已经存在的像素值进行平均,那么图像中出现较多的像素级就在均衡过程中起到了主要贡献作用。相对灰度级出现较少,图像灰度处于极端的情况而言,我们需要图像的像素值在各个灰度级都有均匀分布(包括原图中不曾出现的灰度级),灰度拉伸可以达到这个效果,从而起到增强图像对比的作用。
如果造成图像的对比度不足,主要原因在于拍摄目标的远近不同,使得图像中央区域和边缘区域的灰度失衡,或是由于摄像头在扫描时各点的灵敏度有较大差异而导致图像失真,或是由于曝光不足(或过度)致使图像的灰度值大小被限制在一个很窄的范围内。这时的图像模糊不清,似乎没有灰度层次。
假设原图像 f(x,y)中,大部分像素的灰度级在一个较窄的范围[a, b] 内,又或者我们只对灰度级在某个范围内的像素感兴趣,经过线性灰度变换后,可以将这一灰度范围[a, b] 扩展到新图像 g(x,y)中一个比较大的灰度范围[c, d]。并且有。f(x,y)和g(x,y)的变换公式如下:
从灰度直方图分析,由于新图像的灰度范围变大,所以对数字图像来说,尽管变换前后像素的个数不变,但不同像素的灰度差变大,增强了图像的对比度。同时,这种两端截取式的变换使小于灰度级a和大于等于灰度级b 的像素分别直接变为c和d,将会造成部分信息的丢失。
因此,可以采用分段线性灰度变换以减少信息的丢失,将图像灰度分成两个以上的区间分别进行线性变换。这种方法的优点在于可以根据需要来拉伸感兴趣的灰度范围,相对抑制不感兴趣的范围。分成三段进行灰度变换的公式如下:
公式对灰度范围[a,b]进行了灰度扩展,而对灰度范围[0,a]和[b,m]进行了压缩。通过调整折线拐点的位置和分段直线的斜率,可以对任意灰度范围进行扩展或压缩。利用某些非线性函数,例如对数函数、指数函数等作为变换函数,可实现图像的非线性变换。对数变化一般为:
其中a、b 和c为可调参数,用于调整曲线的位置和形状,它使图像的低灰度区得以扩展,而高灰度区得以压缩。与之对应的指数变换一般为:
其中a、b 和c同样为可调参数,用于调整曲线属性。它的效果与对数变换的效果相反:扩展了图像的高灰度区,压缩的图像的低灰度区。利用对数函数进行灰度变换在实际应用中有重要意义,它能扩展低灰度区,符合人们在视觉上的主观感觉。
如图 2.9-2.12 所示,可以看出经过灰度拉伸处理后的图像的灰度分布区域由(0,200)变换到另一个区域(128,255),图像的亮度明显增大。
2.2 二值化
一幅灰度图像的亮度信息由 256 个灰度级组成,它能够呈现较为丰富的明暗度。当我们识别车牌时,需要把目标从背景中彻底分量出来。为了尽可能少地减少背景像素干扰,常常直接把图像分为目标和背景两部分。这样我们只能用两个灰度级:0 和 1。通常目标像素值为 1,背景像素值为 0。要得到这种黑白分明的图像,我们需要对图像进行二值化。
设图像二值化前的像素值为 f(x,y),其中(x ,y)表示图像的空间点坐标,变化后的像素值 g(x,y)为:
其中c为我们所说的阈值。
目前,在车牌识别系统中常用的灰度二值化算法主要包括全局阈值法和局部阈值法等。并且出现了一些针对车牌图像的特殊二值化算法。由于上文介绍了图像的灰度化变换,所以下面将逐一介绍基于灰度的三种阈值法算法。
2.2.1 全局阈值法和局部阈值法
顾名思义,全局阈值法就是从图像的整体角度出发,计算图像的单一阈值的方法,主要有迭代法和 Otsu 法等,这里我们介绍 Otsu 法。
Otsu 法是常用的一种阈值选取方法,这是一种类间方差阈值法,它是在最小二乘函数的基础上推导出来的。基本思想是:取一个阈值k,将图像中的像素按灰度值分为大于等于k 和小于k 两类,也就是我们所说的目标和背景两类。求出两类像素的方差
和总体方差
。然后给定三个分离指标:
任取其中一个,这里我们取第一个分离指标Q1,找出使其值最小的 k 即为最佳阈值。其意义是使不同种类的方差最大,相同种类的方差最小。用 P(i)示图像各灰度级的频数,则阈值的计算步骤为:
各参数的计算公式分别如下:
4.令 k = k+1,重复计算上一步,直到 k 取到最大灰度级 maxk ;
5.找出令分离指标
Q 1最小的 k 值,该值为最佳阈值。
局部阈值法则是针对灰度图像中的每一个像素点进行计算的。它将图像分块,为每一块选取一个阈值进行分割,如果某块内同时有目标和背景,则直方图呈明显双峰状态,可定出局部阈值;如果一块内只有目标或背景,那么直方图不呈双峰,但可根据邻近有双峰区域的阈值通过内插而得到这一区域的阈值。局部阈值法的难点之一是判断直方图是否存在双峰。一种较为直观的方法是:如果某一块只有目标或背景,那么它的差分值就比较小。算法设计如下:
由于全局阈值法是从图像的整体角度出发计算单一阈值,因而计算时间较短,适用于目标与背景存在较大对比度的图像;而局部阈值法则是逐个计算图像中的每个像素灰度级,保存了图像的细节信息。相比全局阈值法来说,它的计算时间较长,计算量较大,但适用于背景信息丰富的图像。
2.2.2 适用于车牌的二值化方法
由于车牌图像的特殊性,它包含的信息一般要少于普通的图像,综合考虑全局阈值法和局部阈值法的优缺点,可以得到一种比较适合车牌图像的二值化方法。实际处理中,由于光照不匀、灰度级动态范围太窄和车辆牌照污损等原因影响,致使车牌的质量退化,常存在严重的伪影和模糊的字符边缘,因而极大影响了车牌图像的二值化效果。而将牌照图像的空间分布特征[21]与最大类间方差的统计特征相结合后,不仅能消除不均匀光照引起的伪影,还能减少笔画出现断裂现象的几率,二值化效果较好。
假定牌照图像中字符像素所占比例为 R1,背景像素所占比例为R2,则 0 2.3 边缘检测 数字图像的边缘检测是图像分割、目标识别、区域形状提取等图像分析领域十分重要的基础。边缘是图像的重要特征,图像理解和分析的第一步就是边缘检测。在车牌识系统中,车牌区域存在大量的边缘信息,这是车牌区域不同于其它区域的一个重要特征。因此,边缘检测对于车牌识别非常重要。所谓边缘,就是指其周围像素值的变化呈现阶梯状或屋顶状的像素的集合,它存在于目标与背景、目标与目标、区域与区域、基元与基元之间。边缘反应了空间频率的变化,是图像分割的重要特征,也是纹理信息形状特征的基础。所以,我们要把车牌从图像中分割出来,就要找到车牌区域与其它区域之间的边缘,从而进行图像分割。由于边缘处于两个不同区域之间,所以边缘具有方向和幅度两个特征。沿边缘走向,像素值的变化平缓;而垂直于边缘走向,像素值的变化明显。它的存在相当于函数中的转折点或拐点,因而边缘上像素值的一阶导数较大,二阶导数为零。2.3.1 图像梯度 在介绍边缘提取方法之前,先引入图像梯度的概念。对于图像 f(x,y),它在点(x ,y)处的梯度定义为一个矢量: 标志新闻图像重要人物的方法主要有两种: 图像分析法和文本分析法。图像分析法是分析检测出的人物,提取图像特征,该方法基于其内容的新闻图像检测到的人物是从现实环境中获得的,不同的表情、光照、姿势等使单一的图像分析法效果较差; 文本分析法需要大量人工标注,费时费力。针对上述问题,采用滑动窗口自适应方法检测图像中的人脸,针对LPP的缺点,对投影矩阵进行改进,采用有监督的双向二维LPP方法来提取人脸图像特征,保留图像的局部细节信息,使用子特征加权方法进行分类,最终识别出新闻图像中的人物。 1 图像预处理 网络是大量新闻数据的载体,采用深度优先搜索和广度优先搜索相结合的网络爬虫技术,按照一定的网页分析算法[7],预测候选URL与目标网页的相似度和与主题的相关性,爬取和新闻事件相关的网络新闻图像,并保存相似度高和相关性强的新闻数据。 对爬取的图像首先进行灰度化处理[8],传统的灰度化算法不能体现彩色图像的信息对比信息。为了提高灰度图像对比度,减少色彩空间转换时的颜色损失,选择符合人类视觉系统的HIS色彩空间,其中H( hue) 为色调,S( saturation) 为饱和度,I( intensi-ty) 为亮度。算法的具体过程如下。 ( 1) 将彩色图片从RGB彩色空间转换到HIS彩色空间; ( 2) 在HIS彩色空间,利用彩色图像中相邻像素点之间像素点的亮度差异、色调差异和饱和度差异来构造灰度级[9]。 ( 3) 利用得到的灰度级构造目标优化函数,然后利用共轭梯度法求解目标优化函数,得到灰度图像。利用SVM提取图像形状和纹理特征[10]对灰度图像数据进行训练,分成有人物和无人物,生成分类模型,将该模型应用到未知新闻图像中进行预测,判别图像中是否有人物存在。将分类为有人物存在的图像保存,进行后续的人脸检测实验。 2 基于滑动窗口自适应( ASW) 的人物检测方法 检测新闻图像中的人脸采用滑动窗口自适应方法。滑动窗口自适应( adaptive sliding window,ASW) ,即检测窗口根据图像中人脸位置和大小自动改变。新闻图像中的颜色分割主要是根据现实人脸肤色[11]设置一定的阈值,检测出整幅图像中类似人脸肤色的区域,再将检测到的肤色区域进行分割作为候选人脸区域。 ASW检测算法的主要思想是在训练集上维护一套权重分布,初始化时,该算法为训练集的每个训练对象指定相同的权重1 /m 。然后调用弱学习算法进行迭代学习,每次迭代后更新训练集上不同样本的权值,对训练失败的样本赋以较大的权重,即让学习算法在后续的学习过程中集中对比较难的训练对象进行学习。 训练弱分类器过程描述如下。 ( 1) 给定系列训练样本( x1,y1) ,( x2,y2) ,…,( xn,yn) ,其中yi= 0 表示其为负样本( 非人脸) ,yi= 1 表示其为正样本( 人脸) ,n为训练样本数量。 (2)初始化权重w1,i=D(i),其中D(i)=1/2m(对负样本),D(i)=1/2l(对正样本),m,l分别是负样本和正样本数量,m+l=n。 (3)对t=1,…,T 1)归一化权重。 2) 对每个特征,设为f ,训练一个弱分类器h( x,f,p,θ) ,计算对应加权( qt) 错误率 εf。 3) 选取最佳弱分类器ht( x) ( 拥有最小错误率εt) 。 4) 按照最佳弱分类器,调整权重。 式中ei= 0 表示xi被正确分类,ei= 1 表示xi被错误分类。 ( 4) 最后弱分类器为 式( 7) 中。 该算法根据每次迭代得到的预测结果为每个弱分类器赋予一个权值,最终预测结果是由每个弱分类器通过带权重投票方式产生。利用该模型检测图像中人脸,得到的结果用于后续的人脸识别。 3 基于局部保持投影的人脸识别方法 通过滑动窗口自适应方法检测出人脸后,需要对人脸作识别处理。通过对现有LPP局部保持投影方法的改进,提出有监督的双向二维局部保持投影法,结合子特征投票方法对人脸分类达到识别的目的。 3. 1 局部保持投影( LPP) 简介 局部保持投影LPP作为拉普拉斯特征映射的线性近似,同时具备流形学习方法和线性降维方法的优点,已被广泛应用于数字识别、人脸识别等问题中。 LPP的基本思想是求得一个变换矩阵W ,将n维的数据集{ x1,x2,…,xn} 投影到d维数据集{ y1,y2,…,yd} 中,并且保证原数据集中相邻近的数据在投影数据集中也相互邻近。算法过程如下。 ( 1) 构建邻接图G 。图G是有m个节点的带权无向图,通过以下两种方式来确定i 、j两点之间是否有边连接: 一种是 ε 邻近; 另一种是k邻近。ε邻近即向量xi、xj之间的距离满足 ‖xi- xj‖2<ε; k邻近即满足结点i是结点j的k个最近邻点之一,或者结点j是结点i的k个最近邻点之一。 ( 2) 确定邻接图G边的权值矩阵S 。当i 、j两点之间没有边相互连接时,权值为0,当有边相连时,权值计算方法有以下两种: 一种是简单形式,即Sij= 1 ; 一种是热核函数,即 ( 3) 特征映射。计算特征值和特征向量 式( 9) 中D是一个对角矩阵,它的元素由权值S的行或列的和组成,即即L是拉普拉斯矩阵,L = D - S 。 投影矩阵W={ω1,ω2,…,ωd},ωi是特征值λi对应特征向量,其中λ1≤λ2≤…≤λd。 LPP算法的投影矩阵W需满足约束条件 式( 11) 中 最小化问题对应的Lagrange函数为: 令 ω 的一阶导数为0,则得到式( 9) 。 LPP作为一种无监督方法,仅能保持近邻样本的局部结构,无法保证提取的特征有利于后续分类识别,不能有效利用已有类别信息提高分类效率。同时LPP在计算映射矩阵时出现了邻域重叠问题。为了进一步提高LPP性能,提出有监督的双向二维局部保持投影。 3. 2 有监督双向二维局部保持投影( S( 2D)2LPP) 针对LPP的缺点,在双向主成分分析[9]基础上,提出有监督的双向二维局部保持投影( S( 2D)2LPP) ,利用已知类别的样本调整分类器的参数,使分类器达到特定的性能需求。该方法能够改善人脸识别效果,对光照、姿态以及表情变化等具有一定的鲁棒性。同时利用图像行和列中的局部结构和判别信息提取图像特征达到高效识别。 S( 2D)2LPP的投影公式 式( 14) 中V是列方向上的投影矩阵,U是行方向上的投影矩阵。普通的2DLPP[12]是行方向的投影,列方向的约束条件为 式中 最小化问题对应的Lagrange函数为 令 ω 的一阶导数为0,则得到 基于S( 2D)2LPP算法的人脸识别可分为以下三个阶段。 ( 1) 计算投影矩阵。基于通用学习框架理论[13],从训练图像集中使用S( 2D)2LPP算法提取投影矩阵。 ( 2) 特征提取。根据式( 19) 提取已知图像的特征。 ( 3) 身份识别。对未知图像进行特征提取,再与已知图像计算相似度,采用最近邻分类器进行分类。 S( 2D)2LPP算法提取图像特征并进行降维,有效利用了已有的类别信息,下面采用邻近方法对图像分类。 3. 3 人脸图像分类方法 采用有监督的双向二维局部保持投影提取人脸特征并降维。将一幅人脸图像分成m个子图( 图1) ,构成一个子图集合,集合中每个非空子集为一个子特征,因此一幅人脸图像共有n个子特征,其中n=2m-1。 通过统计方法计算图像子特征权重,对于有s个人每个人有t幅图像的训练图库,具体步骤如下。 ( 1) 将图像分成m个子图,构成n个子特征Xi,i = 1,…,n 。 ( 2) 将训练图像中对应子图构成一个子图集合,计算每个子图的投影矩阵,并计算出每个图像对应子图的特征向量。 ( 3) 将每个子特征包含的子图的特征向量按次序结合成一个大的向量,作为子特征的特征向量。 ( 4) 进行多组随机检测。统计每个子特征对分类做出的贡献作为该子特征的权重。 随机检测方法具体过程如下。 ( 1) 训练集共s个人,每个人随机选出一幅作为已知图像,从剩余的图像中再随机选出30% 作为未知图像。 ( 2) 分别用每一个子特征代表整幅图像的特征,计算未知图像与每个已知图像的距离,采用k邻近的方式,当距离未知图像最近的k个图像中有与未知图像来自于同一个人的已知图像,则将该子特征的计数器sumi加1。 ( 3) 进行多组随机检测后,计算每个子特征的权重 式( 21) 中Count是模拟检测的总次数。 基于图像子特征分类具体过程如下。 ( 1) 将已知图像分块,计算每个子图像特征,并组合成每个子特征的特征向量。 ( 2) 对一个未知的待检测图像,先将图像分块,提取子特征的特征向量。 ( 3) 计算未知图像与已知图像对应子特征的距离,采用k邻近投票的方式,将权重为wi的票投给与其距离最近的k个已知图像。 ( 4) 统计每个已知图像得到票数,认为未知图像与得票最多的已知图像中的人脸是同一张人脸。 4 实验结果与分析 实验数据来自雅虎新闻图像和新华网新闻图像,经过预处理,获取含有人脸的新闻图像共计10万张进行实验。实验的机器配置为处理器Intel-Core2 Duo,内存为4 G,操作系统为64 位Win7。 4. 1 人脸检测实验结果及分析 用于检测人脸的子窗口初次设定为20 × 20 的分辨率,对一幅图像做检测需要从不同尺度和不同位置逐个检测。对于不同尺度的检测,选择对监测器进行缩放而不是对新闻图像本身进行缩放,在任何尺度下,特征都可以用同样方法求出。 定义以下三元组来表示人脸检测方法: E( p,k,S) ,其中p代表检测器放大倍数,k代表每次检测器平均平移像素; S代表检测器尺度,初始值为20 × 20。 实验结果表明,p = 1. 25 时实验效果最佳; 此外,检测器还需在不同位置逐个检测,每次检测器平均平移k个像素,如果放大后的检测器尺度为S ,则检测器窗口每次平均平移k S 。k的选择影响检测速度和精度,k值较大,检测速度快,但同时很多人脸由于检测器移动步长较大,最终被忽略; 反之,检测精度可能提高,但将使检测速度大大降低。经过多次实验,在实际检测中选择k = 4 时效果最佳。 根据实验需求定义。 ( 1) 人脸检测率( detection rate) 。在给定的新闻图像中,检测出来的人脸和人脸总数的比率,简写为DR。 ( 2) 错误检测数( false detection) 。图像中被检测出来的非人脸数,简写为FD。 ( 3) 错误检测率( false rate) 。错误检测数和截取出来的人脸总数的比值,简写为FR。 截取的总人脸数简写为Sum。 对于随机抽取的网络新闻图像,经过前期的预处理,筛选出7 个人参与的不同新闻事件数据,每种类型约有1 000 多张图片进行实验,分为7 类,选择不同p进行实验。表1 是p取不同值的人脸检测结果。 检测图像识别 篇3
由表1 看出,p = 1. 25 时,检测效果较好,既保证了检测速度,使程序运行不至于过慢,又提高了检测精度,检测到图像中所需人脸。个别类别图像在p = 1. 25 时检测效果不是最好,这和人脸在整张图像中所占的比例有关,相对而言,人脸所占面积比例越大,p越大,越容易检测到人脸。
人物检测率、人脸检测总数、错误检测数及错误检测率如表2 所示。
由表2 看出,p = 1. 25 时人脸检测率相对较高,无论p增大或减小,检测率都将降低; p越小,截取人脸数越多,但截取错误人脸数也越多,p太小时,错误检测率较高。这是因为p越小,k S就越小,比较容易检测到较小人脸,但和人脸区域特征相似的区域也能截取出来,因而错误检测数也较高。
由此可见,基于滑动窗口自适应方法和肤色特征相融合的人脸检测方法,在一定程度上避免传统方法中窗口不能适应人脸大小而造成人脸漏检和错检,有效提高了人脸检测率。
4. 2 人脸识别结果及分析
人脸识别过程中,首先将上一步截取的人脸图像人工筛选,将截取的非人脸图像剔除。实验将人脸图像分为3 × 3 的子图,子图大小为60 × 60,步长30,子特征数为511。使用截取过滤的网络新闻图像中的人脸作为训练图像库,计算每个子图的投影矩阵和每个子特征的权重。在截取的人脸中每人选取一幅图像作为已知图像,剩余图像作为未知检测图像。利用样本数据的类别信息计算类间散度矩阵和类内散度矩阵,把差值引入到LPP的目标函数,求得良好分类特性的投影向量。
( 1) k值选择实验。基于图像子特征分类方法在随机检测和分类过程两处用到了k邻近。随机检测时,采用k邻近的方式,当距离未知图像最近的k个图像中有与未知图像来自于同一个人的已知图像,则该子特征计数器增加,表明该子特征权重增大。分类过程中,计算未知图像与已知图像对应子特征的距离,采用k邻近投票方式,将票投给与其距离最近的k个已知图像。
本组实验主要观察k1,k2取不同值时对识别效果的影响。k越邻近,对应图像越相似; 反之,对应的图像差距越大。k选择实验如图2 所示,其中纵轴表示识别准确率的大小,图2 右边图标表示左边图的识别率渐进的颜色变化,使左侧识别率曲线从视觉上比较生动。
从图2 中可知,在k1= 0. 5,k2= 0. 3 时,相似度较高,识别效果最好。
( 2) 分别使用LPP,2DLPP和S( 2D)2LPP提取特征并进行降维,对子特征法与直接提取特征进行对比实验结果如表3 所示。方法缩写为FF,子特征缩写为Z,子特征数缩写为ZN。
子特征法对比实验如图3 所示,其中横轴为子特征数,纵轴为识别结果。
由图3 看出,结合子特征投票方法识别效果稍好,在一定范围内人脸识别率提高了3% ~ 10% 。这是因为结合子特征投票的方法考虑到较多局部信息,每一个子特征都是一个独立的特征,任何一个子特征缺失不会影响其他子特征,具有较强的鲁棒性。但当干扰区域范围达到三个子图即总数的三分之一或者更多时,识别效果与原方法相近或较差。伴随子图数目的增加,结合子特征的投票方法恢复其优越性,比其他方法识别效果稍好。
5 结束语
新闻图像的不规律性使人物标注存在巨大挑战。采用滑动窗口自适应方法和人脸肤色特征相结合,同时提出有监督的双向二维局部保持投影法,提取人脸特征,结合提出子特征投票方法进行分类,用于网络新闻图像人物检测和识别,结果表明该方法是可行的、有效的,其优点如下。
( 1) 检测器能够根据图像中人脸的大小和位置自由变换。
( 2) 提取人脸特征的细节信息,使提取的人脸特征向量更具鲁棒性。
但是该算法仍有改进空间,存在以下尚需解决的问题:
( 1) 在人脸检测过程中,当完全没有人物的正面信息时,滑动窗口自适应方法无法检测到人脸,人脸检测率降低。如果能够添加人脸头部器官的其他特征,检测效果会更好。
( 2) 在人脸识别过程中,当人脸图像中存在干扰因素和噪声较多且分布在多个子图中时,图像子图提取特征不准确,相似度匹配不高导致识别效果不好。如果能够消除子图像噪声干扰、消除分块边界问题识别效果会更好。
摘要:针对网络新闻图像中人物的不同表情、光照、姿势等因素带来的视觉空间差异造成的人脸检测效果差的问题,提出滑动窗口自适应方法和肤色特征相融合,检测新闻图像中的人脸。针对单样本条件下的人脸识别问题,提出有监督的双向二维局部保持投影法,提取人脸特征。结合图像子特征加权方法,先将人脸图像分块,子图像的子集作为一个子特征统计权重,采用人为投票的方式进行识别。实验选取雅虎新闻图像和新华网新闻图像。结果表明,滑动窗口自适应算法在不同类别新闻图像中人脸检测率提高了3%~10%,人脸识别率在一定范围内提高了5%。
检测图像识别 篇4
REACH无线射频识别质量检测报告 无线射频识别质量检测报告京诚检测机构(BJT)是具有第三方公正地位的独立检验机构,在产品检测与认证服务领域已有超过十年的丰富经验,是集电磁兼容性测试,安全规格测试,化学检测,玩具检测,纺织品检测,食品检测,可靠性检测,性能检测及代客户整改对策的实验室。专业提供欧美等各国标准技术、产品检测技术和认证技术服务。我们为全球企业提供欧盟CE认证、美国FCC认证、中国CCC认证、欧盟REACH认证、食品级检测、RoHS检测、FDA认证、LFGB检测、欧盟WEEE认证、美国RoHS认证、MSDS化学品安全技术说明报告、REACH技术咨询、ERP环保指令认证、产品环保测试、认证咨询及整体解决方案服务,其它多国产品标准技术和认证技术服务等。
办理商城产品质量检测报告、深圳质量检测报告、质量检测报告如果您的产品打算进超市或进大型的卖场和征投标,取得一份质量检测报告无疑会增加产品的成功率,BjT京诚检测科技提供质量检测报告,欢迎来电咨询。有关产品质量检验报告的知识产品质量检验报告能全面、客观地反映产品的质量信息,一般是由独立于供需双方的第三方专业检验机构完成的。第三方专业检验机构具有相对的独立性和公正性,有资格向社会出具公正数据(检验报告)。
http://
检测图像识别 篇5
我国铁路发展可谓日新月异,铁路网络的覆盖密度和机车的运输速度一直不断提高,使得行车安全性提高到前所未有的高度,因为这关乎生命和财产安全。只有保证机车各个设备在运行时正常无故障,才能有效保证行车安全性,铁路设备检测是提高运输效率和质量的基础。因此,铁路的发展对铁路设备检测工作也提出了更高的要求。
传统的铁路设备检测方法是通过人工检测,主要依靠铁路工人使用便携式设备检测仪器仪表进行检测,由于这样的方法需要机车停车待检,会导致机车运行时间减短,工作效率降低。如果能够在机车运行时期做到设备检测,设备图像采集、识别、判定,那么就可以做到设备故障早检测早发现早预防。
本文采用图像识别技术进行铁路设备故障检测,即包含在铁路运行时期进行设备图像采集、识别、判定故障等内容。
1 相关理论知识
1.1 图像识别
图像识别是利用信息处理与计算机技术,采用数学方法,对图像进行处理、分析和理解的过程,用于达到识别不同模式的目标和对象的技术。图像识别是人工智能的一个重要领域。图像识别流程如图1所示,首先需要提取待处理图像的特征,对其中某些参数进行处理和测量,再进行提取特征,最后识别和分类。图像识别应用范围近年来不断扩大,例如人脸识别、考场指纹识别、车牌动态识别都是一些比较典型的图像识别应用。
1.2 图像识别算法
图像识别有多个阶段组成:图像的预处理、图像的特征提取、图像的识别。每个阶段都有多种算法可以采用,本文根据铁路设备故障检测中设备图像的特性选取以下几个算法完成图像识别过程。首先,在图像预处理过程中,为了加快后期识别的速度,采用图像灰度化处理方法。经过了图像预处理之后的图像为提取特征打好了基础。图像特征提取阶段是要在图像中提取具有分类信息的特征,该特征是可以用于区分同类图像不同状态的信息。本文中特征提取采用的是改进的灰度差异快速识别算法[2]。最后通过对比同一设备不同时期采集的图像,实现对铁路设备是否变化是否出现故障进行检测,诊断过程借鉴文献[3,4,5]所提算法。
本文所提基于Sift算法的图像识别流程图如图2所示。
2 图像识别技术在铁路设备故障检测中的应用
本文根据图像识别技术实现一个有效的铁路设备故障检测应用系统。
2.1 检测系统的软硬件选择
系统硬件设备包括以下几个部分:DALSA 1K 线阵相机、普通台式机。
系统软件由C++语言在Windows XP操作系统下,VS.net开发平台下进行开发的。
2.2 算法实现过程
用编程语言描述上述识别算法过程如下:
2.3 系统描述及结果分析
设备故障检测系统的业务流程与图1相同。在系统正式运行之前,首先采集到设备无故障的原始图像(如图3(a)所示),经过相同的手段进行处理后保存在计算机中,作为检测时候的可以比对的参考图像。一切准备工作就绪后,系统进入运行期开始完整的业务流程。对于采集到的图像要进行预处理,提取图像特征,与原图进行对比。对于有异常变化的设备发出预警,使其可以达到在机车运行时检测设备并提升检车效率。
本文所描述的系统安装先后完成了系统调研、软硬件系统的设计与实现,系统试运行阶段。在系统运行期间,发现典型故障并正确提示预警。本文图3(b)为采集到的设备运行时状态图像,该图像由于采光或夜间行车等限制使得整个图像效果不是很好。系统对于该图像进行预处理,处理后图像为图3(c)。之后对于图像进行特征提取,并与图3(a)进行比较,发现在图3(c)中出现异常情况,并诊断为设备故障且标识的区域如图3(d)所示。
检测出的设备故障信息会发送到控制台界面,提示机车监控人员在机车停止运行时期及时对机车做相应的维修和处理。信息传输技术不是本文介绍重点,这里不做赘述。
3 结束语
基于图像识别技术的故障检测方法是一种高效低成本的自动化故障检测方法,该故障检测系统实现了由机器检测替代人工检测,减少了现场作业的工作强度,并提高了运输效率。该检测方法具有良好的经济效益,必将得到更为广泛的应用。
参考文献
[1]章毓晋.图像处理和分析[M].北京:清华大学出版社,1999:24-35.
[2]刘新海,等.一种基于灰度特征的快速定位识别算法[J].三峡大学学报:自然科学版,2002(2):131-133.
[3]范永法,郑长宏.用于表面裂纹自动检测的图像识别算法[J].机械设计与制作,2002,8(4):80-81.
[4]雷丽珍.数字图像边缘检测方法的探讨[J].测绘通报,2006(3):40-42.
检测图像识别 篇6
随着航运技术的发展, 船舶运输越来越受到人们的关注。船舶的水尺计重作为一种科学的计重方法, 具有一定的准确性, 在国际上已广泛应用, 其计算结果可作为商品交接结算、理赔、计算运费和通关计税的依据。其适用于价值较低, 衡重困难的大宗散装固体商品, 例如煤炭、铁矿石、水泥、粮食等商品的重量计算。水尺计重的优点是省时、省力、省费用, 能迅速计算出整船货物的重量, 但是计算过程较为复杂, 影响计重结果的客观因素较多, 特别船舶刻度观测水平是影响水尺准确性最重要因素。船舶吃水线的检测目前主要依靠经过长期训练的观察人员目测船舶的水尺标志而获得船舶的实际吃水值, 为了获得较为精确的数值, 需要观察人员多次查看, 以求得平均值。这种人眼目测船舶吃水线数值的方式, 往往带有主观性, 存在较大的局限性, 例如:观测不方便, 受环境影响大, 并且观测存在一定危险。因此, 本文提出采用Matlab7.0作为仿真环境, 利用图像处理技术, 设计船舶吃水线自动检测的算法来自动检测船舶水尺刻度数值, 可以克服人工目测所引起的一系列问题, 完整的记录整个观测阶段的吃水线位置, 并使后续的数据处理成为可能。降低了系统复杂性, 又提高了效率和准确度。
2 图像识别技术的原理
近年来, 拍摄设备性能的不断完善, 设备的分辨率能够达到很精确的程度, 图片质量清晰度非常高, 同时计算机体系结构和算法的快速发展, 使得图像处理的性能和运算速度得到了较大提高, 这些都为吃水线的求取提供了可能。一幅图像在计算机中可以定义为一个二维函数f (x, y) , 其中x和y是空间 (平面) 坐标, 而在任何一对空间坐标 (x, y) 处的幅值f称为该点处的灰度, 当x, y和灰度值f是有限的离散数值时, 我们称该图像为数值图像, 数字图像处理就是借助计算机来处理上述这些数字图像。数字图像是由有限数量的元素组成的, 每个元素都有一个特殊的位置和数值, 要将一副图像转化为数字形式, 就要求数字化x, y和灰度值f。在此基础上, 利用上述数值, 设计相应的算法即可得到船舶水尺精确的刻度值。
3 船舶吃水线刻度检测算法的设计
3.1 总体结构设计
本文利用Matlab7.0作为仿真环境, 通过采集到的视频图像序列, 首先设计计算法检测出吃水线边缘, 找到吃水线的位置, 然后对船帮上刻度字进行分割, 并求出水平面距离所在刻度上边缘的距离, 利用BP神经网络对水尺刻度线进行识别, 得到吃水线的数值。吃水线检测算法的总流程图如 (图1) 所示:
3.2 船舶吃水线刻度检测算法关键步骤的处理
3.2.1 图像的灰度化和二值化处理
相比彩色图像, 灰度图像的边缘检测较为方便和快捷, 计算量小, 所以先将获取到的彩色图像转为灰度图像。而图像的二值化处理就是将图像上的像素点的灰度值设置为0至255, 将采样后所得到的各像素的灰度值用矩阵表示, 即灰度图的量化。所有灰度值大于或者等于阀值的像素被判定为特殊物体, 灰度值小于阀值的则表示为背景或者其他物体区域。通过将灰度值投影到曲线上, 则可以获得灰度值的分布特征。
3.2.2 选择合适的边缘检测算法找到吃水线的边缘
数字图像的边缘检测是图像分割, 目标区域识别, 区域形状提取等图像领域中十分重要的基础, 边缘是图像的最基本特征之一, 它是利用周围像素灰度有阶跃变化或屋顶变化的像素的集合。边缘检测算法大致分为两类:基于查找和基于零穿越的边缘检测。常用的边缘检测算法有:Roberts、Prewitt、Sobel、LOG、Canny算法等。
3.2.3 选择合适的阀值对刻度字的分割
图像分割是一种重要的图像分析技术, 在对图像的研究和应用中, 人们往往仅对图像中的特定部分感兴趣。为了识别和分析图像中得目标, 需要将它们从图像中分离提取出来, 在此基础上才有可能进一步对目标进行测量和对图像进行利用。而分割字符的思想就是利用刻度字区域黑色像素点比较多, 比较集中, 同时根据水尺标志的特点, 每个字符之间有10cm的空隙间隔隔开, 这样得到的投影图有几个比较集中却又有明显分割的投影峰值群, 通过设定特定的阀值来判定特定物体, 通过这种方法将找出船帮上刻度字的左右边界。
3.2.4 选择BP神经网络对船帮处水尺字符进行识别
字符识别的主流技术有:统计决策法、人工智能法、模板匹配法和人工神经元网络法等。同在字符识别领域相对比较成熟的光学字符 (OCR) 识别、车牌识别相比, 船帮处水尺刻度字符由于表面凹凸、油漆掉色或摄像时水面反光等情况造成的字符畸变。为了提高系统的抗干扰性和自适应性, 本文计划采用对噪声干扰和形变有较好适应性的BP神经网络模型方式来进行识别。BP网络是神经网络的一个分支, 又称误差信号反馈网络, 是神经网络中使用最广泛的一类。并尝试通过改善收敛性, 神经元的个数, 提高系统的识别率。
3.3 Matlab软件的使用
Matlab由美国的MathWorks公司出品, 它的指令表达式与数学, 工程中常用的形式十分相似。其典型的应用包括: (1) 数学和计算; (2) 算法开发; (3) 数据获取; (4) 建模、模拟和原型设计; (5) 数据分析、研究和可视化; (6) 科学和工程图形; (7) 应用开发, 包括图像用户界面的构建。MATLAB中补充了许多针对特殊应用的工具箱, 图像处理工具箱是一个MATLAB函数集合, 能进行图像的和、差等线性运算, 以及卷积、相关、滤波等非线性运算, 几乎包括了常用的图像处理操作的各种函数, 只需了解这些函数的使用方法, 正确调用函数就可以实现常用的各种图像处理的操作。MATLAB能支持包括:TIFF、BMP、JPEG等的图形文件的格式, 用它来解决图像问题比用C, Fortran等语言完成相同的事情简捷的多。因此利用此工具, 我们可以方便地从各个方面对图像的性质进行深入的研究。
本文所研究的内容是在静态图像上对吃水线进行检测, 其技术路线包括图像的预处理, 利用边缘检测算子对吃水线边缘进行拟合, 去除干扰, 得到吃水线的位置。利用船舶刻度字的特点, 对其进行分割, 对分割出来的字符进行识别后, 得到吃水线的数值。以上都可以通过Matlab调用不同的工具箱和函数来实现。
4 结语
由于经济利益, 发货人、收货方和承运人都对货物的重量非常重视, 而且越来越精细、严格, 如何准确计算船舶载重量成为亟待解决的问题。作为近年来快速发展起来的一个计算机学科, 通过使用图像处理和分析的手段, 获得水平面在图像中的准确位置, 既可以克服人工目测所引起的一系列问题, 完整的记录整个观测阶段的吃水线位置, 使后续的数据处理成为可能, 既降低了系统复杂性, 又提高了效率和准确度。图像处理的对象是一幅幅拍摄下的照片, 其中的吃水线位置是固定的, 这样就为后续的处理和计算奠定了一个静态的基础, 不会发生象人眼目测, 由于景物晃动而产生的错觉。同时, 拍摄下的照片作为测量的记录保存, 可以满足今后复核或是查对的要求。再次, 利用图像处理技术, 可以大幅度降低对有经验观测人员的依赖。因此利用图像识别技术对船舶水尺测量具有广泛的应用价值。
摘要:本文利用Matlab7.0作为仿真环境, 通过采集到的视频图像序列, 设计船舶水尺刻度线的图像识别算法, 实现船舶水尺刻度线的自动检测。实验表明该系统具有速度快, 精度高的特点, 解决了人眼不能准确确定船舶水尺刻度线的数值的问题。
关键词:水尺,检测,图像识别
参考文献
[1]SN/T0187-93进出口商品重量鉴定规程——水尺计重.
[2]陈德为, 张培铭.转动式交流接触器动态过程分析与控制[J].福州大学学报:自然科学版, 2008, 36 (1) :95—99.
[3]陈德为, 张培铭.采用高速摄像机的智能交流接触器控制及其测试装置的研制[M].电工电能新技术:2009, 28 (3) :58-61, 72.
[4]周广程.图像处理技术在船舶吃水自动检测系统中的应用[D].南京:南京理工大学, 2006.
[5]刘仁金, 高远飙, 郝祥根.船舶吃水线定位分析及算法研究.皖西学院报, 2009, 25 (5) 1-4.
检测图像识别 篇7
本文所针对的基于动态图像的人脸识别系统的研究设计目的在于通过前端摄像头判断某一视野是否有人, 如果有人则对其身份进行鉴定, 进而作出一些必要的反应。
该基于动态图像的人脸识别系统研究的关键问题及研究思路如图1所示:
1. 图像采集环节
图像采集是指将前端摄像头传过来的信号采集为视频和图片。该环节包括三个研究重点:
(1) 采集摄像头传来的视频信号
(2) 对采集到的视频进行分割与取帧
(3) 对处理后的视频的再现
在具体的实现过程中, 此处我们在Windows操作系统下, 采用VFW方法, 对数字摄像头进行操作, 用VC6.0编程。
2. 人脸检测与分割环节
根据采集的图像, 确定图像中是否有人脸, 如果有则确定人脸的位置, 并转化成标准大小的人脸图像。此处我们采用基于皮肤颜色的人脸检测方法。首先在图像中检测人的皮肤, 确定皮肤的位置, 以此作为人脸的候选区域。再在这些候选区域中检测脸部特征, 进一步确定人脸区域。
2.1 主要研究步骤
第一步:光线补偿
第二步:将RGB图像转化为YCBCR图像
第三步:建立皮肤颜色的高斯分布模型
第四步:用高斯模型检测出图像中的皮肤区域
第五步:求出皮肤区域中皮肤色调的马氏距离图
第六步:用主成份分析法确定皮肤区域是否是人脸
2.2 主要涉及算法及说明
(1) 光线补偿与将RGB图像转化为YCBCR图像的目的是减小外界光照的影响;
(2) 建立皮肤颜色的高斯分布模型;
(1) 实现思路:
利用皮肤颜色服从高斯分布, 计算公式如下:
(2) 辅助工作:
收集皮肤图像样本 (收集一些皮肤图像样本) , 统计计算出皮肤颜色高斯分布的参数。
(3) 用高斯模型检测出图像中的皮肤区域;
(1) 实现思路:
根据上面的高斯模型, 可以直接计算出颜色c是皮肤的可能性的概率, 也可用从颜色向量c到均值向量的Mahalanobis距离来度量, 计算公式如下:
(2) 研究步骤:
第一步:计算图像的马氏距离
第二步:根据马氏距离确定图像中各点像素是否是皮肤像素
第三步:对皮肤像素进行膨胀与腐蚀
第四步:去除假区域
第五步:确定可能的人脸区域并缩放到标准人脸图像大小
第六步:用MATLAB进行编程。
3. 人脸识别环节
人脸识别环具体内容在于根据前面检测的人脸图像, 计算其特征, 根据这些特征判断是不是已知的人脸, 从而确定人的身份。这些特征可以是具体的, 也可是抽象的。为了便于计算, 可以将人脸图像作为高维空间的一个点或一个向量, 将这个高维向量映射到维数较低的向量空间, 并用映射空间的向量表示人脸图像, 来进行人脸识别。
3.1 实现思路
利用特征脸法。在人脸识别中, 用主成份分析方法对人脸图像的原始空间进行转换, 即构造人脸图像数据集的协方差矩阵, 对之进行正交变换, 求出协方差矩阵的特征向量, 再依据特征值的大小对这些特征向量进行排序, 每一个向量表示人脸图像中一个不同数量的变量, 这些特征向量表示特征的一个集合, 它们共同表示一个人脸图像。在人脸识别领域, 人们能常称这些特征向量为特征脸。每一个体人脸图像都可以确切地表示为一组特征脸的线性组合。采用MATLAB进行编程实现, 仿真对象是ORL (Olivette Research Lab) 标准人脸库。
3.2 算法训练过程
(1) 构造训练样本集trainingSet即从人脸图像目录中读取多个人脸图像到trainingSet中;
(2) 计算出所有训练样本的平均脸meanImage和各训练样本相对于平均脸的差值图像differenceImages;
(3) 用特征值分解的方法求差值图像differenceImages的特征值和特征向量Eimage Eval;
(4) 求训练集中的每个差值图像相对于各特征向量上的投影值xuWeight构成的特征脸向量;
(5) 计算每一类的平均投影值xuAveWeight (对于最近邻法不需要这一步)
3.3 算法识别过程
(1) 读取一幅待识别图像recogniseImage
(2) 求取该图像相对于平均脸meanImage差值图像recDiffIm
(3) 求差值图像recDiffIm在各特征向量上的投影weight
(4) 求该投影值weight构成的向量与各类的xuAveWeight构成的向量之间的欧氏距离xuDiffWeigh (基于夹角最小法则:该投影值weight构成的向量与各训练样本的xuWeight构成的向量之间的夹角余弦)
(5) 判断与最小的欧氏距离xuDiffWeight则该图像属于该类 (基于夹角最小法则:判断最小的夹角余弦所对应的训练样本所属类为该图像的类别)
4、人脸特征库管理环节
主要包括对皮肤图像库的管理、对已知人脸图像库的管理, 对各种学习方法的管理和计算出的人脸各种表征值的管理。
本系统因为在设计开发实现过程中使图像采集受各种外界条件影响很小, 实际检验证明可使实际识别性能获得较大提高。
摘要:图像的摄制过程决定了人脸图像识别系统必须面对不同的光照条件、视角、距离变化等视觉问题, 尤其是在用户不配合、非理想采集条件下, 这些成像因素都会极大影响人脸图像的表观, 从而使得识别性能欠稳定。笔者研究设计了一个确实可行的基于动态图像的人脸识别系统, 本文阐述了研究的关键问题及研究思路, 并对其中的人脸检测与分割环节、人脸识别环节的研究步骤和算法进行了深入探讨。
图像识别技术研究综述 篇8
关键词:图像处理,图像识别,成像
图像是客观景物在人脑中形成的影像,是人类最重要的信息源,它是通过各种观测系统从客观世界中获得,具有直观性和易理解性。随着计算机技术、多媒体技术、人工智能技术的迅速发展,图像处理技术的应用也越来越广泛,并在科学研究、教育管理、医疗卫生、军事等领域已取得的一定的成绩。图像处理正显著地改变着人们的生活方式和生产手段,比如人们可以借助于图像处理技术欣赏月球的景色、交通管理中的车牌照识别系统、机器人领域中的计算机视觉等,在这些应用中,都离不开图像处理和识别技术。图像处理是指用计算机对图像进行处理,着重强调图像与图像之间进行的交换,主要目标是对图像进行加工以改善图像的视觉效果并为后期的图像识别大基础[1]。图像识别是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。但是由于获取的图像本事具有复杂性和特殊性,使得图像处理和识别技术成为研究热点。
图像处理(image processing)利用计算机对图像进行分析,以达到所需的结果。图像处理可分为模拟图像处理和数字图像图像处理,而图像处理一般指数字图像处理。这种处理大多数是依赖于软件实现的。其目的是去除干扰、噪声,将原始图像编程适于计算机进行特征提取的形式,主要包括图像采样、图像增强、图像复原、图像编码与压缩和图像分割。
1)图像采集,图像采集是数字图像数据提取的主要方式。数字图像主要借助于数字摄像机、扫描仪、数码相机等设备经过采样数字化得到的图像,也包括一些动态图像,并可以将其转为数字图像,和文字、图形、声音一起存储在计算机内,显示在计算机的屏幕上。图像的提取是将一个图像变换为适合计算机处理的形式的第一步。
2)图像增强,图像在成像、采集、传输、复制等过程中图像的质量或多或少会造成一定的退化,数字化后的图像视觉效果不是十分满意。为了突出图像中感兴趣的部分,使图像的主体结构更加明确,必须对图像进行改善,即图像增强。通过图像增强,以减少图像中的图像的噪声,改变原来图像的亮度、色彩分布、对比度等参数。图像增强提高了图像的清晰度、图像的质量,使图像中的物体的轮廓更加清晰,细节更加明显。图像增强不考虑图像降质的原因,增强后的图像更加赏欣悦目,为后期的图像分析和图像理解奠定基础。
3)图像复原,图像复原也称图像恢复,由于在获取图像时环境噪声的影响、运动造成的图像模糊、光线的强弱等原因使得图像模糊,为了提取比较清晰的图像需要对图像进行恢复,图像恢复主要采用滤波方法,从降质的图像恢复原始图。图像复原的另一种特殊技术是图像重建,该技术是从物体横剖面的一组投影数据建立图像。
4)图像编码与压缩,数字图像的显著特点是数据量庞大,需要占用相当大的存储空间。但基于计算机的网络带宽和的大容量存储器无法进行数据图像的处理、存储、传输。为了能快速方便地在网络环境下传输图像或视频,那么必须对图像进行编码和压缩。目前,图像压缩编码已形成国际标准,如比较著名的静态图像压缩标准JPEG,该标准主要针对图像的分辨率、彩色图像和灰度图像,适用于网络传输的数码相片、彩色照片等方面。由于视频可以被看作是一幅幅不同的但有紧密相关的静态图像的时间序列,因此动态视频的单帧图像压缩可以应用静态图像的压缩标准。图像编码压缩技术可以减少图像的冗余数据量和存储器容量、提高图像传输速度、缩短处理时间。
5)图像分割技术,图像分割是把图像分成一些互不重叠而又具有各自特征的子区域,每一区域是像素的一个连续集,这里的特性可以是图像的颜色、形状、灰度和纹理等。图像分割根据目标与背景的先验知识将图像表示为物理上有意义的连通区域的集合。即对图像中的目标、背景进行标记、定位,然后把目标从背景中分离出来。目前,图像分割的方法主要有基于区域特征的分割方法、基于相关匹配的分割方法和基于边界特征的分割方法[2]。由于采集图像时会受到各种条件的影响会是图像变的模糊、噪声干扰,使得图像分割是会遇到困难。在实际的图像中需根据景物条件的不同选择适合的图像分割方法。图像分割为进一步的图像识别、分析和理解奠定了基础。
2 图像识别技术
图像识别是通过存储的信息(记忆中存储的信息)与当前的信息(当时进入感官的信息)进行比较实现对图像的识别[3]。前提是图像描述,描述是用数字或者符号表示图像或景物中各个目标的相关特征,甚至目标之间的关系,最终得到的是目标特征以及它们之间的关系的抽象表达。图像识别技术对图像中个性特征进行提取时,可以采用模板匹配模型。在某些具体的应用中,图像识别除了要给出被识别对象是什么物体外,还需要给出物体所处的位置和姿态以引导计算初工作。目前,图像识别技术已广泛应用于多个领域,如生物医学、卫星遥感、机器人视觉、货物检测、目标跟踪、自主车导航、公安、银行、交通、军事、电子商务和多媒体网络通信等。主要识别技术有:
2.1 指纹识别
指纹识别是生物识别技术中一种最实用、最可靠和价格便宜的识别手段,主要应用于身份验证。指纹识别是生物特征的一个部分,它具有不变性:一个人的指纹是终身不变的;唯一性:几乎没有两个完全相同的指纹[3]。一个指纹识别系统主要由指纹取像、预处理与特征提取、比对、数据库管理组成。目前,指纹识别技术与我们的现实生活紧密相关,如信用卡、医疗卡、考勤卡、储蓄卡、驾驶证、准考证等。
2.2 人脸识别
目前大多数人脸识别系统使用可见光或红外图像进行人脸识别,可见光图像识别性能很容易受到光照变化的影响。在户外光照条件不均匀的情况下,其正确识别率会大大降低。而红外图像进行人脸识别时可以克服昏暗光照条件变化影响,但由于红外线不能穿透玻璃,如果待识别的对象戴有眼镜,那么在图像识别时,眼部信息全部丢失,将严重影响人脸识别的性能[4]。
2.3 文字识别
文字识别是将模式识别、文字处理、人工智能集与一体的新技术,可以自动地把文字和其他信息分离出来,通过智能识别后输入计算机,用于代替人工的输入。文字识别技术可以将纸质的文档转换为电子文档,如银行票据、文稿、各类公式和符号等自动录入,可以提供文字的处理效率,有助于查询、修改、保存和传播。文字识别方法主要有结构统计模式识别、结构模式识别和人工神经网络[5]。由于文字的数量庞大、结构复杂、字体字形变化多样,使得文字识别技术的研究遇到一定的阻碍。
3 结束语
人类在识别现实世界中的各种事物或复杂的环境是一件轻而易举的事,但对于计算机来讲进行复杂的图像识别是非常困难的[6]。在环境较为简单的情况下,图像识别技术取得了一定的成功,但在复杂的环境下,仍面临着许多问题:如在图像识别过程中的图像分割算法之间的性能优越性比较没有特定的标准,以及算法本身存在一定的局限性,这使得图像识别的最终结果不十分精确等。
参考文献
[1]胡爱明,周孝宽.车牌图像的快速匹配识别方法[J].计算机工程与应用,2003,39(7):90—91.
[2]胡学龙.数字图像处理[M].北京:电子工业出版社,2011.
[3]范立南,韩晓微,张广渊.图像处理与模式识别[M].北京:科学出版社,2007.
[4]晓慧,刘志镜.基于脸部和步态特征融合的身份识别[J].计算机应用,2009,1(29):8.
[5]陈良育,曾振柄,张问银.基于图形理解的汉子构型自动分析系统[J].计算机应用,2005,25(7):1629-1631.
浅谈SAR图像模式识别 篇9
关键词:SAR图像,模式识别,区别
合成孔径雷达 (SAR) 是一种具有高分辨力的成像雷达, 能够全天时、全天候工作, 并具有多波段、多极化、视角可变、有穿透性等特点, 越来越多地应用于遥感、地质研究、安全救助、军事侦察等领域。因此, SAR图像自动目标识别具有重要意义。
一、系统流程
如图1所示, SAR图像目标识别系统由数据获取、预处理、特征提取选择、分类决策及分类器设计五部分组成。由未知类别模式的分类及分类器设计的训练过程两个部分组成。[1]
SAR图像目标识别一般采用分层的方法。由于SAR成像的特殊机理, 获取的原始数据中含有大量斑点噪声, 经A/D变换、二值化后, 必须去除斑点噪声, 再经过图像变换、增强、滤波等处理, 为检测提供目标图像;其次进行目标检测, 从整个SAR图像中提取可能包含目标的小区域, 去除虚假目标, 为分类识别降低运算量, 提高识别效率;然后提取合理的特征值, 降低特征维数;最后通过训练确定满足一定虚警率、识别率的判决规则, 选择合理的分类器进行分类识别。[2]
二、系统区别
由于SAR的特殊成像机理, 衰落引起本来具有相同后向散射系数的均匀区域出现随机分布的颗粒状噪声, 称为相干斑噪声, 严重影响图像的质量。因此, 在进行SAR图像模式识别之前, 必须抑制相干斑。早期通过降低处理器带宽的多视平均处理法牺牲了SAR图像的空间分辨率, 且相干斑噪声抑制效果并不理想, 随后出现了空域滤波算法、小波域的相干斑抑制方法以及基于各向异性扩散的斑点抑制技术等。相干斑抑制要充分考虑均匀区域的等效视数、空间分辨率和辐射分辨率的损失、图像平均后向散射系数保持能力以及图像的自然视觉特性保持度等指标。基于各向异性扩散的斑点抑制技术隐含了自动标定棱边位置和取向, 实施各向异性平滑, 且无需采取窗口机制的数值计算, 抑制效果良好, 因此被广泛用于图像处理领域。这里简单介绍Catte各向异性扩散模型。先对图像进行平滑处理, 降低噪声点的梯度, 再进行迭代运算, 抑制效果良好。
为进一步重构图像, 增强目标像素强度, 可使用基于正则化的目标增强技术。假设包含噪声的情况下SAR距离像观测模型为;从给定含加性测量噪声的观测数据矢量, 利用成像投影算子, 估计反射率场的取样数据矢量。充分体现了几何观测模型, 增加了先验知识, 同时考虑了点特征与区域特征的增强。[3]由于SAR斜距成像和背景起伏等因素容易引起图像的几何变形, 因此在预处理阶段还要进行几何纠正, 将图像重投影到指定的坐标系统中, 主要方法包括多项式纠正方法、共线方程方法、距离-多普勒 (R-D) 模型法以及基于DEM的模拟方法等。此外还需进行图像配准, 利用特征和灰度匹配, 由粗到精进行图像配准, 提高全局子像素级精度的基础上, 增加算法的灵活性和稳健性。
对于目标检测率越高、虚警率越低检测结果越好。常见的检测技术包括恒虚警检测、多分辨率检测以及利用相位和极化信息的检测方法等。为了节省计算量, 可采用在图像生成过程中来检测目标的多尺度方法。当目标检测器获得足够多的信息可以判断某一块区域没有目标的时候, 提示图像生成器中止继续生成该区域的图像, 以节省结算量。[2]
SAR图像目标模式识别与光学图像的目标模式识别最大的不同就在预处理阶段。在充分考虑SAR图像特点的基础上特征提取与分类判别时可参照光学图像的模式识别进行设计。其分类器要有较好的泛化能力, 能进行模糊的信息处理, 因此, 常用神经网络和支持向量机 (SVM) 的分类器。
三、总结
相比普通光学图像的目标识别, SAR图像目标识别需要克服的困难比较多。首先, 由于SAR图像成像机理特殊, 对方位角十分敏感, 易受强噪声 (特别是相干斑噪声) 及阴影、透视收缩、迎坡收短、顶底倒置等几何变形的影响, 且散射强度随目标的形状、姿态和视角可变, 视觉可读性差, 使得特征的提取非常困难。其次, 目标环境无法控制, 某些目标在其他物体的遮盖下变得不易识别, 且目标运动易造成图像模糊。另外, 随着SAR数据源、分辨率、成像模式不断增加, 目标信息呈爆炸式增长, 需大量的目标模板建立完备的数据库以正确判别图像目标, 因此, 一个成功的SAR目标识别系统, 必须充分考虑雷达、目标及所处的电磁环境, 要根据用户需求及SAR图像特点, 满足SAR图像模式识别系统的识别率、错误率、复杂度、抗噪性能及实时性等性能, 建立各种目标的描述模型和分类模型, 选择合适的算法及分类器。
参考文献
[1]杨淑莹.张桦.模式识别与智能计算—MATLAB技术实现[M].北京:电子工业出版社, 2015.
[2]张红.王超, 等.高分辨率SAR图像目标识别[M].北京:科学出版社, 2009.
【检测图像识别】推荐阅读:
图像检测08-08
射线检测图像01-17
图像尺寸检测01-20
图像检测技术08-20
图像特征检测论文09-06
图像边缘检测技术分析08-18
图像边缘检测方法研究10-31
视频图像检测技术论文01-06
语音图像识别05-21
车牌图像识别06-08