移动物体检测论文

2024-06-05

移动物体检测论文(精选7篇)

移动物体检测论文 篇1

0 引言

模式识别是数字图像处理技术的一个重要分支,也是当前移动目标检测技术的研究热点。现有的运动目标定位方法,应用在实际过程中,由于图像数据量大,而且大多数算法复杂度高,使得对于快速移动目标的图像处理速度跟不上实际要求,实时性差,准确率不高。同时在复杂背景下,当背景比较复杂时,很难从中提取出要进行比较的目标区域,并且当图像质量不佳时,求出的特征量误差较大,容易引起误判。本文针对现有技术中存在的问题提出一种对移动目标进行快速检测的算法。本文对连续图像进行差影计算来确定移动目标区域,从而能去除背景干扰,可以明显提高目标识别的速度和准确率[1]。

1 图像差分与处理

1.1 图像差分

背景提取是进行图像差分的第一步。传统的背景提取方法采用的是叠加求平均值的方法来获得背景[2],具体原理可用下试表示:

式(1)中,Back Ground[i][j]表示背景图中点(i,j)位置的像素值。然而此种方法计算量大,而且容易出错。

针对于这个问题,我们可以使用动态背景差算法,即运动检测法。本文计算连续的两帧图像的绝对差,即采用动态背景。之所以选用这样的方法,是由于相邻两帧图像受光照变化和噪声的影响都相对小的多,所以每隔一定的时间间隔采样一次背景,即把直接抽取视频序列中的某一幅图像作为背景。此方法可用于检测景物中相对运动的对像获取异物,能很好的克服光线和噪声的影响,而且在实际应用中,由于不需要对每一帧图像都做处理,计算量小。

1.2 阈值提取(OTSU算法)

OTSU算法以最佳门限将图像灰度直方图分成目标和背景两部分,使两部分类间方差取最大值,即分离性最大。设图像灰度级1~M,第i级像素,总像素则第i级灰度出现的概率为Pi=ni/N。

设灰度门限值为k,则图像像素[2]按灰度级被分为两类:C0={1,2,…,k},C1={k+1,…,M},图像总平均灰度级:

C0类的平均灰度级、像素数分别为:

C1类的平均灰度级、像素数分别为:μ-μ(k),N-No两部分图像所占比例分别为:

对C0,C1均值处理:μ0=μ(k)/w(k),μ1=[μ-μ(k)]/[1-w(k)]

图像总均值可化为:μ=w0μ0+w1μ1

类间方差:σ2(k)=w0(μ-μ0)2+w1(μ-μ1)2=w0w1(μ-μ)2

可简化为:σ2(k)=[μw(k)-μ(k)]2/{w(k)[1-w(k)]}式中,k从1-M变化,使σ2(k)最大的k即为所求最佳阈值;σ2(k)称为目标选择函数。

1.3 二值化

当图像差分计算所得结果的绝对值小于所得域值时,设置该点的灰度值为255,否则设置该点的灰度值为0。

2 移动目标提取

图像经差分和二值化后,背景和部分目标区域已经变成了0,而对象的边缘部分灰度值较高,所以采用投影(垂直投影和水平投影)的方法就可以计算出目标区域。

投影向量为:

然后确定运动目标区域在水平方向的边界点Startx[i]和Endx[i],及水平方向运动目标区域块数numx。确定方法如下:

(1)水平方向运动目标区域块数numx=O,水平方向边界点Startx[i]=0,Endx[i]=O;

(2)令x=O;

(3)检测Pi,x(X),如果Pi,x(X)≥T(T为阈值)且Pi,x(X-1)

(4)如果x

(5)如果当x=width时,Pi,x(X)≥T且Pi,x(X-1)≥T,此时仍令x为某一运动目标区域水平方向的终止边界点;

(6)水平边界点确定结束。

用同样方法可确定运动目标区域在垂直方向的边界点Starty[i]和Endy[i]及垂直方向运动目标区域块数numy。

根据运动目标在水平方向和垂直方向的边界点,即可提取出运动目标区域。

3 结束语

本文采用动态背景差算法来进行图像差分计算,计算量小,而且可以屏蔽光照、噪声对图像的影响。对目标的提取采用了投影法,大大提高了计算速度。虽然图像差分法会在运动实体内部产生空洞,但利用差分后图像的垂直方向直方图和水平方向直方图投影来确定人体区域,有效地克服了空洞的影响。实验证明,本算法具有很好的实时性。

参考文献

[1]M Y Siya1,M Fathy.Image Processing Techniques for Real-Time Qualitative Road Traffic Data Analysis[J].Real-Time Imaging,1999,(5):271-278.

[2]吴焱,沈定刚,戚飞虎.序列图像中的目标定位[J].上海交通大学学报,28,(6):163-166.

移动物体检测论文 篇2

1 系统装置

系统的设计具有一定的创新性,适合于室内及室外光线变化率不强烈的环境。硬件装置具有体积小、结构简单、易于安装等特点,使用灵敏度高、抗强光、体积小的CCD摄像头,CPU为Intel Pentium 4,内存1 GB,硬盘80GB的计算机(或笔记本电脑)。CCD摄像头与计算机相连,固定在观察者位置即可。系统装置图如图1所示。

2 算法

2.1 帧差法与背景更新相结合算法分析

帧差法是一种在实际应用中经常使用的运动目标检测方法。该方法算法简单,运算速度快,非常适合实时性检测要求较高的场合。但帧差法对于图像的噪声(电子噪声、颗粒噪声等)及摄像机的抖动比较敏感,个别像素可能因此而剧烈变化从而造成误判的发生。另外,如果移动物体移动速度过慢,有可能检测不到移动物体。

背景减除法的关键在于如何准确地提取出背景,并且当背景发生改变时,能及时地更新背景,其优势在于对移动目标的准确判断。但是背景更新是一个学习的过程,有时间延迟,另外,由于学习过程中包含移动物体信息,经常有“拖尾”现象发生,影响结果的精度。如何去除“拖尾”现象,李宏研[5]等提出一种相关矩阵判别法,但是运算较复杂;陈利平[6]等提出多帧加权的方法,运算也较复杂,结果对环境的依赖较大。本文提出一种帧差法与反馈背景更新结合算法,试图缓解“拖尾”现象。

帧差法如式(1)、式(2)所示:

式(1)中fk(x,y)是灰度图像序列中第k帧的位置为(x,y)的像素灰度值。f(k,k-1)(x,y)是经过帧差法得到的二值图像中位置为(x,y)的像素值。TH1是阈值,用来判断相邻两帧相减后的(x,y)位置的像素是否在移动物体上。如果相邻两帧相减后得到的(x,y)位置像素灰度值大于TH1,说明该像素点在移动物体上,将f(k,k-1)(x,y)置1;反之则说明该像素点不在移动物体上,则将f(k,k-1)(x,y)置0。式(2)中df(k)(x,y)是f(k,k-1)(x,y)和f(k+1,k)(x,y)相与后的结果,用来最终判断移动物体的位置。

比较常见的背景建模方法是迭代法,这种建模算法是单高斯建模的一种近似算法,具有较好的实时性特性,其算法如式(3)所示:

式(3)中,fk(x,y)是灰度图像序列中第k帧的位置为(x,y)的像素灰度值。Bk(x,y)是灰度图像序列中第k帧的位置为(x,y)的背景图像的像素灰度值。α称为背景更新系数,它反映了当前图像帧对背景的影响程度:α选取越大,则当前图像帧对背景更新所作的贡献越大。一般来说,α选择在0~0.1范围内。本文中α的值选择为0.08。

得到背景Bk后,就可以检测出运动目标。算法如式(4)所示。

式(4)中,db(k)(x,y)是通过背景减除法得到的运动目标形状的二值图像。TH2是阈值,用来判断背景减除后得到的灰度图像中(x,y)位置像素点的灰度值是否在移动物体上。如果背景减除后得到(x,y)的位置像素灰度值大于TH2,则说明该像素点在移动物体上,将db(k)(x,y)置1;反之则说明该像素点不在移动物体上,将db(k)(x,y)置0。

这种算法在移动物体慢速移动时,也能够准确地检测出移动物体,这种特性可以弥补帧差法移动物体检测的缺陷。但是从Bk算法可以看出,整个学习的过程是一个累加过程,在这个过程中,当有移动物体在当前帧中产生时,这个移动物体同样被学习进Bk中,这就是“拖尾”现象产生的原因。

通过对式(3)分析可以看出“拖尾”现象的产生是因为当前帧中的移动物体和背景图像同样被学习,从而把移动物体的信息添加到背景建模中去。可以在式(3)中加入适当判定条件,以达到控制背景学习的目的。式(3)是本文提出的对迭代法背景建模的改进算法:

其中,p1为帧差法df(k)(x,y)中移动物体像素占整个图像像素的比值,TH3为阈值;p2为背景减除法db(k)(x,y)中移动物体像素占整个图像像素的比值,TH4为阈值。当当前帧中有移动物体产生时,p1、p2大于0,p1小于p2;当当前帧中移动物体移动速度过慢时,p1远小于p2;当整个图像发生强烈光照变化或抖动时,p1、p2趋近于1,之后p1迅速减小到趋于0,p2仍趋于1。该算法中判定条件p1≥TH3用来判定当图像发生强烈光照变化或抖动时的学习回归,而判定条件TH4≥p2≥TH5则用来判断有移动物体时不学习的情况:

(1)初始化fk(x,y)和Bk(x,y),分别为第一帧图像;

(2)式(1)、(2)得到dfk(x,y),计算p1;

(3)式(5)、(4)得到dbk(x,y),计算p2;

(4)用步骤(1)、(2)得到的p1、p2值判定式(5);

(5)判断是否满足终止条件,若满足则停止计算,否则转到步骤(1)。

TH1的值一般为20~30之间。TH2的值与TH1相同。由于p1的作用是判定学习回归,所以TH3的值不宜过大,一般在0.01~0.05之间。TH4的作用是抑制图像强烈变化时的无用更新,一般在0.5~0.7之间。TH5的作用是判定移动物体响应程度,一般在0.05~0.1之间。

2.2 程序可扩展性算法分析

对于不同的移动物体检测算法,其对系统提供的时序帧要求也不同,比如上文提到的帧差法,有二帧差法、三帧差法、四帧差法;对于背景建模算法,迭代法只要求当前帧,反馈背景更新算法则要求有当前帧和前一帧图像,参考文献[6]中提到的多帧加权算法要求至少有包括当前帧在内的之前5帧图像,这就需要系统提供足够的基础数据。而对于实时系统而言,为了保证系统的可持续性和实时性,通常只将当前帧保存在内存中,这就限制了其他算法在该系统上的应用。为了保持系统的可持续性并保证多种算法可以在一个系统中运行,本系统采用了时序调用的方法,将当前帧以及之前一段时间内的所有时序帧可控地保存在硬盘上,以备其他算法调用,并始终维持这一状态,以保持系统的可持续性。

本系统中采用Ontimer()方法实时采集视频帧,并在采集当前帧后把它保存到硬盘上,通过累加计数的方式控制保存帧的个数。当保存帧数超过某个控制值时,从之前的第一帧开始依时间顺序删除前面的帧,并持续下去,这样在系统运行的整个过程中始终有一定数量的帧可供调用。当系统结束运行时,用OnCancel()方法将这些中间变量删除。对于用户而言,保存帧后删除帧的动作是不可见的,但用户在系统运行过程中可以调用控制值以内的任意帧。

(1)判断保存路径是否存在,如果存在则保存帧,否则创建保存路径;

(2)用capFileSaveDIB()方法保存帧并计数;

(3)判断帧的数量,如果大于10(可根据需要改变),则删除第一帧;

(4)判断终止条件是否满足,满足则删除所有帧,删除当前目录,否则返回第(2)步。

2.3 算法流程

本文算法流程图如图2和图3所示。

3 程序测试及结果分析

3.1 帧差法与背景更新相结合算法的具体实现和效果

在系统测试过程中,设置4个窗口,分别为左上原始视频,右上背景减除法,左下迭代法背景更新算法,右下本文提出算法的运行效果,可以看出,新背景更新算法抑制了“拖尾”现象。演示效果如图4所示。

图5是一段内背景累加算法和本文算法产生的背景的灰度变化图。从图中可以看出,新算法的背景稳定性优于传统的背景累加算法,这也是“拖尾”现象得到抑制的原因。

3.2 扩展帧保存算法的测试

本算法主要实现保存实时帧到硬盘上,并保持一定的数量持续更新实时帧,当系统结束运行后,删除这些实时帧,并删除保存位置的文件夹。

当系统运行后,在D盘位置会新建一个名为pic的文件夹,实时帧就保存在这个文件夹里。系统结束后,帧和目录同时被删除。

本文介绍了一种新型的移动物体检测及背景更新系统。该系统采用一种新型帧差法和反馈背景更新相结合的算法作为背景更新算法,并在系统中对时序帧的生成和调用方法进行了改进。实验结果表明,该算法能够有效去除“拖尾”效应,并且该系统的实时帧保存算法能够有效地适应大多数算法在该系统上的应用。该系统没有对视频进行前期处理,下一步将主要研究视频的前期处理工作,以达到提高精度的目的。

参考文献

[1]COLLINS R T,LIPTON A J.A system for video survei-llance and monitoring:VSAM find report[R].Carnegie MellonUniversity:Technical Report,2000.

[2]HARITAOGLU I,HARWOOD D,DAVIS L.W4:real-timesurveillance of people and their activities[J].IEEE TransPattern Analysis and Machine Intelligence,2000,22(8):809-830.

[3]项昀.基于移动检测的运动物体识别技术的研究[D].北京:北京交通大学,2007.

[4]于立男.基于ARM平台的单摄像头运动目标检测与跟踪系统[D].大连:大连理工大学,2010.

[5]李宏研.改进的移动目标检测算法及其实现[J].计算机工程,2011,37(4):195-197.

移动物体检测论文 篇3

随着家用普通摄像头已经成为计算机的必备硬件之一,许多前沿技术人员越来越关注如何利用摄像头进行更便捷的人机交互。然而,由于普通摄像头的分辨率不高、个人计算机性能参差不齐的特点,一度给实现这种人机交互带来了巨大的困难,最主要的问题有:1)视频场景中光线变化问题;2)光照条件下,检测目标有阴影;3)背景物体的干扰运动;4)目标物体运动的连续性、往返性问题[1]。归结起来就是运动检测过程中检测的准确性问题。目前,运动检测的主流算法有光流法、背景差法和相邻帧差法[2]。但由于其检测的准确性对环境、光线、计算机性能依赖较大,通用性不强,所以无法满足功能日益增加的运动检测。

本文在传统相邻帧差法的基础上加以改进并增加了多帧叠加处理技术,研究了一种新的多帧叠加运动方式检测算法,后文简称多帧叠加算法。

1 针对传统帧差法运动检测的改进

1.1 高斯模糊处理

这一步在许多运动检测算法中并未被运用,其主要原因是许多运动检测的主要目的在于对运动物体轮廓的检测而非其运动方式,进行高斯模糊后,检测运动物体的轮廓将不可实现。但是本文所讨论的问题只关心运动物体的运动轨迹而非其轮廓,所以在模糊处理后大大降低了图像中的杂色,从而减少了最终检测过程中的的噪声。如图1所示。

其中图1(a)是没有加高斯模糊滤镜前的挥手动作检测,图1(b)是加入了高斯模糊滤镜后的效果。虽然后图的轮廓性不强,但是去掉了许多噪声,大大降低了分析图片的耗时,提高了运动方式检测的效率。

1.2 颜色分离确定阈值

确定阈值一直是运动检测过程中最容易出现偏差的问题,较大或较小的阈值都只能适应一部分的环境,而不能做到较好的通用性。为了节约颜色空间转换所带来的时间花费,我们通过尝试,研究了一种通过RGB颜色分离设定阈值的方式。

首先,在检测运动方式开始前,捕获n帧图像。记录每一像素点的颜色值之和并分别求R、G、B各分量的平均值。公式如下:

如上公式得到的R、G、B分量的平均值就是设置阈值的参考值。假设捕获图像频率为10Hz,所以R、G、B分量各乘以0.35得到阈值。

这种方式的优点在于先存储背景颜色各个分量的平均值作为一个基准,再在这个基准上根据不同要求对各个颜色分量进行阈值的分别调整,能够更好地适应环境并且能提高对运动检测的准确性。

2 多帧叠加运动方式检测算法

如果将整个运动过程中的每一帧图像都储存起来逐一分析,工作量太大,所以,我们可以将每一帧图像都叠加到一张图像上进行处理,并根据捕获图像频率的快慢删减之前叠加的像素点。这样我们在运动方式检测的时候就只需要用当前捕获的图像与叠加图像相对比。通过这种方法我们既可以得到一段时间内图像的变化情况,又能省去逐帧比较过程中时间的浪费,这就是多帧叠加算法的核心思想。

接下来,我们先来对比未使用多帧叠加算法和使用了多帧叠加算法的效果图,如图2�图5所示。

这组截图实现了控制物体B向右运动的过程。其中图2和图4为从假设原点向右运动,物体B跟随向右运动的过程,这时两组截图所达到的效果一致,并无较大差别。图3和图5是物体A从摄像头右端回到假设原点,向左运动的过程。图3由于未使用多帧叠加算法,物体A向左运动的时候,图像分析结果为向左,物体B跟随向左运动,这不符合我们的预期效果。对比图5使用了多帧叠加算法,图像分析结果虽然也向左运动,但是整体得到了一个向右的缓冲,所以向左运动的趋势得到了缓解,再通过适当的阈值处理就能较准确的区分当前物体A的运动是否有效。

3 统计运动点坐标

3.1 统计被标记的运动点的坐标

考虑到个人电脑的性能,我们这里用最简单的统计方法,直接记录运动点的坐标及点数,最后求平均值。检测运动点的方式是通过逐像素比较当前捕获的图像和用于叠加的图像,如果其R、G、B的差值分别超过了阈值,则视该像素点为移动点。通过多帧叠加处理后,在统计运动点的过程中,综合了前几帧的运动效果,最后求平均值,可以有效的缓解物体A从摄像头边缘回到假设原点过程中的反向运动趋势,从而降低计算机误判运动方向的概率。

3.2 判断屏幕上物体的运动方向

在计算出avex与avey后,通过与上一次检测过程中记录的两个值prex和prey做对比,再与阈值相比较,就可以很容易的判断出物体A的运动方向从而确定如何控制物体B运动。

例如:

若avex-prex>val(val为一个设定的阈值),说明物体A在向右运动(假设坐标向右递增)

若avex-prex<-val,说明物体A在向左运动

若|avex-prex|

下面我们就针对实验过程中的两组数据进行分析:

基本参数:

如表1所示,第7-9帧为控制物体B向右运动的过程,11-12帧为物体A回到假设原点的过程,由于有多帧叠加算法的缓冲,move_x-pre_x的值虽然不断向反方向增长但是没有超过设定的阈值,所以物体B不会发生运动。13-14帧,物体B继续跟随向右运动。

除此之外,我们还可以观察到添加了多帧叠加算法后无论是move_x-pre_x还是move_y-pre_y都比未添加多帧叠加处理时要稳定。

4 结束语

本文以控制屏幕上的物体运动为例,讨论了如何利用低分辨率摄像头进行运动方式的检测,从而实现更便捷的人机交互功能。主要基于对相邻帧差法的改进,研究了多帧叠加运动方式检测的算法。这一算法通过对前几帧运动图像的叠加,不仅提高了运动检测过程的稳定性和准确性,而且有效避免了运动方式检测过程中出现的往返运动检测问题。这一算法为后期实现更高级的人机交互提供了很好的方案,为运动检测领域的研究提供了较好的参考。

参考文献

[1]万缨,韩毅,卢汉清.运动目标检测算法的探讨[J].计算机仿真,2006,10.

[2]姜惠云,吴晓娟,王孝刚,张小燕.运动检测算法的研究和仿真实现[J],电气电子教学学报,2009,03.

[3]李娟,邵春福,杨励雅.基于混合高斯模型的行人检测方法[J].吉林大学学报(工学版),2011,41(01):41-45.

[4]陈子辉,王丽,郁有建.基于背景差分与时域差分相结合的运动检测算法[J].天津城市建设学院学报,2009,04:14.

[5]CUCCHIARA R,GRANA C,PICCARDI M,et al.Detecting moving objects,ghosts,and shadows in video streams[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(10):1337-1342.

基于轮廓模板匹配的物体检测算法 篇4

我们的模型训练方法采用了一种过饱和的模式, 即使用冗余的特征集合进行训练, 而这些冗余特征集合恰恰克服了同类物体的不同点 (如不同的体型、不同的动作以及不同的面部表情) 、图像场景变化 (不同的光照条件、遮挡等) 。

2 检测

整个检测器是建立在局部的基于轮廓特征匹配基础上的, 匹配算法使用了方向性的Chamfer距离考量, 这个距离值通过其权重求和, 并最终作为物体检测分类器。特征集合F代表了物体的轮廓T的局部片段, 每个特征都包括了它自身到物体中心的偏移量p。另外的3个参数分别是:方向量的权重λ, 检测阈值θ以及特征权重量a。

2.1 方向性Chamfer匹配

Chamfer匹配技术在轮廓匹配应用中非常广泛。它提供了一种计算两个轮廓距离量的方法, 并且在有大量非对齐的情况下, 仍有很高的鲁棒性。从最简单的模型讲, Chamfer匹配需要两个边缘点集, 图像边缘点集E={e}和匹配模板点集T={t}, 下面的公式描述了计算这两个点集在偏移量为x情况下的Chamfer值:

NT为T中点的数量。这个公式计算了匹配模板中的边缘点到最近的图像边缘点的平均距离。通过预处理, 例如距离变换 (Distance Transform) , 计算Chamfer距离的效率会提高很多, 公式 (1) 即可以转化为公式 (3) :

欧几里得距离DT的计算可以参照文章[1]。

另外, 一个很大的改进, 就是引用了轮廓的方向考量。这种考量通过边缘点的斜率来表达。在图像点集中, 通常有很多地方边缘非常嘈杂混乱, 方向性Chamfer距离可以很好的解决这个问题。其中一种技术是将图像和匹配模板中的边缘点划分为不同的几个离散的方向通道, 并求出Chamfer值的和。但这种方法的通道数量并不明确, 而且需要格外注意连个通道之间的边缘曲线。我们使用一种略微不同的方法, 精确的计算匹配模板上每个边缘点斜率与图像中每个边缘点斜率的差:

o (·) 代表一个边缘点的斜率, |o1-o2|表示计算两个点的斜率差, ADTE (t+x) 表示在点集E中找出离点 (t+x) 最近的一个点。

这样, 最终的方向性Chamfer值便可以通过下面的公式计算出来了:

其中, λ为方向考量的权重值。

2.2 检测步骤

物体检测器K (c) 可以计算某一点的c的信心值 (Confident Value) , 使用K在整个图片的所有像素点进行扫描, 可以得出一个分类图。这个分类图经过一定的处理 (如降噪、平滑等) , 通过设定一个理想的阈值, 在这个分类图中可以找出物体在图片中的大致位置。

整个检测器K通过一个参数组{Fm}进行训练, 每个参数组表示为Fm= (Tm, pm, λm, θm, am) , K用加性模型表示如下:

δ函数相当于一个判断语句, 如果括号内部表达式为真, 则返回1, 否则返回0。θm是每个一个阈值, 来过滤弱分类器得出的方向性Chamfer值, 通过训练得出。am是每个特征向量的权重, 同样通过训练得出。

3 训练

3.1 建立匹配模板库

首先, 我们要找出大量需要检测的物体图片, 将其分成两部分, 第一部分则用来提取特征, 第二部分则用来用来作为训练样本。首先将第一部分的图片背景信息去除 (通常是下载标准数据集来解决) , 然后使用Canny edge算法算出这些图片相应的边缘轮廓图片。随机指定一些位置, 记录这些位置到物体中心的偏移量, 并截取随机大小的矩形区域的 (不能太大或太小) 轮廓片段, 将这两种信息储存。这样, 库中的每条信息都包括两个内容:物体的部分轮廓曲线以及它相对于物体中心的位置。

3.2 分类器的学习

Boost是现今机器学习领域中较为简单且有效的技术。它由一系列的“弱分类器”构成, 这些分类器的表现仅仅比随机猜测要好一点, 但是一个带有权重的弱分类器的集合, 通常可以构成一个比较准确的“强分类器”。Boost算法在计算机视觉中的应用非常广泛, 大部分是作为一个特征选择机制, 例如:Viola和Jones利用AdaBoost制作了一个效率很高的级联分类器。

我们引入Boost算法主要是为了3点:特征选择, 参数估计以及检测器学习。

4 实验分析

我们使用Caltech人脸数据集进行算法的测试验证。如图1, 左边一列都是包含检测物体的图片, 中间是通过训练好的检测器算出的分类图, 右边列则是检测器K中匹配模板叠加后的效果。可以看出, 需要检测的物体的位置都比较准确。

5 结论

本篇文章对基于轮廓模板匹配的物体检测技术进行了探讨, 并且使其达到了一般基于纹理检测算法的效果。但是此算法所检测的都是某一确定大小的物体, 而通常图片中的物体大小都不是固定的。如何解决这个问题, 则是我们今后要研究的。

摘要:本文提出了一种基于轮廓模板匹配技术的物体识别检测算法。物体检测器使用部分已有的轮廓图片, 通过AdaBoost训练得出。此算法达到了一般基于纹理检测器的效果, 而且更加简单且易于实现。

关键词:轮廓模板,Chamfer,Boost

参考文献

[1]P.F.Felzenszwalb and D.P.Hut tenlocher.Distance transforms of sampled functions.Technical report, Cornell, 2004.

基于方向描述符的物体检测 篇5

目标检测与识别在军用、民用以及医学等方面都有重要意义,它的研究涉及计算机视觉、模式识别、数字图像处理、人工智能等学科。虽然这方面的研究非常多,然而目前计算机的目标检测与识别能力比人类还相差甚远。

运动目标检测,在背景不变时可以使用背景差分等方法快速检测到目标位置[1]。而对于静止物体的检测,由于物体的位置、大小、方向都无法用相似的方法得到,因而检测难度较大。SIFT[2]等局部不变性算子的提出,使得外形和表面纹理不变的物体的检测得以简化。而对于外形或表面纹理变化较大的某类物体 (比如杯子具有各种形状以及图案),局部不变性算子无法得到较好的检测结果。目前此类物体的检测一直未能取得令人满意的结果,仍然有很大的改进空间。

从包含物体的图像中可以提取各种信息,比如上下、纹理、边缘等,其中物体的形状比外观(颜色、纹理等)对于物体检测更加重要。为了利用形状信息,一种方法是使用分割算法将图像分为多个区域[3],根据区域的形状组合判断物体的位置。然而目前可以得到较好效果的分割算法运行速度通常很慢,而且分割也造成了很多歧义以至于算法的检测率很难进一步提高。另一种基于形状信息的方法利用从图像提取的边缘等信息作为依据来判断物体的位置[4]。比如文献[5]使用参考点作为类似于质心的中心点,图像轮廓上取一系列采样点,使用轮廓点到参考点的角度、距离和轮廓线方向作为物体的基本形状表示方法。此类方法容易受到边缘检测算法所造成的中断、变形等因素的影响。还有一种方法[6]并不直接使用边缘图像,而是稠密地计算图像中每个位置的描述符,然后通过模版匹配等方法实现物体的检测。比如一种检测效果较好的方法[7]首先计算出HOG金字塔,计算出物体的每个部分在HOG金字塔中每个位置的评分,从而确定物体在图像中的位置。此方法虽然避免了边缘检测算法造成的影响,然而也存在着一些问题。比如,HOG的数值大小是根据相邻块进行调整的,而这种相对的大小并不能代表物体形状边缘的强弱,从而会出现一些梯度变化较弱的区域导致的歧义。

为了解决上述问题,本文提出了一种新的方向描述符。首先基于图像的边缘走向得到初始描述符,在此基础上加上点的分布信息从而得到每一点的方向描述符。此描述符一方面增强了对边缘检测算法造成的中断、变形等因素的鲁棒性,另一方面减少了梯度变化较弱的区域导致的歧义。在方向描述符的基础上, 使用多分辨率图像加速的滑动窗口算法[8,9]来对每个候选位置计算其描述符矩阵与模型的描述符矩阵之间的距离,从而确定目标物体的位置。

1 方向描述符

对于一幅图像,首先使用边缘检测算法计算出边缘图像。为了得到物体的边缘信息,物体检测算法通常使用Canny边缘检测算法或Berkeley自然边界检测算法[10]得到边缘图像,或使用gPb算法[11]得到物体轮廓。我们经过实验发现,gPb算法效果较好但计算速度很慢,而Berkeley自然边界检测算法提取的边缘的连续性比Canny略好。本文算法在选择候选区域的时候使用Berkeley自然边界检测算法计算出的边缘图像, 在计算方向描述符的时候使用Canny算法生成的边缘图像。

令测试图像为I(x,y),其中x表示行号,y表示列号。测试图像通常是彩色图像,需要计算出它的边缘图像E(x,y)。对于模型图像I(x,y),其中轮廓线上的点相当于物体的边缘点,因此并不需要再计算边缘图像,直接令E(x,y) = I(x,y)。

首先对m×n的边缘图像E(x,y)上每一点(x,y)生成一个大小为(2h+1)×(2h+1)的初始描述符Q(x1,y1)。其中x的取值范围是[1,m];y的取值范围是[1,n];x1和y1的取值范围都是[1,2h+1];h为用于控制描述符大小的参数。h越大,描述符的描述局部形状的范围越大,而计算速度越慢。我们希望方向描述符更注重描述每一点的局部方向,因而将h的数值设置为5。

令初始描述符矩阵D(x,y,x1,y1)为每一点(x,y)的描述符Q(x1,y1)构成的四维矩阵,则:

其中:M(x,y,x1,y1)为掩膜矩阵,用于屏蔽对应边缘图像中不是边缘的点;C(x,y,x1,y1)为根据边缘图像中的边缘走向生成的矩阵。分别计算如下:

初始描述符只是对局部形状的初始表示,并没有明显的区分边界走向的能力,需要在此基础上计算出方向描述符。

对每一个边缘点(x,y)都分别计算出以该点为中心的四维矩阵B(xt,yt,x1,y1)和GB(xt,yt,x1,y1)。对xt∈[x-h, x-h ],yt ∈[y-h ,y-h ]范围内的每一个点(xt,yt)分别计算如下:

其中G(xt,yt)用于衡量每一点到中心点的距离,可以设置为高斯分布或其它形式分布的矩阵。本文如下简单计算G(x,y):

其中T(x,y)为(2h+1)×(2h+1)的矩阵,第i行第j列的元素值为

然后,通过矩阵内积使B(xt, yt, x1, y1)对GB(xt, yt, x1, y1)加权:

令H(x, y, x1, y1)中所有元素初值为0,并对每点都取极大值:

式(9)得到的H(x, y, x1, y1)即为图像中所有点的描述符矩阵。其中第一、二维分别表示图像中每点的行号、列号;第三、四维分别表示一个描述符中每点的行号、列号。

图1(a)?图1(d)显示了一个模型及其中三个点的方向描述符。图1(a)是一个苹果模型的轮廓图,其中用椭圆选择了一部分在图1(b)中进行放大,图1(b)中三个圆标注的点的初始描述符以及方向描述符分别在图1(c)和图1(d)中显示。从图中可以看出,边缘点的初始描述符为轮廓走向,非边缘点的初始描述符为全0矩阵;而与边缘点邻近的非边缘点的方向描述符不是全0矩阵,距离边缘点越远,方向描述符的数值越小。

方向描述符的特点使它既可以描述边界的走向,又可以容忍边界的较小变形。如图1(e)显示了将图1(a) 所示模型进行部分变形后得到的图像。图1(f)是其中对应部分的放大,其中三个圆标注的点的位置与图1(b) 中的位置完全相同。图1(g)和图1(h)中分别显示了这三个点对应的初始描述符以及方向描述符。通过对比可以看出,虽然形状变化使得同样位置的三个点的初始描述符变化很大,但是它们的方向描述符具有很大的相似性。

2 检 测

为了检测某个类别的物体,需要在每个物体类别中选择几个具有代表性的物体轮廓图作为此类别的模型。比如图2中显示了两个类别的模型,第一行是杯子类别的5个模型,第二行是长颈鹿类别的5个模型。模型选择的一个重要标准是:各个模型的形状差距尽可能大,以增强每个模型的代表性,从而减少模型的数量。

为了确定每个候选区域是否包含待检测的物体,需要计算候选区域与模型之间的相似度或距离。设候选区域为A,模型为B,它们的描述符矩阵分别为HA、HB。令S=HA-HB,则候选区域A和模型B之间的距离dAB定义为

其中:NS为S中所有大于零的点的集合;nS为NS中点的个数;NA为HA中所有大于零的点的集合;nA为NA中点的个数。通过这种计算方式,消除测试图像中距离模型轮廓较远的点的影响。

对每个候选区域都计算出其与每个模型的距离。如果其中最小的距离小于阈值dt,则认为检测到了该物体,否则说明并没有检测到有效关键点。使用多分辨率图像下的滑动窗口算法来对测试图像进行模版匹配。低分辨率图像计算的边缘图像边缘信息较少,通常只包含重要的边缘信息;而高分辨率下的边缘图像中的点数量多且精度高。因此在低分辨率下排除那些不可能的候选区域,在高分辨率的图像下对物体进行精确检测。

3 实 验

为了便于与其它算法进行比较,本文使用了公开的物体检测数据集ETHZ。此数据集中包含了五个类别的物体,分别是:苹果(Applelogos)、瓶子(Bottles)、长颈鹿(Giraffes)、杯子(Mugs)、天鹅(Swans)。其中苹果、瓶子的形状相对固定,不容易拆分为多个部分;其它三种物体由不同部分组成,形状变化大,如果拆分成多部分进行检测会有更好的效果。本文算法并未对物体进行拆分。算法在matlab R2011a上实现, 实验环境为Intel酷睿i5 2300 CPU,DDR3 1333 2GB内存。

文献[12]中给出了其算法对ETHZ中杯子物体在错误目标率为0.3的情况下的检测率77.1。而本文算法在相同条件下对杯子的检测率85.4。

同时我们还算出了本文算法在错误目标率为0的情况下的检测率,如表1所示。表1中同时列出了另外文献[13]算法的数据,该文献中并没有给出对ETHZ数据集的检测率,表1中的数据来源于文献[5]。表1中检测率的计算都使用了目前通用的PASCAL准则:检测到的矩形与物体真正所在位置的矩形的重合度超过50%,就认为成功检测到了物体。文献[13]中使用HOG描述符对物体进行检测,而本文算法提出了一种方向描述符。从表1中我们可以看到这两种算法的对比。

对于苹果和杯子类别,文献[13]算法的检测率要高于本文算法。其主要原因是,文献[13]使用了每个类别中的一半(数量为16到44个)物体图像作为训练样本来训练支持向量机;而本文算法只使用每个类别中5个图像中的物体作为模型,从而导致一些变化较大的物体不能被准确检测。比如图3中的杯子和图中本文的模型差别较大,因此没有被检测出来。

本文算法在天鹅类别上的检测率远远高于文献[13]算法,其原因主要有两个:1) HOG描述符对于图像进行分块计算描述符,导致其精确描述物体形状的能力较差。对于较大的物体,以及形状简单的物体,其缺陷不会体现出来;而对于像天鹅这样在图像中尺寸相对较小且形状较复杂的物体,HOG描述符对其形状的区分能力则相对较差。2) HOG描述符根据相邻分块调整当前分块的数值大小,因而对于每片羽毛边缘这类弱边缘有增强的作用。而天鹅并不规则的羽毛分布导致HOG描述符检测能力下降。本文算法没有HOG描述符的这两个问题,因此对于天鹅类别的检测率远远高于文献[13]算法。

4 结 论

单幅图像中的物体类别检测是计算机视觉中的一个重要问题,至今仍然没有被很好解决。局部不变性算子对于此类物体检测的效果不好,而局部描述符如HOG,对于这种变化类型的形状也有一定的局限性。本文提出了一种新的用于物体检测的方向描述符。与HOG描述符相比,方向描述符具有更强的区分形状的能力,并且对形状较小变化有一定的适应能力。

一种检测物体轮廓缺陷的方法探索 篇6

物体的图像是二维的,其轮廓缺陷在图像上也表现为二维,本文提出将轮廓的位置表示为到物体质心的幅度,则物体的二维轮廓坐标就变成一维向量。二维轮廓的凸起与凹陷突变就是一种突变信号。

小波变换(wavelet transform)是一种信号的时间—频率分析方法,具有多分辨率分析的特点,而且在时域和频域都具有表征信号局部特征的能力。很适合于探测正常信号中夹带的瞬态反常现象并展示其成分。在图像去噪领域也得到了越来越广泛的应用。本文提出了将小波变换用于检测二维突变点的原理与实现算法。由于轮廓信号中含有不规则的缓变信号,所以这里主要利用小波去噪。光滑轮廓物体作为一个应用实例验证了这一原理和相应实现算法的正确性。

1 小波变换原理及小波去噪原理

1.1 小波变换原理

小波函数的定义为:设ψ(t)为一平方可积函数,即ψ(t)∈L2(R),若其傅立叶变换ψ(ω)满足条件:

则ψ(t)为一个基本小波或小波母函数,并称(1)式为小波函数的可容许性条件。

1.2 小波的多分辨率分析

定义小波函数ψ(t)伸缩和平移有为:

其中,α为伸缩因子,τ为平移因子。称ψa,τ(t)为依赖于α和τ的小波基函数[1]。将任意L2(R)空间中的函数f(t)在小波基下进行展开,称这种展开为函数f(t)的连续小波变换,其表达式为:

多分辨率分析又称为多尺度分析,是建立在函数空间概念上的理论。不同尺度上的高频信号的频率是不同的,需要根据噪声覆盖的频率范围确定小波分解的尺度,以有效地去除高频噪声。

1.3 小波去噪原理

1.3.1 强制去噪算法

1989年,Mallat提出了实现小波变换的快速算法—Mallat算法[2],这样可以利用小波分解与重构的方法滤波去噪。由Mallat算法的分解公式:

其中H和G为滤波器系数矩阵,V0为原始图像的采样值,Vj和Wj分别为尺度j上的逼近系数和小波系数,将含有噪声的采样值在某一尺度下分解到不同的频带内,然后再将噪声所处的频带置零,进行强制消噪处理,再利用相应的重构公式:

其中H*和G*为重构滤波器,且满足H*H+G*G=1,进行小波重构,从而达到去噪的目的。

1.3.2 小波变换模极大值的去噪方法[3,4]

突变点是描述一个瞬态信号的重要特征,信号的奇异点就是信号中的突变点,如何检验信号的突变点具有实际意义。Mallat等人建立了小波变换与刻划信号奇异性的Lipschitz指数之间的关系:设0≤α≤1,存在常数k>0,使信号f(x)的Lipschitz指数与小波变换模极大值满足:

由式(6)可知,对于一般信号,由于α≥0,小波变换的模极大值将随着j的增大而增大;而对于白噪声α<0,其模极大值随着j的增大而减小。因此,根据不同尺度间小波变换模极大值变化的规律,去除幅度随尺度的增加而减小的极值点,保留幅度随尺度增加而增大的极值点,再由保留的模板大值点用交替投影法进行重建,可达到去噪的目的。

2 小波变换尺度选择

小波变换尺度选择与去噪的方式有关,由于轮廓信号的噪声很多,如图1(b)所示,所以采用强制去噪算法,即将某几个尺度上的高频信号全部置为零[5,6]。在轮廓信号中,同时存在轮廓的不规则缓变信号、突变信号和剧烈变化的噪声信号。剧烈变化的噪声,这种噪声变化周期短,剧烈变化的噪声一般在时域中保持的空间跨度不会超过8个像素,所以这里定义突变信号为空间跨度大于8个像素的变化,对于空间跨度小于8个像素的变化作为噪声直接去除,与频域高于1/8的采样率对应,所以进行突变信号检测时,小波分解层次应为3。噪声信号还有轮廓缓变信号,这种噪声的变化幅度较小,据小波分解的层次不同,变化幅度值也不同。为了更有效地区分突变信号和缓变噪声信号,需要对去噪信号再做进一步的处理。

3 实验与分析

选择一光滑物体的轮廓,如图1(a)所示,并依连接关系找出边界点的二维坐标,计算其质心点坐标,将轮廓表示成质心—边界点幅值向量,其波形图如图1(b)所示。采用选择的小波,对此向量波形分别进行3层小波分解[5],如图2(a)所示。从图2(a)中可以看出,突变信号叠加在缓变信号上,采用一维差分即可将缓变信号的干扰去除,如图2(b),再利用突变信号与噪声信号幅值的不同对差分信号去除噪声,如图3所示,即可得到突变信号的宽度与幅度。

4 结论

信号的小波去噪方法是众多去噪方法的理想之选,它利用信号小波分解后,各个子带信号的不同特性,选取不同的去噪手段,从而达到较好的去噪效果。但是,它也同样受到去噪和保留有用高频信息两难的困扰。信号的突变信息位于高频段,噪声信号也位于高频段,在信号去噪的同时,尽量保留信号的突变特征。基于突变信号与噪声信号位于不同的高频段,确定小波的分解层次,采用强制去噪算法,得到了比较理想去噪结果。针对轮廓的缓变信号,采用差分及强制去噪算法,将叠加在缓变信号上的突变信号分离,便于突变信号特征的计算。

摘要:本文提出将二维物体的轮廓图像坐标信息转换成基于质心距离的一维向量信息来进行检测。设计了基于双正交对称小波的去噪算法。实验结果表明,这种算法可以有效地去除噪声信号和缓变信号,保留缺陷的突变信息,是一种有效和实用的轮廓缺陷检测算法。

关键词:小波变换,轮廓,缺陷检测,小波特性,分解层次

参考文献

[1]朱秀昌,刘峰,胡栋.数字图像处理与图像通信[M].北京:北京邮电大学出版社,2002:241.

[2]潘泉,张磊,孟晋丽等.小波滤波方法及应用[M].北京:清华大学出版社,2005:41.

[3]谢杰成,张大力,徐文立.一种小波去噪方法的几点改进[J].清华大学学报(自然科学版),2002,42(9):1269-1272.

[4]孙兆林.MATLAB 6.0图象处理[M].北京:清华大学出版社,2002:247.

[5]任获荣,张平,王家礼.一种新的小波图像去噪方法[J].红外与激光工程,2003,32(6):643-646.

移动物体检测论文 篇7

关键词:单片机,PWM,光电传感,检测系统

光电传感器一般由光发射、接收和检测电路3部分组成。光发射部分可以是特定波长的发光器或普通发光二极管;接收部分是光传感技术的中间环节, 主要负责光电转换, 将光信号转换为电信号以便进一步处理;检测电路则主要是进行电信号的处理, 最终分析出有用信号[1,2]。

在控制和检测系统中, 光电传感技术被大量的用于检测物体有无或物体定位, 例如自动化设备中机械运动的位置检测, 流水线上的物体通过检测等[3]。针对物体检测这一问题, 较流行的解决方案有3种:最普遍的方法是设计光电发射管和接收管硬件电路, 结合实际应用环境, 设计不同的电路方案, 达到不同的检测需求, 其设计灵活, 成本低, 但性能一般;第二种是使用具有一定集成度的传感器部件, 此类部件主要有对射式和反射式两种, 且集成了驱动电路与检测电路, 只需提供合适的电源, 便可获得检测结果, 其成本较低使用方便, 但性能一般;另一类是在发射部分或接收部分引入光栅、光纤或激光等技术, 达到特定效果的光学传感器, 该类传感器通常在检测精度、检测距离、检测速度或检测范围等方面均具有较高水平, 但由于其成本过高, 仅被应用于对检测有特殊要求的环境下。

本文基于第一种方案, 采用红外发光二极管和红外光电三极管相结合的方式, 并在发射部分设计了特殊的控制电路, 提高了检测性能。此物体检测系统使用的检测方案灵活易用, 制作成本低, 配合现有的单片机技术, 适合于小体积物体检测且对检测性能有较高要求的应用场合, 其均具有较高地实用价值。

1 系统整体设计

设计的物体检测系统用于进行小型物体检测, 所需完成的功能为:外界给检测系统一个特定信号, 检测系统开始工作, 最终检测是否有物体通过检测区域。其检测流程如图1所示。

单片机在获得外界的一个“开始检测”信号后, 首先针对工作环境调整发光管的发光强度, 将发光强度调整到能使接收管接收到光信号的最小强度, 若调整成功, 记录此时的发光强度, 并开始检测。若调整失败, 返回“异常”信号。出现“异常”情况, 需对检测部位进行查看, 若引起异常的原因是粉尘或异物遮挡, 进行擦除后便可重新检测, 若擦除无效则需更换传感部件。

开始检测后, 根据具体检测结果, 可能返回两种信号, 一种是“未检测到”信号, 另一种是“检测到”信号。在设定时间内若有物体经过该区域, 则返回“检测到”信号, 否则返回“未检测到”信号。根据该检测系统返回的两种信号, 检测结果将用不同的LED灯进行指示。

2 电路设计与分析

硬件电路主要包括发射部分和接收部分, 如图2所示。发射部分主要由5个元件组成, 其中的红外发光二极管D1中心波长约为900 nm, 其主要由PNP型三极管的集电极电流驱动。单片机控制的PWM波输入到R1的一侧, 经电容C1稳压滤波后, 在三极管基极上形成与占空比有关的直流电压。三极管基极电流同样随占空比变化而变化, 且成正比关系

其中, Ic为集电极电流;Ib为基极电流;d为占空比。

R1为22 kΩ, 其作用是限制三极管基极电流不至于过大, 保证三极管工作在放大状态。三极管在放大状态下集电极电流与基极电流成比例, 从而可通过改变占空比来调节发光二极管的电流。

接收部分使用的是光电三极管, 波长与发射管相匹配。光电三极管接收的光越强, 基极的光生电流越大。由图2可知, 三极管集电极接5 V电压, 当基极的光生电流增大时, 集电极电流也随之增大, 集电极电压越高, 输入到芯片引脚PA.15上的电压则越高。根据文献[4], 当NUC130LE3CN芯片IO口输入电压为TTL电平输入时, 低电平输入范围在-0.3~0.8 V, 高电平输入范围在2 V~Vdd+0.2 V。发射管在不同的发光强度下, 芯片IO口会有不同的输入电平, 或当有物体遮挡发射管时, IO口输入为低电平。

3 软件设计

系统中, NUC130LE3CN单片机使用的开发环境为MDK集成开发环境, 编程语言为C语言。单片机软件主要包括初始化、电平检测、传感器测试、物体检测等多个部分[5,6,7,8,9,10]。

在接收到外界的一个“开始检测”信号后, 单片机首先进行传感器初始化, 主要是PWM模块的初始化, 函数名为ini_sensor () , 无参数无返回值。将电平检测打包为函数result () , 返回值为int型, 根据光电三极管输入到单片机IO口上的状态, 可能检测返回的结果为“0”或“1”, 分别代表低电平和高电平。传感器测试函数为sensor_test () 。

根据该函数可测试传感器是否正常, 若函数最终返回值为0, 则代表传感器异常, 单片机发出对应信号。否则, 返回当前环境下, 接收管能输出高电平的最小占空比。

若传感器测试函数返回正常, 则开始执行检测函数detect () , 检测函数流程如下:

在执行检测函数前, 打开计时器, 当计时器到时后, 全局变量time清零, 若在time清零之前函数未检测到低电平, 则认为超时, 返回“0”, 否则检测到, 将返回“1”。最终通过检测函数返回值, 确定返回“超时”信号或“检测到”信号。

4 性能测试

针对本次设计的检测系统, 将设备中光电检测部分与传统光电检测方式进行对比试验, 分为测试组和对比组。测试在不同条件下, 两组检测设备的物体检测准确度的优劣, 测试方法与过程如下:

实际检测区域为10 mm×10 mm大小的平面, 物体会从距离该平面垂直高度30 cm的上空落下并通过该检测平面, 定义“每次物体通过并检测”为一次实验, 每次实验的测试结果会出现正确和错误两种结果。一组试验包括1 000次连续实验, 将测试组和对比组在4种环境光强下进行多组对比试验, 测试过程为:测试人员按下“开始检测”按钮, 检测系统开始检测且物体落下, 检测结果若返回检测到, 则记一次正确;若返回超时, 则记一次错误。最终的测试结果如表1~表3所示。

针对3种不同环境光强下, 测试组和对比组各做3组 (3 000次) 测试, 测试结果如表中所示。3种环境下, 测试组的性能均高于对比组, 且在强光下, 由于传统光电检测方式无法进行光强调整, 导致光强过强, 灵敏度下降, 并多次出现漏检。

由实验数据可得出, 使用本次设计的物体检测系统, 针对直径为5 mm的不透明小球, 可得到较好地检测效果, 并在不同环境光下, 检测的正确率远高于传统光电开关方式的检测性能。

5 结束语

所设计的系统通过简单的外围电路, 在软件上使用PWM波形的占空比控制发射管发光强度, 利用这种方式, 使系统每次检测前均可获得最佳的发光强度, 保证了灵敏度, 且加上传感器错误检测, 从而提高了系统可靠性。实际使用中, 与传统光电开关相比, 其可靠性与灵敏度均大幅提高, 在恶劣的照度环境下, 对于直径5 mm的小球体, 传统光电开关漏检率接近10%, 而使用所涉及的系统则≤1%。该系统最大的优点是使用低成本实现高性能的物体通过检测, 且具有较高地实用性。此外, 系统还可进行扩展延伸, 因此适应更多的实际应用场合。

所长徐建平中国电子科技集团公司第十研究所 (以下简称十所) 1955年成立于北京, 1957年迀址成都, 是新中国成立后组建的第一个综合性电子技术研究所、国家一类科研事业单位, 具备武器装备生产一级保密资格。全所占地面积1000余亩, 员工2300余人, 年产值20多亿元。十所共获得国家、省、部级科技成果奖287‘责, 其中:国家发明奖1项;国家科技进步特等奖8项, 一等奖4项:项, 学大会重大成果奖9项。获翻家质量金jj纖十所还荣获&quot;全国五-劳动

参考文献

[1]ADEL S, KENNETH S.Microelectronic circuits[M].Oxford UK:Oxford University Press, 2007.

[2]江晓军.光电传感与检测技术[M].北京:机械工业出版社, 2011.

[3]王庆有.光电传感器应用技术[M].北京:机械工业出版社, 2007.

[4]新塘科技.NuMicro Family NUC130规格书[M].台湾:新塘科技股份有限公司, 2011.

[5]颜晓河, 董玲娇, 苏绍兴.光电传感器的发展及其应用[J].电子工业专用设备, 2006 (1) :59-62.

[6]翁卓, 熊承义, 李丹婷.基于光电传感器的智能车控制系统设计[J].计算机测量与控制, 2010, 18 (8) :1789-1791.

[7]谢望.光电传感器技术的新发展及应用[J].仪器仪表用户, 2005, 12 (5) :1-2.

[8]葛鹏飞, 郑建立, 柳翔飞.基于光电传感器的智能车寻迹方法研究[J].国外电子测量技术, 2007, 26 (8) :40-42.

[9]张先富, 苏丽秋, 赵明富.智能光电传感器的原理与应用[J].磁性材料及器件, 2009, 40 (2) :54-56.

上一篇:计算机局域网安全分析下一篇:留人用人机制