视觉检测技术

2024-10-19

视觉检测技术(共12篇)

视觉检测技术 篇1

近日, 由北京中科泛华测控技术有限公司 (以下简称“泛华测控”) 设计并开发的视觉冷调试验系统已经完成并正式交付客户使用。该系统是泛华测控继汽车仪表盘检测系统后, 运用机器视觉技术的又一套成型产品。

视觉冷调试验系统主要用于对断路器上限位螺钉位置的检测, 其根据脱扣电流来对限位螺钉的位置进行校对与确认。该系统通过运用运动控制、机器视觉、开关动作控制等部分, 来保障整个系统稳定、精准地运行。其中, 运动控制部分是利用对电机的运动速度和位移进行调节, 进而实现对限位螺钉进行控制;机器视觉部分则是利用工业相机采集被测产品的图像, 对限位螺钉的调节距离进行分析计算;开关动作部分实现了对电源、气缸、电磁阀等部件的控制, 保证了测试平台在运作过程中的连结与稳定。

泛华测控的工程师除了保障测试平台的精准与稳定外, 还希望用户能够更加便捷地使用整套测试系统。因此, 在整套设备的外观设计上也是别具用心, 在多部件共同运行的情况下实现了整个系统外观的整洁与美观, 并且为使操作人员能够在系统运行过程中进行安全操作, 泛华测控工程师在开关动作控制的部分中通过I O数字接口控制系统急停报警为整个测试平台提供了安全保障。

更多信息, 请访问:www.pansino.com.cn。

视觉检测技术 篇2

目标识别、位置探测、完整性检测、形状和尺寸检测、表面检测等是几种常用在必须有机器视觉系统参与的任务中的算法。

印刷电路板(Printed Circuit Board,PCB,下称PCB)图像的检测算法,大致可分为三大类:有参考比较算法、无参考校验法以及混合型算法。

有参考比较算法分为图像对比法和模型对比法;无参考校验法又称为设计规则校验法;混合型算法则综合上述两种算法,扬长避短。

目前自动光学检测(Automatic Optical Inspection,AOI,以下简称AOI)系统图像处理基本上采用参考算法,国外进口品牌大多使用图像匹配、法则判别等多种组合手段[2]。

PCB检测的参考算法主要采用形状匹配,可以选择的特征提取技术包括像素运算、模板匹配、霍夫变换等[3]。

模板匹配可以用来实现完整性检测和物体识别。

基本的模板匹配算法包括基于灰度值的模板匹配、使用图形金字塔进行匹配、基于灰度值的亚像素精度匹配、带旋转与缩放的模板匹配。

多年来,机器视觉应用中都选用这些基本模板匹配算法。

然而,越来越多的应用要求在存在遮挡、混乱和非线性光照变化的情况下找到目标物体,基于灰度值的模板匹配算法不能够处理这些类型的干扰。

因此需要使用边缘匹配算法等可靠的模板匹配算法[1]。

实现一个稳定可靠的模板匹配的基本算法已经相当复杂,而使这些匹配算法更稳定快速的过程则更加复杂。

一般机器视觉用户都依赖标准软件包来提供这些功能,而不会试图自己实现[1]。

下面将介绍美国国家仪器(National Instruments,NI,以下简称NI)视觉开发模块,以及基于NI视觉开发模块进行的通孔器件检测算法研究。

2 美国国家仪器视觉开发模块的应用

2.1 美国国家仪器视觉开发模块

NI视觉开发模块包含数以百计的视觉函数,NI LabVIEW、NI LabWindows/CVI、C/C++、或Visual Basic可以使用这些函数创建功能强大的视觉检测、定位、验证和测量应用程序。

所有NI视觉开发模块函数都使用以十分之一像素和十分之一度的亚像素级精确度来对位置、距离、和测量值进行插值[4]。

通常在选择视觉系统时,精确度、易用性、执行速度是三个需要考虑的重要因素。

NI视觉软件是高度优化的,它通过各种可能的途径提升性能,使得其可以与世界上最快的视觉软件包媲美。

事实上,与领先的视觉软件供应商相比,NI视觉软件在许多项目上都更为快速[4]。

2.2 通孔器件检测算法和综合判据

由于通孔元器件材料、形状、尺寸变化大,插装位置不如表面贴片器件规整,存在遮挡、混乱和非线性光照变化等情况,难以采用统一的算法和判据。

根据通孔器件的特点将其分为线束类和非线束类,分别采用NI视觉开发模块中的颜色定位算法和彩色模板匹配算法[5][6][7]。

2.2.1 线束和彩色定位算法

线束的特点是形状多变,位置随机,制程中的不良是不同颜色的线束错位。

外观检验主要检查线束的插装位置是否正确或是否装配有线束。

采用颜色定位算法[6],如图1所示。

图1 颜色定位算法

综合判据:匹配分数大于等于900为合格,否则为不良。

算例[5]:

(1)正确装配的线束,与线束形状无关,匹配分数均大于900。

(2)错插、漏插的情况下,匹配分数小于900,本例中均小于800。

结论[5]:颜色定位算法适合线束类的检测。

2.2.2 非线束和彩色模板匹配算法

非线束的特点是形状固定,制程中的不良主要是极性反、错件、缺件,这也是外观检验的主要检查内容。

采用彩色模板匹配算法[6](详见图2),该算法包括彩色模板学习和匹配两个算法[7]。

图2 彩色模板匹配算法

其中彩色模板学习算法包括两个模块:学习彩色模板设置模块和学习模块。

使用学习彩色模板设置模块设置两个参数:线束类学习模式应设置为平移信息,非线束类学习模式设置为平移与旋转信息;线束类特性模式应设置为颜色,非线束类特性模式设置为颜色与形状。

彩色模板学习模块只需输入图像和学习彩色模板设置数据,即可输出模板图像。

彩色模板匹配算法也包含两个模块:匹配彩色模板设置模块和匹配模块[6]。

匹配彩色模板设置模块中,需要设置两个关键参数:线束类匹配模式设置为无平移,非线束类匹配模式设置为无旋转;线束类匹配特性模式设置为颜色,非线束类匹配特性模式设置为颜色与形状。

彩色模板匹配模块,输入图像及其待检测区域、模板、匹配彩色模板设置数据、最小匹配分数、要求匹配数,即输出匹配结果Matches和匹配数。

综合判据:匹配分数大于等于700且旋转角度小于±45°为合格,否则为不良。

算例[5]:

(1)正确装配的元器件,匹配分数大于等于700且旋转角度小于±45°。

(2)错插、漏插的情况下,插座类绝大多数匹配分数和旋转角度均为0。

(3)反插情况下,曝光良好的图像可从旋转角度判断,本例中旋转角度在180°左右。

结论[5]:彩色模板匹配算法适合非线束类的检测。

3 结束语

(1)针对通孔器件的不同特点,分成线束类和非线束类,分别采用NI视觉开发模块中的颜色定位算法和彩色模板匹配算法,使用不同的综合判据是可行的。

视觉导航技术发展综述 篇3

关键词:视觉导航;图像预处理;图像特征提取;视觉里程计;地标点匹配

中图分类号:TP391 文献标识码:A 文章编号:1673-5048(2014)05-0003-06

0 引言

视觉是用计算机实现人的视觉功能———对客观世界的三维场景的感知、识别和理解。视觉是在20世纪50年代从统计模式识别开始的,当时的工作主要集中在二维图像分析、识别和理解上。60年代,Roberts将环境限制在所谓的“积木世界”,即周围的物体都是由多面体组成的,需要识别的物体可以用简单的点、直线、平面的组合表示,并对物体形状及物体的空间关系进行描述[1]。70年代,已经出现了一些视觉应用系统[2-3]。1973年,英国的Marr教授应邀在麻省理工学院(MIT)组建并领导研究小组从事视觉理论方面的研究。1977年,Marr提出了不同于“积木世界”分析方法的计算视觉理论———Marr视觉理论,该理论在20世纪80年代成为视觉研究领域中的一个十分重要的理论框架[4]。

随着视觉研究的深入以及半导体和计算机技术的发展,视觉信息正被越来越多地应用到导航的实践中。其中,视觉导航是一种利用可见光与不可见光成像技术进行导航的方法,它具有隐蔽性好、自主性强、测量快速、准确,以及廉价、可靠等优点。因此,越来越多的研究者投身于视觉导航技术的研究,尤其是最近30年,随着新概念、新方法、新理论的不断涌现,视觉导航在飞机、无人飞行器(UAV:UnmannedAirVehicles)、各类巡航导弹、深空探测器以及室内外机器人等方面得到了广泛的应用[5-10],在国内,随着月球探测二、三期工程的展开[11]以及多型号UAV的研发,视觉导航技术发展迅速。

本文从分析视觉导航技术的优势和国内外研究现状出发,讨论了该方法的关键技术,重点对视觉图像预处理技术、视觉图像特征提取技术以及视觉定位方法等方面的研究进展进行详细介绍,并指出视觉导航定位技术存在的问题和发展趋势。

1 视觉导航系统基本组成模块及特性分析

视觉导航系统一般以计算机为中心,主要由视觉传感器、高速图像采集系统及专用图像处理系统等模块构成,如图1所示。

视觉传感器获取被测物体表面特征图像,经高速视觉图像采集系统转换为数字信号,由高速视觉图像专用硬件处理系统完成视觉数字图像的高速底层处理,并提取出特征信息的图像坐标,由计算机实现被测物体空间几何参数和位置姿态等参数的快速计算。

根据理论研究与工程实践可知,该方法具有以下几个特点[12-13]:(1)以CCD相机作为图像传感器的视觉导航系统,具有体积小、重量轻、能耗低、视场宽、易于搭载等显著优势;(2)视觉导航算法能够通过提取图像中的信息较为精确地确定相机的位置、速度和姿态信息。由于具有高度优越性以及巨大的应用潜力,视觉导航技术是一种很有前途的导航定位方案。

2 国内外研究现状

对于视觉导航系统,视觉传感器为其提供了原始的和直接的视觉信息,一般称为视觉图像。对视觉图像进行处理及特征信息提取是视觉导航系统应用的前提和基础。

2.1 视觉图像预处理

视觉图像常常被强噪声所污染,需要进行平滑滤波以减弱或消除这种强噪声的影响。目前常用的图像平滑滤波有均值滤波、中值滤波、高斯变换和小波变换等。均值滤波易于设计,在信号频谱和噪声频谱具有显著不同的特征时性能优越,但会使图像边缘变得模糊。中值滤波可以克服上述问题,在去除脉冲噪声的同时能够保持边缘不受干扰[14-15],但在面对大面积噪声污染时,中值滤波平滑噪声的能力却不及均值滤波。具有“数字显微镜”之称的小波变换可同时进行时频域的局部分析,已成为去噪的一个重要发展方向。1992年,Mallat和Hwang[16]提出奇异性检测理论,根据噪声和有用信号的小波变换在奇异点处模的极大值不同,通过跟踪极大值来消除噪声。1995年,Donoho等人[17]提出了一种非线性小波变换阈值去噪法,保留低频分量的小波系数,通过设定阈值处理高频分量中的小波系数。2000年,JamesS.Walker[18]提出自适应树小波萎缩法,是一种将小波收缩与小波变换的统计特性结合起来的图像去噪新方法,去噪效果相当好。1998年,F.Abramovich[19]提出了一种基于贝叶斯模型的小波阈值滤波方法,建立了先验模型的系数与Basov空间参数的关系,而且这一关系使得先验模型的小波系数中包含了函数的规律特性。1995年,Coifman和Donoho[20]提出了平移不变量小波去噪法,先对图像进行循环平移,然后对平移后的图像进行阈值去噪处理,再对去噪结果进行平均,是对阈值法的一种改进。1994年,Geronimo,Hardin和Massopus[21]提出了著名的GHM多小波,将图像变换成多流数据,然后对多流数据执行多小波变换,对多小波系数阈值化,既克服了单小波的缺陷,又保留了单小波所具有的良好的时域与频域特性。2000年,S. GraceChang[22]提出了一种基于上下文模型的空间自适应小波去噪方法,小波系数被建模成参数未知服从高斯分布的随机变量,通过在算法中使用图像中的局部信息能够达到较好的去噪效果。2002年,HuaXie[23]提出一种将小波贝叶斯去噪技术与马尔可夫随机场模型相结合的图像去噪方法,小波系数均被建模成独立的二维高斯混合模型,但它们的空间相关性被描述成马尔可夫随机场模型。1999年,Candès[24]在小波变换的基础上提出了一种脊波变换理论,先对图像进行radon域变换,然后在radon域中使用小波变换来处理点奇异。2003年,MinhN.Do和MartinVetterli[25]提出了一种有限脊波变换方法,在脊波变换中应用有限radon变换,克服了离散脊波变换不能精确进行信号重组的难题。2000年,Candès和Donoho[26]提出了曲波变换理论,实际上是脊波理论的衍生,其基本尺度呈现出很高的方向敏感度和很高的各向异性。2004年,Candès和Donoho[27]提出了一种新的曲波紧致框架方法,直接从频域进行多尺度分析,用于寻找分段C2边缘的最优稀疏呈现问题。2002年,Minh.N.Do和MartinVetterli[28]提出了一种轮廓变换方法,具有多方向特性和有效的边缘及轮廓捕捉特性,能够满足曲线的各向异性尺度关系,可以实现类似于曲波的快速分解。2006年,A.L.Cunha[29]等提出了具备平移不变性的、非抽取的轮廓变换,通过对金字塔分解和方向滤波器均不采取下采样来实现。

2.2 视觉图像特征提取

视觉图像特征提取是对图像进行识别分类的重要方法,也是实现图像信息理解、处理与决策的基础。在一幅视觉图像中,通常把具有鲜明特征的信息,诸如边缘、角点、圆或椭圆中心,以及图像的形状特征等作为视觉图像特征信息进行提取。在视觉图像中,图像边缘是视觉图像的主要特征信息。1965年,Roberts[1]就提出了一种基于灰度梯度的边缘检测算子。1975年,Fram和Deutsch[30]联合撰写了一篇回顾性的文章,综述了大量经典的早期边缘检测算子,并对它们的效能进行了评价。1992年,R.Nevatia[31]提出了一种模板匹配方法,先进行互相关运算,再进行阈值判决。1998年,德国Steger博士[32]利用Hessian矩阵确定图像中线条边缘的法线方向,然后通过求解法线方向上的极值点得到线条边缘的子像素级位置。2006年,胡坤等[33]在Steger算法的基础上将大模板高斯卷积的递归思想引入线条边缘检测中,提出一种基于Hessian矩阵的子像素精度线条边缘快速提取改进算法。图像中的角点是指图像中具有高曲率的点,是一种具有重要意义的几何特征。1977年,Moravec[34]提出了第一个角点检测方法,用于控制车辆在复杂的道路上行走。Harris[35-36]给出了探测角点的方法———Harris角点探测器,使得算法的检测效果和可重复性大大改善。1997年,剑桥大学Smith[37]提出了著名的SUSAN算子,通过计算基于核心点的SUSAN面积大小,并以此作为初始角点响应。X型角点是一种常见靶标特征点,ChenDZ等[38]通过分析X型角点的图像特征,建立其灰度分布的数学模型,在此基础上提出一种X型角点子像素级提取方法。栅格型角点是另一种较为常见的用于视觉的靶标特征点,陈大志等[39-40]通过分析栅格型角点的图像特征,建立其灰度分布的数学模型,在此基础上提出了一种栅格型角点子像素级提取方法。椭圆或圆在摄像机像平面上所成的像一般仍为椭圆,而椭圆或圆的图像中心通常是视觉导航中所需要提取的信息。当椭圆或圆为一光斑形状,所成像比较小时,重心法是一种提取椭圆或圆的图像中心比较有效的方法。魏新国[41]提出了一些改进的重心法形式。当椭圆图像足够大时,椭圆拟合法是图像中心提取比较适合的方法,魏振忠[42]给出了椭圆拟合法的具体过程。通常,空间椭圆的图像中心并不是椭圆中心所对应像点,针对这一问题,Heikkil[43]对空间圆的情形进行了研究,并建立了空间圆中心在摄像机像平面上的畸变误差模型。2011年,曹世翔等[44]提出了一种多分辨率图像特征提取方法,通过构建边缘图像的Gauss金字塔,从中提取稳定的特征点完成图像匹配,使得误匹配特征点的个数极大减少。

2.3 视觉定位方法

目前,主要有两种视觉导航定位方法,分别为:视觉里程计和基于地标点匹配的视觉导航定位方法。

2.3.1 视觉里程计

视觉里程计是一种利用单目或双目摄像机得到图像序列,然后通过特征提取、匹配与跟踪估计载体运动信息的导航定位方法。

1987年,Matthies等人[45]提出了视觉里程计的概念,并设计了从图像特征提取、匹配与跟踪到估计载体运动信息的理论框架。2004年,Nistér等人[46]提出了一种实时视觉里程计导航系统,能够实现机器人室外运动导航,并给出了单目视觉里程计和立体视觉里程计的实现途径和流程,为非全向视觉里程计的研究奠定了基础。2004年,Corke等人[47]提出了两种基于全向视觉系统的视觉里程计方案,一种是基于鲁棒的光流法,通过跟踪显著的视觉特征获得每一帧图像的位移;另一种为完全的由运动到结构的方法,利用扩展卡尔曼滤波器估计相机的运动。2009年,Pretto等人[48]以SIFT描述子描述尺度空间的极值,通过基于熵的方法剔除低区别能力的描述子,跟踪兴趣特征,以完成运动估计。2005年,Sünderhauf等人[49]将稀疏光束法平差(sparsebundleadjustment,SBA)应用于立体视觉里程计中,对左右立体像对中的特征运用滑动窗口SBA方法,结合简单的运动阈值滤波方法完成载体运动的估计。2007年,Maimone等人[50]提出了一种利用兴趣算子进行特征检测的方法,通过利用广义归一化(pseudo-normalized correlation)的方法完成左右图像对之间的特征匹配,然后在连续立体图像对中跟踪特征,完成载体运动的估计。2004年,PCA被成功地应用于SIFT描述子的降维运算中[51],从标准的128维特征空间降到了20维,大大减少了计算量。2011年,Nourani-Vatani等人[52]将线性前向预测滤波用于视觉里程计,能够限制搜索的区域,增加了计算的效率。

2.3.2 地标点匹配导航

地标点匹配导航是事先将环境中的一些特殊景物作为地标,机器人在知道这些地标点的坐标和形状等特征的前提下,通过对地标点的探测来确定自身的位置。

根据地标点的不同,可以分为人工地标点匹配导航和自然地标点匹配导航。1987年,Kabuka和Arenas[53]提出了一种基于人工地标点匹配的视觉导航定位方法,这一方法只受相机焦距的影响,不受其他相机内部参数的影响,而且非常简单与灵活。1997年,Hashima等[54]提出了自然地标点匹配导航定位方法,通过使用相关性跟踪选定的地标点完成载体位置的计算,并在行进过程中逐步更新地标点。2002年,Olson[55]提出了一种通过选取最佳地标点进行导航定位的方法,这一方法是基于极大似然定位算法来确定机器人的位置,不仅增加了定位精度,而且增强了系统的稳定性。2009年,Sim等人[56]提出了一种SLAM(SimultaneousLocalizationandMapping)视觉导航方法,利用粒子滤波同时解决定位和地图创建问题,并通过检测三维地标进行精确定位。2002年,Saripalli等人[57]给出了一种基于视觉导航的微型无人直升机自动降落方法,通过利用Hu不变矩完成降落坪地标图像特征的自动识别实现无人机的自主降落。美国MER漫游车着陆以后,通过利用着陆器和巡视探测器桅杆上的立体相机获得至少3个自然地标点后,采用三角测量的方法确定了火星漫游车的位置,定位精度达到±100m[58]。2007年,Mourikis等[59]提出了一种用于着陆器自主导航的地形匹配定位方法,通过提取CCD相机所拍摄的着陆星球表面图像上的地标点,并与探测星球在轨卫星所形成的数字高程地图进行地标点匹配,从而估计出着陆器的绝对位置及姿态信息。2007年,侯建[60]提出了一种月球车定位方法,利用局部地形图中局部高点相互之间的几何关系与全局地形图中对应高点存在接近的几何关系这一特征,通过特征匹配就可以求得月球车的位置信息。

3 视觉导航定位技术发展趋势

近年来,随着计算机处理速度的不断提高、信号处理技术的不断发展以及各类导航技术的不断完善,视觉导航技术获得了越来越广泛的应用,技术已日趋成熟。但由于载体所处的环境越来越复杂,目前,在视觉导航技术方面仍然有一些关键问题亟待解决。主要有以下几个方面:

(1)图像去噪技术

视觉图像在形成、传输、接收和处理的过程中均会存在一定程度噪声的干扰,使图像质量恶化,甚至淹没图像特征,增加了图像特征提取等工作的难度,因此,图像去噪技术的研究具有重要的意义。目前,小波去噪技术的一个基础性问题是如何为不同的模型找到最理想的小波系数模型,以及如何对非高斯噪声进行建模,可不可以将处理高斯噪声的去噪方法用于非高斯噪声的处理。另一方面,随着脊波、曲波以及轮廓变换等新概念的提出,模型的准确性得到了进一步的提高,并改善了小波的去噪性能,但这些概念的理论基础还不够完善,需要进一步的研究。图像去噪技术的另一发展趋势是根据具体图像选择不同的滤波方法进行结合,能够取得比单一去噪方法更好的效果。

(2)视觉特征提取技术

研究图像目标特征提取的最终目的是让计算机具备人的视觉感知能力与认知能力,代替人完成繁重的图像信息处理工作。但目前很多对人来说轻而易举的任务,计算机却很难做到。在利用多分辨率技术对图像目标特征进行提取方面,如何让计算机自动确定相应的尺度来提取特征还有待于进一步的研究。根据图像的变换系数提取图像特征是一种新的图像特征提取方法,其中,如何将变换系数方法与代数方法结合起来提取图像特征是值得深入研究的方向。另外,由于每一种图像特征提取方法都具有其各自的优势,也都存在其不可克服的缺陷,因此,将多种图像特征提取方法相结合同时应用于同一图像特征的提取也是未来的研究方向。

(3)视觉定位方法

对于视觉里程计,需要研究如何提高算法的鲁棒性、实时性和精确性;如何通过改进硬件和软件,使得载体的位置和姿态可以得到高精度的实时估计。其中,将精度高但效率低的“批处理”算法与精度相对较低的递归方法相结合的“批处理”-递归混合系统,具有高效高精度的特点,将是视觉里程计一个可行的发展方向。对于地标点匹配方法,有待于进一步提高定位的精度,尤其是对于远点地标法。另一方面,视觉导航定位技术与其他导航定位系统进行组合也是一大发展趋势。

4 结 束 语

以CCD相机作为传感器的视觉导航定位系统,具有体积小、重量轻、能耗低、视场宽、易于搭载等显著优势,在众多领域得到了广泛的应用。尤其是进入21世纪以后,随着视觉导航算法的发展、视觉传感器的微型化及计算机性能的大幅提高,视觉导航系统几乎被应用在所有导航环境中,其重要性在组合导航系统中得到日益提升。在国外,视觉导航系统研究较早,现已逐渐被应用在无人机、巡航导弹、星际探测器以及机器人等前沿领域;在国内,关于视觉导航领域的研究起步较晚,但也已取得了一些可喜的成果。随着视觉导航在精度、实时性与鲁棒性等方面的不断提高与发展,其必将成为未来导航领域中一个重要的发展方向,具有广阔的应用前景。

3 视觉导航定位技术发展趋势

近年来,随着计算机处理速度的不断提高、信号处理技术的不断发展以及各类导航技术的不断完善,视觉导航技术获得了越来越广泛的应用,技术已日趋成熟。但由于载体所处的环境越来越复杂,目前,在视觉导航技术方面仍然有一些关键问题亟待解决。主要有以下几个方面:

(1)图像去噪技术

视觉图像在形成、传输、接收和处理的过程中均会存在一定程度噪声的干扰,使图像质量恶化,甚至淹没图像特征,增加了图像特征提取等工作的难度,因此,图像去噪技术的研究具有重要的意义。目前,小波去噪技术的一个基础性问题是如何为不同的模型找到最理想的小波系数模型,以及如何对非高斯噪声进行建模,可不可以将处理高斯噪声的去噪方法用于非高斯噪声的处理。另一方面,随着脊波、曲波以及轮廓变换等新概念的提出,模型的准确性得到了进一步的提高,并改善了小波的去噪性能,但这些概念的理论基础还不够完善,需要进一步的研究。图像去噪技术的另一发展趋势是根据具体图像选择不同的滤波方法进行结合,能够取得比单一去噪方法更好的效果。

(2)视觉特征提取技术

研究图像目标特征提取的最终目的是让计算机具备人的视觉感知能力与认知能力,代替人完成繁重的图像信息处理工作。但目前很多对人来说轻而易举的任务,计算机却很难做到。在利用多分辨率技术对图像目标特征进行提取方面,如何让计算机自动确定相应的尺度来提取特征还有待于进一步的研究。根据图像的变换系数提取图像特征是一种新的图像特征提取方法,其中,如何将变换系数方法与代数方法结合起来提取图像特征是值得深入研究的方向。另外,由于每一种图像特征提取方法都具有其各自的优势,也都存在其不可克服的缺陷,因此,将多种图像特征提取方法相结合同时应用于同一图像特征的提取也是未来的研究方向。

(3)视觉定位方法

对于视觉里程计,需要研究如何提高算法的鲁棒性、实时性和精确性;如何通过改进硬件和软件,使得载体的位置和姿态可以得到高精度的实时估计。其中,将精度高但效率低的“批处理”算法与精度相对较低的递归方法相结合的“批处理”-递归混合系统,具有高效高精度的特点,将是视觉里程计一个可行的发展方向。对于地标点匹配方法,有待于进一步提高定位的精度,尤其是对于远点地标法。另一方面,视觉导航定位技术与其他导航定位系统进行组合也是一大发展趋势。

4 结 束 语

以CCD相机作为传感器的视觉导航定位系统,具有体积小、重量轻、能耗低、视场宽、易于搭载等显著优势,在众多领域得到了广泛的应用。尤其是进入21世纪以后,随着视觉导航算法的发展、视觉传感器的微型化及计算机性能的大幅提高,视觉导航系统几乎被应用在所有导航环境中,其重要性在组合导航系统中得到日益提升。在国外,视觉导航系统研究较早,现已逐渐被应用在无人机、巡航导弹、星际探测器以及机器人等前沿领域;在国内,关于视觉导航领域的研究起步较晚,但也已取得了一些可喜的成果。随着视觉导航在精度、实时性与鲁棒性等方面的不断提高与发展,其必将成为未来导航领域中一个重要的发展方向,具有广阔的应用前景。

3 视觉导航定位技术发展趋势

近年来,随着计算机处理速度的不断提高、信号处理技术的不断发展以及各类导航技术的不断完善,视觉导航技术获得了越来越广泛的应用,技术已日趋成熟。但由于载体所处的环境越来越复杂,目前,在视觉导航技术方面仍然有一些关键问题亟待解决。主要有以下几个方面:

(1)图像去噪技术

视觉图像在形成、传输、接收和处理的过程中均会存在一定程度噪声的干扰,使图像质量恶化,甚至淹没图像特征,增加了图像特征提取等工作的难度,因此,图像去噪技术的研究具有重要的意义。目前,小波去噪技术的一个基础性问题是如何为不同的模型找到最理想的小波系数模型,以及如何对非高斯噪声进行建模,可不可以将处理高斯噪声的去噪方法用于非高斯噪声的处理。另一方面,随着脊波、曲波以及轮廓变换等新概念的提出,模型的准确性得到了进一步的提高,并改善了小波的去噪性能,但这些概念的理论基础还不够完善,需要进一步的研究。图像去噪技术的另一发展趋势是根据具体图像选择不同的滤波方法进行结合,能够取得比单一去噪方法更好的效果。

(2)视觉特征提取技术

研究图像目标特征提取的最终目的是让计算机具备人的视觉感知能力与认知能力,代替人完成繁重的图像信息处理工作。但目前很多对人来说轻而易举的任务,计算机却很难做到。在利用多分辨率技术对图像目标特征进行提取方面,如何让计算机自动确定相应的尺度来提取特征还有待于进一步的研究。根据图像的变换系数提取图像特征是一种新的图像特征提取方法,其中,如何将变换系数方法与代数方法结合起来提取图像特征是值得深入研究的方向。另外,由于每一种图像特征提取方法都具有其各自的优势,也都存在其不可克服的缺陷,因此,将多种图像特征提取方法相结合同时应用于同一图像特征的提取也是未来的研究方向。

(3)视觉定位方法

对于视觉里程计,需要研究如何提高算法的鲁棒性、实时性和精确性;如何通过改进硬件和软件,使得载体的位置和姿态可以得到高精度的实时估计。其中,将精度高但效率低的“批处理”算法与精度相对较低的递归方法相结合的“批处理”-递归混合系统,具有高效高精度的特点,将是视觉里程计一个可行的发展方向。对于地标点匹配方法,有待于进一步提高定位的精度,尤其是对于远点地标法。另一方面,视觉导航定位技术与其他导航定位系统进行组合也是一大发展趋势。

4 结 束 语

视觉报警信号检测工装设计 篇4

国家食品药品监督管理局于2009年12月25日发布了YY 0709-2009《医用电气设备第1-8部分安全通用要求并列标准:通用要求, 医用电气设备和医用电气系统中报警系统的测试和指南》, 并于2010年12月1日正式实施, 该标准等同采用国际标准IEC 60601-1-8:2003。对于这份全新的标准, 其中部分条款的要求目前市面上无对应的检验设备。本视觉报警信号检测仪是针对该标准中的“201.3.2.2视觉报警信号的特征”而设计。

1.“201.3.2.2视觉报警信号的特征”的要求及普遍的测试方法

1.1“201.3.2.2视觉报警信号的特征”的要求

条款201.3.2.2的主要检测内容如表1。

1.2 目前普遍的测试方法

对于指示灯的颜色, 我们可以通过肉眼判断得出。而对于闪烁频率、占空比这类指标只能通过仪器设备进行检测。目前, 普遍采用的方法是使用示波器来捕捉示指灯的电压波形从而测出其闪烁频率和占空比, 但这种方法存在一定的弊端和局限性。

使用示波器测量指示灯的电压波形, 需要检验人员预先熟悉被检样品的机械结构和电气结构, 再一步步拆解被检样品, 最后找到示波器的接入点。对于复杂的样品, 可能要花费半天至一天的时间来拆解和复原。而且有些样品由于产品本身特性, 在拆开的状态下无法正常工作或激活报警状态。此外, 随着新技术的发展和普及, 越来越多的产品使用了液晶显示屏或其他显示手段, 视觉报警信息直接通过显示屏展现给医护人员, 这类显示屏使用数字信号控制, 无法使用示波器进行检测。因此, 为了解决上述问题, 切实有效地实现视觉报警信号的检测, 我们设计了本检测工装。

2. 工作原理和电路设计

2.1 工作原理图

如图1所示, 本设计的工作原理是通光传感器采集视觉报警光源的变化, 通过信号处理之后, 由单片机进行计算并向显示屏输出结果。

2.2 电路原理图 (图2)

3. 软件设计

单片机的主程序工作流程如图3所示。

4. 元器件选型

4.1 传感器

视觉报警其本质上是按特定的频率控制光强度或是颜色变化从而对医护人员起到警示的作用。因此, 从光方面入手, 选用光敏感元器件通过对光强度的检测, 既可以免去拆解样品带来的人力和时间的损耗, 又能解决示波器对数字信号控制类的视觉输出设备 (如:液晶显示屏) 无法实现检测的局限性。光敏元件按其光敏感特性分为红外光敏元件、可见光敏元件和紫外光敏元件。

本设计采用可见光敏电阻作为传感器的核心元件。其特性如表2所示, 其对波长的灵敏度见图4。

4.2 传感器输出信号的处理

由于本设计采用的单片机I/O口不带A/D转换功能, I/O口只能识别高电平 (>2V) 和低电平 (<0.8V) , 当电平在0.8V~2.0V的区间内, 单片机无法有效地识别电平。因此, 需要对传感器输出的信号进行转化和处理。

由上述的光敏电阻特性可知, 光敏电阻的电阻值会随着所接收的光强度改变而变化。在同一光强度下, 不同波长的光其对应的灵敏度不同, 而单纯的电阻值变化, 并不能让单片机识别出相应的检测信息。利用电阻的分压原理, 先将一10kΩ电阻与光敏电阻串联并在两端施加5V电压 (如图2所示) 。即可在光敏电阻和电阻的连接处得到光敏电阻值变化引起的电压波动。对于普通的LED指示灯, 在点亮的时候连接点处的电压实测为2.3V, 在熄灭的时候为0.2V, 属于单片机I/O口可识别的信号。对于液晶显示屏, 由于其工作时背光灯产生的光会对检测带来干扰。实际测量部分液晶显示屏, 当液晶屏输出视觉信号时, 连接点的电压为2.3V, 当液晶屏未输出视觉信号时连接点的电压为0.88V。此时连接点的电压无法让单片机正确识别。为此, 作者使用电压比较器对连接点的电压再进行处理。

电压比较器是将模拟量电压信号和一个参考电压相比较, 输出电压将产生跃变, 相应输出高电平或低电平。因此, 在电压比较器的参考电压端输入1V的电压, 并且将连接点与电压比较器输入端相连。当连接点的电压为2.3V的时候, 电压比较器输出5V;当连接点的电压为0.88V时, 电压比较器输出0V。满足了单片机的对高低电平识别要求。

5.结论

该工装实现了视觉报警检测的简易性、高效性和普遍适用性。从需要拆解样品到“无创” (免拆样品) 检测, 从耗时耗力到几秒钟得出检测结果, 普遍适用各种形式产生的视觉报警信号。解决了目前检测方法存在的弊端和局限性, 符合YY 0709-2009的检测要求。

摘要:国家行业标准YY 0709-2009《医用电气设备第1-8部分:安全通用要求并列标准:通用要求, 医用电气设备和医用电气系统中报警系统的测试和指南》已于2010年12月01日实施, 如何让检测工作变得更加简便快捷尤为重要。本文详细介绍了视觉报警信号检测工装的设计。

关键词:视觉报警,信号检测,工装

参考文献

视觉检测技术 篇5

关键词:3D显示;立体视觉;辐辏;调节;视觉疲劳

与传统的2D图像相比,3D图像提供更加丰富的视觉信息,观看者通过屏幕呈现的画面,可以真实的感知到物体的远近、纵深等立体信息,给人身临其境的立体感和沉浸感。基于这些优势,3D显示技术近年来发展非常迅速。3D电影、3D电视、3D手机迅速普及,国内外的电视品牌都已经生产了3D电视,夏普、LG、康佳、索尼、三星、创维、TCL、长虹纷纷召开新闻发布会,力推3D电视;在手机领域,已经有HTC、夏普、LG、卓普等多品牌多款机型支持裸眼3D技术,用户可以随时随地享受3D电影,浏览3D照片,玩3D游戏等;南非世界杯开赛之后,3D广告频繁的出现在中央五套,同时,户外广告也积极地引进3D技术;除了商用,3D显示技术在教育、医疗、工业设计、军事等各种领域也具有广阔的应用前景。

1 研究目的及意义

3D电影、3D电视作为一种新的娱乐手段无疑是激动人心的,但人们也越来越多的开始意识到过度观看3D显示画面对身体存在的危害。20xx年,三星曾经公开发布了警告,称观看3D电视会对身体健康不利,长时间观看有可能导致一系列不健康的症状,包括视力下降、视线模糊、眼睛干涩、眼睛疼痛、头痛、头晕、乏力、恶心、方位感知障碍等。尤其对儿童和青少年比对成年人的危害更大。然而到目前为止,国内外始终没有对3D显示技术的舒适度及其对人体视觉健康的影响做一个系统性的评估研究,目前亟需一个国内外都公认的3D视觉健康标准和评测体系,指导研发、生产等各个环节的质量和安全,保障产业的快速健康发展。因此,不论是从产业化的角度,还是从理论研究价值的角度,对3D显示技术导致的视觉疲劳研究及相关安全标准的探索都很有必要。

2 立体视觉形成机理

立体视觉简称立体视,是指用双眼观察景物时能够分辨物体的远近形态的感觉。人眼立体视觉的建立过程如下:当双眼同时注视目标物体上的某一点时,左右眼的视线交叉于一点,这一点称为注视点。从注视点反射回到左右眼视网膜上的是一对左右对应并稍有差异的光点,这两个光点的信号传入大脑的视中枢,并融合成一幅完整的像,这一过程通常称为双眼单视,使得人们不但看清了物体上的这一点,并且连这一点同周围物体的间距、深度、凹凸等信息都能辨别出来,这样,人们就看到了一幅立体的像,如图1所示。

上述立体视觉的形成,源于人眼对所接收的视觉信息具有相当深度的感知能力,而深度感知能力是在人眼的生理因素及大脑的心理因素双重作用下产生的,其中生理因素包括双目视差、辐辏、焦点调节、运动视差等,心理因素包括遮盖或重叠、透视、阴影、颜色等,相比于生理因素,心理因素的作用要小得多。下面对本实验涉及的辐辏和调节机制加以介绍。

2.1 辐 辏

辐辏指双眼视轴的辐辏。当眼睛在休息状态或者注视远处的物体时,左右眼的视轴是平行的,而当我们注视近处的物体时,眼部肌肉不仅要调节晶状体使聚焦到近处,同时两眼的视轴也要向内侧旋转,使左右眼的视轴相交于被注视的物体。这种作用就叫辐辏。当被注视的物体向人慢慢靠近时,双眼的辐辏程度也随之慢慢增加,这种改变主要由眼部肌肉完成,并通过将这种改变信号传输给大脑,从而形成一种对深度信息的感知。

2.2 调 节

人眼为了把不同远近距离的物像成像在视网膜上,会通过眼部肌肉作用调节晶状体的屈光能力,看远处物体时晶状体比较扁平,看近处物体时比较凸起,使不同距离外的景象清晰成像在视网膜上。这种对于注视不同距离的物体时眼睛晶状体的屈光能力随之改变的现象,称为调节。调节过程通过眼睛晶状体的可塑性和睫状肌的收缩来完成,通过眼睛的这种适应调节状态,大脑可以估计出所看物体的远近距离。

为了保证双眼能看清不同远近距离处的物体,既要能时刻保持双眼单视,又要不停的进行距离判断进行调节,所以双眼的辐辏与调节是互相协同联合运动的。

辐辏与调节之间的关系如图2所示。A图表示当眼睛观看生活中的实际物体时,辐辏距离与调节距离总是保持一致的,B图表示在观看平面3D显示的立体图像时,辐辏距离与调节距离不一致。正是由于观看3D显示时辐辏与调节的不一致,导致了视觉疲劳。

3 实验及结果分析

目前的主流立体显示技术主要有眼镜式和裸眼式两种,眼镜式的主要有色分式、光分式、时分式等,裸眼的目前应用较多的是视差屏障式和柱状透镜式。它们各自有自己的优缺点,同时都不可避免地存在着导致视觉疲劳的因素。例如色分式的颜色丢失严重,而且由于眼镜镜片颜色纯度不够导致滤光不完全,造成重影;偏振式的同样由于偏振眼镜也无法将左右眼图像完美分离;时分式的亮度下降,且容易产生闪烁感;视差屏障式和柱状透镜式显示都易降低画面质量。

本文选取了眼动仪记录的8名被试者分别在观看2D、3D和实物图像时眼睛运动的情况,以期找出导致观看3D图像比2D图像和实物更疲劳的原因。实验所用的是加拿大SRResearch公司生产的EyelinkⅡ眼动仪,该眼动仪可以记录被试者在实验中眼睛运动的各个参数,包括注视点位置、注视次数、注视时间、瞳孔大小、眨眼、眼动轨迹图等。

在实验中,每名被试分别观看了6组图片,每组图片包含2D、3D图片各一张以及在相同背景下出屏的实物一张。6组图片的背景均相同,每组图片的视差大小不相同,即被试看到的物体出屏距离不相同。

一组实验用图片如图3所示,(a)为没有出屏感的2D图片,(b)为出屏约6cm的3D图片,相同的背景图片图未示。

不同被试在观看2D、3D图片以及实物时双眼间距的变化曲线如图4所示(a)~(h)所示,横坐标为视差(即不同的出屏距离)/parallax,纵坐标为双眼间距dx/pixel。其中黑色方点的曲线对应观看2D图片时双眼间距的变化情况,红色圆点的曲线对应3D,蓝色三角形点的曲线对应实物。

综合以上各图可以看出,比较而言,被试观看2D图片时双眼间距的变化不太大,而观看3D图片和实物时,随着视差和出屏距离的增大,双眼间距有明显减小的趋势。这就说明观看时随着3D图片视差的增大,和实物的出屏距离增加效果一样,被试的双眼出现了会聚眼动,即通常所称的辐辏反射。

双目立体视觉的光学标定技术 篇6

关键词: 双目立体视觉; 针孔模型; 最大似然估计; 二维标定

引言计算机视觉检测技术以其非接触、快速、高精度、自动化程度高等优点,近年来在众多领域得到了广泛的应用,尤其是双目立体视觉技术已经被成功地应用于工业检测、目标识别、智能车辆和空间物体三维姿态测量等领域。如何通过摄像机获取的二维图像信息,计算出三维空间中物体的几何信息,并由此重建和识别物体是计算机视觉技术中的首要问题。因此,要准确地得到三维空间点和相应图像像素点之间的对应关系,精确地标定摄像机是极其重要的[1]。随着计算机视觉理论的发展,人们根据实际应用提出了一些不同的摄像机模型和标定方法[112]。其中基于三维标定物的标定法以TSAI R Y的两步标定法最为普遍[79],但该法不易进行大尺寸的标定,且标定块不易制作,价格昂贵。而基于二维标定物如平面棋盘格或带星状图形图板的标定法,如张正友标定法等[1012],其操作灵活,价格低廉,标定精度较高,是目前双目立体视觉标定的主要手段,它利用旋转矩阵的正交条件及非线性最优化进行摄像机参数的标定。这种基于不同位置平面模板的标定方法仅要求从不同角度拍摄同一标定平面两幅以上的图像,就可以求出摄像机的内外参数,同时不需要知道平面模板移动的具体方向和位移信息。由于需要确定模板上点阵的物理坐标以及图像和模板之间的点的匹配,提高了对使用者的要求。同时由于手动点击角点繁琐,容易产生一定的误差。为了使车辆辅助驾驶系统实现行人检测和距离判断,以便通过图像处理和计算实现对车辆辅助驾驶控制,因此本文构建了双目立体视觉模块,实现光学取景和成像。为了测量物点到摄像机镜头的距离,以及获取实际场景尺寸和摄像机成像尺寸之间的关系与误差,本文结合张正友等人的算法对车载双目立体视觉模块进行了二维标定。制定了合理的标定方案,并采用黑方格模板等方法进行实验,很好地实现了双目立体视觉模块的光学标定,其标定方法具有实现简便,算法移植性好,精度高的特点。图1针孔模型

Fig.1Pinhole model1基本结构和工作原理摄像机是满足射影特性的光学成像仪器,使用针孔模型[8]对其建模。成像过程实质上是四个坐标系之间的坐标转换,这四个坐标系依次是世界坐标系、摄像机坐标系、图像物理坐标系、图像像素坐标系。如图1所示,世界坐标系OXwYwZw建立在空间之中,用以量化摄像机及各个物点的位置和相互间的位置关系。摄像机坐标系OXcYcZc的原点O位于成像平面之后距离为焦距f的地方,Zc轴与光轴重合,Xc轴、Yc轴分别与图像的行方向、列方向平行。图像物理坐标系OXY与成像平面重合,原点位于图像中心,X轴、Y轴分别与图像的行方向、列方向平行。图像像素坐标系OUV与成像平面重合,原点位于图像左下顶点,U轴、V轴分别与图像的行方向、列方向平行。

三维坐标系之间的位置关系有平移和旋转两种,分别由平移矩阵和旋转矩阵来描述,世界坐标系到摄像机坐标系的转换为:xc

2.2标定预处理标定操作需要通过反色、图像优化、边缘检测、顶点检测和二维标定等步骤,在实现标定时,采用了黑方格模板和基于张正友定标的二维标定算法实现摄像机的标定以优化传统算法。摄像机获取的彩色图像,经过灰度转换,成为灰度图像。使用二元高斯函数产生高斯滤波窗口,对图像进行滤波,减少噪声对顶点提取的影响。由于标定物是画有黑色正方形的白纸,图像对比度较大,因此,使用阈值变换,进一步增加对比度,灰度图像进一步转换成为二值图像,同时大大简化了后续处理算法。此时,目标区域为黑色,背景区域为白色,不利于图像处理,因此,对二值图像的像素取反,让正方形的像区域成为白色区域。由于摄像机成像的不清晰性及噪声的影响,反色后的图像边缘出现了锯齿状,需要进行图像优化以修复目标区域的此类缺陷。分析这种缺陷发现,当锯齿出现时,连续的三个横向和纵向的像素点,其像素值为1、0、1或者0、1、0。基于这个特点,使用如图3所示的两种模板分别匹配整幅图像实现优化。首先使用如图3(a)所示的横向模板进行匹配,其大小为3个像素点,若f(i,j-1)=f(i,j+1),则令f(i,j)=f(i,j-1),进行图像优化。然后使用图3(b)所示的纵向模板对图像进行二次优化,设定大小为3个像素点,若f(i-1,j)=f(i+1,j),则令f(i,j)=f(i-1,j),从而完成对图像的优化。

优化后的图像是二值图像,目标区域为白色,区域内部没有孔洞,区域边缘不存在小的锯齿状。在优化后的图像中,边缘点是白色,在横向或纵向上,其两边的点的像素值相反。对横向模板,若f(i-1,j)≠f(i+1,j)且f(i,j)=1,则(i,j)即为边缘点。对于纵向模板,若f(i,j-1)≠f(i,j+1)且f(i,j)=1,则(i,j)即为边缘点。对于顶点检测,以正方形顶点为中心的一个菱形窗口中,一组相邻的两个菱形顶点与另一组相邻的两个菱形顶点的像素值相反。然后也可以利用简单的方法实现顶点检测。

2.3二维标定经典标定法[10]的理论基础是绝对二次曲线的像曲线只与摄像机内部参数有关,与世界坐标系的选择无关。标定在其基础上采用黑方格模板进行改进,通过摄像机在同一平面模板上采集不同图像,通过图像处理得到特征点的世界坐标和图像坐标,求出摄像机的内部和外部参数,并使用最大似然估计优化所有参数。首先在图像处理提取顶点后,得到一系列对应点的图像像素坐标m=(u,v)和世界坐标M~=(xw,yw,zw)。由于世界坐标系是以标定物平面为坐标平面OXY,因此M~=(xw,yw,0)。则:m~=1zcARtM~=1λARtM~=HM~(8)使用摄像机对模板在m(m>2)个不同位置采集m个图像,每个图像上包含n个正方形顶点,经过图像处理,提取得到所有正方形顶点的坐标,因此,每个图像上的特征点的世界坐标和图像像素坐标均已知。求解超定方程的最小二乘解就是这个方向上的单应矩阵H,以该值作为初始值,使用LevenbergMarquardt算法求解以下函数的最小值,从而优化单应矩阵。由此可得:I=∑ni=1mi-HMi2(9)其中,mi(i=1、2、3、……、n)是特征点的图像坐标,H是该组特征点所对应的单应矩阵,Mi(i=1、2、3、……、n)是特征点的世界坐标。根据张正友标定法的绝对二次曲线方程的求解可以获得绝对二次曲线的像曲线:w=A-TA-1,而绝对二次曲线与世界坐标系的选择无关,仅与摄像机的内部参数有关,通过单应矩阵、旋转矩阵和平移矩阵的关系,结合绝对二次曲线在像平面上的像,并在模板上取3个不同位置和方向上的图像就可以求解其内部参数矩阵A。再根据单应矩阵与内部参数、旋转矩阵、平移矩阵的关系,可以求解出外部参数矩阵。最后采用∑mi=1∑nj=1mij-m^(A,Ri,ti,Mij)2函数进行最大似然估计完成内部和外部参数的优化。3实验结果分析与结论在算法研究和仿真的基础上,选取了TOTA公司带有变焦镜头的TOTA500III摄像机构建双目立体视觉系统,并通过软件进行实验验证。该双目立体视觉系统采用了1/3英寸的CCD,其照度为0.2 lx,具有510线分辨率,电源供应可以实现AC24V或DC12V自动转换,实验标定模板为平面黑方格模板,其具体尺寸为240 mm×176 mm。图4为用立体视觉系统在3个不同角度成像的立体图像。

将数据采集卡获取的信号送入计算机,对送入的信号首先进行灰度转换、图像滤波和阈值变换等预处理操作,然后进行标定图像操作。通过本文所介绍的算法计算获得摄像机部分参数矩阵:A=[1 190.12,4.945 59,336.976;0,1 273.9,135.906;0,0,1],R=[0.944 963,0.017 198,0.326 725;0.033 256 9,0.988 396,-0.148 213;-0.325 483,0.150 922,0.933 426],t=[-24.217,9.489 15,101.815],k=[1.140 65;-15.129 6]。实际标定精度为0.050 9 mm,可以为后期的工作提供精度保障。通过理论研究和实验测定可知,利用黑方格模板和对理论进行改进可以简单有效地实现双目立体视觉中的摄像机光学标定并保证良好的精度,通过图像坐标到世界坐标的转换运算,实现机器视觉功能和测量功能,同时由于算法在畸变方面的研究不足,导致标定产生一定的误差。实现方法虽然简单但运算过程设计和处理仍可进一步优化,因此将在后续的工作中进一步进行标定算法的优化。

参考文献:

[1]王向军,郭文佳,韩双来,等.基于计算机视觉的弹着点坐标远程测量系统[J].红外与激光工程,2006,35(5):624-628.

[2]屠大维,张翼成.基于灰度差异的棋盘格角点自动检测[J].光学精密工程,2011,19(6):1360-1366.

[3]杨剑,杨秋翔,秦品乐.二维柔性拼接标定方法[J].光学精密工程,2011,19(5):1134-1142.

[4]牛海涛,赵勋杰.采用棋盘格模板的摄像机标定新方法[J].红外与激光工程,2011,40(1):133-137.

[5]黄风山,钱惠芬.三坐标测量机驱动的摄像机标定技术[J].光学精密工程,2010,18(4):952-957.

[6]崔彦平,林玉池,张晓玲.基于神经网络的双目视觉摄像机标定方法的研究[J].光电子激光,2005,16(9):1097-1100.

[7]TSAI R Y.An efficient and accurate camera calibration technique for 3D machine vision[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.New York:IEEE,1986:364-374.

[8]TSAI R Y.A versatile camera calibration technique for highaccuracy 3D machine vision metrology using offtheshelf TV cameras and lenses[J].IEEE Journal of Robotics and Automation,1987,RA3(4):323-344.

[9]TSAI R Y,LENZ R K.A new technique for fully autonomous and efficient 3D robotics hand/eye calibration[J].IEEE Transactions on Robotics and Automation,1989,5(3):345-358.

[10]ZHANG Z Y.A flexible new technique for camera calibration[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(11):1330-1334.

[11]MENG X Q,HU Z Y.A new easy camera calibration technique based on circular points[J].Pattern Recognition,2003,36(5):1155-1164.

基于机器视觉的套印误差检测 篇7

套印是用多种颜色的油墨基于同一个参考点印刷叠色图案的印刷技术,印品在印刷过程中需要通过多次着墨才能重现原来的颜色,这就要求每次着色都准确对齐。若几种颜色没有对准,印出来的印品就会面目全非,即出现了套印误差。

出现套印误差的印品严重地影响了整体印刷产品的质量,因此必须将其剔除。传统的目视检测效率低下,且容易引入人为误差,而随着社会生产效率的提高,目视检测的弊端也愈来愈明显,而基于机器视觉的智能检测技术已逐渐实用化。采用机器视觉做在线检测不仅具有精度高、效率高等优点,还可克服传统目视检测的诸多缺点。

2 基于机器视觉的套印误差检测原理

在目前的彩色印刷中,使用最多的是C M Y K四色套印(C-青色,M-品红,Y-黄色,K-黑色),因此本文以此为例介绍检测的原理和算法。

我们知道,印刷油墨中的色料遵循相减混色原理,即:

Y、M、C三色在理论上几乎可以合成所有颜色,但通过Y、M、C混合产生的黑色纯度不够,还会引起局部油墨过多的问题,因此印刷中需要引入单独的黑色分量。印刷前,需要将原稿上的图案分解为黄、品红、青、黑四种原色图案,为印刷做准备,即分色。因此印刷时需要通过四次着墨才能重现原来的颜色,这就需要每次准确对齐才能重现原来的图案,若没有对准,就会出现套印误差。

在实际的四色印刷中,由于材料(纸张)、机械、制版等各种原因,很难进行一致性质量控制,颜色可能发生多次偏移,甚至到面目全非的地步,因此,套印误差是不可避免的。而套印误差的存在,会对印刷品的质量带来严重影响,因此必须将出现套印误差的产品剔除。

传统采用的方法是目视检测,不仅效率低下,而且效果还不理想,在快速印刷的环境下,甚至是不切实际的。随着技术的发展,基于机器视觉的智能检测技术逐渐实用化,并在许多工业检测场合得到广泛的应用。机器视觉,顾名思义,就是采用机器代替人眼来做测量和判断。工业应用中,一般是通过机器视觉产品(如图像摄取装置)获取图像,并将图像传送至处理单元,处理单元根据图像像素的分布、亮度、颜色等信息,通过数字化处理来进行尺寸、形状等的判别,并根据判别的结果来控制现场的设备动作。一个基本的机器视觉检测系统如图1所示:

它与传统方法相比,不仅具有精度高、速度快、自动化程度高等优点,还能克服传统目视检测容易引入人为误差的缺点,并可提高生产的柔性和自动化程度。

基于以上分析,若出现套印误差,在印刷过程上就表现为C M Y K四色分量没有精确重合,表现在通过C C D采集的2 4位真彩图像上即为图案的R G B三分量没有精确重合。因此我们的基于机器视觉的智能检测就是把待检测产品的图像和标准模板图像分别分成R、G、B三个子图,应用模板匹配的方法,在待检测图像上检测R、G、B三个模板子图的坐标,如果R、G、B三个模板子图间的坐标误差小于某个阈值,就可认为没有套印误差,否则就认为出现套印误差。一旦处理单元判断出有套印误差,则发出相应控制命令由执行设备将其剔除。本系统中,处理单元采用工控P C。

3 快速模板匹配算法及其实现

在实际的工业应用中,处理和控制均需要满足实时要求。在一个机器视觉系统中,我们可以简单地把时间耗费分成硬件耗费和软件耗费两部分。在系统确定后,硬件耗费减少的空间很小,而软件耗费一般与算法的设计有很大关系,因此有很大的减少空间。本系统中,由于实时性的要求,软件耗费应该小于0.3秒,而软件时间主要耗费在模板匹配上,因此快速模板匹配算法是提高系统速度的关键。

一般把根据对象物图案与一幅被搜索图像的各部分进行相似度比较来判断其是否存在图像中或确定对象物在图像中具体位置的操作叫做模板匹配。模板匹配是一种最原始、最基本的模式识别方法。如图2所示,模板所覆盖的被搜索图区域定义为子图Sij,i,j为模板子图左上角在被搜索图S上的坐标,模板匹配过程就是把模板T(M×N个像素)叠放在被搜索图S(W×H个像素)上进行平移,同时比较T和Sij的相似性,相似性最大的位置就是匹配的位置,从而完成模板匹配。

根据计算相似性方法的不同,相应模板匹配算法的程序所耗费的时间也就不同。传统的模板匹配算法有归一化互相关算法、SSDA算法、FFT相关算法[1]、基于傅立叶变换的相位匹配算法、基于遗传算法的匹配算法[2]等,但这些方法均涉及浮点运算且运算量极大,难以满足我们的实时性要求。

一种可行的方法是差值测度法,基本思想是用模板和子图误差的绝对值来衡量模板和子图的相似度[3],计算公式为:

D(i,j)最1小处即为匹配点。可见,差值测度法只涉及整数的加减运算而没有乘除运算,因此相比其他算法效率大有提高。

同时,借鉴SSDA算法的思想,我们还设计一个误差阈值D0,当D(i,j)大于D0时就停止当前运算,直接进入下一位置进行运算。因为在不匹配点,D(i,j)很快就会达到阈值,因此误差阈值的引入又将进一步提高算法的速度。

我们在相同条件采用三种算法在一幅待检测的256×256像素的图像上搜索一幅标准的36×36像素大小的模板的R分量子图,所需的时间如表1所示:

结果表明,差值测度法占有绝对优势,但当模板图像和被搜索图像比较大时,差值测度法还是不能满足我们的设计要求。从差值测度法的实现来看,它是一种基于像素的运算,实现的速度取决于参与运算的像素的个数,所以我们改进算法的关键就是要在保证精度的情况下,减少参与运算的像素个数。我们进一步改进的算法就是在模板和对应子图上隔h行和k列像素进行搜索,公式如下:

因此匹配过程相当于在模板的数据内进行匹配,由于参与运算的像素减少,加上合理的误差阈值设置,使得处理速度可以大幅提高

算法确定后,即进入程序设计阶段,我们采用VC++6.0作为软件开发平台。但还有一个事实我们应注意:对同一个算法,若实现方法不同,程序所耗费的时间也会有很大的不同。比如,一些不合理的数据类型的使用、读取数据的方法等都会对程序的执行速度产生很大的影响。因此,代码优化是关键,并且这个工作不能寄希望于编译器,因为编译器所做的工作非常有限,很多关键的部分必须由我们自己来做。

众所周知,寄存器的存取速度比内存快,一般c++编译器都会提供几个寄存器变量给程序使用,我们应该将那些使用最频繁的变量定义成寄存器变量,从而加快执行速度,因此在本设计中,我们将最内层的循环控制变量定义成寄存器变量。此外,为了计算像素误差的绝对值,程序中还应有一个求绝对值的功能模块。传统的实现方法是调用函数abs()实现,但采用函数调用时,如果涉及到参数传递,必须先把参数存入寄存器,然后入栈。若传递的参数多,则用到的寄存器也多,运行时需要保护的寄存器也多,这样开销就会非常大,这些可以通过比较代码的反汇编程序来证实。因此,通过实验,我们用if语句改写了此部分代码:

由于求绝对值模块是在循环的最内层进行,因此改写后,此部分代码的执行效率提高了约2 0%左右。

改进后算法的实验结果如表2所示:

从表2可以看出,当k=3,h=3时,程序所耗时间小于0.06秒,再加上检测G分量、B分量以及判断处理时间,整个检测时间小于0.2秒,满足我们的设计要求。

4 结束语

本文介绍了一种基于机器视觉的套印误差检测方法,并对其中的快速模板匹配算法的原理和实现进行了深入介绍。在今后的应用中,还可以进一步引入M M X、SSE等PC平台新技术[4],进一步提高图像处理速度。

参考文献

[1]何斌,马天予,王运坚,朱红莲.Visual C++数字图像处理[M].北京:人民邮电出版社,2001.

[2]李弼程,彭波等著.智能图像处理技术[M].北京:电子工业出版社2004.

[3]刘文耀等编著.光电图像处理[M].北京:电子工业出版社2002.

视觉文化与初中信息技术整合 篇8

一、视觉文化和媒介素养教育

视觉文化 (Visual Literacy) , 也翻译成图像素养。国际图像素养协会对图像素养采用的是Fransecky & Debes1972年的定义:“人类通过‘看’ (同时运用其他各种感官) 所发展起来的综合视觉能力;这种综合能力的发展是人类认知的先决条件之一;一个具备图像素养的人可以辨别、理解周围环境中的天然事物或人为的动作、符号。”Wagner称:“图像素养是一种综合能力, 意指人类对于图像的流动、主体与符号所象征的意涵能够加以辨识 (指客观认知) 与了解 (指主观赋予个别化意义) 。”Messaris把图像素养定义为:“在认识到图像表现和客观世界存在诸多差异的基础上, 通过静态或动态图像来把握整个世界的能力。”这种能力来源于公众在观看图像时已有的认知水平、语言能力和社会经验。当代诸种图像素养定义, 强调的不仅是“看懂”, 更是要求公众把握图像与现实世界的关系。

公众媒介素养教育的概念, 大约形成于20世纪30年代的英国。台湾的媒体素养教育也纳入基础教育范畴之内。而内地的视觉文化近来发展极为迅猛, 新课程改革着力提倡培养学生的多种素质, 视觉文化素养作为信息时代的大众基本素养之一势必要得到发展。而培养和发展学生的视觉素养并非只是艺术教师的工作, 每一个在职的学科教师都有责任。网络文化高度发展对视觉文化提出了新的要求。如何在信息技术的教学中提高学生的视觉文化素养?

二、视觉文化应用于初中信息技术的教学

1.提高视觉素养, 关键是培养学生批判性地、直观地思考其所呈现的信息的能力

大众传媒具有强大的影响力, 而儿童、青少年在这种影响面前是脆弱的, 他们容易受到伤害。生动的画面, 逼真的场景, 人们在直观感知信息的同时, 可能也失去了思考的能力;海量的信息, 庞杂的内容, 人们在惊叹方便的同时, 可能也目不暇接, 甚至是对所求信息的茫然。

视觉文化教育, 必须训练青少年抗拒大众媒介提供的“低水平的满足”, 在明确大量的信息表面所代表的内容 (“能指”) 的水平上, 上升到对信息背后隐藏的深层次的意义 (“所指”) 的理解。

于是我在有关“信息搜索与下载”的教学中, 结合当时南京十运会召开的盛况, 请学生利用各种搜索引擎和搜索技巧搜集有关十运会的相关知识, 并且请学生分析各自搜索到的信息, 整理归纳, 形成自己的有意义的信息。针对“超级女声”现象, 请学生结合电视、报纸、网络等提供的信息, 积极地批判性地思考, 提出自己的看法和理解。这样有效地将电脑工具的使用应用到具体的主题活动中, 一方面提高了电脑工具的使用熟练程度, 另一方面在具体的活动中也提高了学生对于信息的批判接收的能力。

2.提高视觉文化素养, 必须和艺术课整合, 培养学生鉴赏美、创造美的能力

当代图像素养的内涵, 首先就是 “看懂”, 即学会鉴赏, 在美的熏陶中提高视觉素养, 从而创造出美来。信息技术教学中不乏作品的制作, 小报制作、贺卡制作、演示文稿制作、网页设计、平面图像的设计、动画设计等。而一个成功的作品, 除了需要熟练的工具使用技巧外, 更强调自身的审美能力, 即美感。二者融合, 才能形成一个图文并茂、流畅美丽的作品。

在小报制作的教学中, 我一开始就请学生欣赏若干优秀作品, 适当点评, 并且和美术课有机结合, 为学生提供有关排版、色彩等方面的参考资料, 旨在引导学生对美的向往和追求。在制作过程中和完成作品后, 除了请有关学生介绍制作技巧外, 还请学生介绍版面设计、色彩搭配等方面的创意和心得, 在交流、讨论各自的作品中逐渐学会如何用计算机提供的工具设计出心中的美来。

3.提高视觉文化素养, 还要强调民族文化和本土文化的渗透

只有民族的, 才是世界的。我们中华民族悠久的历史, 璀璨的文化与现代信息技术一点都不相悖。我们应该利用掌握的现代信息技术来弘扬民族文化和本土文化。

在演示文稿制作的教学中, 我请学生围绕“龙腾虎跃南京城”这一主题, 利用所学工具, 制作出自己眼中的居住地——南京。有的学生关注南京的老城墙, 有的关注南京的新发展, 有的表现优美风景, 有的再现城区规划……这些作品, 不仅表现了各自驾驭电脑的能力, 更是展现了学生对本土文化的理解, 视觉文化素养在其中悄然提高。

作为教育技术工作者, 我们力图面对这样一种期待给出自己的思考和探索:以立足本民族、面向国际的学术视野, 研究视觉文化的教育、建设与传播的现实问题;以促进中华民族文化发展与传播为研究的出发点, 突出视觉文化对改善生存环境与教育效能的作用, 探讨如何将视觉文化应用到初中信息技术的日常教学中去。

视觉检测技术 篇9

关键词:智能交通,数字图像处理,计算机视觉,摄像机标定,背景更新,车辆检测

1 研究背景

近年来, 随着社会经济的高速发展和人民生活水平的不断提高, 我国居民使用汽车的数量也在飞速的增长。但同时城市基础设施特别是道路建设的相对落后致使城市交通拥堵、交通事故频发、交通环境恶化, 带来了一系列的社会问题。

因此, 许多机构开始致力于研究智能交通系统 (Intelligent Transport Systems) 。智能交通系统是由数字通信、图像处理、电子传感和控制等高新科学技术所组合而成的, 它能够覆盖很大的区域, 并且实时、准确的应用于交通管理系统。智能交通系统通过对交通信息的实时检测来得到其现实路况, 即通过实时检测到的道路交通流数据, 对道路的拥堵情况进行判断, 并通过给相应部门发出控制信号使道路的拥挤程度得到缓解。因此, 道路交通流 (车流量、车速等) 信息的检测, 对实现整个智能交通系统的功能有着巨大的理论和实际意义。

交通流检测是智能交通系统中的关键技术, 近年来人们也研究出了多种不同的交通流参数检测装置。根据其工作原理的区别, 可分为红外线式、电磁感应式、光电式、超声波式、电接触式等多种类型。且这其中应用的最为广泛的有环形线圈检测器、微波雷达检测器以及红外检测器等。

基于视频的交通流检测系统是通过计算机图像处理的方法来分析从交通现场采集到的交通参数信息。随着计算机图像处理技术的在理论上和实际应用方面的飞速发展和计算机软硬件的性能不断提高, 现阶段在数据处理的实时性方面已经能够满足要求。计算机图像处理技术在智能交通系统中有着十分广阔的应用前景, 现在已经成为智能交通系统领域的研究热点, 不论是在理论研究还是实际应用中都有着十分重要意义。

2 实现过程

(1) 对高速公路监控图像进行预处理的方法, 包括图像的灰度化方法, 图像的滤波方法, 图像的边缘检测算法。通过比较两种不同的灰度化方法对图像处理的差别, 我们决定直接提取图像的R值 (R.G.B三基色) 信息作为图像的特征信息, 从而将三维分布的彩色图像转变为二维分布的灰度图像进行保存, 将有效的减少数据的处理及存储量, 满足实时性的需要。

选用邻域滤波的方法来对图像作滤波处理。通过比较各种不同的边缘检测算法对图像边缘增强的效果, 采用拉普拉斯算子与SOBEL算子相结合的边缘检测算法。首先采用拉普拉斯算子对图像中的阶跃型边缘点进行加强, 使边缘灰度值过渡更加尖锐, 然后采用SOBEL算子对图像作边缘检测。

(2) 摄像机的标定可以针对很多对象, 在基于视频的智能交通检测领域, 摄像机的标定主要完成像素坐标与世界坐标之间的转换。由于成像靶面相对于监视场景来说很小, 所以高速公路监视器遵循透视成像的原理。透视成像过程中产生的灭点效应及缩小效应将对摄像机的标定过程产生很大影响, 需要予以消除。利用图像处理的方法, 将透视坐标系下的图像转换到正交坐标系下。透视成像过程中, x方向上会产生灭点效应, 相互平行的直线将会汇聚于成像焦点。采用基于立方插值的像素压缩的方法, 对图像中各条平行线的像素进行均一化, 从而使这些平行线在新的图像中恢复平行。经过压缩变换后的图像, x方向上的距离将变得一致, 图像中任何一列像素均能相同地反映出车辆的运动状况。透视成像过程中, y方向上会产生缩小效应, 在世界坐标系中等长的距离在图像中将会随着远离镜头而缩小。采用基于插值拟合的方法, 以图像中等长的白色虚线路标为定位基准, 建立了一组像素坐标到世界坐标的转换关系。

(3) 选用彩色摄像机、视频采集卡及计算机构成一套高速公路车辆检测系统, 用MATLAB编写系统核心算法。软件由三大模块构成, 模块一为图像的预处理, 模块二为车辆的检测, 模块三为数据管理。车辆的检测采用基于局部图像检测的线式检测法。由于高速公路监测图像中, 作为前景的车辆只会出现在高速公路车道上, 背景图像相对固定, 所以对背景的更新可以采用一种简单易行的频率统计法, 以图像中出现频率最大的灰度值作为背景车道的灰度值, 把代表车辆的灰度阶跃信息抹平, 实现车辆与背景图像的分离。获得背景图像后, 采用背景差分法实现前景图像的提取。不同的阈值及光照的影响会在前景图像上留下一些残影, 构成图像噪声, 需采用图像处理算法进行图像的预处理。车速及车流量的检测均采用基于局部图像的线式检测法。将基于相干理论的图像匹配算法引入车速检测中, 以前景图像检测线上的灰度信息为研究对象, 对当前帧作像素平移, 然后计算与△t时间间隔前一帧的相干系数, 相干系数最小时, 两幅图像最匹配, 此时的像素平移量即为车辆移动距离, 进而即可得出车辆的运动速度。该方法计算速度快, 精度高, 但该方法也受到检测区域的影响, 当以整幅图像为检测区域时, 得到的车辆速度为整个区域内所有车辆的平均速度, 如果将检测区域缩小到一个车辆长度时, 得到的速度将是每个车辆的速度, 但该速度容易受到边缘效应的影响。采用灰度峰值结合车速检测的算法进行车流量监测。在每条车道入口及出口各设置一个监测线圈, 统计该线圈内像素灰度的平均值, 当有车辆经过监测线圈时, 线圈内的像素灰度就会出现峰值, 同时检测线圈内的车速也会出现峰值。此时的车流量的统计, 就简化为峰值数量的统计。相对于单一的灰度峰值检测法, 该方法实现简单, 可靠性高, 并且抗噪能力强, 更适应高速公路车流量监测的需要。

3 研究展望

视觉检测技术 篇10

驾驶员疲劳状态实时检测及预警技术能够在驾驶员的疲劳驾驶行为发生之初,检测到危险状况,随即发出报警信息,要求驾驶员采取措施避免进入疲劳状态,从而有效地保障驾驶员的行车安全。

早期的驾驶疲劳测评主要是从医学角度出发,借助医疗器械进行的。随着科学的进步,疲劳驾驶测量方法也有了很大的发展,其中具有代表性的有基于驾驶人生理信号的方法、基于驾驶人生理反应特征的方法、基于驾驶人操作行为的方法和基于车辆状态信息的检测方法。各种疲劳检测方法的对比见表1。

基于驾驶人生理信号的检测方法对于疲劳判断,在所有检测方法中是最可靠的。但生理信号需要采用接触式测量,且对个人依赖程度较大。因此该方法主要应用在实验阶段,作为实验的对照参数,实用性不高。准确性对于基于操作行为的检测是关键问题。同样的问题也会出现在基于行驶轨迹的检测中,目前还没有统一的标准来认定如何通过车辆的速度和偏移度来判断驾驶员的疲劳。

相比其他检测方法,基于驾驶员生理反应特征的检测方法具有非接触式测量的优点。对于疲劳状态的识别有国际上认可的疲劳检测模型PERCLOS作为标准,具有精度高和实用性好的优势。视觉疲劳检测技术是基于驾驶员生理反应特征检测方法的代表,也是目前该领域内研究的重点方向。

2 基于视觉的疲劳驾驶检测技术

视觉疲劳检测技术实际上是用基于驾驶员生理特征的方法来进行疲劳检测。通常通过简单的观察驾驶员面部特征(如眼睛,头部,脸部)的变化来评价是否疲劳。其中最典型的困倦特征表现在眼睛。例如,长时间的眨眼,缓慢的眼睑活动,眼睛睁开程度变小或闭合,无变化的视线等。计算机视觉是基于生理特征检测方案的最佳技术选择。

基于视觉的驾驶员疲劳检测算法流程如图1所示。首先是视频图像采集过程,视频图像信息的清晰程度和饱和度等因素,会直接影响到检测算法的准确性。图像预处理过程是系统流程的第二步,通过若干图像算法处理原始图像是为了给人脸检测提供符合要求的标准格式图像。人脸检测是系统中的关键步骤。人脸检测算法的选择要从算法精度、实用性、实时性、可移植性等方面综合考虑。人眼跟踪的方法比较多,可以根据人脸的位置,通过“三庭五眼”的原则大致定位,也可以用单独的人眼定位算法选择人眼区域。最后,经过特征提取和PER-CLOS计算,结束循环检测的一次流程。

3 相关技术研究

3.1 人脸检测

人脸检测是基于视觉的疲劳驾驶检测算法中的关键步骤。人脸检测是指在输入图像中确定人脸(如果存在)的位置、大小和姿态的过程(即设置感兴趣区域),见图2。

人脸属于非刚性物体,其检测方法的关键和困难就在于如何建立起合适的数学模型来描述人脸目标模式的多样性,人脸检测的基本思想一般采用以下步骤:先对人脸进行建模,然后比较所有可能的待检测区域与人脸模型的匹配度,从而得到可能存在的人脸区域。大体上可以把目前的人脸检测方法分为四类:基于知识的检测方法,特征不变的检测方法,模板匹配的检测方法,基于外观的检测方法。各种人脸检测算法都有自己的优势和缺陷。然而真正影响人脸检测算法在实际中应用的重要因素,归根结底还是算法的准确性和实时性无法匹配的问题。很多学者在此方向上作了大量研究,AdaBoost算法的提出使得人脸检测走向实用。

AdaBoost算法是基于特征的检测方法,通过寻找那些即使当姿势、视角和光线条件变化时仍然存在的结构特征,并利用这些特征来定位人脸。该算法将矩形作为人脸检测的特征向量(特征矩阵)。在给定有限的数据情况下,基于特征的检测能够编码特定区域的状态,而且基于特征的系统比基于像素的系统要快得多。如图3所示,将特征矩阵组合形成特征模板,就能描述人面部一些区域线性或者边缘特征。如图4所示,编号(1)~(5)分别代表5类不同的矩阵模板。(1)和(2)可以反映图像的边缘特征,(3)和(4)反映图像的线性特征,(5)主要用来反映图像在特定方向上的特征。例如图3中的人脸图像,人眼要比脸颊颜色更深这一特征正是使用模板(2)来描述。

AdaBoost算法首先利用特征矩阵提取人面部特征,如眉毛、眼睛、鼻子、嘴和发际。然后根据提取的特征,建立统计模型描述特征之间的关系并确定存在的人脸。相比于其他人脸检测算法,AdaBoost算法具有精度高、速度快的优势。

3.2 数字图像处理技术

3.2.1 图像和色彩空间

在一个典型的多媒体计算机系统中,常常涉及到用几种不同的色彩空间表示图形和图像的颜色,以适合不同场合的应用。因此,数字图像的生成、存储、处理及显示时对应不同的色彩空间需要作不同的处理和转换。RGB色彩空间是使用最多的色彩空间,它采用R(红)、G(绿)、B(蓝)三种颜色的相加来产生其他颜色。YUV色彩空间被欧洲的电视系统所采用(属于SECAM和PAL系统),其中Y是指亮度,U和V是指色度。GRB与YUV之间的对应关系如下

除上述色彩空间外,YCbCr色彩空间也是一种常见的色彩空间,JPEG采用的正是该色彩空间。它是从YUV色彩空间衍生出来的,其中对Y和V进行少量调整而得到的。另外,还有CMY和YIQ等色彩空间,它们都适用于不同的领域和应用。

3.2.2 图像平滑处理

图像生成和传输过程中经常收到各种噪声的干扰和影响,噪声使图像质量下降。为了达到系统的处理要求,就要抑制噪声,改善图像质量,也就是对图像进行平滑和去噪声的处理。

3.2.3 灰度变换

只含有亮度信息,不含有色彩信息的图像是灰度图像。通常将灰度级别划分成0~255,0表示最暗(全黑),255表示最亮(全白),中间值表示灰色。灰度变换的目的一般是为了改善图像显示画质,使图像更加清晰。灰度变换又被称为图像的对比度增强变换或对比度拉伸变换。

3.2.4 二值运算

图像的二值处理,只能针对灰度图像。它是将灰度图像上的点的灰度置为0或255,也就是将整个图像呈现出明显的黑白效果。即将256个亮度等级的灰度图像通过适当的阈值选取而获得仍然可以反映图像整体和局部特征的二值图像。二值运算的目的是为了使目标物体和背景分开。

PERCLOS是指在单位时间里眼睛闭合时间所占的百分比率。PERCLOS被认为是目前最具有前景的疲劳检测模型。

图5是PERCLOS的数学模型示意图,若用f代表眼睛闭合时间的百分率,则有

定义眼睛瞳孔开度大于20%是睁开,而瞳孔开度等于20%或者更小为闭合。公式中,t1代表眼睛(由眼皮遮盖瞳孔的大小来决定)最大闭合到80%所用的时间;t2代表眼睛闭合80%到闭合20%所用的时间;t3代表眼睛闭合20%到睁开20%所用的时间;t4代表眼睛睁开20%到睁开80%所用的时间。f值越大,则说明驾驶员的疲劳程度越高。

4 疲劳驾驶状态识别

4.1 输入图像预处理

为了给人眼状态判断的算法提供更好品质的输入图像,需要对原始图像进行灰度化处理。预处理的另一个重要步骤是直方图均衡化。由于摄像头采集图像容易受驾驶环境、曝光不足或过度、设备的非线性等因素的影响,都会出现对比度不足,图像细节分辨不清的问题。另外,自然图像由于其灰度通常分布在较窄的区间,也会引起图像细节不清楚。而直方图归一化的目的就是把灰度图像增强亮度对比使得特征突出,同时减少亮度不平均而造成的干扰。在可靠性疲劳检测算法中,直方图均衡化处理有很重要的意义。一般驾驶员面靠近车窗的半边人脸易受到光照影响,亮度会明显大于背光半边人脸。如果不进行输入图像直方化处理,会影响最终检测结果。也可进行多次迭代处理,以达到图像亮度均衡的要求。

4.2 驾驶员人眼特征区域提取

利用AdaBoost算法使用人脸分类器对图像进行模式识别,对图像中的人脸区域进行标定。人脸检测功能能够给人眼的定位提供基础图像,同时还能够验证人眼区域的正确位置。最重要的是,确定人脸位置后,在人脸图像上定位人眼区域可以大大节省直接在整幅图像上寻找人眼的开销,减少了算法的执行时间,提高了算法的效率。人眼检测使用与人脸检测相同的分类算法。不同的地方在于,人脸检测的搜索区域是整幅图像,而人眼检测搜索的区域只在人脸区域。如果人脸定位失败,则无须进行人眼检测,直接转到下一帧图像的处理。

4.3 驾驶员人眼闭合程度判断

图像算法最终任务需要提供能够用于PERCLOS算法的人眼闭合程度(百分比)。在完成了人眼的精确定位后,剩下的工作就是该特征参数的提取。得到人眼闭合参数信息并不困难,可以通过观察人眼中虹膜(深色区域)特征的变化来进行判断。

如图6所示,精确的人眼区域图像需要经过高斯去噪、二值变换、图像求反等步骤,才能得到最终的目标图像。从目标图像可以看出,人眼的角膜已经被清楚地从背景图像中分离出来。在各种图像处理算法中,高斯去噪是为了消除图像存在的噪声和干扰,平滑轮廓。例如,人眼虹膜中心会一般存在一块白色的反光区域,这块区域通过平滑处理可以减小甚至消除,如果不进行此类处理,得到的图像效果会使最后的计算产生误差。二值变换和图像求反是为了将人眼虹膜从背景图像中分离,从而为计算人眼开合程度所做的最后准备。通过以上几个关键步骤,就可以将驾驶员眼部状态信息清晰地反应出来。

通过二值化的目标图像计算人眼开闭信息的方法有很多。最简单的就是直接计算目标图像中白色区域的面积,将该区域的面积视为虹膜的面积。但是这种方法的缺点是误差比较大,因为在人眼闭合时,上下眼睑阴影产生的面积并不是虹膜的面积,会影响计算结果。本算法使用求图像投影最大像素和的方法,在一定程度上减小了误差的产生。如图7所示,在目标图像投影后的最大投影值与人眼开闭程度之间建立一个简单的映射关系,利用这种对应关系将投影值转化成为人眼闭合程度的百分数表示,最后结合PERCLOS模型完成驾驶员疲劳判断。

4.4 加调整参数的自适应阈值算法

白天和黑夜的交替会使得驾驶员所处的环境光线亮度变化剧烈。使用确定阈值的二值算法无法满足检测需求,这是因为光线的变化会改变图像整体像素的灰度值。同样的阈值在白天和在夜间分离出来的人眼区域会不同,而且差异很大。所以,必须选择合适的自适应阈值的二值算法,减少由于光线变化造成的影响,才能保证人眼目标提取出来的区域统一。

本算法采用Otsu算法作为图像分割的方法,在完成人眼局部图像定位后,通过该算法进行人眼的虹膜目标提取。分割效果如图8所示。

由图8可以看出,用Otsu法得出的阈值直接用于图像二值化,对图像的分割效果达不到区分眼睛开合的要求。所以尝试用Otsu得到一个阈值T1的情况下,再加入一个调整值T2,令T=T1+T2,然后实验测试分割效果。经过大量实验后发现,T2取45时(最大灰度为255的图像),能得到突出虹膜的二值图,并且区分人眼的开闭效果明显,如图9所示。

通过对比可以看出,加上调整阈值的Otsu算法得到的图像眼睛虹膜的轮廓比较分明,更适合作为中间图像。根据此方法得到的目标图像再经过灰度投影算法的处理,完全可以满足判断上下眼睑距离的要求。

5 小结

疲劳驾驶是导致交通事故频发的主要因素之一,实时准确的驾驶员疲劳预警技术能改善交通安全状况,具有长远的社会意义。本文主要研究了各种图像处理技术在基于视觉的疲劳检测中的综合应用。设计了利用PERCLOS模型进行疲劳驾驶行为判断算法流程,还针对复杂背景、不同光照强度等特殊情况,提出加入调整参数的自适应阈值算法。通过实验验证,本方案具有精度高、可靠性和实时性好的特点,能够满足疲劳驾驶检测要求。

参考文献

[1]VOOLA P.Rapid object detection using a boost cascade of simple features[C]//Proc.IEEE Conference on Computer Vision and Pattern Recogni-tion.[S.l.]:IEEE Press,2001:511-518.

[2]CHEN Chiyuan.Driver fatigue detection based on eye tracking anddynamic template matching[C]//Proc.IEEE International Conference on Networking.[S.l.]:IEEE Press,2004:7-12

[3]夏芹,宋义伟.基于PERCLOS的驾驶疲劳监控方法进展[J].模式识别与仿真,2008,27(6):43-46.

[4]王磊.驾驶疲劳检测方法的研究进展[J].自动化与信息工程,2007,24(1):245-248.

[5]高晓晶,于鸿洋.在司机疲劳监控中的人眼状态检测方法研究[J].电视技术,2009,33(S2):212-213.

新视觉技术对传统动漫的影响 篇11

Wii 是日本任天堂公司2006年11月19日所推出的第七世代家用游戏机,距离今天也过去了8年了,新世代的游戏机也诞生了,由美国Virtuix公司出品Virtuix Omni是一款用于将玩家的运动同步反馈到实际游戏中的全向跑步机。Omni是为AR游戏设计的产品,它会将人的方位、速率和里程数据全部记录下来并传输到游戏当中,在虚拟世界中做出对现实反应的真实模拟。结合可选的VR眼镜(Oculus Rift)或微软的Kinect配件,玩家能够在现实中360度控制游戏角色的行走和运动。

中国2010年上海世界博览会(Expo 2010)、第41届世界博览会,当时我在其中一个展馆看到了新一代的显示技术——立体投影。与传统的3D电影不同,立体投影是真正的立体成像,不过由于技术的不成熟,成像的清晰度还无法达到现实物体的质感,但已经进一步推动视觉的革命。在《钢铁侠》中,唐尼用数字图纸与立体模拟成像来改造自己的盔甲,质感画面让我印象十分深刻,特别是到最后直接做出自己设计的钢铁侠,这种技术,在未来肯定能实现,而且已经出现了技术的苗头——3D打印。

成像与打印,这些在旧视觉系统里基本上都还停留在平面上,虽然工业用的打印技术有不少3D的制模技术,但技术要求高,实现成本昂贵。例如高达模型的模具,是非常昂贵的,而且模型无法一次成型,需要后续再加工,和电影中唐尼设计钢铁侠的技术相差还是特别远的。不过这并不奇怪,就像平板电脑一样,在过去影视剧中出现的高科技板子,当人们还在用传统的球面显示器时,是无法想象这之间的变化如此之大。这也是新视觉总会超越人想象的原因,但在目前看,未来的视觉技术很有可能改变的是人们的生活,而且是另一种颠覆式的改变。从制作到设计的改变,人们购买的不再是传统的产品,也许是更深刻的设计。

回老家后发现多了几个4D电影院,刚开始以为和传统的3D电影院没什么区别,后来才得知,原来还真有不少区别,例如有风的声音,就真的有风。在一线城市会更快地察觉到这项技术的普及,可是在普通的二三线城市尚未普及,这意味着这项技术已经开始成熟。中国的视觉消费人群很奇怪,由于经济的发展,贫富差距的关系,所以城市与城市间的消费力水平差距甚远,所以一项新东西要普及到全国,基本上也要等到技术成熟。

充斥着科幻的味道,却也开始改变和引领新的生活,视觉是人类接触世界的重要方式,所有文化都依附着视觉效果,所以说,随着科技的进步,有一些旧的视觉体验会逐渐消失,就像一些旧行当一样,变成回忆。不过无论时代如何改变,都无法改变人们怀旧,所以说,那些已经消失的行当,或多或少会以另外的方式出现在人们的生活里,这也是对新视觉艺术的一次对话,无论新旧,都是传递思想的方式。

在上海的一段时间,曾经探访过一家外滩旧书店,里面琳琅满目的旧书籍和书信。在如今,智能手机几乎人手一个的年代,看着那些旧书籍,心中感叹:油墨已经渐渐褪色,却残留着当年人的痕迹。其中一些手抄本引起我的注意。字字用心,每个字都写得非常工整,犹如印刷。在微博认识一个友人,平日用毛笔手抄书籍,字非常好看,而那些手抄的文件,将来也许会落入某个旧书摊,人就是这样留下记忆的。新时代的视觉技术,最大问题在于数据的传承,还有这些数据的价值。

就如同昔日的黑胶唱片一般,如今的网络音乐,那些昔日的商品,大多已经变成自由传播的廉价数据,没了传承,过了时节,也就不复存在。在家期间,有一次大扫除,翻出很久以前买过的CD,这些CD也许已经不是我这个年纪喜欢听的歌曲了,但却留了下来,只要没被丢弃,这些就是实实在在的记忆,贯穿着年轻时候的痕迹。

在未来,很可能出现一种这样的视觉技术,由于人的眼睛所看到的,无非是光,现代的显示器也是由点状发光体改变颜色来成像,而这种技术可能由纳米机器人在空中发光形成的形态。就如同北京的雾霾一样,是由粉末纳米机器人运用3D打印技术,在三维空间成像。不过,机器人技术肯定不是这个时代能立即出现的,只不过是对未来的遐想。但作为一种想法,自然就会有人去尝试改变现状。人类从显示器发明至今,眼睛已经被显示器裹挟,多少人因为长期看电脑电视手机,而近视,所以说,新时代的视觉,肯定是以让人类的眼、手脱离传统视觉为目的。

虽然说这些信息不能给当下急于赚钱的生产商任何实质的收益,却是一种实际会出现的未来,就像灯泡的发明改变了蜡烛一样。

纸质书籍会不会消失,是一个常年被讨论的问题。不过经历过多次技术革命后证明,纸质书籍是不会消失的,由于纸质印刷存在的优势比任何形式的视觉都环保。有人就会问,纸是以原木为材料,怎么会是环保的呢?其实,像数据这种看似环保的形式,背后才是最大的污染。如今的显示器虽然耗电量已经大幅降低,但随着设备的增加,实际损耗的资源是远超人类想象的,而且泛滥的信息还不如纸质来得长久。人的一生能接收到的信息是有限的,但数据信息的增加,反而让人接收的信息减少,这也是纸质书籍不会消失的原因。人们想要获得的重要信息依旧会以纸质的形式存在,而且会留给子孙。有一部电视剧,讲述人类失去电力,而人类的文明回归原始状态,假设这样的事情发生,那么那些ipad就是废铁,而书籍依旧是书籍,价值依旧存在。

最近发现一个手机应用“waterlogue”,能将照片变成水彩画,而且逼真程度已经超出以往我记忆中的电脑滤镜,“大师味”十足。如果人能穿越回过去,带着有这款软件的手机,回到另一个过去的数码时代,可以靠卖水彩画为生了。但是,在我看来,这个软件给我带来的信息不仅是让图像变得更具手绘般表面上的影响,而是结合3D视觉功能的成熟,人类世界会不会出现幻境的可能。

在动画《攻壳机动队》中,女主角就因为自己是机器人,载入了病毒,所以看见了不该看见的影像而迷惑自己的人生。在未来的视觉技术中,人类必然会遇到这个问题。换句话说,如果我想处在一个童话的水彩世界,可以用类似waterlogue渲染出一个水彩世界来,虽然身处其中,却看不见真实的世界。动漫迷们有个说法,就是二次元与三次元的代沟。

颠覆传统的技术一直都存在于人们的生活当中,一切新技术的产生直至成熟都需要一个过程,这期间也许会被旧的技术群体排斥和对立,在短时间内,新的技术将是一群占有资源最匮乏的群体。举个例子,就如电动汽车,在出现之初,都不如燃油汽车好,而且价格昂贵,是一款不如传统汽车的技术。新技术本身就存在,所以随着发展的积累,电动汽车逐渐开始走进了人们的生活,这也是后来特斯拉开始热门的原因。Tesla(汽车厂商)即特斯拉(汽车品牌),是一家生产和销售电动汽车以及零件的公司,只制造纯电动车。特斯拉由斯坦福大学的硕士辍学生马斯克(Elon Musk)与硕士毕业生J.B. Straubel于2003年创立,专门生产纯电动车而不是混合动力车。至今已近11年,这款纯电动车开始进入人们的生活视野。不难想象当年电脑普及和这电动车的境况有点相像,这就是新技术,技术本身就是一种积累,而不是突然间冒出来。所以说,新视觉技术,也许早就已经诞生,在还没呈现出来之前,都是技术的积累期。

传统的视觉,本身被限制在平面上,这本身是不合理的,人类对视觉的要求远远高于目前的水平。从电影发展史可以看出,从黑白到黑白有声,再往后的彩色有声,人类影视的发展就奠定了立体影视注定产生。甚至说立体可触影像的产生,一切对未来技术的遐想都是有益的。为什么这么说?有些影视作品中所提出的负面信息,难道也是有益?没错,新技术的产生,一定有利有弊,在遐想阶段,不妨提出多角度的思考。我的老师曾经不满自己的女儿阅读郭敬明的小说,因为觉得小说内容给孩子的影响不好,我就觉得这种想法有些片面,小说本身就是一种对世界现状的表述,对一种现象的遐想,小说的故事也许都没发生过,但在文字表述下栩栩如生。阅读故事的人可以在故事里了解一些现实无法经历的事情,而大多数人会在现实里规避这些故事里发现的不幸。这也是我理解中的遐想,对未来,不能过分乐观,但也不能过分悲观。不可避免的危险还是会存在,就如显示器让很多人近视一样,而美好的细节依旧是新技术给人们带来的便捷,人们通过显示器了解的世界是非常巨大的。

最近在优酷网看到一些关于机器人的视频,其中有一款打印机器人引起了我的注意。视频中提到,打印机的原理本身就是将纸张固定在设备内,其中运作的不外乎只是墨水喷头,而这款打印机器人是将喷头独立出来,变成一款可以通过无线设备传输数据,然后打印的机器人。机器人里本身带有滑轮,可以在纸面上走动并打印数据。这种技术虽然还没有出现在生活中,却不禁让人觉得未来的打印设备肯定出乎人的意料。但出于环保的意义,纸质的视觉体验会不会随着时代变化消失,还有待观察。据调查,大部分的读者还是更青睐于纸质阅读,但手机阅读的数据也在稳步增长。其中亚马逊出的一款电子书设备在我的好友的使用体验后得出更接近纸质的感想,而且亚马逊这款设备提供非常多的电子书籍,从携带意义上说,具有ipad没有的优势。对于人眼健康考虑的设计让一贯觉得电子书不如纸质书的我有了另一种思考。其实,环保节能与纸质书的未来息息相关,所以说,如果能将节能的体验带入设备以及人的健康代入设计,那么数码设备的未来还是非常可观的。不过就如前文所说,新的视觉必然是令人的手解放,所以说这种通过手持移动设备来阅读的时代,在不久的将来,肯定会被淘汰,人们的手必然被解放。

中国的动漫业,特别是动画业,在经历了“冰封期”般的考验后,近几年开始出现了醒目的作品。不过从视觉的体验观察,中国依旧还在摸索新的道路,而且模仿为主。美国迪士尼从早年的二维动画到如今的三维动画,期间有一次人尽皆知的革命,那就是收购皮克斯。当下的国产动画从两条路线齐齐发展,一条是网络二维动画,将一些热门的网络漫画改编而成;另一条是三维电影动画,有别于二维电影动画,这条路线对国外作品的借鉴较少,而且创新力略高于二维动画。原因在于二维动画的受众群大多被日本动漫影响,而三维动画本身的造型和故事框架都比较广泛,甚至说,中国早年的动画就蕴含着三维动画的思想,例如布偶动画。因为有传统的继承,所以说中国的三维视觉影像要容易成熟起来,而且能与日本的二维动画区别开来。不过从近些年的动画产业看,有几个方向是混乱的,日系风格的动漫开始风靡全球,欧美也出现了日系风格的漫画家,而且传播速度极快。但另一方面,欧洲的二维动画萧条以及漫画的多样性看,读者的可选择丰富,日系漫画作为一种亚洲文化,也有无可厚非的优势。但目前日系动漫也在开始改革,许多动画开始尝试使用三维模型替代二维,使用二维效果的渲染来过渡这个技术改革。但这些情况在中国是截然不同的,例如《秦时明月》就是全三维动画,而且制作水平之高,从作品的角度看,与同期的日系作品比较,中国动画明显具有优势。但是,从视觉效果看,这两种各具优势的表现形式,会不会像迪士尼那样走极端路线?有待观察。

视觉导航关键技术及应用研究 篇12

伴随着电子技术、计算机技术工业控制技术等的发展,机器智能移动技术也得到了很大的发展。机器智能移动技术的关键部分就是视觉导航技术。视觉导航技术是在机器视觉的基础上发展起来的。但是与机器视觉又有区别,主要表现为在机器视觉的基础上增加了定位跟踪技术,于是就产生了视觉导航技术。通常一个视觉导航系统由视觉信息采集部分、视觉信息处理部分及导航跟踪部分三大部分构成[1,2]。三部分有机结合,完成视觉导航,具体的工作原理如图1所示。其中视觉信息采集部分主要是完成对机器将要经过路线上的图像的采集,这个过程主要由摄像机(CCD)完成;视觉信息处理主要是对采集到的图像进行增强、边缘提取和分割等;利用一定的跟踪算法,实现机器的智能跟踪,即完成机器的导航。

1 视觉导航的主要关键技术

构成视觉导航系统的四个部分中,其中的视觉信息处理部分和智能定位与跟踪部分是系统的核心,这两个部分用到的技术是视觉导航系统的关键技术。这些关键技术主要包括两大方面,即图像处理技术和智能定位与跟踪技术。

1.1 像处理技术

在图像采集时,图像噪声的大小,摄像角度上的光线,非理想话图像处理等都会使图像质量变差[3]。再加上道路两旁及道路本省背景的复杂性,要把有用的图像信息提取出来难度很大。因此,为了更好的提取出对导航有用的图像信息,需要对图像进行处理。图像处理主要是对图像进行分割,把机器能经过的道路与路障分开来。图像分割主要包括边缘提取和阈值分割。

边缘提取。边缘主要是指图像局部变化最明显的部分,边缘是划分目标与目标、目标与背景、区域与区域的标志。图像边缘的检测主要就是利用图像像素点灰度值的不连续性,将目标和背景等不同的区域分开来。常用的边缘提取方法是模板法。模板也称为边缘检测算子,模板的数学基础的图像像素点的梯度变化。

阈值分割。阈值分割的基本原理图像中不同像素点的值不同,通过选取合适的阈值,就可以将图像划分为不同的部分。阈值分割中最典型的就是图像的二值化。图像二值化的方法很多,主要有整体阈值法、局部阈值法和动态阈值法。

不论是图像边缘的提取,还是图像的二值化。其对图像处理的效果,关系到后续的机器智能定位与跟踪。视觉导航能否实现,图像处理是关键因素之一。因此,在图像处理时一定要选择合适的图像处理算法,为后续视觉导航的实现服务。

1.2 智能定位与跟踪

视觉导航技术中的另一关键技术———智能定位与跟踪。智能定位与跟踪主要是完成对安装了视觉导航系统的机器移动路径及路径上的障碍物的识别,使机器能够实现智能移动。常用的路径与障碍物识别方法有基于道路模型的路径识别方法、基于Hough变换的路径识别、基于LVQ神经网络的路径识别方法。

2 视觉导航技术的应用

由于视觉导航技术的发展越来越成熟,其使用也越来越广泛。在工农业生产等各个不同的领域都有所应用。视觉导航技术的应用,给这些领域的生产工作带来了极大的便利,大大提高了机器的工作效率。

2.1 视觉导航技术在农业生产中的应用。

视觉导航技术在农业生产中的应用,主要表现为农业机械的导航。视觉导航技术用于农业机械的导航,主要是帮助农业机械把目标物与周围的背景区分开来。07年,伦冠德[11]利用图像增强技术与Hough变换相结合,对传统的导航模型存在的不足进行了改进研究,研究结果表明,新方法对导航路径的识别由于传统的模型导航;09年,杨为民等将动态窗口处理技术与Hough变换相结合,对农业机械中的视觉导航系统进行了改进,并取得了较好的导航效果等。

2.2 视觉导航技术在机器人领域的应用

目前世界上许多危险环境下的作业,都是由机器人完成的。比如机器人用于深海探测。机器人要自动到达既定的探测,而不因为碰到障碍物损坏,这就要求机器人必须要有视觉导航功能。05年,周庆瑞等对视觉导航技术在机器人中的应用进行的研究。利用图像的深度信心,再结合相应的校正算法与跟踪技术,实现了机器人的智能移动。

2.3 视觉导航在移动车辆中的应用。

具有智能导航功能的移动车辆是当今车辆研究领域的前沿。智能车辆的导航主要是完成环境感知、规划决策和辅助驾驶等功能,这些功能的实现需要计算机视觉技术、控制技术和电子技术等的支撑。其中最重要的还是视觉导航技术。如09年,钱云等研制的基于视觉导航的智能车货物搬运系统,充分利用的图像的边缘提取技术,对智能车要经过的路径进行识别,并且取得了较好的效果。

从上面三个方面的分析研究表明,视觉导航技术在各个领域中的具体应用不同,但所使用的关键技术基本是相同的。主要都是对图像信息的处理和对运动路径的定位于跟踪。

3 小结

随着机器视觉产品与我们的生产和生活越来越近,很有必要对视觉导航技术进行必要的研究及应用分析,以便人们能够更好的理解视觉导航产片的工作原理与功能。

摘要:由于视觉导航技术的应用越来越普及,因此,有必要对视觉导航中的关键技术及应用进行研究。文章对其中的图像处理技术和定位与跟踪技术进行了详细研究,并与此相对应,介绍的相关的应用。

关键词:视觉导航,图像分割,定位跟踪

参考文献

[1]吴琳.计算机视觉导航综述[J].人工智能及识别技术.

[2]邓继中等.机器视觉在农业机械中的应用[J].农机化研究,2001,(05).

上一篇:一线教师浅谈教育改革下一篇:眼球经济