计算机视觉检测技术

2024-07-11

计算机视觉检测技术(共12篇)

计算机视觉检测技术 篇1

计算机视觉对于人类的影响是重大的,它伴随着计算机的蓬勃发展成为了一个不可或缺的分支。毫无疑问视觉信息在我们的日常生活中具有重要的地位。如果计算机能够像人类那样理解摄像机捕捉到的视觉信息,则会给我们的生活带来巨大的影响和帮助。然而目前对于计算机视觉的研究还不是很成熟的,比如小孩到了4、5岁的时候就能在轻易地分辨出图像卡片中的树、人、车等不同类别的物体,还能区别不同的树,如杨树、柳树、果树等,在这方面,计算机明显还存在着巨大的不足之处。

该文针对计算机视觉中的行人检测部分做了深入的研究,力求能让计算机能够高速高质量的辨别一段视频中的人。下面详细的对所做的实验的方法以及结果做以介绍。

1 行人检测方法改进的主要思路

实验的主要思路为在行人检测研究时,根据现有的级联分类器的不足之处,提出了融合两个级联分类器来进行行人检测的方法。具体采用了表观特征向量来描述人体,并结合统计学习的分类方法来检测视频中的行人。为了保证融合分类器的检测性能和实时性,融合的两个分器分别选取了类Haar特征分类器和Shapelet特征分器,前者作为第一级分类器,后者作为第二级分类器。提出了使用Haar-like结合人体头肩的特征和Shapelet结合人体头肩的特征来描述人体;在分类器训练时,采用的是Gentle-Adaboos机器学习算法;并且为提高分类器检测速度,首先对视频序列进行了前景标注,采用背景差分将前景点标注出来,这样在检测时只需检测前景点即可,减少了大量背景上的检测时间。该文检测方法的具体流程如图所示。

2 研究的范围与方法

2.1 本实验主要研究的是静态背景下的行人检测

根据拍摄的摄像头的情况,可以将运动目标检测的研究主要分为两大类:动态背景情况下的目标检测与静态背景下的目标检测。前者主要是在拍摄的过程中,摄像头是跟着目标前进,后退等方式移动的,背景环境因此也是不断变化的;后者情况下,摄像头是固定的,相对于目标场景来说是静止的,因此背景环境是相对不变的。而视频监控系统中使用的大多数方式便是固定摄像头,所以本实验主要研究的是静态背景下的目标检测。

另外此实验是基于统计方法的行人目标检测。采用统计分类学习来研究目标检测问题。该方法通过统计学习获得的分类器某个类别目标的检测器(例如人脸、汽车和行人等),然后根据得到的检测器来进行目标检测。基于统计方法的目标检测方法一般被分为两个阶段:离线检测模型的训练和在线目标检测阶段,在离线训练阶段,首先要收集大量的样本,包括与正样本和负样本,正样本指包含着目标类别的图像,负样本指不包含目标类别的图像;接着对收集好的正负样本做标记(用y表示),与正样本标为+1,负样本标为-1;然后对样本进行配准、对齐和大小归一化;再接着在归一化后的正负样本上提取出特征向量x(x∈Rd),和对应的标签y一起组成最终用以统计训练学习的特征向量集合S={(x1,y1),⋯(xN,yN)};最后使用选定的统计学习方法根据训练数据集S训练分类器的参数以供检测阶段使用。

在线检测阶段首先需要在待检测图像上提取得到与训练阶段使用的相同的特征向量,然后与离线阶段的分类器对该特征向量进行分类差别。由于不知道目标在图像中的大小和位置,因此在检测时需要在不同的尺度和位置对目标进行检测,即需要在不同的尺度位置空间中逐窗口进行遍历判断。。尺度空间通过对图像逐级缩放做金字塔分解(Pyramid decomposition)实现;位置空间通过遍历每个尺度下图像中的每个空间位置实现。因此检测目标时某个尺度下对于目标大小为w×h,图像尺寸为W×H时,需要分类判断的窗口数目约是WH个,数量巨大。在不同的尺度与位置空间进行窗口遍历时,如果该窗口被判别为目标类别,则记录其位置和当前的尺度,否则丢弃,最后将不同尺度和位置上得到的检测结果进行聚类或者最大化抑制输出最终的检测结果。

2.2 本实验采用的是基于部件的行人检测方法

行人统计学习算法根据检测方式的不同基本可以分为两类:基于人体整体的统计学习方法和基于人体部件的统计学习方法。前者将整个人体作为特征进行分类器训练,对于待检测图像,其进行整个人体的特征提取,然后再用分类器进行分类即可,而后者则将人体的各个部件均看作是人体的一个特征,然后分别进行分类器训练,得到各自的分类器,在检测时,先检测各个部件,然后根据分析各个部件的相互约束关系来最终做出判决。

本采用的便是第二种方式,基于部件的行人检测方法,但区别于以上的方法,该文采用的是用两种不同的特征分别训练相同的一个部件的方法,最后综合两个分类器的结果做出决策

人体检测中的特征是对目标的描述,是用来有效的区分目标与非目标的,是目标检测的基础,在检测目标的过程中,如果能够提取出有效区分目标类与非目标类的特征,那么检测的性能就会有巨大的提升,相反,如果一个特征不能区分目标类与非目标类,那么有检测时,便不能与待检测的目标很好的匹配,或是与其他物体相似,便可能造成误检。所以,提取什么样的特征来描述目标是目标检测中和首要问题。接下来介绍的是该文主要使用的是类Haar特征和Shapelet特征。

Shapelet特征是通过先局部,后整体的思想,先在局部提取小特征集作为最基本的低层特征,然后通过统计学习算法得出中层特征,最后再由中层特征构成分类器,层层进行筛选,把分类能力较弱的特征一层层筛掉,最后得到包含更多有用信息的特征用来分类,特征的维数相对来说是非常低的,计算也简单;而且特征是由低层特征训练而来,类间的区别能力更强,在基于行人的检测方面,性能尤其卓越,比Dalel的HOG特征算法的误检测率降低了整整10倍。实验已经证明,通过自适应学习而来的Shapelet特征相比其他的固定特征来说,能捕捉到更多有用的用于判别的信息,因而训练出的检测器性能可以达到非常优秀的水平。类Haar特征可以快速的进行行人检测,但是在检测的过程中,由于该特征主要描述的是行人与背景之间的差异性,对于人体内部的差异性描述的精度不够,所以该文采用融合分类器进行行人检测时,先使用类Haar特征训练人体头肩生成的分类器进行检测,可以快速的对非人体目标进行排除。

对于级联分类器来说,级联分类器在检测率,漏检率,虚警率,和时间等性能上的变化,通过一系列实验我们可得知随着分类器级数的增加,在分类器的后面几级中被过滤掉的样本中正样本所占的比率呈直线上升的方式增加。

3 行人检测方法改进具体步骤

该文的设计方法均是在OpenCV的基础上,采用Visual Studio 2010实现的。本实验的参数设置如下:正样本和负样本在级联Adaboost分类器中的单级通过率分别为99%和50%。分类器在尺度空间上对检测窗口搜索的步长设定为1.05(经验值)。在实验过程中,Haar特征级联分类器和Shapelet特征级联分类器分别采用了900张正样本和2000张负样本,并对人体的头肩部分做了人工标注,作为训练数据集,训练数据集的归一化大小为20*20。为了增加训练数据集,该文对标准数据库中的正样本进了竖直方向的镜像对称,使正样本的数量增倍。Haar特征级联分类器由20级Adaboost分类器构成,Shapelet特征分类器由10级Adaboost分类器构成。

3.1 本实验采用一种新的级联分类器的融合方式

笔者提出一种新的级联分类器的融合方式,以期随着分类器级数的增加,检测率不断提升的前提下,能有效的遏制正样本被过滤掉的概率的增加,以此来增强分类器的性能,使分类器的检测率更加提升。

根据之前的分析类Haar特征运算简单,快速,采用它训练的分类器可以在分类器的前几级快速的排除掉大量的背景区域,但是类Haar特征描述的主要是人体与背景之间的差异性,因此在分类器随着性能的增加,分类器复杂度提高的情况下,在分类器的后几级,类Haar特征对区别与行人轮廓类似的物体时,非常不敏感,很容易将这二者混淆,将行人误判为非行人,或将非行人误判为行人,导致分类器的虚警率和漏检率的增加;而Shapelet特征在基于行人的检测方面,性能则尤其卓越,通过自适应学习而来的Shapelet特征相比其他的固定特征来说,能捕捉到更多有用的用于判别的信息,特别是人体的头肩部分,Shapelet的描述更加的精确,对于区分与行人非常类似的物体,具有很高的性能。

为此,我们采用基于人体头肩部件的类Haar特征和Shaplet特征来训练分类器,根据二者各自的性能,该文先用类Haar特征级联分类器对检测窗口进行分类,在分类器的前面就快速的排除掉大量的背景区域,然后,在分类器的后面几级,对于分类器的排除掉的样本,再用Shapelet分类器来进行分类,将在Haar特征分类器中被漏掉的目标区域检测出来。最后根据两个分类器的结果进行决策。这样就对那些在Haar特征分类器中被错误过滤掉的目标样本进行了二次分类,降低了分类器漏检率的增加。

3.2 本实验采用前景标注的方法为了提高分类器的检测速度

我们会在待检测的视频图像上对前景进行标注,在检测的过程中根据标注只需要在前景部分进行行人检测即可,不必在全局图像中进行搜索匹配,这样既可以减少检测的数量,又可以节约检测计算时占用的空间,对于视频分析中时间和空间进行了双重的优化。该文的前景标注的过程主要是:采用背景差分法得到图像的前景,然后对于得到的前景建立一张标注表,与原图像进行对应,在检测时,标注为前景的像素点则在原图像上进行目标检测,若标注为背景,则不进行检测。

4 结论

该文通过对行人检测所使用的统计方法和特征进行了分析比较,并分析了级联分类器的特点,得出级联分类器级数越高,在最后几级中被排除掉的样本中正样本的比率上升很快,会引起分类器漏检率的急剧增高,因此,该文提出了基于融合分类器的行人检测算法,该融合方法选择两个级联分类器(分别为类Haar特征分类器和Shapelet特征分类器)进行级联融合;根据监控视频领域中一般情况下都是静态背景,而且为了提高检测的速度与避免背景的干扰,该文提出了在检测前先进行前景标注的方法,然后再在带标注的图像上进行行人检测。

参考文献

[1]贾慧星,章毓晋.车辆辅助驾驶系统中基于计算机视觉的行人检测研究综述[J].自动化学报,33(1):84-90,2007.

[2]Xu Fengliang,Fujimura K.Pedestrian detection and tracking with night vision.Proceeding of IEEE Intelligent Vehicles Symposium[M].Versailles,France:IEEE Press,2002:21-30.

[3]Munder S,Gavrila D M.An experimental study on pedestrian classification[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2006,28(11):1863-1868.

计算机视觉检测技术 篇2

清华电子本科毕业,香港中文大学硕士毕业 本科GPA: 90.63(top 10%)硕士期间Paper: 2CVPR+1ECCV T: 107(29,24,26,28)G: 157,170,4 录取结果(只申请了博士):

Berkeley, UW, UIUC, Austin, Oxford

选专业

我在本科一二年级依然还是坚定的推研党。在本科三年级的时候,一次偶然的机会,我在随机过程课程上因为一个大作业而喜欢上了机器学习的研究,于是一发不可收拾地走上了cv/ml的道路。在很多因素影响下,我在大三毅然投奔了出国党。在进入港中文后,我便开始了我至今三年半的计算机视觉研究工作。在那时,我便定下了申请的目标,在做好科研的同时为之不懈奋斗。

英语考试

相信如果你已经有若干篇论文的发表(并且你已经可以开始自己脱稿写论文),世毕盟留学:志存高远,与优秀的人为伍,脚踏实地,人生必定辉煌。

而且已经在conference上能自信介绍自己工作或者已经能和国外的professor meeting的话,那托福和GRE的写作应该自然不在话下。因为前往香港读硕同样需要托福成绩,我在本科的时候已经有100+的托福。对我来说最难的应该还是GRE的verbal。我直接去裸考的后果就是verbal拿下了145这样惨烈的分数(听龚老师说全部都选B可以拿143分?)。通过闭关16天的自我准备时间,我verbal后来达到了157分。我认为英语考试这个环节最大的成功不是取得了高分,而是在尽可能短的时间内取得过线的分数。我GRE verbal并没有背过3000或者任何词汇,填空题大多数靠蒙(-_-#),主要靠阅读拉分。我记得我157那次考试头一个verbal模块阅读拿了9分,填空只有5分。所以我觉得GRE阅读这种不需要词汇的模块需要拼高分,才可以给自己节约宝贵的科研时间。

暑假科研

我认为其实国外的老师本身是非常愿意和大家有学术上的合作的。对他们来说,时间成本和logistic issue是阻碍这类合作的首要原因。如果你的能力有他们的熟悉的人进行担保,他们则是非常愿意花这个时间和你合作。如果你有幸能够得到那些无比繁忙的professor的宝贵的时间——即拿到了暑研机会,那一定需要在暑研中拿出百分之百的努力去认真对待——让professor在每次短时间的meeting内明白你做了什么,你的厉害之处,让他能感到为了和你meeting和发邮件而推掉了和另外一个chair说话的时间是值得的。尽管我暑研的科研其实做得并不是很满意,我的暑研导师还是非常nice地帮我写了推荐信。

申请过程

首先要倾情感谢培训师和mentor还有我老板一直以来细致的申请指导,还有心理的辅导——在申请季保持好的心态的确很困难,所以多和导师,父母师兄师姐交流。申请是个教授和学生之间双向选择的游戏,所以申请的同学不妨可以多从教授的角度去思考问题。教授喜欢在短时间内能得到对一个学生充分的能力认证,包括学生有的高质量文章(他在看到你简历前就知道的工作),他熟悉的人的推荐信,以及他平时已经接触过的学生等等。应该说,教授很少会在招生的时候,去仔细地人肉一个他不熟悉的学生(cv/ml/nlp领域尤其如此)。申请的面试其实几乎只包含两块内容:教授要在短时间内认同你做过的工作,以及教授要在短时间内能发现你对这个科研领域比较熟知(做到这一条对本科生申请者尤其加世毕盟留学:志存高远,与优秀的人为伍,脚踏实地,人生必定辉煌。

分)。

结束语

我非常有幸有这么多的老师和小伙伴把我一手抬进了phd的录取。语言很难一一表达我的感激之情。计算机视觉博士的申请,有泡沫也好,没泡沫也好,一年比一年更难申在近五年内是不争的事实。但是有挑战性的事情才值得我们去奋斗!

共勉!祝大家学业有成!

计算机视觉检测技术 篇3

关键词:计算机视觉技术;智能交通系统;大数据

一、计算机视觉技术概述

计算机视觉技术利用视觉传感器对目标进行识别、跟踪和测量,随后通过智能分析进一步进行图像处理,以获得三维空间的信息。计算机视觉技术发展的最终目标是让计算机与人类大脑一样拥有观察和理解世界的能力,可以独立自主适应环境并智能完成某些特定的任务。计算机视觉技术处理方法包括图像识别和处理、场景重建、直方图匹配、图像局部与分割、跟踪与运动、边缘检测、图像恢复等。目前已应用于工业、农业、医学、制造业、食品加工业、铁路运输业等各行各业,为各行各业提供了便捷。

二、智能交通系统的概述

智能交通系统(Intelligent Transportation Systems,ITS)是一种实时、准确、高效的综合交通管理系统,它运用了先进的信息技术、数据通讯传输技术、定位导航技术、电子传感技术、图像分析技术、自动控制技术以及计算机处理技术等,可以统一协调人、车、路三者的关系,缓解交通阻塞现象,提高交通运输效率,降低交通事故发生率,降低能源消耗。ITS由交通信息采集系统、信息处理分析系统、信息发布系统三大主要系统组成,包含的子系统有交通信息服务系统(ATIS)、交通管理系统(ATMS)、公共交通系统(APTS)、车辆控制系统(AVCS)、货运管理系统、电子收费系统(ETC)和紧急救援系统(EMS)。

三、计算机视觉技术在智能交通系统中典型应用

1、车辆牌照识别

车辆牌照识别在智能交通系统中应用最为广泛,首先提取摄像机抓拍的图像作预处理,然后利用边缘检测的技术对车牌进行定位,最后对车牌上进行字符分割、特征提取和识别,从而得到车辆牌照号码。此项技术多应用于监测黑名单车辆进行报警、高速公路超速违章的处罚、车辆进出小区收费管理、高速公路自动收费管理、计算车辆旅行时间判断拥堵状况等。自动化的操作步骤,大大减轻了管理人員的工作量,减少了人为操作的疏漏,提高了工作效率。

2、交通违法检测

基于车辆牌照识别的基础上,交通违法监测应用可分析出视频场景中的交通指示信息以及机动车行为,从而对交通违法行为进行研判,可对非法占道、压线行驶、违规停车等行为进行抓拍,降低了交警的工作量,科学系统地增强了对交通违法行为的管理,有据可查,也在一定程度上起到了震慑的作用,让犯罪分子没有可乘之机。

3、交通流量统计

交通流量统计在智能交通系统中的主要应用为通过对车辆的轨迹分析、运动趋势分析和局部检测车牌,判断出城市道路系统的拥堵状况,为交管部门提供交通拥堵信息,以便合理规划现有道路,重新进行路网调度,缓解道路堵塞的现象,确保拥堵道路可以顺利通行。

4、高速公路自动收费

高速公路自动收费有多种方式,目前应用最广泛的是非接触式IC卡收费,这种方式可以提高卡的使用寿命,也便于一卡多用。车辆在通过收费站时,通过IC卡技术和射频识别技术实现车辆信息自动识别,然后将数据信息上传至收费分中心,从射频卡联名储蓄卡中扣缴通行费用。这种自动化的收费方式,减少了收费人员的工作量,将人力从单一的工作中解放出来,同时减少了车辆通过收费站的时间,避免了停车收费造成的道路拥堵。

5、驾驶员工作状态检测

基于计算机视觉技术来检测驾驶员工作状态主要有两种方法,一种是针对驾驶员面部通过帧间差分法,肤色检测法等对面部区域进行定位,同时采用二值法对眼睛区域进行定位,根据眨眼的频率来判断其工作状态。另外一种则利用车辆行驶在道路上的状态分析驾驶员工作状态,首先采用差分算子来提取道路图像边缘,然后采用区域生长法对区域特征进行提取,将区域特征和边缘特征进行融合,最后提取出直线信息,通过左右车道线与夹角的关系来判断司机是否处于异常驾驶状态。这种应用可以对疲劳驾驶的现象进行警报,提示疲劳驾驶的司机及时休息,从一定程度上可以降低交通事故的发生率,给人身和财产安全提供更好的保障。

四、总结

智能交通系统是大数据发展下交通行业的必然发展趋势,发展智能交通系统能够提高交通运转的效率,加强路网的运输能力,增强道路调度研判的能力,提高交通安全水平。但我国对于智能交通系统的应用水平还仅停留在基础层面,还有很多潜在价值尚未得到挖掘,因此我们要不断地提升交通自动化和智能化水平,努力提高交通信息资源的综合管理的水平。

计算机视觉技术的发展与应用 篇4

计算机视觉研究目标是使计算机能够像人一样, 通过视觉观察和理解世界, 具有自主适应环境的能力, 使计算机具有通过二维图像认知三维环境信息的能力, 感知三维环境中物体的几何信息, 包括形状、位置、姿态、运动等对它们进行描述、存储、识别与理解。

2 计算机视觉的发展

计算机视觉是在20世纪50年代从统计模式识别开始的[1], 主要集中在二维图像分析和识别上。20世纪60年代MIT的Roberts通过计算机程序从数字图像中提取出诸如立方体、楔形体、棱柱体等多面体的三维结构, 并对物体形状及物体的空间关系进行描述。Roberts的研究工作开创了以理解三维场景为目的的三维计算机视觉的研究。20世纪70年代中期, 麻省理工学院人工智能实验室正式开设“计算机视觉”课程, 由国际著名学者B.K.P.Horn教授讲授。David Marr教授于1973年应邀在MIT AI实验室领导一个以博士生为主体的研究小组, 1977年提出了不同于“积木世界”分析方法的计算视觉理论, 该理论在20世纪80年代成为计算机视觉研究领域中的一个十分重要的理论框架。到20世纪80年代中期, 计算机视觉获得了蓬勃发展, 新概念、新方法、新理论不断涌现, 比如, 基于感知特征群的物体识别理论框架, 主动视觉理论框架, 视觉集成理论框架等。

3 计算机视觉的研究

计算机视觉也称图像理解, 是指研究完成一项任务所需的视觉信息及如何从图像中获取这些信息的研究领域。其目的有三个[2], 第一是根据一幅或多幅二维投影图像计算出观察点到目标物体的距离;第二是根据一幅或多幅二维投影图像计算出观察点到目标物体的运动参数;第三是根据一幅或多幅二维投影图像计算出观察点到目标物体的表面物理特性。

3.1 研究内容

计算机视觉的研究内容包括成像设备和数字化设备。计算机视觉的最终目标是使计算机像人那样, 通过视觉观察和理解世界, 具有自主适应环境的能力。视觉系统研究的三个层次。计算理论层次, 回答系统各个部分的计算目的与计算策略;表达与算法层次, 视觉系统的研究应给出各部分的输入、输出和内部的信息表达, 以及实现计算理论所规定的目标的算法;硬件实现层次, 如何用硬件实现以上算法。

3.2 计算机视觉与相关学科领域的关系

图像处理通常是把一幅图像变换成另外一幅图像, 图像处理系统的输入是图像, 输出仍然是图像, 信息恢复任务则留给人来完成。研究对象主要是二维图像, 实现图像的转化, 尤其针对像素级的操作, 这一特征表明无论是图像处理还是图像分析其研究内容都和图像的具体内容无关。模式识别用于识别各种符号、图画等平面图形。模式一般指一类事物区别于其它事物所具有的共同特征。模式识别方法有统计方法和句法方法两种, 计算机图形学通过几何基元, 如线、圆和自由曲面, 来生成图像, 它在可视化和虚拟现实中起着很重要的作用。计算机视觉是解决相反的问题, 即从图像中估计几何基元和其它特征。因此, 计算机图形学属于图像综合, 计算机视觉属于图像分析。人工智能涉及到智能系统的设计和智能计算的研究。在经过图像处理和图像特征提取过程后, 接下来要用人工智能方法对场景特征进行表示, 并分析和理解场景。人工神经网络是一种信息处理系统, 它是由大量简单的处理单元通过具有强度的连接相互联系起来, 实现并行分布式处理。人工神经网络的最大特点是可以通过改变连接强度来调整系统, 使之适应复杂的环境, 实现类似人的学习、归纳和分类等功能。物理学、光学, 计算机视觉关注的目标在于充分理解电磁波, 主要是可见光与红外线部分, 遇到物体表面被反射所形成的图像, 而这一过程便是基于光学物理和固态物理, 一些尖端的图像感知系统甚至会应用到量子力学理论, 来解析影像所表示的真实世界。由此, 计算机视觉同样可以被看作是物理学的拓展。计算机视觉系统需要应用各种知识, 包括特征模型、成像过程、物体模型和物体间的关系。

4 计算机视觉的图像处理方法

计算机视觉信息的处理技术主要依赖于图像处理方法。

4.1 图像变换

图像变换是许多图像处理与分析技术的基础[3], 为了有效快速地对图像进行处理和分析, 常需要将原定义在图像空间的图像以某种形式转换到另一些空间, 并利用在这些空间的特有性质方便地进行一定的加工, 最后再转换回图像空间以得到所需的效果。

4.2 图像增强

图像增强目的是对图像进行加工, 以得到对具体应用来说视觉效果更“好”, 更“有用”的图像。从根本上说, 并没有图像增强的通用标准, 观察者是某种增强技术优劣的最终判断者。由于视觉检查和评价是相当主观的过程, 所谓“好图像”的定义在比较增强算法性能中实际上是非常多变不定的。

4.3 图像恢复

图像恢复也称图像还原, 就是尽可能地减少或者去除数字图像在获取过程中的降质, 恢复被退化图像的本来面貌, 从而改善图像质量。

4.4 图像编码

图像编码也称图像压缩。图像数据量是非常巨大, 无论传输或存储都需要对图像数据进行有效的压缩。压缩数据量的重要方法是消除冗余数据[4], 对图像进行存储、处理和传输等之前进行, 而在这之后需要将压缩了的图像解压缩以重建原始图像或其近似图像。

4.5 图像边缘锐化

图像边缘锐化处理主要是加强图像中的轮廓边缘和细节, 形成完整的物体边界。达到将物体从图像中分离出来或将表示同一物体表面的区域检测出来的目的。

4.6 图像分割

图像分割是指把一幅图像分成不同的区域。这些区域要么对当前的任务有意义, 要么有助于说明它们与实际物体或物体的某些部分之间的对应关系。一般来讲, 分割出的区域需同时满足均匀性和连通性的条件。

4.7 图像识别

图像识别是利用计算机识别出图像中的目标分类, 用机器智能代替人的智能。目前用于图像识别的方法主要分为决策理论和结构方法。图像经过处理后, 输出图像的质量得到相当程度的改善, 既改善了图像的视觉效果, 又便于计算机对图像进行分析、处理和识别。

5 结论

由于视觉问题的特殊性和复杂性, 还有大量的问题需要研究。

随着对定量研究的重视, 新的描述方式、求解手段的研究, 以及感知手段的改进, 计算机视觉技术不断发展, 计算机视觉技术的应用会更加广泛。

参考文献

[1]陈丹.计算机视觉技术的发展及应用[J].电脑知识与技术, 2008, 4 (35) .

[2]马玉真.计算机视觉检测技术的发展及应用研究[J]..济南大学学报 (自然科学版) , 2004, 9

[3]李弼成.智能图像处理技术[M].北京:电子工业出版社, 2004.

计算机视觉检测技术 篇5

【摘要】本论文是基于啤酒空瓶检测进行研究,采用的是机器视觉技术。介绍了机器视觉技术的基本结构、啤酒瓶检测流程、软件实现方法及检测系统的结构。

【关键词】机器视觉;啤酒;空瓶;图像采集

一、啤酒空瓶检测系统介绍

啤酒生产厂商使用的啤酒瓶大多采用可以回收利用的啤酒瓶。回收的啤酒瓶可能非常脏或者存在许多缺陷,必须在灌装前进行清洗,清洗之后需要检测是否洗干净。随着啤酒工业的迅速发展,对啤酒生产效率的要求越来越高,啤酒生产速度可以达到每秒钟10瓶以上,单靠人工检测啤酒瓶是否干净效率低、漏检率高,检测人员很容易产生视疲劳。而基于机器视觉技术的啤酒空瓶检测能够实现速度快、精度高的自动化检测。

采用机器视觉系统的目的就是给机器或自动化生产线添加一套视觉系统,其原理是由计算机或图像处理器以及相关设备来模拟人的视觉行为,完成得到人的`视觉系统所得到的信息。人的视觉系统是由眼球、神经系统及大脑的视觉中枢构成,计算机视觉系统则是由图像采集系统、图像处理系统及信息综合分析处理系统构成。如图1所示为机器视觉系统基本结构。

二、啤酒空瓶检测流程

采用机器视觉技术啤酒空瓶检测流程如图2所示。被检啤酒瓶进入检测系统后首先触发输入光电开关,系统将开关信号传递给控制器,控制器通过编码器记录脉冲信号,经过固定的脉冲之后瓶身检测摄像机、瓶口检测摄像机、瓶底检测摄像机、瓶身内壁检测摄像机相继工作,分别对瓶身、瓶口、瓶底、瓶身内壁进行拍照。将拍得的图像信息送入图像处理模块进行的图像处理,控制系统判断空瓶图像是否合格。如果控制系统判断瓶子不合格,控制器会输出一个信号给踢出器。当次瓶运动到踢出器时,踢出器动作将次瓶击出。最后合格的啤酒瓶被送入下一道工序。

三、啤酒空瓶检测系统软件设计

图3为基于机器视觉技术啤酒空瓶检测系统软件框图。啤酒瓶视觉检测系统是高速实时控制系统,因而对软件要求速度快、控制及时。在连续检测时,PC机使用特殊的图像采集卡和CCD摄像机连续地对被检啤酒瓶进行准确地拍照,获得图像的数字化信息,并通过数字图像处理与判断模块获得啤酒瓶检测的决策信息,并将其传送给可编程控制器,完成对执行设备击出器的控制。在系统待命时,PC机接收用户的指令,完成对系统的软件参数配置、硬件的检测等,包括图像处理与判断模块参数的设置,传送系统电机转速设置,系统各个传感器检测,击出器检测,CCD摄像机检测等。

本系统选用PLC作为底层控制器,它通过I/O口与光电传感器,编码器,击出器,图像采集子系统等相连,通过图像采集子系统控制CCD摄像机的拍摄以及直接控制击出器的动作。同时PLC通过485总线与工控机连接,接收工控机传来的控制信息和系统参数等。

在系统运行过程中,PLC负责及时地通知图像采集子系统启动CCD摄像机,抓拍处于拍摄位置的空瓶。为了达到这一目的,需要使用光电传感器来检测空瓶的位置。在系统中使用了反射式光电传感器,这种光电传感器在没有接收到从反光板反射回来的光束时,就会输出触发信号。将光电传感器安装到CCD摄像机拍摄位置旁,把输出接到PLC的I/O输入口上。当没有空瓶经过时,光电传感器可以接收到反射光束,没有输出信号,而当有空瓶经过时,光电传感器无法接收到返回的光束,于是输出触发信号。PLC从输入口接收到此信号后,即可判定空瓶已到达拍摄位置,从I/O输出口输出启动信号给图像采集系统,启动CCD摄像机,摄像机及时进行拍摄,获取被检空瓶的图像。

在专门的信息处理模块对获取的图像信息进行分析处理后,将得出空瓶质量是否合格的结论。如果不合格,主控的工控机就会通过485总线发出控制命令,要求PLC控制击出器击出该空瓶。PLC在接到击出命令后,需要标定不合格空瓶,并追踪其位置,当不合格空瓶到达击出器所在位置时控制击器动作,击出不合格空瓶。为了确定需击出空瓶位置,在系统中使用一个编码器与驱动传送带的电机相连,当电机转动时,编码器相应发出脉冲。计算脉冲的数目,即可知道传送带运动的距离。这样一来,如果能测出不合格空瓶要运动多长距离才到达击出位置就能将其准确击出。可以在事先把编码器的脉冲输出与PLC的I/O输入口相连,然后在传送带上放一空瓶,让其依次经过检测位置和击出位置,PLC使用计数器记下此过程中脉冲的数目,这一数值即对应着检测位置和击出位置之间的距离。

四、结语

基于机器视觉的啤酒空瓶检测系统是我国目前啤酒行业急需的高科技设备之一。本系统从啤酒瓶视觉检测的相关基础技术、电气控制系统等进行了说明,是PLC、视觉系统、传感器、上位机的灵活结合应用,系统采用视觉传感器拍摄和处理实时图象,最终达到去除不合格啤酒瓶的目的。

我国的工业化、现代化还刚刚起步,图像和机器视觉技术的应用也刚刚开始。随着我国工业化进程的加快,工业体系的完善,劳动力成本的上升,参与国际竞争必定要求产品质量和生产效率不断提升、自动化程度不断提高,机器视觉技术的应用领域和应用水平也会随之发展,机器视觉技术将会大显身手。

参考文献

段峰,王耀南,刘焕军.基于机器视觉的智能空瓶检测机器人研究.仪器仪表学报,2004,25(5):624―627.

宋学勇,赵敏.机器视觉系统的关键技术.计算机世界,2007/7/23/第B11版.

董瑞翔.用机器视觉技术提高生产率.机器人技术与应用,2002(5).

关胜晓.机器视觉及其应用发展.自动化博览,2005(3).

钟权龙,许积飙.西门子机器视觉系统在烟草行业的应用.现代制造,2004(22).

计算机视觉检测技术 篇6

关键词:计算机辅助教学;视觉媒介;综合技能;教学形式

课题:2012年常州大学人文社会科学研究项目《非遗对高校艺术设计学科影响研究》(编号:2012QN01)

视觉传达设计是一门创意性、实践性较强的应用型学科,其教学具有自身的科学性和规律性,依据艺术设计教育的客观规律,着重培养学生的认知能力、思维能力、设计能力、创新能力、动手能力和应用能力,从而引发他们自觉尝试并完成对课程方案的‘无形’构建与‘有形’塑造。视觉传达设计是通过视觉媒介表现并传达信息的设计,是一门交叉学科。当前,高校纷纷加大对艺术类专业的投入,众多院校的视觉传达专业在课程设置上也是各有特色,但是有一点是相同的,即把计算机辅助课程归纳到教学计划之中的,且将其作为该专业的骨干课程。

一、视觉传达专业计算机辅助设计类课程的设置现状

在以往的视觉传达设计教育中,各院校把国内外的艺术院校的模式或是办学经验作为主要的参考对象,大多数的院校把建筑、设计、手工艺、绘画等归为一体,强调办学的综合性和专业性。艺术设计专业种类繁多,分为产品设计、平面设计、展示设计、陶艺设计、环艺设计、动画设计、多媒体设计、数码设计等。而根据目前市场的需要,我们应该把视觉传达设计划分为平面设计方向、动漫设计方向、影视媒体制作方向、广告策划设计方向四类课程体系,同时细化这四类课程体系,并开设有针对性的课程。

视觉传达设计是指利用视觉符号来传递各种信息的设计。总的来说,视觉传达专业计算机辅助设计类课程主要分为以下几类:平面设计软件类(Photoshop、Coreldraw、Illustrator、Indesign)、二维动画软件类(Flash)以及影视后期制作软件类课程(Aftereffect、Premire)。Photoshop作为一款图像处理和绘图软件成为该专业学生必须掌握的工具,其强大的功能几乎渗透到了视觉类专业的所有科目。Coreldraw、Illustrator软件作为视觉传达专业学生必须掌握的矢量软件,在制作插图、标志、书籍装帧、版式设计、VI设计、包装设计等主干课程中发挥着不可忽视的作用。二者作为基础性软件,容易学习和上手,是学生学习的入门软件。Flash软件可以用于二维动画的创作。Aftereffect是目前世界上应用最广泛的视频合成软件之一,广泛用于数字电视和视频的后期制作,在PC系统上可以完成较好的合成效果。

二、视觉传达专业计算机辅助设计类课程的设置原则

教学内容陈旧,更新不及时,会导致学生毕业后不适应市场的需要。因此,我们应顺应视觉文化时代的需求,将视觉传达专业教学与科学技术结合起来,提高对新媒体这个艺术设计载体的认识,把握静态知识和动态发展之间的联系。随着视觉文化时代的到来,视觉传达领域专业知识的更新,从前被前人奉为真理的理论和观点正在被颠覆,而教学内容只能针对过去或正在发生的事情,它是受到时效限制的。因此,设计专业要在不断地组织和再组织的过程中形成开放的计算机辅助设计类课程体系,打开学生的视野,让学生随时可以掌握目前最先进的设计技术和表达手法。

高校艺术教育以市场需要为导向,着重培养学生的动手能力。因此,计算机辅助课程相对于其他课程来说,实践课时较多,这样才能强化学生运用软件的能力。计算机辅助设计类课程要求学生利用日益增多的各类设计素材库,对图像进行处理,变化出更为丰富的视觉语言。如今软件升级换代十分迅速,这就要求学生及教师要不断地更新知识,学会质疑和尝试,触类旁通地去学习和寻找不同的操作方法。

三、视觉传达专业计算机辅助设计类课程的教学方法

(一)案例式教学法

案例式教学法指教师通过讲解具体软件的功能、界面、菜单、面板以及工具的基本使用方法,来让学生对计算机辅助设计软件有一个大致的了解,进而提升学生的软件运用能力。学生除了要在课堂上消化和吸收教学案例以外,还要学会举一反三,并开展大量的课外钻研。

(二)项目式教学法

项目式教学法是指在实践教学活动中教师对指导学生切实完成一个完整的“项目”的培训方法。在教学实践中,拿实际项目里的课题作为教学内容,能为学生日后进入工作岗位积累丰富的实践经验,这对学生设计实践能力的提高也有很大的帮助。

四、视觉传达专业计算机辅助教学存在的误区

在教学方面,有的教师侧重于工具的教授,并辅以大量的图例。有的教师则完全把软件课变成单独的软件培训班的模式,一味地进行填鸭式教学,而不去培养学生的创新能力。这样只会使学生的软件学习能力停留在很低的层次。

在学习方面,学生不愿意去探讨原理和基础工具的运用,只是默默地跟着范例走。另外,有些学生不善于做笔记,不勤加练习,今天会明天忘,并没有充分意识到软件的学习过程也是个需要潜心修炼的过程。

五、改进视觉传达专业计算机辅助教学的策略

(一)有针对性地设置课程

学校在开展计算机辅助设计类课程的初期,可以尝试着要求学生对常规软件(例如Photoshop、Coreldraw、Illustrator等)达到创新运用的程度。而对于其他的软件,学生可以根据自身的学习情况和接受能力进行多样性的选修。同时,学校也可以加大对三类基础软件的课时投入,以巩固学生的学习成果。

(二)教学与实践相结合

学校要与相关单位紧密协作,定期组织学生到单位参观实习。此外,学校还要鼓励学生积极参与国内外的各项比赛,以赛代练。

(三)加强师资培训,提高教师业务水平

教师在完成繁重的教学、科研任务的同时还需要不断地提高业务水平。教师的业务水平很大程度上决定了学生学习效果的好坏,对学生的影响是深远的。因此,学校应加强对视觉传达专业教师的业务培训,从而为计算机辅助教学提供强有力的师资保障。

综上所述,高校计算机辅助教学,必须要根据学校自身的特点,结合师资力量和学生的实际情况来开展。此外还要突出专业特色,利用多重手段和多重资源来促进学生的专业学习,从而切实提高计算机辅助教学的水平。

参考文献:

1.王令中著.视觉艺术心理[M]. 人民美术出版社, 2005.

计算机视觉中立体匹配技术的研究 篇7

一、立体匹配技术的概述

作为一门交叉性学科, 立体视觉的研究, 基于计算机视觉技术, 能够极大的推动立体匹配技术的研究发展。通过对成像技术的利用, 在图像当中, 对场景内物体距离信息进行获取。在很多领域当中, 例如虚拟现实、微操作系统检测控制、三维测量学等领域当中, 立体视觉都具有很大的作用。立体视觉的实现, 可以从两个点或多个点来观察一个物体, 从而在不同视角下获取图像信息。再通过视觉成像原理, 在不同图像中, 对对应像素相位信息进行计算, 从而准确的推断物体的空间位置。在匹配立体视觉的过程中, 首先应当在两个点或多个点当中, 对其对应关系进行确认, 基于此, 对各个点的视差进行计算。然后利用得出的视差信息, 利用投影设备来还原原始场景画面。由于成像模型已知, 因此, 可以直接恢复对应点中的视差信息, 从而重建三维的图像信息。因此, 在立体匹配技术当中, 最为基础性的步骤就是对匹配对应点的查找。

二、立体匹配技术的原理

利用立体匹配技术, 在三维立体图当中, 可以对二维平面图信息进行获取。按照一定顺序, 对一组相同的二维图片进行堆积, 能够得到三维立体图, 因而体现出立体的视觉效果[1]。人们通过肉眼对三维立体图像表面进行观察, 不会发现什么规则, 而利用相应的技术设备, 能够观察到一组有序的图片组合。在人类肉眼观察物体的过程中, 人们利用左右眼观察所在的空间平面, 只能看到一些无序的图片。如果人们对左右眼重新聚焦, 就能够感受到一定的画面层次感。也就是说, 人们通过左右眼对一组重复画面进行观察, 通过大脑识别, 会形成一定的距离差异, 从而产生一种立体感。基于这一原理, 立体匹配技术可从两个不同方向来观察物体, 获取物体的图像信息。再通过一定的处理, 就能够得到物体立体信息的三维重建。

三、立体匹配技术的算法

1) 相位匹配算法。相位匹配算法的发展时间比较短, 在匹配算法中, 相位是基元, 对信号结构信息进行体现, 同时能够抑制图像高频噪声。在并行处理中, 可利用相位算法, 能够获得亚像素精度的致密视差。建立相位匹配算法, 需要首先进行某种假定, 在像对中, 认为各个对应点具有相同的局部相位。基于平移定理, 在空间域当中, 信号的平移, 在频率域当中, 产生的相位平移互成比例。而基于数学表达, 分析频率域信号, 能够帮助更好的分析区域。如果基于无限变化空间支撑, 相位匹配算法可以利用处理带通滤波信号相位信息来获取像对间的视差。因此, 在相位匹配算法中, 相位相关法、相位差频率法是两个最为常用的方法。

2) 区域匹配算法。如果两幅给定的图像相同, 图像对空间的尺度较为相似。如果将图像对空间进行划分, 得到的小图像块也与划分之前对应的图像更加形似。因此, 在基于区域的匹配算法当中, 主要是对局部窗口灰度信息相关程度加以利用, 对于变化平缓、细节丰富的图像, 匹配精度较高。在该方法中, 通常将图像对空间划分为多个小图像块, 或是将图像对空间尺度大小进行改变, 以此来确定区域。区域匹配算法将基准图中待匹配点作为中心, 进行窗口的创建。对该窗口的像素, 利用相邻区域图像像素灰度进行表示。在对准图中, 对像素相同区域进行寻找, 并以其为中心, 进行相同窗口的创建。对新建窗口的像素, 同样将相邻区域像素相同的灰度值进行确定。在两个窗口之间, 应当具有满足一定阈值条件的相似性。

四、立体匹配技术的难点及发展

在当前的立体匹配技术当中, 在两幅或多幅图片当中, 利用计算机对像对间的对应关系进行寻找, 并且以此为基础, 来判定二维图像信息, 进而对三维重建加以生成。而在实际应用当中, 匹配二维图像信息却面临着很大的难题, 所采集到的画面信息, 难免总会具有一定的问题, 因此, 在图片中对匹配点进行寻找更加困难。在选定的场景当中, 在场景边缘地带, 存在深度不连续区域。因此在采集这些图片当中, 很容易存在像素不高、边缘不清晰的情况, 从而使图像匹配的难度更大。由此可见, 在立体匹配技术当中, 仍然存在着很多的难点, 对于计算机视觉的发展和应用也造成了较大的限制。因此, 在未来的研究和发展当中, 对于立体匹配技术及其算法, 应当朝着更加高效、通用、快速、准确的方向迈进。就目前的发展现状来看, 在立体匹配技术的未来发展当中, 传统的双目视觉会进行转变, 产生新的多目视觉, 而过去的静态视觉也会朝着动态视觉进行转变。对于视觉计算中的难题, 可以通过对信息输入的增加来进行处理。基于信息化时代的不断发展, 立体匹配技术也会朝着智能化的方向发展, 立体视觉研究方法也会更加注重模型、规则、知识等方面。此外, 立体匹配算法也会朝着并行化的方向转变。其中, 专用信号处理机制、并行流水线机制等, 在立体匹配技术当中也得到了越来越广泛的应用, 立体匹配系统的实用性将会越来越良好。对于立体匹配算法区域并行化, 也会发挥出极大的促进作用, 计算机视觉中的立体匹配技术也会取得更为良好的效果。

五、结论

视觉是人类一项基本的生理功能, 人们通过研究对外界事物进行观察, 能够对外界事物的具体形态进行观察, 从而对物体的立体信息进行获取, 并且掌握物体的大小、远近等信息。人类的视觉感知系统, 可以看作是一个立体的感知系统。基于此, 计算机视觉中的立体匹配技术得以建立和发展。通过将立体匹配技术与计算机技术的融合, 能够帮助人类视觉对三维结构进行观察, 从而更加便利的对物体信息进行获取。

参考文献

计算机视觉技术在农业领域的应用 篇8

计算机视觉是研究计算机模拟生物外显或宏观视觉功能的科学和技术,是涉及人工智能、神经生物学、计算机科学、图像处理以及模式识别等多个领域的交叉学科[1]。计算机视觉技术是20世纪70年代初期在遥感图片和生物医学图片分析两项应用技术取得卓有成效后开始兴起的,其理论基础是70年代中后期逐渐形成的MARR视觉计算理论[2]。

计算机视觉技术与人类视觉相比,具有很多优点,使得计算机视觉技术在农业领域的应用具有广阔的前景。利用计算机视觉技术可以提高生产率,实现农业生产与管理的自动化和智能化。

1 国内外研究动态

从20世纪80年代起,国外就开始研究计算机视觉技术在农业中的应用。目前,很多国家和地区已经在农业信息图像处理方面进行了广泛深入的研究,其应用研究已渗透到农业生产的各个领域。

1.1 监测农作物生长

Mayer等[3]率先在此领域开展研究,并利用照片的数字图像作为无损测量的手段,以获取单株植物在不同生长阶段的生长参数,建立植物生长模型,但没有实现连续监测。ShimizuR.D.Heins[4]设计了一种利用CCD摄像机与红外照明设备组成的机器视觉系统,并用此系统对作物生长进行监测分析,为合理控制作物的光照条件提供了依据。KaciraM等[5]研制了一个能对作物进行连续监测的非接触式测控系统,它能不间断地测量温度、湿度、光照、风速以及土壤湿度、营养液浓度和叶片湿度等。李少昆等[6]将图像技术作用于玉米、大麦、小麦等大田作物株型信息的提取和生长监测,并借助人工标记的方法,实现了玉米和小麦株型信息的提取,将基于图像技术的特征参数与传统农学中的参数建立起了联系,可检测到叶片长度、茎叶夹角和叶倾角等30余个形态特征参数,同时建立了基于图像处理技术的一些新指标,初步建立了玉米品种资源植株株型特征图像与数据信息库。赵春江等[7]将计算机图像处理技术引入作物形态诊断中,并结合数学形态学的技术和专家系统技术,通过对作物的图像数字转化和分析,达到了计算机对作物形态性状自动提取和智能诊断的目的。李长缨等[8]利用图像技术对黄瓜幼苗生长进行无损监测,计算叶冠投影面积与株高,用图像处理方法测量植株的平均高度与人工测量结果的相关系数达到0.927。

准确有效地监测农作物生长信息是实现精准农业的重要基础。由于作物品种繁多,生长环境变化大,虽然对于农作物生长信息的监测报道较多,但目前没有一种适合所有农作物的通用识别方法。

1.2 诊断农作物矿质营养元素

基于计算机视觉技术的农作物矿质营养元素诊断研究,主要集中在根据农作物生长状态图像分析出农作物矿质营养状况。农作物的矿质营养状态能够通过叶片表面颜色表现出来。

Ahmad等[9]利用3种图像的彩色模型,评价玉米由于缺水和缺氮对叶片造成的色彩特征变化。3种模型中,HSI模型能更清晰地表征玉米叶片的颜色变化,其中I值能够有效地识别叶片在3种不同水分(低、中、高)和3种不同的氮水平(低、中、高)情况下的颜色变化,而S值可以识别叶片在3种不同的氮水平状态下的颜色变化。朱艳等[10]以5个小麦品种和3个水稻品种在不同施氮水平下的田间试验为基础,综合研究了稻麦叶片氮含量与冠层反射光谱的定量关系。王克如等[11]运用计算机视觉技术获取棉花叶片颜色特征,建立并筛选出了6组棉叶叶绿素含量预测模型,预测误差在7.8%~13.65%之间,为棉花生长的快速监测提供了依据。李艳等[12]利用数码相机获取田间番茄冠层影像,并通过图像处理软件识别冠层和背景像素,对不同氮肥处理下番茄生长状况进行了分析研究,结果表明可快速准确监测番茄生长发育,为番茄生产提供了科学依据。宋述尧等[13]试验设计了6种氮素水平处理温室黄瓜,利用数码相机获取黄瓜冠层图像,分析了不同供氮水平下黄瓜冠层图像参数与施氮量、土壤无机氮和植株氮素营养指标之间的关系,结果表明:黄瓜冠层图像G/(R+G+B)是诊断黄瓜结果期氮素营养状况的适宜数字化参数。

1.3 研究农作物种质资源

农作物种质资源全方位的精确检测一直是个难题。由于种子具有数量大、体积小以及许多特征肉眼难以分辨等特点,人工分级工作量大,速度慢,造成的误差相当大。许多学者将计算机视觉技术应用于农作物种质领域,取得了显著的成果。

ShatadalP等[14]研究了分离连接谷粒图像区域算法。该算法根据数学形态学科应用图像转换技术在分离大麦、小麦、燕麦和黑麦的麦粒方面是成功的,其精度分别为94%,95%,79%和89%。PanigrahI.S.等[15]提出了一种用于从背景中分割玉米种质图像的阈值自动选择技术,并利用计算机视觉测定了玉米种质的最大长度、最大宽度和沿长度方向每隔5mm测量1次所得的连续宽度,三者与人工所测结果的相关性分别为0.998,0.997和0.970。金昊[16]基于虚拟仪器的计算机视觉系统研究,开发了种子等级判别视觉系统,主要是用于大量样品种子的自动化计数与几何尺寸特征测定,该系统的使用提高了测量精度和效率。吴彦红等[17]开发了一套针对在线检测的装置。该装置采用灰度变换、自动阈值分割和区域标记等方法,从采集到的稻米群体图像中提取单粒米的图像信息,对单粒米的裂纹、垩白特征进行统计和分析,提取了周长和面积等10个特征参数,并进行了主成分分析,确定了判别整精米的优化阈值。

1.4 预测预报病虫草害

研究农作物病虫草害的自动检测与识别技术,开发视觉型智能化控制系统,以防治田间杂草与病虫害,是计算机视觉技术在植物保护中的重要研究内容,不少学者对此进行了理论探索与实际应用。

1.4.1 虫害预测预报

于新文等[18]在作物病虫图像特征提取、测量及种类自动识别研究中,对昆虫图像的分割和边缘检测算法进行研究,利用昆虫的数学形态学特征,提取目标的轮廓,实现了棉铃虫等3种昆虫的自动鉴别,准确率达到90%以上。马骏等[19]首次提出了应用数学形态学进行植物病虫识别,提出一种膨胀和腐蚀的快速算法用于提取病虫骨架特征,并根据不同种类病虫骨架的几何矩特征,应用神经网络进行病虫识别。周龙[20]用数学形态学的方法能够清晰和连续地检测到害虫的边缘,成功地进行了害虫的特征提取。张红涛等[21]针对害虫目标的二值化图像提取出面积、周长和复杂度等7个形态学特征,并进行归一化处理,建立了9种害虫的模板库及隶属度函数,并基于最小最大的原则进行模糊决策分析,对稻纵卷叶螟、棉铃虫等田间危害严重的9种害虫进行识别分类,准确率达86%以上。

1.4.2 田间杂草识别

WoebbeckeD.M.等[22]将各种不同土壤中杂草的彩色图像数字化,并得出RGB颜色值。植物的RGB值与背景土壤和残茬的RGB值完全不同,利用r-b,g-b,(g-b)/(r-g),2g-r-b,H等指标来区别植物与非植物背景非常有效,以2g-r-b这一指标区分杂草最为有效。Meyer等[23]利用植物的纹理信息对两种禾本科杂草和两种阔叶杂草进行了识别,发现利用由灰度共生矩阵获得的纹理特征量均匀度、惯性和角二次积率把植物分为草类与宽叶类时,准确率分别为93%和85%。L.Tang等[24]进行了户外自然光下的杂草识别研究,在HIS颜色空间利用二值编码遗传算法进行图像分割,并与基于聚类分析的分割结果进行了比较,显示了较好的性能。纪寿文等[25]进行了利用计算机视觉技术识别玉米苗期田间杂草的研究,采用双峰法滤除了土壤背景,根据投影面积、叶长和叶宽识别杂草,并且根据杂草投影面积确定出杂草密度。毛文华等[26]对利用植物的位置来识别作物苗期田间杂草的方法进行研究,并建立了基于机器视觉的分割苗期田间杂草的算法DBW。首先,运用超绿色法灰度化原始图像,最大方差自动取阈法二值化图像;最后,运用种子填充算法分割作物和杂草。毛罕平等[27]将颜色特征和阈值转换为RGB空间中的一个分割面,并采用贝叶斯理论评价分割误差、优化分割特征和阈值,提高了杂草图像的分割精度。Tellaeche等[28]利用颜色特征将植被和背景分离,再根据植被的位置判断是否是杂草。由于作物和杂草多为绿色植物,单独使用颜色特征很难完成对两者的区分,在不使用其他种类图像特征的前提下,主要通过杂草和作物的位置进行区分。周平等[29]提出了基于RGB分量运算和色域位屏蔽压缩的杂草实时检测方法。该方法的处理时间几乎不受目标复杂度影响,对颜色分布波动具有较强的鲁棒性。

1.5 农产品收获自动化

基于计算机视觉的农产品收获自动化的基本原理都是在收获机械上配备摄像系统,采集田间或果树上作业区域图像,运用图像处理与分析的方法判别图像中是否有目标(如水果蔬菜等),发现目标后,引导机械手完成采摘。

WhittakerA.D.等[30]对环形Hough变换进行了改进,并用其对数字图像进行分析。试验证明:该方法可以根据形状来寻找西红柿,而不必依赖于西红柿与叶子的颜色差异。当存在大量的背景噪声干扰或西红柿部分被叶挡住或部分重叠时,也是有效的。Sites P.W.等[31]研究了一套图像采集系统及图像增强和特征信息的提取算法。所采用的全域阈值法、图像光滑及分割等预处理方法可以明显地增强原始图像及“多果”、“单果”和“噪声”的几何差别,并可去除许多噪声。该方法识别水果的正确率约为89%。Slaughter D.C等[32]利用室外自然光条件下拍摄图像的色度和亮度信息对桔子收获机械手进行导向,建立利用彩色图像颜色信息,从桔树上识别桔子的识别模型,正确率为75%,速度基本上能满足实际工作的需要,但精度还较低。张瑞合等[33]研究了双目立体视觉技术在番茄收获中的应用。实验表明:摄像机与目标相距0.3~0.4m时计算机视觉系统较准确,相对误差可控制在3%~4%;但如果超过上述界限,计算机视觉技术难以发挥作用。

农产品收获对产品高质量和生产高效率的要求为计算机视觉技术在本领域的应用提供了广阔的市场。目前,还有许多急需解决的问题,例如如何进一步提高在自然光照和背景随时变化的实际生产环境中鉴别农产品的精度和速度。

1.6 农产品检测

计算机视觉技术无需接触测定对象,便可以从获取的图像中得到大量的参数和信息,而且与人工检验相比具有效率高、识别率高和标准统一等优点,特别适合动物、植物和农产品等生物体的检测与质量综合评定,因此在农产品检测中广泛应用。

RehkuglerG.E.等[34]研究了利用机器视觉进行苹果表面压伤检测,并依据美国苹果标准进行分级,研制成功了利用机器视觉进行缺陷检测和分级的苹果处理设备。Miller等[35]研制了一套鲜桃的计算机视觉分级系统。桃由输送带送进照明箱被摄像,经过图像处理,桃的颜色和着色度的数字信号经计算机处理后与不同成熟度桃的标准色相比较,按照颜色特征的差异,不同成熟度的桃被分开。应义斌等[36]开发了黄花梨品质检测机器视觉系统,比较了不同强度光源、不同背景对采集到的图像的影响,并研制了一套适用于黄花梨及其他水果品质检测的机器视觉系统。K.Ninomiya等[37]研制成功由3个机器视觉系统组成的茄子自动分级系统,可以从获得的图像中提取检测出茄子的大小、损伤数量、损伤面积、花萼颜色、水果形状以及水果弯曲度。经2a的试用结果显示,该系统能检测出茄子的许多缺陷,能更准确地对茄子进行分级。李伟等[38]提出了一种基于机器视觉技术的苹果表面纹理检测分级方法,并设计了由PC机、可编程逻辑控制器、摄像机和图像采集卡等组成的苹果视觉自动化分级系统。选取41个水晶富士苹果在该系统进行了分级试验,分级窜果率为4.9%。刘国敏等[39]根据脐橙图像的特点和分级标准,运用计算机视觉和神经网络算法对脐橙进行自动检测与分级。试验结果表明,其预测准确率达到85%。

对农产品的检测不仅要求全面检测外观品质,还要求检测内在品质。未来将实现对农产品动态特征的提取和识别,依照国际标准,进行在线检测,并且检测速度和精度不断提高,系统的兼容性不断升级,可以适用于不同种类农产品的检测。

2 存在的问题及展望

2.1 研究对象的复杂性

生物的多样性决定了农业对象特征的复杂多变和随机性。农作物及其产品的形态差异较大,生长背景复杂,而且同一农业对象在不同的时间、地点或环境下所表现出来的特征都不相同,这给数字图像的分割及特征的提取带来很大的困难。目前,常用的识别图像的算法具有一定的局限性,一般只适用于特定条件下的农业对象,鲁棒性差,因而有必要研究更高效的特征提取分割算法。

2.2 农业环境的多变性

目前,多数研究是在可以采集高质量图像的具有可控光照、色温以及没有环境因素影响的实验室或温室等理想条件下进行的,但是基于无损的计算机视觉技术工作在农业应用中不可避免在田间作业,而农田环境十分复杂,如光照不均、风速变化大、自然光色温的不可控性以及设备的机械振动等许多因素,都能导致图像质量下降,噪声增加,大大增加了图像预处理的难度,降低了处理结果的准确性和快速性。因此,农业中计算机视觉技术的应用从实验室走到田间实际还有很多问题值得研究。

2.3 图像处理的动态性

目前,大部分研究成果都是静态的,即先从室内或田间采集静态图像,再用实验室的计算机对图像进行处理。在实际生产应用中,很多情况下需要进行动态图像的实时处理,这就要求图像获取设备与处理设备合并,能在获取图像的同时立即处理所采集的图像,精确与快速地得出结果,并进行控制。如何实现动态图像处理是研究人员所要解决的难题。

3 结语

计算机视觉技术在农业领域的应用研究取得了长足的进步,某些成果开始走向应用,但是由于受视觉理论、图像处理技术、硬件条件的限制,加上农业对象的复杂性与缺乏规律性,离推广使用和商品化生产的要求还存在一定的距离,急需进一步开展广泛而深入的研究。相信随着相关技术的不断成熟和发展,计算机视觉技术在农业的应用必将对传统农业作业模式产生巨大影响。当前的任务是紧跟国际最新研究动态,充分利用国外已经取得的研究成果,探索新的理论和方法,以便研制开发适合我国实际情况的软件和硬件系统。

摘要:綜述了计算机视觉技术在监测农作物生长、诊断农作物营养元素、种质资源研究、预测预报病虫草害、农产品收获和检测等方面的应用;介绍了国外对计算机视觉在农业领域中应用的研究动态;分析了我国在这方面研究存在的问题,并就计算机视觉在农业领域应用前景进行了展望。

计算机视觉检测技术 篇9

关键词:视频跟踪,手部识别

1 引言

计算机从诞生至今, 其输入设备从最初的机电开关, 逐渐发展为打孔纸带、磁带, 再到今天的键盘、鼠标和游戏手柄, 向计算机输入数据的效率越来越高, 但方法的本质并未改变, 都要将自然信息通过机械式方式输入计算机。这些方式都是基于2D的图形界面, 将用户的操作限制于特定的外部设备上, 无法实现自然而随意的人机交互。长时间使用, 会使用户感到疲惫, 导致用户体验下降。

对于用户来说, 人的语音、手势等可以说是最为自然、最为方便的交流手段, 同时手势在3D环境中意义明确、方向精确, 是极好的人机交互手段。许多大型互联网公司与游戏公司早就对此进行了探索。微软, 索尼, 任天堂等公司有着自己研发的外部设备, 如游戏手套和传感器等, 以此来捕捉并记录手部的运动轨迹, 实现特定的操作乃至体感游戏。但这类外部设备的缺陷也是很明显的:这类设备一般为机械传感器式或光纤传感器式, 带有传感器、机械部件甚至用来与主机连接的电缆等, 沉重、累赘、不灵活;且通常价格昂贵、极易损坏, 用户体验不佳;更重要的是限制于特定平台, 不具备通用性, 普及度不高。

若能实现基于计算机视觉技术的手势识别及操作系统, 不仅可以将我们的双手从特定外部设备上解放出来, 使操作更加轻松、随意, 还能获得更好的人机交互体验, 推动“虚拟现实”的研究。目前已经有了大量的跟踪算法和相关设别, 如微软的Kinect摄像头及最新发布的Hololens头盔已经能达到很好的效果, 但都较为复杂。因此本文研究一种简单通用的基于计算机视觉的手部跟踪算法。

2 手部区域提取

2.1 样本采集

为了保证研究的顺利进行, 首先需要采集手部样本图片。为保证实验结果的准确性, 样本图片数量最好在100张以上, 并记录不同姿态, 其中男性样本和女性样本的数量保持相等。

2.2 肤色信息分析

肤色信息近似为皮肤的颜色信息, 物体表面的颜色即表面色是因光照而呈现的颜色[6]。我们采用RGB颜色模型对手部表面肤色进行分析, 发现肤色处于某个范围之内。方法如下:手动提取样本图像中的手部, 对其进行RGB颜色分量统计, 得到各分量直方图。由于各分量直方图上手部体现为一个近似波峰, 所以可取波峰的半峰全宽 (Full Width at Half Maxium) 作为手部的肤色阈值。

根据肤色阈值提取手部, 设Hand Skin表示肤色阈值范围, RGB (m, n) 表示点 (m, n) 处的颜色信息, 而bw (m, n) 代表该点是否是手部, 则:

2.3 模式识别

通过肤色信息初步提取手部后, 可能会有孤立的局部点集出现。为此, 统计所有互相连接的点集, 提取点集对应的几何特征, 建立规则来选取符合手部的点集。

几何特征一般包括面积、周长、重心等。而手部可以分为手掌和手指部分, 手掌形状近似于椭圆, 手指为细长的柱体, 因此整个手部的周长面积比会与其他物体有所区分, 所以根据周长面积比将手部从背景中提取出来:

面积:指物体区域包含的像素数, 用符号s表示。

周长:物体轮廓线上像素间距离之和, 用符号c表示。在进行周长计算时, 需根据像素间的连接方式, 分别计算距离。像素间距离可分为并列连接像素与倾斜连接像素。并列有上下左右四个方向, 像素间距离为1;倾斜方向有左上、左下、右上、右下, 其像素间距离等于单位正方体的对角线长度。本文中先获取二值图像的边缘信息, 再使用8向链码求周长。

周长面积比:用r表示, r=c/s。

求得所有样本的面积周长比后, 通过统计建立规则, 并排除异常数据。设h表示点集, hand表示手部, handrule表示手部点集所必需满足的规则, noise表示噪声, s.t.表示满足, 则最终的手部点集为:

3 手部跟踪

基于计算机视觉的手部跟踪算法具体步骤:

步骤1:第一帧图像预处理。根据上文所述方法进行第一帧的初始化。通过肤色信息和面积周长比特征提取出第一帧图像中的手。为了方便描述手的运动轨迹, 用几何图形来近似表示手部区域, 本文选用包围手部区域的最小椭圆来表示手部, 该椭圆的中心O1表示手部中心点。

步骤2:依次扫描视频的每一帧。对于第n帧, 由于相邻帧的时间相隔较短, 手部不会有太大位移。根据上一帧手部区域的位置, 设置该帧的扫描范围。通过第2章方法, 得出当前帧手部的中心点On。不断重复算法直至视频结束。

步骤3:描绘运动轨迹。从视频最后一帧的中心点On开始, 逆序依次连接On与On-1, 直至视频第一帧的中心点O1, 得到完整的手部运动轨迹。

4 结论

本文所提出的以手部肤色信息为基础的手部跟踪算法, 工程实现上较为简答, 算法效率高, 经试验测试, 能够较为准确地再现手部运动轨迹。同时, 该种方法也具有缺点, 在手部快速移动或做复杂运动时, 算法所描绘的运动轨迹可能会出现断裂, 且该算法对光照敏感, 在过强或过弱光照条件下, 算法的准确性都会受到影响。今后的工作将继续完善本算法, 将尝试以HSI颜色模型进行分析, 考虑引入手部纹理与边缘信息, 减弱算法的光照敏感性, 采用专家系统、智能优化、神经网络、特征降维等高级技术。

参考文献

[1]俞烈彬, 孟凡文.武器装备系统中的人机交互新技术[J].电子世界, 2013 (12) :164-165.

[2]孟艳丽, 郭建.二语演讲中手势功能的实证分析[J].河南科技大学学报 (社会科学版) , 2014, 32 (3) :62-67.

[3]刘晋钢, 刘卫斌, 刘晋霞.Kinect与Unity3D数据整合技术在体感游戏中的应用研究[J].电脑开发与应用, 2014, 27 (11) :7-14.

[4]张蓬, 王晓冲, 陈建义.多自由度机械臂的虚拟现实仿真实现[J].机械设计与制造, 2015 (01) :128-134.

[5]闫庆森, 李临生, 徐晓峰, 等.视频跟踪算法研究综述[J].计算机科学, 2013, 40 (6A) :204-209.

[6]奚吉, 赵晓铃, 张煜东.改进的沃尔什滤波的图像插值算法[J].计算机工程, 2010, 36 (22) :211-213.

[7]张煜东, 吴乐南, 王水花.专家系统发展综述[J].计算机工程与应用, 2010, 46 (19) :43-47.

[8]王水花, 张煜东, 吉根林.群智能算法的理论及应用综述[J].南京师范大学学报 (工程技术版) , 2014, 14 (4) :31-38.

[9]张煜东, 吴乐南, 韦耿.神经网络泛化增强技术研究[J].科学技术与工程, 2009 (17) :4997-5002.

毛叶枣的计算机视觉分级技术研究 篇10

毛叶枣 (Indian jujube) 属鼠杨科枣属果树, 因其盛产于印度、台湾, 故又名印度枣、台湾青枣。毛叶枣果肉富含Vc及VB族以及铁等矿物质, 富含糖分, 营养价值高。毛叶枣果皮较薄, 采摘和运输过程中容易损伤、变质, 且果实损坏部分易于感染其它果实。由于毛叶枣的产区相对集中, 而且保质期短, 需要及时根据其果实大小、果面缺陷和颜色等指标进行分级储藏和销售。

目前, 人们对毛叶枣只做简单筛选或依靠人工完成分级, 人工分级耗费大、效率低, 且主观判断标准可塑性强, 致使毛叶枣在同一标准下的快速分级处理成为一个关键技术难点。随着检测技术的发展, 特别是基于计算机视觉的检测技术在农产品、畜产品、加工制造业等多领域的物品分选和分级中得到了广泛的研究。例如, 章程辉等对红毛丹色泽品质进行了计算机视觉技术研究 (2005年) ;陈坤杰等对牛肉切面图像提取RGB和HIS颜色特征参数, 并设计以特征参数为输入、颜色等级为输出的BP神经网络模型对牛肉的颜色进行快速、准确的自动判定 (2008年) ;李银华等通过对金刚石色彩图像和瑕疵的颜色特性分析, 按照视觉心理感知特性选择HIS色彩空间, 结合色调H和饱和度S作为特征参数进行识别, 实现了对金刚石净度的自动检测 (2008年) ;方胜等使用LabView 和 National Instruments Vision Assistant对所采集的钢球图像进行了处理和分析 (2007年) 等。鉴于众多研究成果, 进一步研究毛叶枣基于机器视觉的分级方法, 具有很强的研究和应用价值。为此, 本文提出了一种基于计算机视觉的毛叶枣自动分级方法, 研究了毛叶枣图像的目标分割、表皮缺陷检测、边缘检测、果梗识别等算法, 将毛叶枣根据果型、大小、色泽、果面缺陷等指标进行自动分级。

1 试验平台配置

1.1 试验样品选取

样本选取由印度毛叶枣改良培育的品种-海南大青枣。海南青枣生长速度快, 当年种植当年挂果, 丰产期内, 株产可达200kg, 产量可达90 000kg/hm2, 丰产期可达20年。海南青枣在冬季成熟, 收获期长达3个月, 在常温下可保鲜10天以上, 在低温下可保鲜30天以上。

1.2 试验平台搭建

试验平台搭建的合理性和科学性, 直接影响着研究成果的实用性和可推广性。众多基于计算机视觉的无损检测技术研究者在采集图像时都依靠手工对样本固定摆设及角度调整, 这样导致即使在理论上实现对样本根据外观品质进行分级, 也无法投入生产, 形成“拆东墙补西墙”的尴尬局面, 需要进行二次甚至多次研究, 方可实现样本分级的真正自动化。根据毛叶枣自身“椭圆柱”形态和重力作用规律, 毛叶枣在随着衬有布带的滚筒运动时, 运动形态最终趋于一致, 即椭圆长径中心线与滚轴趋于平行。本试验搭建的平台, 免去不必要的劳动力, 也大大提高了检测效率。

平台组件:整个试验平台由3台CCD摄像机、1个图像采集卡、1台电动滚筒传送带、一条黑色布带、1个光照箱、1台计算机等硬件以及National Instruments Vision Assistant等软件组成。

平台搭建策略及目的:

1) 使滚筒传输带水平放置, 并将黑色布带呈履带状罩着传输带滚筒, 布带松紧合适, 需在滚筒间呈现波纹面。

该步骤目的:黑色背景有利于吸收光线, 布带仅作背景和减缓毛叶枣滚动的作用, 布带松紧合适的情况下, 毛叶枣会在滚动过程中运动状态趋于一致。

2) 在光照相内, 将摄像机CCD-a竖直向下, 将摄像机CCD-b, CCD-c水平对应平行于滚筒且贴近滚筒传输带平面。其中, 设置毛叶枣样本传送到合适位置时会触发3台CCD摄像机进行拍照, CCD-b, CCD-c拍照1次, CCD-a间隔拍摄2次。

该步骤目的:由于毛叶枣自身形态和受重力作用在随着衬有布带的滚筒运动时, 最终运动形态趋于一致, 即椭圆长径中心线与滚轴趋于平行, 果梗生长点必对应CCD-b或CCD-c, 而毛叶枣主要食用部分正对CCD-a。这样通过CCD-b, CCD-c拍照1次, CCD-a间隔拍摄2次, 可以取得毛叶枣的整个表面图像, 避免盲区存在。

3) 通过图像采集卡, 将CCD摄像机接入计算机, 并在计算机中安装National Instruments Vision Assistant等软件。

该步骤目的:National Instruments Vision Assistant保存了大量的迭代计算代码和多种图像处理算法, 可以方便图像处理和机器视觉应用程序开发。

至此, 整个毛叶枣外观品质检测平台搭建完成, 具体如图1所示。

1.计算机 2.图像采集卡 3.光照箱 4.CCD-a 5.CCD-b6.CCD-c 7.滚筒传送带 8.黑布带 9.毛叶枣 10.水平示意线

2 NI Vision Assistant图像处理

依据农业行业标准NY/T 484-2002, 本文针对影响毛叶枣外观品质的洁净、碰压伤、刺伤、虫伤、病斑等果面缺陷面积计算提出两种设计方案。

2.1 传统方案

基于计算机视觉对物品外观进行检测时, 绝大多数研究者都采用如下常规流程进行处理:图像采集→灰化→平滑 (去噪) →增强→分割→边缘检测。因此, 针对本试验样品基于NI Vision Assistant具体处理步骤如下:

1) 图像灰化。利用NI软件颜色抽取 (Color Plane Extraction) 功能, 从HSL中抽取出亮度即可完成对RGB彩色图像的灰化。处理结果如图2所示。

2) 图像平滑。利用低通滤波、高斯滤波、均值滤波及中值滤波等方法去除图像噪声, 改善图像质量和抽取对象特征。

3) 图像增强。通过变更对比度、亮度以及伽马辐射等参数来改变图像视觉效果, 将其转变成更适合计算机处理的形式;也可通过反转、取对数、幂运算、平方、平方根等数学方法来完成图像增强。

4) 图像分割。借助NI软件局部阀值功能 (Local Threshold) 求出目标对象, 即果皮缺陷;再次对所得图像进行图像平滑、腐蚀和膨胀算法处理, 去除图像中的噪声, 如图3所示。

5) 边缘检测。利用NI软件的边缘检测功能 (Edge Detection) 实现Laplacian, Prewitt, Roberts和Sobel边缘检测算子对图像进行边缘检测。

2.2 改进方案

1) 图像灰化。

利用NI软件色彩阀值 (Color Threshold) 功能, 将3因素 (RGB, HSV, HSL) 彩色24位图像变为8位图像, 大大压缩了图片信息量, 并有效提取出目标数据。在NI软件中参数配置以及处理结果如图4所示。

将本方案获得缺陷图像图4 (b) 与传统方案所得缺陷结果图3 (b) 对比可发现, 本方案将色斑底面和分布其上的零星斑点区域化, 可直接进行相对准确的缺陷面积计算;而传统方案则只取得零星斑点, 需要多次迭代进行膨胀和腐蚀算法, 方可计算出相对粗略的缺陷面积。

2) 果梗识别。

利用NI软件腐蚀、膨胀算法功能完成对毛叶枣果梗的识别。同时, 由于毛叶枣果梗直径小, 亦可选择不同大小的模板, 判别图象中是否存在果梗, 同时得到果梗与毛叶枣相对位置坐标, 依据切线斜率信息, 对果梗的完好性进行判断。通过对该毛叶枣样本采集到的4幅图进行果梗识别分析, 得知CCD-c采集到果梗点所在图像。鉴于毛叶枣图像会因果梗生长点凹陷入果实而形成“虚假圆斑”的特性, CCD-c所得图像中“圆斑”应在果皮缺陷计算时排除。

3) 求缺陷比。

利用NI软件粒子分析 (particle analysis) 功能求出该视角下果皮缺陷和整果图像区域内的像素总数, 并求二者百分比。同理求出同一个毛叶枣样本对应的4张图像 (CCD-b, CCD-c各得1张, CCD-a得2张) 对应的百分比并求和, 即得到该样本果皮总缺陷比。该样本相应像素数据如表1 所示。

以该样本为例, 可得出该样本果皮缺陷比计算方式为

8.176 6%+0.011 3%+0.011 9%=8.199 8%

3 实验结果及分析

对总计300个毛叶枣样本依据果皮缺陷程度进行分级, 所得结果如表2所示。

其中, 吻合率计算公式为

R=1-|M-NM×100%

通过对表2中的数据进行分析, 可得出采用人工挑选进行分级和基于机器视觉识别技术自动分级的吻合率分别为:优等品两者吻合达92.43%;一等品两者吻合达96.34%;二等品两者吻合达95.60%;残次品两者吻合达到95.95%。

可求的优等品、一等品、二等品、残次品4者吻合率平均值为95.08%, 从而可以看出, 基于计算机视觉技术对毛叶枣根据果皮缺陷程度进行自动分级的准确程度已达到人工挑选传统方式的标准。

4 结论

本文通过两种图像处理方法对毛叶枣样本进行果皮缺陷比计算以及果梗识别, 并依据毛叶枣果皮缺陷程度进行自动分级, 所得结果与人工挑选结果吻合率达到95.08%, 充分说明了毛叶枣品质的计算机视觉检测技术可以用于实际生产中。同时, 通过下一步对毛叶枣X射线图像进行研究, 可以得出人工挑选方式所无法完成的果核大小及可食率计算, 这也更能体现出计算机视觉技术在毛叶枣品质检测及自动分级中的利用价值。

摘要:根据农业部发布的农业行业标准NY/T484-2002, 基于NI Vision Assistant系列软件对毛叶枣提出了一种自动分级方法。以黑色传送带为背景, 采用CCD摄像机在毛叶枣样本的滚动中采集图像, 通过对图像进行初步分割、灰度化、平滑去噪、增强、边缘检测、二值化等处理得出样本果实大小、表面缺陷大小以及果梗识别, 进而借助机械手完成对毛叶枣品质的自动分级, 识别结果与人工挑选结果吻合率分别达到:优等品吻合92.43%, 一等品吻合96.34%, 二等品吻合95.60%, 残次品吻合95.95%。

关键词:毛叶枣,NIvision assistant,果面缺陷,自动分级

参考文献

[1]章程辉, 刘木华, 王群.红毛丹色泽品质的计算机视觉分析技术研究[J].农业工程学报, 2005, 21 (11) :108-111.

[2]李银华, 路新惠, 钟彦征.计算机视觉在金刚石净度检测中的应用研究[J].金刚石与磨料磨具工程, 2009 (1) :67-70.

[3]陈坤杰, 孙鑫, 陆秋琰.基于计算机视觉和神经网络的牛肉颜色自动分级[J].农业机械学报, 2009, 40 (4) :173-178.

[4]方胜, 李有森, 杨维初, 等.基于NI Vision Assistant的机器视觉在钢球表面检测中的应用[J].仪表技术, 2008 (5) :27-29.

[5]梁伟杰, 邓继忠, 张泰岭.梨果面坏损区域的计算机视觉检测方法[J].农业机械学报, 2005, 36 (7) :101-103.

[6]黎静, 薛龙, 刘木华, 等.基于计算机视觉的脐橙分级系统研究[J].江西农业大学学报, 2006, 28 (2) :304-307.

[7]吴雪梅, 李天强.基于机器视觉的成熟番茄自动识别技术[J].计算机工程与设计, 2006, 27 (22) :4 300-4 302.

[8]张俊雄, 荀一, 李伟, 等.基于计算机视觉的柑橘自动化分级[J].江苏大学学报, 2007, 28 (2) :100-103.

[9]王建, 黎绍发.基于苹果着色面积的计算机视觉分级技术研究[J].计算机工程与设计, 2008, 29 (14) :3 813-3817.

[10]张烈平, 曾爱群, 陈婷.基于计算机视觉和神经网络的芒果检测与等级分类[J].农机化研究, 2008 (10) :57-60.

计算机视觉检测技术 篇11

关键词: 三维坐标; 多目视觉; 双目交汇; 硅棒; 特征点

中图分类号: TP 274.2文献标识码: Adoi: 10.3969/j.issn.10055630.2013.02.001

引言硅棒的实际尺寸参数与硅棒本身的特征点提取密切相关,获取硅棒特征点的三维坐标信息可有效反映硅棒尺寸参数和产品质量,为产品的质量监控提供依据[1]。然而针对硅棒,无论是整体尺寸还是局部特征的检测,国内目前尚无相关仪器,在我国这些参数的检测还主要是依靠人工完成[2]。人工检测是一种非在线、接触式的传统检测方式,采用直角尺、游标卡尺、钢板尺等工具进行检验,检测精确度和重复性受到检测人员工作状态干扰,很难保证统一标准,总体上来说检测速度和检测精度不高;同时接触式检测过程中需反复搬动样品不可避免地造成对样品的二次伤害,效率低,仪器损耗大[2]。结合视觉成像技术和图像处理技术出现的机器视觉检测技术,不仅摒弃了传统检测方法的不足,满足了实时检测要求,同时还具有非接触、精度高等优点,是现场实时三维坐标测量的首选方法之一[35]。国内外关于三维坐标的相关测量方法主要有:电子经纬仪法和三坐标测量机法[3]。坐标测量机的测量精度可达微米级,但是庞大的机身、厚重的底座、复杂的操作以及昂贵的成本限制了其现场的应用[4];经纬仪、激光跟踪仪便携性好,但采用多点对准,效率低,不适合于现场在线检测[5]。机器视觉检测系统组建非常灵活,既可由单目视觉测量系统构成,亦可选择双目甚至多目视觉测量系统搭建而成。因为单目视觉测量三维空间坐标测量不确定度偏差较大[4],所以选择由四CCD构成的多目视觉系统,该多目视觉检测系统中,相邻的两CCD构成正交双目交汇视觉测量子模块系统,基于双目视觉原理的子模块克服了单目视觉检测的缺陷,精度更高。该多目机器视觉系统在保证较高精度的前提下,作为机器视觉前端采集系统,实现了硅棒全范围大尺寸轮廓检测,检测效率和速度较高。1硅棒坐标检测机器视觉系统组成典型的基于机器视觉的硅棒坐标检测系统组成如图1所示:

图1机器视觉的坐标检测系统组成

Fig.1The design of machine vision for coordinate detection system

硅棒坐标测量系统主要包括上位机界面、数据采集模块、图像处理模块、输入输出接口以及机械搭建平台组成。上位机作为人机交互平台负责数据显示和存储,总体管理数据采集模块和图像处理模块。数据采集系统作为机器视觉检测的核心之一完成硅棒轮廓信息图像采集,涉及光源、镜头、CCD相机以及图像采集卡,采集系统工作流程为:光源照射待测硅棒,CCD相机采集图像信息经过图像采集卡将图像信息转换为数字信息送入上位机并实时保存起来。数据采集完成之后,图像处理模块读取图像通过相应算法提取特征点最终计算特征点空间三维坐标。图1还可以看出整个数据采集模块搭建在机械平台上由执行机构驱动,不仅可以实现待测目标的小范围检测,同时还可以配合机械平台运动,驱动数据采集系统实现待测物体的大范围全尺寸检测。2硅棒特征点三维坐标检测原理

2.1四目视觉全范围检测系统组成硅棒特征点坐标视觉检测技术基于四目视觉原理,整个四目视觉系统作为机器视觉检测系统的数据采集模块负责为后续图像处理模块提供硅棒图像信息,采集的图像质量直接影响到后续图像处理的难易程度和结果的计算精度。四目视觉原理如图2所示:数据采集模块由四台CCD相机组成,分别在待测硅棒每个侧面安装一台CCD面阵相机,保持相机与硅棒待测面垂直放置,在自然光源照射下硅棒表面成像于与之垂直的CCD相机上,则相机分别获得每个硅棒表面特征的图像。该图像可以通过一个四路camelink接口图像采集卡或者2个双路camelink接口图像采集卡送入上位机进行后续图像处理。整个数据采集系统要实现的功能就是确保不降低系统检测精度的前提下,维持尽量大的有效视场范围,实时采集获取清晰的硅棒图像。

2.2四目视觉系统视场约束为了实现最优检测目的,必须保证待测硅棒在检测过程中始终处于四目视觉系统的有效视场范围内,若硅棒对应于相机上像点的坐标为(xi,yi),通过针孔模型透视变换公式就能得出某个特征点在有效视场内的世界坐标为OXWiYWiZWi。图3为四目视觉系统有效视场示意图,以四台CCD交汇中心建立世界坐标系。

图2四目视觉系统组成

Fig.2The composition of the 4 CCDs

vision system图3四目全范围检测原理及有效视场分析

Fig.3The principle and the analysis of effective

vision field for 4CCDs′ full range detection

如图所示:四台面阵相机型号相同,焦距f均为镜头中心到CCD靶面中心的距离,相邻相机之间的基线长度均为B(B=O1O2=O2O3=O3O4=O4O1),O1Xc1Yc1Zc1、O2Xc2Yc2Zc2、O3Xc3Yc3Zc3、O4Xc4Yc4Zc4是分别以CCD相机各自的镜头中心建立相机坐标系,以CCD1和CCD2光轴的交点为原点建立世界坐标系OXWYWZW,O1Xc1Yc1Zc1、O2Xc2Yc2Zc2、O3Xc3Yc3Zc3、O4Xc4Yc4Zc4均位于OXWYWZW内,最终计算时必须将O1Xc1Yc1Zc1、O2Xc2Yc2Zc2、O3Xc3Yc3Zc3、O4Xc4Yc4Zc4这四个相机坐标系转换到同一个参考坐标系OXWYWZW。假设CCD相机像平面平均尺寸为2Tx×2Ty,相邻相机光轴夹角为2α,则四目视觉系统的有效视场为ABCDEFGH围成的八边形。为了准确描述有效视场,在八边形ABCDEFGH内做内切圆,内切圆面积就反映有效视场的大小,采用内切圆的半径R对有效视场进行描述。考虑Tx远远小于焦距f,则有效视场R可以采用如下近似公式描述:R=Bcosβ/2sinα=Bcos(arctan(Tx/f))/2sin45°≈22BTx/f(1)由式(1)可知:CCD相机间基线长度B、视场角β以及相机夹角α这三个参数不仅直接限制有效视场的大小,还会严重影响四目视觉系统的测量精度。引起测量精度的误差包括相机本身参数(Tx、Ty)以及相机分布结构参数、参数本身的测量误差(B、f)[6],它们共同决定了机器视觉采集系统的精度。

2.3双目交会原理如图2可知:四目视觉系统中的任意相邻的两个CCD构成双目交汇视觉测量系统,所以整个四目视觉系统可以看作四个双目交汇视觉子系统组成,其中CCD1和CCD2构成子系统1,CCD2和CCD3构成子系统2,CCD3和CCD4构成子系统3,CCD4和CCD1构成子系统4。因为每个子系统光轴互相垂直,所以子系统基于正交双目交汇视觉原理。正交双目交汇测量比单目测量准确度高,它的相机夹角2α=90°有效降低安装误差[7],保证基线长度,形成相对较大的有效视场利于实现大尺寸检测,同时α=45°满足α∈(40°-70°)放置时测量误差最小要求[4]。以双目交汇视觉子系统1为例:CCD1和CCD2分别满足针孔成像模型:zc1 u

(3)其中矩阵M是由相机内部参数(r1~r9)和相机外部参数(T1~T3)构成的一个3×4的综合矩阵。联立式(2)和式(3)求解则可得到CCD1和CCD2的采集图像上的公共特征点的三维坐标,即硅棒第1对棱边上的特征点坐标,同理对于双目交汇视觉子系统2、双目交汇视觉子系统3、双目交汇视觉子系统4可依次求得第2对、第3对、第4对棱边上的特征点坐标,从而在保证精度前提下实现硅棒全范围检测目的。3硅棒特征点三维坐标检测方法的实现为了验证硅棒特征点三维坐标视觉检测系统的可行性,在实验室搭建了机器视觉检测试验样机进行试验,完成四目视觉采集系统的相机标定实验,同时以CCD1和CCD2构成的正交双目子系统为例进行一对硅棒表面图像的数据采集实验,基于Visual Studio 2008平台编写核心图像处理算法。

3.1标定实验相机标定是视觉测量过程中不可缺少的关键技术,标定通过针孔成像原理求取相机内部属性参数和外部位置参数从而确定空间坐标系中物点和像点的对应关系[8]。针对本文的多目视觉系统首先对每个相机进行单目标定。单目标定选择一种介于传统标定技术和自标定技术之间的方法:张氏平面标定法。标定流程为:首先将自制一个大小为11×11标准棋盘格模板,每个棋盘格大小为10 mm×10 mm。该模板置于视觉系统有效视场内,改变模板位置多角度(不小于3个)分别拍摄,拍摄完成后进行角点检测,单应性矩阵求解和参数优化,每个CCD获得一个相应的相机标定文件calib_CCD_1.mat、calib_CCD_2.mat、calib_CCD_3.mat、calib_CCD_4.mat。这种标定方法比传统标定简单,算法计算量减少且精度高于自标定方法。通过单目标定得到X方向和Y方向有效焦距(ax,ay)、CCD靶面中心坐标(u0,v0)以及径向或者切向畸变等相机内部参数,由于切向畸变较小,此处忽略不计,主要考虑径向畸变参数(k1,k2),单目标定结果见表1。单目标定完成之后进行立体标定,分别获得相机坐标系O1Xc1Yc1Zc1、O2Xc2Yc2Zc2、O3Xc3Yc3Zc3、O4Xc4Yc4Zc4相对于世界坐标系的旋转矩阵R和平移矩阵T。立体标定结果见表2。表1单目相机标定结果

Tab.1The result of monocular camera calibration

CCD1CCD2CCD3CCD4(ax,ay)(1 537.644 971 864.834 93)(1 533.415 091 857.500 18)(1 535.344 071 860.932 01)(1 539.700 31 865.793 31)(u0,v0)(350.602 11272.778 93)(360.149 42285.268 16)(357.021 19279.775 49)(351.339 08288.441 09)(k1,k2)(-0.382 631.710 26)(-0.372 052.034 223)(-0.367 811.901 27)(-0.380 091.947 37)像素误差(0.321 280.370 39)(0.275 690.223 16)(-0.332 810.201 27)(-0.339 610.291 27)

表2多目相机标定结果

Tab.2The result of multicamera calibration

O1Xc1Yc1Zc1O2Xc2Yc2Zc2O3Xc3Yc3Zc3O4Xc4Yc4Zc4R10010.003 70.04310.002 90.004 310.003 70.040 3010-0.003 61-0.006 50.043 61-0.046 5-0.007 11-0.047 3001-0.004 50.066 81-0.003 90.061 71-0.006 50.057 91T0.242 81 000.229 00999.233 70.100 20.297 50.441 70.020 9-998.001 90.199 51 002.336 70.019 7

图4硅棒图像

Fig.4Images of silicon rods3.2图像采集实验实验采用四个IMPERX面阵CCD相机、相机配接15 mm的标准镜头,两个X64CL Prio图像采集卡,两个镜头基线距离为1 408.6 mm搭建实验样机,有效线视场为236.544 mm,将待测硅棒置于CCD交汇的有效视场范围内,配置图像采集卡输出格式为Cameralink Base Mono #1,导入IPX_VGA210相机.cfg配置文件,通过X64CL Prio图像采集卡将一对像素为640×480黑白硅棒图像实时送入上位机。其中正交双目视觉子模块1采集到的一对图像如图4所示。

3.3图像处理特征点坐标检测视觉系统第二个核心组成是图像处理模块,该模块通过完成对采集数据的后续图像处理获得目标特征点的三维空间坐标,技术难点在于机器视觉数据采集模块中CCD相机得到的是二维图像信息,而系统最终要求是得到目标特征点的空间三维坐标。针对问题论文提出一种二维图像上恢复特征兴趣点三维坐标的解决方法:首先提取待处理图像上的特征兴趣点,建立特征兴趣点对应关系即同名点识别,接着通过同名点立体匹配获取对应点视差从而得到特征兴趣点3D坐标。

3.3.1Harris角点检测论文以硅棒角点作为研究的特征兴趣点,采用一种基于灰度值相关的角点检测算子:Harris算子进行硅棒角点检测。Harris角点检测的目的是提取待测目标的特征点,依靠特征点来传递图像所表征的参数信息,算法不受相机姿态及光照影响,检测精度达到像素级别[9]。Harris算子数学表达形式为:M=G(S)gxgxgy

gxgygy(4)

I=Det(M)-k×Trace2(5)M为自相关联系矩阵、Det(M)为自相关矩阵行列式的值,Trace为矩阵的迹,k为默认常数,取0.04。式(5)称为Harris算法响应函数,该函数给出局部范围内的兴趣值大小。Harris算法采用局部范围内的极大兴趣值对应的像素点作为特征点,因此通过对算法中的门限阈值、局部邻域大小、高斯窗口大小和高斯方差多次调整,保证在局部邻域内只留下最大极值点作为兴趣点,实现特征最优角点的提取。

3.3.2特征点立体匹配特征点立体匹配就是在待匹配图像上寻找标准图像上每个特征点的同名点,从而将不同图像中原本独立的特征兴趣点联系起来[1011],特征点匹配不是盲目进行,它遵循一定约束条件,本文同名点匹配基于极线约束。极线约束规定了一幅图像上任意一点在另一幅图像上的对应点只可能位于一条特定的极线上,通过该约束特征点匹配搜索空间从二维降为一维,减少计算量[10]。匹配流程为:首先在现有图像中设定一个标准图像,对于标准图像中的特征点Pl,找出待匹配图像中与其有最近欧氏距离的前两个特征点Pr1和Pr2,计算两个特征点中最近的距离Dmin与次近的距离Pcmin的比值,如果该比值小于匹配阈值,则表示待匹配图像上欧氏距离最近的点是标准图像中Pl特征最优匹配点。其次以待匹配图像中Pr1为特征点,重复步骤1的过程,求取标准图像中Pr1的候选匹配点P′l。最后如果Pl 和P′l是相同点,则Pl 和Pr1匹配成功,否则弃之。重复这个流程,直到匹配完成。同名点匹配完成之后,由双目视觉视差公式即可得出特征点3D坐标。最后对采集系统拍摄的两幅硅棒图像进行角点检测及匹配算法验证,获得了图像中的4对公共角点3D点坐标值,结果见表3。

表3特征点3D坐标计算结果

Tab.3The calculation result of characteristic points′ 3D coordinatemm

特征角点X实测值X理论值Y实测值Y理论值Z实测值Z理论值153.59154-79.833-80.5-63.422-63263.32263-80.032-80.5-53.709-54353.6195480.20080.5-63.192-63463.2096379.90280.5-53.991-54

通过表3可以看出:理论计算结果和实际测量结果基本吻合,且实际测量精度明显高于理论计算精度。4结论论文提出一种基于机器视觉的非接触、实时硅棒特征点检测技术,搭建了多目视觉硅棒采集系统进行图像采集实验,重点研究了多目视觉有效视场确定和正交双目交汇视觉测量原理,基于Visual Studio 2008平台完成了硅棒角点特征提取以及同名角点立体匹配等后续图像处理算法,整个检测过程时间不超过0.5 min。实验结果表明,该技术可准确快速获取待检测硅棒的特征点三维坐标,检测精度可以达到像素级别,适合于硅棒参数的非接触式高精度检测。为下一步开展硅棒面形检测研究奠定了基础。参考文献:

[1]郭海霞,解凯.焦点检测技术研究[J].哈尔滨师范大学自然科学学报,2007,23(2):73-75.

[2]徐岳生,刘彩池,王海云,等.直拉硅的现状与发展[C]∥中国有色金属学会第六届学术年会论文集.长沙:中南大学出版社,2005:62-69.

[3]彭凯,刘丽冰.双摄像机光学三坐标测量系统的研究[J].工艺与检测,2008,10(9):115-117.

[4]彭凯,刘丽冰,刘书桂.基于双相机的计算机视觉坐标测量系统[J].光电工程,2008,35(7):95-98.

[5]管业鹏,童林夙.双目立体视觉测量方法研究[J].仪器仪表学报,2003,24(6):581-588.

[6]刘佳音,王忠立,贾云得.一种双目立体视觉系统的误差分析方法[J].光学技术,2003,29(3):354-360.

[7]郭玉波,姚郁.双目视觉测量系统结构参数优化问题研究[J].红外与激光工程,2006,35(增刊):506-509.

[8]罗世民,李茂西.双目视觉测量中三维坐标的求取方法研究[J].计算机工程与设计,2006,27(19):3622-3624.

[9]张春生.基于点特征匹配的SUSANHarris算子比较[J].西安科技大学学报,2007,27(4):608-616.

[10]陈凌峰,杨银才,沈邦心,等.机器视觉测量系统中的特征匹配方法[J].湖北工业学院学报,2000,15(4):26-29.

计算机视觉检测技术 篇12

旋转构件在机械装置中是一种使用比较多的用来传递转速、转矩等的重要构件。其动态参数,一般包括转速、应变、应力、扭矩、轴功等。现代工业中,随着生产向大型化、高速化、自动化和连续化的方向发展,对旋转构件的性能要求也越来越高,尤其对于石油、化工、电力、钢铁等采用单机、满负荷、连续性的生产操作方式的企业更是如此。而传统的检测技术多采用接触式非在线检测,难以满足要求。除了设计的时候留出一定的安全系数外,采用无损在线检测技术来实时监控构件的工作状态,已经成为一项重要的方法。笔者采用计算机视觉在线检测方法,设计了以TI公司的TMS320C6701DSP为核心的旋转构件动态参数检测系统,成功地实现了在线无损检测技术,该技术比采用传统的方法效率高,检测结果可靠,可视化效果更好,并且可以实现在线检测的自动化、智能化,是计算机技术视觉技术与机械技术的成功结合。该方法具有一定的推广价值。

2 检测基本原理

定量检测基本原理[1]如图1所示。其实现过程如下:首先,在构件表面母线上相距为l的两处圆周方向上,按一定波长λ(λ对应的中心角θ=2π/n,n≥2)标记出一系列深色轨迹,这些轨迹在构件表面周向形成等间距的刻度。然后,将用CCD摄像机制作的检测传感器C1、C2相应地置于构件的迹线附近,当构件开始旋转运动时就可以进行检测了。

当构件空载旋转时,构件不发生扭转变形,如图1(a)所示。因此其上同一迹线的两个深色轨迹同时经过检测器C1、C2,将产生同相位的检测信号,λ为常数,则两检测器输出信号的频率f仅与构件旋转的角速度ω成正比。故通过对检测器输出信号的频率f进行检测,便可容易得到构件旋转的角速度。

当构件负载旋转时,构件若发生扭转变形,其上同一迹线的轨迹相对位置随之变化,如图1(b)所示。轨迹经过检测器的时刻将会不同,导致两检测器输出两个频率相同但相位不同的信号(即存在相位差t)。显然,相位差与构件旋转的速度及扭曲变形的程度(即切应变γ)有关。

取上述信号的相位差t与周期T的比值t/T作检测量,则该检测量与构件旋转的角速度量无关,只与构件的切应变成正比。从而根据检测量t/T的大小即可获得构件的切应变。进而求得切应力、扭矩和轴功率等构件的动态参数。

为检测出构件上的轨迹,需使用两个相同的CCD摄像机作检测器。摄像机采集到图像信号后,经过数字化处理后,当检测到轨迹处于摄像机镜头光心位置时,该检测系统输出一个高电平脉冲信号,处理后的信号波形如图2所示。其中图2(a)为构件空载旋转时的波形图,C1、C2两列信号重合。图2(b)为构件负载旋转时中的信号波形图,C1、C2分别表示两路检测信号波形。

3 旋转构件各动态参数与时域检测值的关系

为得到旋转构件各动态参数与时域检测值之间的关系,下面给出具体的推导过程,给出一般结论。若用n表示构件圆周表面的轨迹数目,λ表示相邻轨迹波长,Ti表示检测信号周期,ti表示两检测信号相位差,R表示构件的半径,ωi表示第i时刻构件的旋转角速度[1],则有:

式中:γi为构件的切应变;l为两检测器的安装间距。由式(1)可得i时刻构件切应变:

由材料力学[2]可知,在弹性范围内,材料的切应力与切应变之间符合虎克定律,则有:

式中:τi为构件圆周各点的切应力;Mni为作用于构件上的扭矩;Nni为构件的轴功率;G表示构件材料的弹性模量;Wn表示构件的抗扭截面模量;ωi为构件旋转的角速度,按下式计算:

以上推导结果表明,由于参数R、λ、n、l、G、Wn均为常量,所以其各动态参数仅与Ti、ti有关,只要检测出方波信号高低电平的持续时间Ti、ti的值,便可利用式(2)~式(4)计算出构件的动态参数ωi、γi、τi、Mni、Nni等。时间量Ti、ti的采集可由DSP为核心的数据采集系统来完成。在实际检测时,如果一个信号周期较短以及数据传输和DSP定量计算的时间要求,数据采集系统可采集数个信号周期的Ti、ti求和得到ΣTi、Σti,替代前述各式中的Ti、ti求构件的动态参数。

4 系统误差的消除

在初始位置时,由于调整两检测CCD镜头C1、C2的位置关系与轨迹线相互平行有时是困难的,甚至是不可能的。为了消除监测器安装所造成的误差,下面给出动态参数与时间量更为一般的关系。假设两镜头与被测构件的初始相位为差为t0,则在构件未受力时,C1、C2两检测镜头输出波形如图3所示。为了表达方便,将图3中两列信号的脉冲输出的间隔时间分别记为T0,相位差时间信号记为t0。

若C2信号超前C1信号,说明两磁头与被测构件的初始相位为差为φ>0,所以t0应该取为正值。若C2落后于C1信号,则t0取负值。消除误差后的相位差时间记为δti,则由图2、图3可以得出:

用δti替代上节推导公式中的参数ti,就可以有效地消除初始的系统误差,提高了本检测系统的精度。

5 实验设计

5.1 数据采集单元

数据处理单元的核心部分是DSP,采用TI公司的TMS320C6701DSP处理器。TMS320系列DSP的体系结构专为实时信号处理而设计,该系列DSP控制器将实时处理能力和控制器外设功能集于一身[3]。因此采用该系列的DSP能满足本实验采用图像检测数据量大的要求,从而实现实时检测的目的。数据硬件电路原理框图如图4所示,图像采集卡采集CCD摄像机传送过来的图像信号,然后传送给TMS320LF2407 DSP进行处理。该DSP通过提取数字图像的信息,转化成可用的时间信号,从而可以按照上节推导的公式进行计算,然后把计算结果传送到显示端。

5.2 数据处理单元

图像中的“感兴趣区域”(ROI-Region of Interest)在算法中非常重要。为提高处理速度,采用下述的图像的数据结构[4],即每幅图像在内存中用一个内存区域保存ROI信息,一个或多个内存区域保存图像数据(图5)。

提取边缘时,直接在图像上使用canny亚像素边缘提取,需要耗时约500ms。如果首先找到边缘所在的大约区域,然后在这个区域内应用亚像素边缘算法,最终提取出边缘,共耗时约95ms。图6为该方法流程图。

提取出边缘后就可以计算检测到标记的几何中心了[5]。当图像的几何中心处在摄像机镜头光心位置时,系统输出一个脉冲信号,并同时开始计时。通过两路计时器分别对检测到的两路信号进行计时,这样就能得到时间参数Ti、ti,代入上述对应公式进行计算,就能得到检测的结果,从而实现在线实时检测。

5.3 输出显示单元

显示单元可以采用工控机的显示器来显示实时监测结果。在不方便使用显示器的场合,可采用图7所示的LED动态扫描显示电路。采用共阳极的数码管,它们的公共端由PNP型三极管控制。显然,如果三极管导通,则相应的数码管就可以亮,而如果截止,则对应的数码管就不能亮,三极管由DSP的IOPB口控制。数码管与单片机IOPA口的对应的接线关系如表1所示。

6 结论与展望

通过实验可知能较满意地实现目标。需要注意的是,如果构件刚性太高,则受扭矩时发生变形较小,检测失效。如果构件颜色比较深,标记可以做成白色的或者易区分的,同时图像处理算法作相应的变动。如果工件工作环境的光线不好,可以增加人工光源以保证摄像机得到的图像质量。随着彩色成像技术的成熟,该检测方法当然也可以考虑采用彩色CCD传感器,通过标记特殊的颜色以得到相应的彩色图像,从而可以应用彩色图像处理技术,实现实时在线检测的目的,这也是笔者将来努力的方向。

摘要:在机械旋转构件的动态参数检测中,传统的检测法由于需接触检测而难以满足实时检测要求。提出了基于计算机视觉原理的非接触实时在线定量检测方法,设计了以TMS320C6701DSP为核心的旋转构件动态参数检测系统。为实现机械构件的非接触式在线实时定量检测提供新的技术与方法。

关键词:计算机视觉,旋转构件,动态参数,DSP

参考文献

[1]谭继文,舒杰,文妍.基于电磁法的切应变检测系统的设计[J].无损检测,2006,28(1):17-19.

[2]刘鸿文.材料力学(上)[M].北京:高等教育出版社,2004:39-44.

[3]任丽香,马淑芬,李芳慧.TMS320C6000系列DSPs的原理与应用[M].北京:北京航空航天大学出版社,2002:1-101.

[4]段德山.工件非接触检测中机器视觉的研究与应用[D].北京:北京邮电大学,2007:26-27.

上一篇:互动体验式学习下一篇:国外研究