计算机视觉技术

2024-08-30

计算机视觉技术(共12篇)

计算机视觉技术 篇1

1 概述

计算机视觉研究目标是使计算机能够像人一样, 通过视觉观察和理解世界, 具有自主适应环境的能力, 使计算机具有通过二维图像认知三维环境信息的能力, 感知三维环境中物体的几何信息, 包括形状、位置、姿态、运动等对它们进行描述、存储、识别与理解。

2 计算机视觉的发展

计算机视觉是在20世纪50年代从统计模式识别开始的[1], 主要集中在二维图像分析和识别上。20世纪60年代MIT的Roberts通过计算机程序从数字图像中提取出诸如立方体、楔形体、棱柱体等多面体的三维结构, 并对物体形状及物体的空间关系进行描述。Roberts的研究工作开创了以理解三维场景为目的的三维计算机视觉的研究。20世纪70年代中期, 麻省理工学院人工智能实验室正式开设“计算机视觉”课程, 由国际著名学者B.K.P.Horn教授讲授。David Marr教授于1973年应邀在MIT AI实验室领导一个以博士生为主体的研究小组, 1977年提出了不同于“积木世界”分析方法的计算视觉理论, 该理论在20世纪80年代成为计算机视觉研究领域中的一个十分重要的理论框架。到20世纪80年代中期, 计算机视觉获得了蓬勃发展, 新概念、新方法、新理论不断涌现, 比如, 基于感知特征群的物体识别理论框架, 主动视觉理论框架, 视觉集成理论框架等。

3 计算机视觉的研究

计算机视觉也称图像理解, 是指研究完成一项任务所需的视觉信息及如何从图像中获取这些信息的研究领域。其目的有三个[2], 第一是根据一幅或多幅二维投影图像计算出观察点到目标物体的距离;第二是根据一幅或多幅二维投影图像计算出观察点到目标物体的运动参数;第三是根据一幅或多幅二维投影图像计算出观察点到目标物体的表面物理特性。

3.1 研究内容

计算机视觉的研究内容包括成像设备和数字化设备。计算机视觉的最终目标是使计算机像人那样, 通过视觉观察和理解世界, 具有自主适应环境的能力。视觉系统研究的三个层次。计算理论层次, 回答系统各个部分的计算目的与计算策略;表达与算法层次, 视觉系统的研究应给出各部分的输入、输出和内部的信息表达, 以及实现计算理论所规定的目标的算法;硬件实现层次, 如何用硬件实现以上算法。

3.2 计算机视觉与相关学科领域的关系

图像处理通常是把一幅图像变换成另外一幅图像, 图像处理系统的输入是图像, 输出仍然是图像, 信息恢复任务则留给人来完成。研究对象主要是二维图像, 实现图像的转化, 尤其针对像素级的操作, 这一特征表明无论是图像处理还是图像分析其研究内容都和图像的具体内容无关。模式识别用于识别各种符号、图画等平面图形。模式一般指一类事物区别于其它事物所具有的共同特征。模式识别方法有统计方法和句法方法两种, 计算机图形学通过几何基元, 如线、圆和自由曲面, 来生成图像, 它在可视化和虚拟现实中起着很重要的作用。计算机视觉是解决相反的问题, 即从图像中估计几何基元和其它特征。因此, 计算机图形学属于图像综合, 计算机视觉属于图像分析。人工智能涉及到智能系统的设计和智能计算的研究。在经过图像处理和图像特征提取过程后, 接下来要用人工智能方法对场景特征进行表示, 并分析和理解场景。人工神经网络是一种信息处理系统, 它是由大量简单的处理单元通过具有强度的连接相互联系起来, 实现并行分布式处理。人工神经网络的最大特点是可以通过改变连接强度来调整系统, 使之适应复杂的环境, 实现类似人的学习、归纳和分类等功能。物理学、光学, 计算机视觉关注的目标在于充分理解电磁波, 主要是可见光与红外线部分, 遇到物体表面被反射所形成的图像, 而这一过程便是基于光学物理和固态物理, 一些尖端的图像感知系统甚至会应用到量子力学理论, 来解析影像所表示的真实世界。由此, 计算机视觉同样可以被看作是物理学的拓展。计算机视觉系统需要应用各种知识, 包括特征模型、成像过程、物体模型和物体间的关系。

4 计算机视觉的图像处理方法

计算机视觉信息的处理技术主要依赖于图像处理方法。

4.1 图像变换

图像变换是许多图像处理与分析技术的基础[3], 为了有效快速地对图像进行处理和分析, 常需要将原定义在图像空间的图像以某种形式转换到另一些空间, 并利用在这些空间的特有性质方便地进行一定的加工, 最后再转换回图像空间以得到所需的效果。

4.2 图像增强

图像增强目的是对图像进行加工, 以得到对具体应用来说视觉效果更“好”, 更“有用”的图像。从根本上说, 并没有图像增强的通用标准, 观察者是某种增强技术优劣的最终判断者。由于视觉检查和评价是相当主观的过程, 所谓“好图像”的定义在比较增强算法性能中实际上是非常多变不定的。

4.3 图像恢复

图像恢复也称图像还原, 就是尽可能地减少或者去除数字图像在获取过程中的降质, 恢复被退化图像的本来面貌, 从而改善图像质量。

4.4 图像编码

图像编码也称图像压缩。图像数据量是非常巨大, 无论传输或存储都需要对图像数据进行有效的压缩。压缩数据量的重要方法是消除冗余数据[4], 对图像进行存储、处理和传输等之前进行, 而在这之后需要将压缩了的图像解压缩以重建原始图像或其近似图像。

4.5 图像边缘锐化

图像边缘锐化处理主要是加强图像中的轮廓边缘和细节, 形成完整的物体边界。达到将物体从图像中分离出来或将表示同一物体表面的区域检测出来的目的。

4.6 图像分割

图像分割是指把一幅图像分成不同的区域。这些区域要么对当前的任务有意义, 要么有助于说明它们与实际物体或物体的某些部分之间的对应关系。一般来讲, 分割出的区域需同时满足均匀性和连通性的条件。

4.7 图像识别

图像识别是利用计算机识别出图像中的目标分类, 用机器智能代替人的智能。目前用于图像识别的方法主要分为决策理论和结构方法。图像经过处理后, 输出图像的质量得到相当程度的改善, 既改善了图像的视觉效果, 又便于计算机对图像进行分析、处理和识别。

5 结论

由于视觉问题的特殊性和复杂性, 还有大量的问题需要研究。

随着对定量研究的重视, 新的描述方式、求解手段的研究, 以及感知手段的改进, 计算机视觉技术不断发展, 计算机视觉技术的应用会更加广泛。

参考文献

[1]陈丹.计算机视觉技术的发展及应用[J].电脑知识与技术, 2008, 4 (35) .

[2]马玉真.计算机视觉检测技术的发展及应用研究[J]..济南大学学报 (自然科学版) , 2004, 9

[3]李弼成.智能图像处理技术[M].北京:电子工业出版社, 2004.

[4]张毓晋.图像工程上册图像处理和分析[M].北京:清华大学出版社, 2003.

计算机视觉技术 篇2

清华电子本科毕业,香港中文大学硕士毕业 本科GPA: 90.63(top 10%)硕士期间Paper: 2CVPR+1ECCV T: 107(29,24,26,28)G: 157,170,4 录取结果(只申请了博士):

Berkeley, UW, UIUC, Austin, Oxford

选专业

我在本科一二年级依然还是坚定的推研党。在本科三年级的时候,一次偶然的机会,我在随机过程课程上因为一个大作业而喜欢上了机器学习的研究,于是一发不可收拾地走上了cv/ml的道路。在很多因素影响下,我在大三毅然投奔了出国党。在进入港中文后,我便开始了我至今三年半的计算机视觉研究工作。在那时,我便定下了申请的目标,在做好科研的同时为之不懈奋斗。

英语考试

相信如果你已经有若干篇论文的发表(并且你已经可以开始自己脱稿写论文),世毕盟留学:志存高远,与优秀的人为伍,脚踏实地,人生必定辉煌。

而且已经在conference上能自信介绍自己工作或者已经能和国外的professor meeting的话,那托福和GRE的写作应该自然不在话下。因为前往香港读硕同样需要托福成绩,我在本科的时候已经有100+的托福。对我来说最难的应该还是GRE的verbal。我直接去裸考的后果就是verbal拿下了145这样惨烈的分数(听龚老师说全部都选B可以拿143分?)。通过闭关16天的自我准备时间,我verbal后来达到了157分。我认为英语考试这个环节最大的成功不是取得了高分,而是在尽可能短的时间内取得过线的分数。我GRE verbal并没有背过3000或者任何词汇,填空题大多数靠蒙(-_-#),主要靠阅读拉分。我记得我157那次考试头一个verbal模块阅读拿了9分,填空只有5分。所以我觉得GRE阅读这种不需要词汇的模块需要拼高分,才可以给自己节约宝贵的科研时间。

暑假科研

我认为其实国外的老师本身是非常愿意和大家有学术上的合作的。对他们来说,时间成本和logistic issue是阻碍这类合作的首要原因。如果你的能力有他们的熟悉的人进行担保,他们则是非常愿意花这个时间和你合作。如果你有幸能够得到那些无比繁忙的professor的宝贵的时间——即拿到了暑研机会,那一定需要在暑研中拿出百分之百的努力去认真对待——让professor在每次短时间的meeting内明白你做了什么,你的厉害之处,让他能感到为了和你meeting和发邮件而推掉了和另外一个chair说话的时间是值得的。尽管我暑研的科研其实做得并不是很满意,我的暑研导师还是非常nice地帮我写了推荐信。

申请过程

首先要倾情感谢培训师和mentor还有我老板一直以来细致的申请指导,还有心理的辅导——在申请季保持好的心态的确很困难,所以多和导师,父母师兄师姐交流。申请是个教授和学生之间双向选择的游戏,所以申请的同学不妨可以多从教授的角度去思考问题。教授喜欢在短时间内能得到对一个学生充分的能力认证,包括学生有的高质量文章(他在看到你简历前就知道的工作),他熟悉的人的推荐信,以及他平时已经接触过的学生等等。应该说,教授很少会在招生的时候,去仔细地人肉一个他不熟悉的学生(cv/ml/nlp领域尤其如此)。申请的面试其实几乎只包含两块内容:教授要在短时间内认同你做过的工作,以及教授要在短时间内能发现你对这个科研领域比较熟知(做到这一条对本科生申请者尤其加世毕盟留学:志存高远,与优秀的人为伍,脚踏实地,人生必定辉煌。

分)。

结束语

我非常有幸有这么多的老师和小伙伴把我一手抬进了phd的录取。语言很难一一表达我的感激之情。计算机视觉博士的申请,有泡沫也好,没泡沫也好,一年比一年更难申在近五年内是不争的事实。但是有挑战性的事情才值得我们去奋斗!

共勉!祝大家学业有成!

计算机视觉技术 篇3

关键词:计算机视觉技术;智能交通系统;大数据

一、计算机视觉技术概述

计算机视觉技术利用视觉传感器对目标进行识别、跟踪和测量,随后通过智能分析进一步进行图像处理,以获得三维空间的信息。计算机视觉技术发展的最终目标是让计算机与人类大脑一样拥有观察和理解世界的能力,可以独立自主适应环境并智能完成某些特定的任务。计算机视觉技术处理方法包括图像识别和处理、场景重建、直方图匹配、图像局部与分割、跟踪与运动、边缘检测、图像恢复等。目前已应用于工业、农业、医学、制造业、食品加工业、铁路运输业等各行各业,为各行各业提供了便捷。

二、智能交通系统的概述

智能交通系统(Intelligent Transportation Systems,ITS)是一种实时、准确、高效的综合交通管理系统,它运用了先进的信息技术、数据通讯传输技术、定位导航技术、电子传感技术、图像分析技术、自动控制技术以及计算机处理技术等,可以统一协调人、车、路三者的关系,缓解交通阻塞现象,提高交通运输效率,降低交通事故发生率,降低能源消耗。ITS由交通信息采集系统、信息处理分析系统、信息发布系统三大主要系统组成,包含的子系统有交通信息服务系统(ATIS)、交通管理系统(ATMS)、公共交通系统(APTS)、车辆控制系统(AVCS)、货运管理系统、电子收费系统(ETC)和紧急救援系统(EMS)。

三、计算机视觉技术在智能交通系统中典型应用

1、车辆牌照识别

车辆牌照识别在智能交通系统中应用最为广泛,首先提取摄像机抓拍的图像作预处理,然后利用边缘检测的技术对车牌进行定位,最后对车牌上进行字符分割、特征提取和识别,从而得到车辆牌照号码。此项技术多应用于监测黑名单车辆进行报警、高速公路超速违章的处罚、车辆进出小区收费管理、高速公路自动收费管理、计算车辆旅行时间判断拥堵状况等。自动化的操作步骤,大大减轻了管理人員的工作量,减少了人为操作的疏漏,提高了工作效率。

2、交通违法检测

基于车辆牌照识别的基础上,交通违法监测应用可分析出视频场景中的交通指示信息以及机动车行为,从而对交通违法行为进行研判,可对非法占道、压线行驶、违规停车等行为进行抓拍,降低了交警的工作量,科学系统地增强了对交通违法行为的管理,有据可查,也在一定程度上起到了震慑的作用,让犯罪分子没有可乘之机。

3、交通流量统计

交通流量统计在智能交通系统中的主要应用为通过对车辆的轨迹分析、运动趋势分析和局部检测车牌,判断出城市道路系统的拥堵状况,为交管部门提供交通拥堵信息,以便合理规划现有道路,重新进行路网调度,缓解道路堵塞的现象,确保拥堵道路可以顺利通行。

4、高速公路自动收费

高速公路自动收费有多种方式,目前应用最广泛的是非接触式IC卡收费,这种方式可以提高卡的使用寿命,也便于一卡多用。车辆在通过收费站时,通过IC卡技术和射频识别技术实现车辆信息自动识别,然后将数据信息上传至收费分中心,从射频卡联名储蓄卡中扣缴通行费用。这种自动化的收费方式,减少了收费人员的工作量,将人力从单一的工作中解放出来,同时减少了车辆通过收费站的时间,避免了停车收费造成的道路拥堵。

5、驾驶员工作状态检测

基于计算机视觉技术来检测驾驶员工作状态主要有两种方法,一种是针对驾驶员面部通过帧间差分法,肤色检测法等对面部区域进行定位,同时采用二值法对眼睛区域进行定位,根据眨眼的频率来判断其工作状态。另外一种则利用车辆行驶在道路上的状态分析驾驶员工作状态,首先采用差分算子来提取道路图像边缘,然后采用区域生长法对区域特征进行提取,将区域特征和边缘特征进行融合,最后提取出直线信息,通过左右车道线与夹角的关系来判断司机是否处于异常驾驶状态。这种应用可以对疲劳驾驶的现象进行警报,提示疲劳驾驶的司机及时休息,从一定程度上可以降低交通事故的发生率,给人身和财产安全提供更好的保障。

四、总结

智能交通系统是大数据发展下交通行业的必然发展趋势,发展智能交通系统能够提高交通运转的效率,加强路网的运输能力,增强道路调度研判的能力,提高交通安全水平。但我国对于智能交通系统的应用水平还仅停留在基础层面,还有很多潜在价值尚未得到挖掘,因此我们要不断地提升交通自动化和智能化水平,努力提高交通信息资源的综合管理的水平。

计算机视觉中立体匹配技术的研究 篇4

1 立体匹配技术内容介绍

立体视觉是兴起于20世纪60年代中期的一门交叉性学科, 对计算机视觉下, 立体匹配技术的研究具有是十分重要的意义。它研究的主要内容是在借助成像技术的前提下, 如何从图像中获取场景内物体的距离信息。实践证明, 立体视觉在很多领域内都具有较大的应用价值, 例如三维测量学、微操作系统的检测与控制以及虚拟现实等。实现立体视觉的基本方法是采用两个或多个视点对同一物体目标进行观察, 以获取一组不同视角下的图像信息, 然后利用视觉成像原理计算出不同图像中对应像素间的相位信息, 进而对物体目标的空间位置进行较为准确的推断。

立体视觉进行匹配的过程主要分为两步。第一, 在两个或多个点中找出其之间的对应关系, 并在此基础上计算出各个点处的视差。第二, 根据得出的视差信息借助一定的投影设备, 将原始场景画面进行还原, 在成像模型已知的前提下, 可以直接通过对对应点所蕴含的视差信息进行恢复, 进而完成图像信息的三维重建。由此可以看出, 找出匹配的对应点是立体匹配技术中的关键。

2 立体匹配技术的原理

立体画也称为三维立体画, 它不是一种图像, 而是一种技术, 一种使人们可以从三维立体图中获得二维平面图信息的技术。三维立体图是由一组相同的二维图片按照一定顺序大量堆积而成, 所以其具有立体性效果。在正常情况下, 通过人类肉眼观察, 三维立体图像表面似乎毫无规则, 但若借助一些特殊的技术和一些高科技的观察设备进行合理的观察, 人们就可以看到一组井然有序的、神奇美妙的图片。

人类眼睛观察物体大致遵循以下原理, 即当人类利用左、右眼对其所在的空间平面进行观察的时候, 人们能够看到的都只是一些杂乱无序的图片。然而, 当人类将左、右眼重新聚焦或是在观察画面过程中呈现出一定的层次感, 那么人类左、右眼观察到的这组重复的画面在经过人脑识别以后, 这些画面之间便会存在一定的距离差异, 进而在人脑中形成一种立体感。

立体匹配技术正是基于人眼观察事物的原理, 并且从两个不同的方向对事物进行观察, 以从中获得目标图像的信息, 然后通过对其进行一定的处理, 最终获得三维重建的物体立体信息技术。

3 立体匹配技术主要算法

3.1 基于区域的匹配算法

对于给定场景一样的两幅图像, 其尺度上图像对空间具有很大的相似性。若将图像对空间划分为许多个小图像块, 那么每一个小图像块与划分前对应的图像相比都更为相似。由此可见, 基于区域匹配算法的实质就是利用局部窗口之间灰度信息之间的相关程度, 这种算法在细节较为丰富且变化较为平缓的地方可以达到较高的匹配精度。区域匹配算法对区域的确定通常是通过将图像对空间划分为许多个小图像块, 或是通过改变图像对空间尺度的大小来实现。基于区域的匹配算法, 以基准图中的待匹配点作为中心创建一个窗口, 并用相邻区域图像像素的灰度值分布来表示该窗口的像素, 接着在对准图中寻找像素与之相同的区域, 再以其为中心创建一个相同的窗口, 并同样将其相邻区域范围内像素与之相同的灰度值分布来作为该窗口的像素, 这两个窗口之间的相似性必须能够满足一定的阈值条件。

3.2 基于相位的匹配算法

与其他两种算法相比, 基于相位的匹配算法起步较晚, 是近二十年才逐渐发展起来的。相位作为匹配算法中的基元, 具有反映信号结构信息的功能, 同时对图像的高频噪声还具有很好的抑制作用。相位匹配算法适用于并行处理, 并能获取到精度为亚像素级别的致密视差。基于相位的匹配算法是在一种假定的基础之上建立的, 这种假定认为像对中各对应点的局部相位是相等的。从平移定理的角度分析, 信号在空间域中的平移能够在频率域上产生相互成比例的相位平移。从数学表达的角度来看, 频率域信号的分析更有助于区域的分析。从变换空间支撑为无限的角度考虑, 通常基于相位的匹配算法对像对间视差的获取是通过对带通滤波信号的相位信息进行处理而实现。相位差频率法和相位相关法是基于相位的匹配算法中最常采用的两种方法。

4 计算机视觉下立体匹配技术难点及发展趋势分析

现阶段的立体匹配技术主要是通过计算机来寻找所采集到的两幅或多幅图片中各像对之间的对应关系, 然后根据这些关系对二维图像信息进行判定, 最终生成三维重建。但在这一过程中, 二维图像信息的匹配却面临重重困难, 导致采集到的画面信息存在瑕疵, 使得寻找图片匹配点的难度大大增加;选定场景中一些深度不连续的区域大多处于场景的边缘地带, 而这些位置的图片采集容易出现边缘不清晰、像素不高等问题, 又进一步给图像匹配带来了一定的难度等。

根据以上分析可知, 目前的立体匹配技术在技术方面存在很多难点, 而这些难点都在很大程度上限制了其在计算机技术领域中的应用和发展。因此, 设计出准确、高效、快速、通用性强的立体匹配技术及其算法已成为其未来发展与研究的重点方向。

结合当前情况分析, 可以大致推断出立体匹配技术接下来的发展方向主要体现在以下几方面。第一, 逐渐由传统的双目视觉转变为多目视觉, 由静态视觉转变为动态视觉, 并通过增加信息的输入来降低视觉计算的难度。第二, 在信息化时代的影响下, 逐渐向着智能化的方向发展, 并在基于知识、规则和模型的基础上制定出立体视觉研究方法。第三, 立体匹配算法逐渐并行化。随着并行流水线机制和专用的信号处理机制在立体匹配技术中应用的越来越广泛和越来越成熟, 不仅立体匹配系统会越来越具有实用性, 而且会在很大程度上引导立体匹配算法区域并行化。

5 结语

通过眼睛的观看人们可以感受到外界事物的存在, 可以看到外界有形事物的具体形态, 可以清楚的了解到事物的立体信息, 可以看到事物距离的远近。所以从某种角度而言, 人类视觉感知系统就是一个立体感知系统。根据文章分析, 计算机视觉下的立体匹配技术正是基于人眼视觉观察物体的原理。因此, 将计算机技术与立体匹配技术进行完美的融合, 不仅有助于人类视觉可以观察到物体三维结构中信息这一目标的实现, 而且能够帮助人们更加容易的获取到物体的信息。

参考文献

[1]裴聪.基于计算机视觉中双目立体匹配技术研究[D].镇江:江苏大学, 2010.

[2]郭龙源.计算机视觉立体匹配相关理论与算法研究[D].南京:南京理工大学, 2009.

计算机视觉技术 篇5

关键词:3D显示;立体视觉;辐辏;调节;视觉疲劳

与传统的2D图像相比,3D图像提供更加丰富的视觉信息,观看者通过屏幕呈现的画面,可以真实的感知到物体的远近、纵深等立体信息,给人身临其境的立体感和沉浸感。基于这些优势,3D显示技术近年来发展非常迅速。3D电影、3D电视、3D手机迅速普及,国内外的电视品牌都已经生产了3D电视,夏普、LG、康佳、索尼、三星、创维、TCL、长虹纷纷召开新闻发布会,力推3D电视;在手机领域,已经有HTC、夏普、LG、卓普等多品牌多款机型支持裸眼3D技术,用户可以随时随地享受3D电影,浏览3D照片,玩3D游戏等;南非世界杯开赛之后,3D广告频繁的出现在中央五套,同时,户外广告也积极地引进3D技术;除了商用,3D显示技术在教育、医疗、工业设计、军事等各种领域也具有广阔的应用前景。

1 研究目的及意义

3D电影、3D电视作为一种新的娱乐手段无疑是激动人心的,但人们也越来越多的开始意识到过度观看3D显示画面对身体存在的危害。20xx年,三星曾经公开发布了警告,称观看3D电视会对身体健康不利,长时间观看有可能导致一系列不健康的症状,包括视力下降、视线模糊、眼睛干涩、眼睛疼痛、头痛、头晕、乏力、恶心、方位感知障碍等。尤其对儿童和青少年比对成年人的危害更大。然而到目前为止,国内外始终没有对3D显示技术的舒适度及其对人体视觉健康的影响做一个系统性的评估研究,目前亟需一个国内外都公认的3D视觉健康标准和评测体系,指导研发、生产等各个环节的质量和安全,保障产业的快速健康发展。因此,不论是从产业化的角度,还是从理论研究价值的角度,对3D显示技术导致的视觉疲劳研究及相关安全标准的探索都很有必要。

2 立体视觉形成机理

立体视觉简称立体视,是指用双眼观察景物时能够分辨物体的远近形态的感觉。人眼立体视觉的建立过程如下:当双眼同时注视目标物体上的某一点时,左右眼的视线交叉于一点,这一点称为注视点。从注视点反射回到左右眼视网膜上的是一对左右对应并稍有差异的光点,这两个光点的信号传入大脑的视中枢,并融合成一幅完整的像,这一过程通常称为双眼单视,使得人们不但看清了物体上的这一点,并且连这一点同周围物体的间距、深度、凹凸等信息都能辨别出来,这样,人们就看到了一幅立体的像,如图1所示。

上述立体视觉的形成,源于人眼对所接收的视觉信息具有相当深度的感知能力,而深度感知能力是在人眼的生理因素及大脑的心理因素双重作用下产生的,其中生理因素包括双目视差、辐辏、焦点调节、运动视差等,心理因素包括遮盖或重叠、透视、阴影、颜色等,相比于生理因素,心理因素的作用要小得多。下面对本实验涉及的辐辏和调节机制加以介绍。

2.1 辐 辏

辐辏指双眼视轴的辐辏。当眼睛在休息状态或者注视远处的物体时,左右眼的视轴是平行的,而当我们注视近处的物体时,眼部肌肉不仅要调节晶状体使聚焦到近处,同时两眼的视轴也要向内侧旋转,使左右眼的视轴相交于被注视的物体。这种作用就叫辐辏。当被注视的物体向人慢慢靠近时,双眼的辐辏程度也随之慢慢增加,这种改变主要由眼部肌肉完成,并通过将这种改变信号传输给大脑,从而形成一种对深度信息的感知。

2.2 调 节

人眼为了把不同远近距离的物像成像在视网膜上,会通过眼部肌肉作用调节晶状体的屈光能力,看远处物体时晶状体比较扁平,看近处物体时比较凸起,使不同距离外的景象清晰成像在视网膜上。这种对于注视不同距离的物体时眼睛晶状体的屈光能力随之改变的现象,称为调节。调节过程通过眼睛晶状体的可塑性和睫状肌的收缩来完成,通过眼睛的这种适应调节状态,大脑可以估计出所看物体的远近距离。

为了保证双眼能看清不同远近距离处的物体,既要能时刻保持双眼单视,又要不停的进行距离判断进行调节,所以双眼的辐辏与调节是互相协同联合运动的。

辐辏与调节之间的关系如图2所示。A图表示当眼睛观看生活中的实际物体时,辐辏距离与调节距离总是保持一致的,B图表示在观看平面3D显示的立体图像时,辐辏距离与调节距离不一致。正是由于观看3D显示时辐辏与调节的不一致,导致了视觉疲劳。

3 实验及结果分析

目前的主流立体显示技术主要有眼镜式和裸眼式两种,眼镜式的主要有色分式、光分式、时分式等,裸眼的目前应用较多的是视差屏障式和柱状透镜式。它们各自有自己的优缺点,同时都不可避免地存在着导致视觉疲劳的因素。例如色分式的颜色丢失严重,而且由于眼镜镜片颜色纯度不够导致滤光不完全,造成重影;偏振式的同样由于偏振眼镜也无法将左右眼图像完美分离;时分式的亮度下降,且容易产生闪烁感;视差屏障式和柱状透镜式显示都易降低画面质量。

本文选取了眼动仪记录的8名被试者分别在观看2D、3D和实物图像时眼睛运动的情况,以期找出导致观看3D图像比2D图像和实物更疲劳的原因。实验所用的是加拿大SRResearch公司生产的EyelinkⅡ眼动仪,该眼动仪可以记录被试者在实验中眼睛运动的各个参数,包括注视点位置、注视次数、注视时间、瞳孔大小、眨眼、眼动轨迹图等。

在实验中,每名被试分别观看了6组图片,每组图片包含2D、3D图片各一张以及在相同背景下出屏的实物一张。6组图片的背景均相同,每组图片的视差大小不相同,即被试看到的物体出屏距离不相同。

一组实验用图片如图3所示,(a)为没有出屏感的2D图片,(b)为出屏约6cm的3D图片,相同的背景图片图未示。

不同被试在观看2D、3D图片以及实物时双眼间距的变化曲线如图4所示(a)~(h)所示,横坐标为视差(即不同的出屏距离)/parallax,纵坐标为双眼间距dx/pixel。其中黑色方点的曲线对应观看2D图片时双眼间距的变化情况,红色圆点的曲线对应3D,蓝色三角形点的曲线对应实物。

综合以上各图可以看出,比较而言,被试观看2D图片时双眼间距的变化不太大,而观看3D图片和实物时,随着视差和出屏距离的增大,双眼间距有明显减小的趋势。这就说明观看时随着3D图片视差的增大,和实物的出屏距离增加效果一样,被试的双眼出现了会聚眼动,即通常所称的辐辏反射。

计算机视觉技术 篇6

关键词:计算机辅助教学;视觉媒介;综合技能;教学形式

课题:2012年常州大学人文社会科学研究项目《非遗对高校艺术设计学科影响研究》(编号:2012QN01)

视觉传达设计是一门创意性、实践性较强的应用型学科,其教学具有自身的科学性和规律性,依据艺术设计教育的客观规律,着重培养学生的认知能力、思维能力、设计能力、创新能力、动手能力和应用能力,从而引发他们自觉尝试并完成对课程方案的‘无形’构建与‘有形’塑造。视觉传达设计是通过视觉媒介表现并传达信息的设计,是一门交叉学科。当前,高校纷纷加大对艺术类专业的投入,众多院校的视觉传达专业在课程设置上也是各有特色,但是有一点是相同的,即把计算机辅助课程归纳到教学计划之中的,且将其作为该专业的骨干课程。

一、视觉传达专业计算机辅助设计类课程的设置现状

在以往的视觉传达设计教育中,各院校把国内外的艺术院校的模式或是办学经验作为主要的参考对象,大多数的院校把建筑、设计、手工艺、绘画等归为一体,强调办学的综合性和专业性。艺术设计专业种类繁多,分为产品设计、平面设计、展示设计、陶艺设计、环艺设计、动画设计、多媒体设计、数码设计等。而根据目前市场的需要,我们应该把视觉传达设计划分为平面设计方向、动漫设计方向、影视媒体制作方向、广告策划设计方向四类课程体系,同时细化这四类课程体系,并开设有针对性的课程。

视觉传达设计是指利用视觉符号来传递各种信息的设计。总的来说,视觉传达专业计算机辅助设计类课程主要分为以下几类:平面设计软件类(Photoshop、Coreldraw、Illustrator、Indesign)、二维动画软件类(Flash)以及影视后期制作软件类课程(Aftereffect、Premire)。Photoshop作为一款图像处理和绘图软件成为该专业学生必须掌握的工具,其强大的功能几乎渗透到了视觉类专业的所有科目。Coreldraw、Illustrator软件作为视觉传达专业学生必须掌握的矢量软件,在制作插图、标志、书籍装帧、版式设计、VI设计、包装设计等主干课程中发挥着不可忽视的作用。二者作为基础性软件,容易学习和上手,是学生学习的入门软件。Flash软件可以用于二维动画的创作。Aftereffect是目前世界上应用最广泛的视频合成软件之一,广泛用于数字电视和视频的后期制作,在PC系统上可以完成较好的合成效果。

二、视觉传达专业计算机辅助设计类课程的设置原则

教学内容陈旧,更新不及时,会导致学生毕业后不适应市场的需要。因此,我们应顺应视觉文化时代的需求,将视觉传达专业教学与科学技术结合起来,提高对新媒体这个艺术设计载体的认识,把握静态知识和动态发展之间的联系。随着视觉文化时代的到来,视觉传达领域专业知识的更新,从前被前人奉为真理的理论和观点正在被颠覆,而教学内容只能针对过去或正在发生的事情,它是受到时效限制的。因此,设计专业要在不断地组织和再组织的过程中形成开放的计算机辅助设计类课程体系,打开学生的视野,让学生随时可以掌握目前最先进的设计技术和表达手法。

高校艺术教育以市场需要为导向,着重培养学生的动手能力。因此,计算机辅助课程相对于其他课程来说,实践课时较多,这样才能强化学生运用软件的能力。计算机辅助设计类课程要求学生利用日益增多的各类设计素材库,对图像进行处理,变化出更为丰富的视觉语言。如今软件升级换代十分迅速,这就要求学生及教师要不断地更新知识,学会质疑和尝试,触类旁通地去学习和寻找不同的操作方法。

三、视觉传达专业计算机辅助设计类课程的教学方法

(一)案例式教学法

案例式教学法指教师通过讲解具体软件的功能、界面、菜单、面板以及工具的基本使用方法,来让学生对计算机辅助设计软件有一个大致的了解,进而提升学生的软件运用能力。学生除了要在课堂上消化和吸收教学案例以外,还要学会举一反三,并开展大量的课外钻研。

(二)项目式教学法

项目式教学法是指在实践教学活动中教师对指导学生切实完成一个完整的“项目”的培训方法。在教学实践中,拿实际项目里的课题作为教学内容,能为学生日后进入工作岗位积累丰富的实践经验,这对学生设计实践能力的提高也有很大的帮助。

四、视觉传达专业计算机辅助教学存在的误区

在教学方面,有的教师侧重于工具的教授,并辅以大量的图例。有的教师则完全把软件课变成单独的软件培训班的模式,一味地进行填鸭式教学,而不去培养学生的创新能力。这样只会使学生的软件学习能力停留在很低的层次。

在学习方面,学生不愿意去探讨原理和基础工具的运用,只是默默地跟着范例走。另外,有些学生不善于做笔记,不勤加练习,今天会明天忘,并没有充分意识到软件的学习过程也是个需要潜心修炼的过程。

五、改进视觉传达专业计算机辅助教学的策略

(一)有针对性地设置课程

学校在开展计算机辅助设计类课程的初期,可以尝试着要求学生对常规软件(例如Photoshop、Coreldraw、Illustrator等)达到创新运用的程度。而对于其他的软件,学生可以根据自身的学习情况和接受能力进行多样性的选修。同时,学校也可以加大对三类基础软件的课时投入,以巩固学生的学习成果。

(二)教学与实践相结合

学校要与相关单位紧密协作,定期组织学生到单位参观实习。此外,学校还要鼓励学生积极参与国内外的各项比赛,以赛代练。

(三)加强师资培训,提高教师业务水平

教师在完成繁重的教学、科研任务的同时还需要不断地提高业务水平。教师的业务水平很大程度上决定了学生学习效果的好坏,对学生的影响是深远的。因此,学校应加强对视觉传达专业教师的业务培训,从而为计算机辅助教学提供强有力的师资保障。

综上所述,高校计算机辅助教学,必须要根据学校自身的特点,结合师资力量和学生的实际情况来开展。此外还要突出专业特色,利用多重手段和多重资源来促进学生的专业学习,从而切实提高计算机辅助教学的水平。

参考文献:

1.王令中著.视觉艺术心理[M]. 人民美术出版社, 2005.

计算机视觉技术在农业领域的应用 篇7

计算机视觉是研究计算机模拟生物外显或宏观视觉功能的科学和技术,是涉及人工智能、神经生物学、计算机科学、图像处理以及模式识别等多个领域的交叉学科[1]。计算机视觉技术是20世纪70年代初期在遥感图片和生物医学图片分析两项应用技术取得卓有成效后开始兴起的,其理论基础是70年代中后期逐渐形成的MARR视觉计算理论[2]。

计算机视觉技术与人类视觉相比,具有很多优点,使得计算机视觉技术在农业领域的应用具有广阔的前景。利用计算机视觉技术可以提高生产率,实现农业生产与管理的自动化和智能化。

1 国内外研究动态

从20世纪80年代起,国外就开始研究计算机视觉技术在农业中的应用。目前,很多国家和地区已经在农业信息图像处理方面进行了广泛深入的研究,其应用研究已渗透到农业生产的各个领域。

1.1 监测农作物生长

Mayer等[3]率先在此领域开展研究,并利用照片的数字图像作为无损测量的手段,以获取单株植物在不同生长阶段的生长参数,建立植物生长模型,但没有实现连续监测。ShimizuR.D.Heins[4]设计了一种利用CCD摄像机与红外照明设备组成的机器视觉系统,并用此系统对作物生长进行监测分析,为合理控制作物的光照条件提供了依据。KaciraM等[5]研制了一个能对作物进行连续监测的非接触式测控系统,它能不间断地测量温度、湿度、光照、风速以及土壤湿度、营养液浓度和叶片湿度等。李少昆等[6]将图像技术作用于玉米、大麦、小麦等大田作物株型信息的提取和生长监测,并借助人工标记的方法,实现了玉米和小麦株型信息的提取,将基于图像技术的特征参数与传统农学中的参数建立起了联系,可检测到叶片长度、茎叶夹角和叶倾角等30余个形态特征参数,同时建立了基于图像处理技术的一些新指标,初步建立了玉米品种资源植株株型特征图像与数据信息库。赵春江等[7]将计算机图像处理技术引入作物形态诊断中,并结合数学形态学的技术和专家系统技术,通过对作物的图像数字转化和分析,达到了计算机对作物形态性状自动提取和智能诊断的目的。李长缨等[8]利用图像技术对黄瓜幼苗生长进行无损监测,计算叶冠投影面积与株高,用图像处理方法测量植株的平均高度与人工测量结果的相关系数达到0.927。

准确有效地监测农作物生长信息是实现精准农业的重要基础。由于作物品种繁多,生长环境变化大,虽然对于农作物生长信息的监测报道较多,但目前没有一种适合所有农作物的通用识别方法。

1.2 诊断农作物矿质营养元素

基于计算机视觉技术的农作物矿质营养元素诊断研究,主要集中在根据农作物生长状态图像分析出农作物矿质营养状况。农作物的矿质营养状态能够通过叶片表面颜色表现出来。

Ahmad等[9]利用3种图像的彩色模型,评价玉米由于缺水和缺氮对叶片造成的色彩特征变化。3种模型中,HSI模型能更清晰地表征玉米叶片的颜色变化,其中I值能够有效地识别叶片在3种不同水分(低、中、高)和3种不同的氮水平(低、中、高)情况下的颜色变化,而S值可以识别叶片在3种不同的氮水平状态下的颜色变化。朱艳等[10]以5个小麦品种和3个水稻品种在不同施氮水平下的田间试验为基础,综合研究了稻麦叶片氮含量与冠层反射光谱的定量关系。王克如等[11]运用计算机视觉技术获取棉花叶片颜色特征,建立并筛选出了6组棉叶叶绿素含量预测模型,预测误差在7.8%~13.65%之间,为棉花生长的快速监测提供了依据。李艳等[12]利用数码相机获取田间番茄冠层影像,并通过图像处理软件识别冠层和背景像素,对不同氮肥处理下番茄生长状况进行了分析研究,结果表明可快速准确监测番茄生长发育,为番茄生产提供了科学依据。宋述尧等[13]试验设计了6种氮素水平处理温室黄瓜,利用数码相机获取黄瓜冠层图像,分析了不同供氮水平下黄瓜冠层图像参数与施氮量、土壤无机氮和植株氮素营养指标之间的关系,结果表明:黄瓜冠层图像G/(R+G+B)是诊断黄瓜结果期氮素营养状况的适宜数字化参数。

1.3 研究农作物种质资源

农作物种质资源全方位的精确检测一直是个难题。由于种子具有数量大、体积小以及许多特征肉眼难以分辨等特点,人工分级工作量大,速度慢,造成的误差相当大。许多学者将计算机视觉技术应用于农作物种质领域,取得了显著的成果。

ShatadalP等[14]研究了分离连接谷粒图像区域算法。该算法根据数学形态学科应用图像转换技术在分离大麦、小麦、燕麦和黑麦的麦粒方面是成功的,其精度分别为94%,95%,79%和89%。PanigrahI.S.等[15]提出了一种用于从背景中分割玉米种质图像的阈值自动选择技术,并利用计算机视觉测定了玉米种质的最大长度、最大宽度和沿长度方向每隔5mm测量1次所得的连续宽度,三者与人工所测结果的相关性分别为0.998,0.997和0.970。金昊[16]基于虚拟仪器的计算机视觉系统研究,开发了种子等级判别视觉系统,主要是用于大量样品种子的自动化计数与几何尺寸特征测定,该系统的使用提高了测量精度和效率。吴彦红等[17]开发了一套针对在线检测的装置。该装置采用灰度变换、自动阈值分割和区域标记等方法,从采集到的稻米群体图像中提取单粒米的图像信息,对单粒米的裂纹、垩白特征进行统计和分析,提取了周长和面积等10个特征参数,并进行了主成分分析,确定了判别整精米的优化阈值。

1.4 预测预报病虫草害

研究农作物病虫草害的自动检测与识别技术,开发视觉型智能化控制系统,以防治田间杂草与病虫害,是计算机视觉技术在植物保护中的重要研究内容,不少学者对此进行了理论探索与实际应用。

1.4.1 虫害预测预报

于新文等[18]在作物病虫图像特征提取、测量及种类自动识别研究中,对昆虫图像的分割和边缘检测算法进行研究,利用昆虫的数学形态学特征,提取目标的轮廓,实现了棉铃虫等3种昆虫的自动鉴别,准确率达到90%以上。马骏等[19]首次提出了应用数学形态学进行植物病虫识别,提出一种膨胀和腐蚀的快速算法用于提取病虫骨架特征,并根据不同种类病虫骨架的几何矩特征,应用神经网络进行病虫识别。周龙[20]用数学形态学的方法能够清晰和连续地检测到害虫的边缘,成功地进行了害虫的特征提取。张红涛等[21]针对害虫目标的二值化图像提取出面积、周长和复杂度等7个形态学特征,并进行归一化处理,建立了9种害虫的模板库及隶属度函数,并基于最小最大的原则进行模糊决策分析,对稻纵卷叶螟、棉铃虫等田间危害严重的9种害虫进行识别分类,准确率达86%以上。

1.4.2 田间杂草识别

WoebbeckeD.M.等[22]将各种不同土壤中杂草的彩色图像数字化,并得出RGB颜色值。植物的RGB值与背景土壤和残茬的RGB值完全不同,利用r-b,g-b,(g-b)/(r-g),2g-r-b,H等指标来区别植物与非植物背景非常有效,以2g-r-b这一指标区分杂草最为有效。Meyer等[23]利用植物的纹理信息对两种禾本科杂草和两种阔叶杂草进行了识别,发现利用由灰度共生矩阵获得的纹理特征量均匀度、惯性和角二次积率把植物分为草类与宽叶类时,准确率分别为93%和85%。L.Tang等[24]进行了户外自然光下的杂草识别研究,在HIS颜色空间利用二值编码遗传算法进行图像分割,并与基于聚类分析的分割结果进行了比较,显示了较好的性能。纪寿文等[25]进行了利用计算机视觉技术识别玉米苗期田间杂草的研究,采用双峰法滤除了土壤背景,根据投影面积、叶长和叶宽识别杂草,并且根据杂草投影面积确定出杂草密度。毛文华等[26]对利用植物的位置来识别作物苗期田间杂草的方法进行研究,并建立了基于机器视觉的分割苗期田间杂草的算法DBW。首先,运用超绿色法灰度化原始图像,最大方差自动取阈法二值化图像;最后,运用种子填充算法分割作物和杂草。毛罕平等[27]将颜色特征和阈值转换为RGB空间中的一个分割面,并采用贝叶斯理论评价分割误差、优化分割特征和阈值,提高了杂草图像的分割精度。Tellaeche等[28]利用颜色特征将植被和背景分离,再根据植被的位置判断是否是杂草。由于作物和杂草多为绿色植物,单独使用颜色特征很难完成对两者的区分,在不使用其他种类图像特征的前提下,主要通过杂草和作物的位置进行区分。周平等[29]提出了基于RGB分量运算和色域位屏蔽压缩的杂草实时检测方法。该方法的处理时间几乎不受目标复杂度影响,对颜色分布波动具有较强的鲁棒性。

1.5 农产品收获自动化

基于计算机视觉的农产品收获自动化的基本原理都是在收获机械上配备摄像系统,采集田间或果树上作业区域图像,运用图像处理与分析的方法判别图像中是否有目标(如水果蔬菜等),发现目标后,引导机械手完成采摘。

WhittakerA.D.等[30]对环形Hough变换进行了改进,并用其对数字图像进行分析。试验证明:该方法可以根据形状来寻找西红柿,而不必依赖于西红柿与叶子的颜色差异。当存在大量的背景噪声干扰或西红柿部分被叶挡住或部分重叠时,也是有效的。Sites P.W.等[31]研究了一套图像采集系统及图像增强和特征信息的提取算法。所采用的全域阈值法、图像光滑及分割等预处理方法可以明显地增强原始图像及“多果”、“单果”和“噪声”的几何差别,并可去除许多噪声。该方法识别水果的正确率约为89%。Slaughter D.C等[32]利用室外自然光条件下拍摄图像的色度和亮度信息对桔子收获机械手进行导向,建立利用彩色图像颜色信息,从桔树上识别桔子的识别模型,正确率为75%,速度基本上能满足实际工作的需要,但精度还较低。张瑞合等[33]研究了双目立体视觉技术在番茄收获中的应用。实验表明:摄像机与目标相距0.3~0.4m时计算机视觉系统较准确,相对误差可控制在3%~4%;但如果超过上述界限,计算机视觉技术难以发挥作用。

农产品收获对产品高质量和生产高效率的要求为计算机视觉技术在本领域的应用提供了广阔的市场。目前,还有许多急需解决的问题,例如如何进一步提高在自然光照和背景随时变化的实际生产环境中鉴别农产品的精度和速度。

1.6 农产品检测

计算机视觉技术无需接触测定对象,便可以从获取的图像中得到大量的参数和信息,而且与人工检验相比具有效率高、识别率高和标准统一等优点,特别适合动物、植物和农产品等生物体的检测与质量综合评定,因此在农产品检测中广泛应用。

RehkuglerG.E.等[34]研究了利用机器视觉进行苹果表面压伤检测,并依据美国苹果标准进行分级,研制成功了利用机器视觉进行缺陷检测和分级的苹果处理设备。Miller等[35]研制了一套鲜桃的计算机视觉分级系统。桃由输送带送进照明箱被摄像,经过图像处理,桃的颜色和着色度的数字信号经计算机处理后与不同成熟度桃的标准色相比较,按照颜色特征的差异,不同成熟度的桃被分开。应义斌等[36]开发了黄花梨品质检测机器视觉系统,比较了不同强度光源、不同背景对采集到的图像的影响,并研制了一套适用于黄花梨及其他水果品质检测的机器视觉系统。K.Ninomiya等[37]研制成功由3个机器视觉系统组成的茄子自动分级系统,可以从获得的图像中提取检测出茄子的大小、损伤数量、损伤面积、花萼颜色、水果形状以及水果弯曲度。经2a的试用结果显示,该系统能检测出茄子的许多缺陷,能更准确地对茄子进行分级。李伟等[38]提出了一种基于机器视觉技术的苹果表面纹理检测分级方法,并设计了由PC机、可编程逻辑控制器、摄像机和图像采集卡等组成的苹果视觉自动化分级系统。选取41个水晶富士苹果在该系统进行了分级试验,分级窜果率为4.9%。刘国敏等[39]根据脐橙图像的特点和分级标准,运用计算机视觉和神经网络算法对脐橙进行自动检测与分级。试验结果表明,其预测准确率达到85%。

对农产品的检测不仅要求全面检测外观品质,还要求检测内在品质。未来将实现对农产品动态特征的提取和识别,依照国际标准,进行在线检测,并且检测速度和精度不断提高,系统的兼容性不断升级,可以适用于不同种类农产品的检测。

2 存在的问题及展望

2.1 研究对象的复杂性

生物的多样性决定了农业对象特征的复杂多变和随机性。农作物及其产品的形态差异较大,生长背景复杂,而且同一农业对象在不同的时间、地点或环境下所表现出来的特征都不相同,这给数字图像的分割及特征的提取带来很大的困难。目前,常用的识别图像的算法具有一定的局限性,一般只适用于特定条件下的农业对象,鲁棒性差,因而有必要研究更高效的特征提取分割算法。

2.2 农业环境的多变性

目前,多数研究是在可以采集高质量图像的具有可控光照、色温以及没有环境因素影响的实验室或温室等理想条件下进行的,但是基于无损的计算机视觉技术工作在农业应用中不可避免在田间作业,而农田环境十分复杂,如光照不均、风速变化大、自然光色温的不可控性以及设备的机械振动等许多因素,都能导致图像质量下降,噪声增加,大大增加了图像预处理的难度,降低了处理结果的准确性和快速性。因此,农业中计算机视觉技术的应用从实验室走到田间实际还有很多问题值得研究。

2.3 图像处理的动态性

目前,大部分研究成果都是静态的,即先从室内或田间采集静态图像,再用实验室的计算机对图像进行处理。在实际生产应用中,很多情况下需要进行动态图像的实时处理,这就要求图像获取设备与处理设备合并,能在获取图像的同时立即处理所采集的图像,精确与快速地得出结果,并进行控制。如何实现动态图像处理是研究人员所要解决的难题。

3 结语

计算机视觉技术在农业领域的应用研究取得了长足的进步,某些成果开始走向应用,但是由于受视觉理论、图像处理技术、硬件条件的限制,加上农业对象的复杂性与缺乏规律性,离推广使用和商品化生产的要求还存在一定的距离,急需进一步开展广泛而深入的研究。相信随着相关技术的不断成熟和发展,计算机视觉技术在农业的应用必将对传统农业作业模式产生巨大影响。当前的任务是紧跟国际最新研究动态,充分利用国外已经取得的研究成果,探索新的理论和方法,以便研制开发适合我国实际情况的软件和硬件系统。

摘要:綜述了计算机视觉技术在监测农作物生长、诊断农作物营养元素、种质资源研究、预测预报病虫草害、农产品收获和检测等方面的应用;介绍了国外对计算机视觉在农业领域中应用的研究动态;分析了我国在这方面研究存在的问题,并就计算机视觉在农业领域应用前景进行了展望。

计算机视觉技术 篇8

关键词:视频跟踪,手部识别

1 引言

计算机从诞生至今, 其输入设备从最初的机电开关, 逐渐发展为打孔纸带、磁带, 再到今天的键盘、鼠标和游戏手柄, 向计算机输入数据的效率越来越高, 但方法的本质并未改变, 都要将自然信息通过机械式方式输入计算机。这些方式都是基于2D的图形界面, 将用户的操作限制于特定的外部设备上, 无法实现自然而随意的人机交互。长时间使用, 会使用户感到疲惫, 导致用户体验下降。

对于用户来说, 人的语音、手势等可以说是最为自然、最为方便的交流手段, 同时手势在3D环境中意义明确、方向精确, 是极好的人机交互手段。许多大型互联网公司与游戏公司早就对此进行了探索。微软, 索尼, 任天堂等公司有着自己研发的外部设备, 如游戏手套和传感器等, 以此来捕捉并记录手部的运动轨迹, 实现特定的操作乃至体感游戏。但这类外部设备的缺陷也是很明显的:这类设备一般为机械传感器式或光纤传感器式, 带有传感器、机械部件甚至用来与主机连接的电缆等, 沉重、累赘、不灵活;且通常价格昂贵、极易损坏, 用户体验不佳;更重要的是限制于特定平台, 不具备通用性, 普及度不高。

若能实现基于计算机视觉技术的手势识别及操作系统, 不仅可以将我们的双手从特定外部设备上解放出来, 使操作更加轻松、随意, 还能获得更好的人机交互体验, 推动“虚拟现实”的研究。目前已经有了大量的跟踪算法和相关设别, 如微软的Kinect摄像头及最新发布的Hololens头盔已经能达到很好的效果, 但都较为复杂。因此本文研究一种简单通用的基于计算机视觉的手部跟踪算法。

2 手部区域提取

2.1 样本采集

为了保证研究的顺利进行, 首先需要采集手部样本图片。为保证实验结果的准确性, 样本图片数量最好在100张以上, 并记录不同姿态, 其中男性样本和女性样本的数量保持相等。

2.2 肤色信息分析

肤色信息近似为皮肤的颜色信息, 物体表面的颜色即表面色是因光照而呈现的颜色[6]。我们采用RGB颜色模型对手部表面肤色进行分析, 发现肤色处于某个范围之内。方法如下:手动提取样本图像中的手部, 对其进行RGB颜色分量统计, 得到各分量直方图。由于各分量直方图上手部体现为一个近似波峰, 所以可取波峰的半峰全宽 (Full Width at Half Maxium) 作为手部的肤色阈值。

根据肤色阈值提取手部, 设Hand Skin表示肤色阈值范围, RGB (m, n) 表示点 (m, n) 处的颜色信息, 而bw (m, n) 代表该点是否是手部, 则:

2.3 模式识别

通过肤色信息初步提取手部后, 可能会有孤立的局部点集出现。为此, 统计所有互相连接的点集, 提取点集对应的几何特征, 建立规则来选取符合手部的点集。

几何特征一般包括面积、周长、重心等。而手部可以分为手掌和手指部分, 手掌形状近似于椭圆, 手指为细长的柱体, 因此整个手部的周长面积比会与其他物体有所区分, 所以根据周长面积比将手部从背景中提取出来:

面积:指物体区域包含的像素数, 用符号s表示。

周长:物体轮廓线上像素间距离之和, 用符号c表示。在进行周长计算时, 需根据像素间的连接方式, 分别计算距离。像素间距离可分为并列连接像素与倾斜连接像素。并列有上下左右四个方向, 像素间距离为1;倾斜方向有左上、左下、右上、右下, 其像素间距离等于单位正方体的对角线长度。本文中先获取二值图像的边缘信息, 再使用8向链码求周长。

周长面积比:用r表示, r=c/s。

求得所有样本的面积周长比后, 通过统计建立规则, 并排除异常数据。设h表示点集, hand表示手部, handrule表示手部点集所必需满足的规则, noise表示噪声, s.t.表示满足, 则最终的手部点集为:

3 手部跟踪

基于计算机视觉的手部跟踪算法具体步骤:

步骤1:第一帧图像预处理。根据上文所述方法进行第一帧的初始化。通过肤色信息和面积周长比特征提取出第一帧图像中的手。为了方便描述手的运动轨迹, 用几何图形来近似表示手部区域, 本文选用包围手部区域的最小椭圆来表示手部, 该椭圆的中心O1表示手部中心点。

步骤2:依次扫描视频的每一帧。对于第n帧, 由于相邻帧的时间相隔较短, 手部不会有太大位移。根据上一帧手部区域的位置, 设置该帧的扫描范围。通过第2章方法, 得出当前帧手部的中心点On。不断重复算法直至视频结束。

步骤3:描绘运动轨迹。从视频最后一帧的中心点On开始, 逆序依次连接On与On-1, 直至视频第一帧的中心点O1, 得到完整的手部运动轨迹。

4 结论

本文所提出的以手部肤色信息为基础的手部跟踪算法, 工程实现上较为简答, 算法效率高, 经试验测试, 能够较为准确地再现手部运动轨迹。同时, 该种方法也具有缺点, 在手部快速移动或做复杂运动时, 算法所描绘的运动轨迹可能会出现断裂, 且该算法对光照敏感, 在过强或过弱光照条件下, 算法的准确性都会受到影响。今后的工作将继续完善本算法, 将尝试以HSI颜色模型进行分析, 考虑引入手部纹理与边缘信息, 减弱算法的光照敏感性, 采用专家系统、智能优化、神经网络、特征降维等高级技术。

参考文献

[1]俞烈彬, 孟凡文.武器装备系统中的人机交互新技术[J].电子世界, 2013 (12) :164-165.

[2]孟艳丽, 郭建.二语演讲中手势功能的实证分析[J].河南科技大学学报 (社会科学版) , 2014, 32 (3) :62-67.

[3]刘晋钢, 刘卫斌, 刘晋霞.Kinect与Unity3D数据整合技术在体感游戏中的应用研究[J].电脑开发与应用, 2014, 27 (11) :7-14.

[4]张蓬, 王晓冲, 陈建义.多自由度机械臂的虚拟现实仿真实现[J].机械设计与制造, 2015 (01) :128-134.

[5]闫庆森, 李临生, 徐晓峰, 等.视频跟踪算法研究综述[J].计算机科学, 2013, 40 (6A) :204-209.

[6]奚吉, 赵晓铃, 张煜东.改进的沃尔什滤波的图像插值算法[J].计算机工程, 2010, 36 (22) :211-213.

[7]张煜东, 吴乐南, 王水花.专家系统发展综述[J].计算机工程与应用, 2010, 46 (19) :43-47.

[8]王水花, 张煜东, 吉根林.群智能算法的理论及应用综述[J].南京师范大学学报 (工程技术版) , 2014, 14 (4) :31-38.

[9]张煜东, 吴乐南, 韦耿.神经网络泛化增强技术研究[J].科学技术与工程, 2009 (17) :4997-5002.

计算机视觉技术 篇9

在作物生长期,害虫的危害是引起作物减产的原因之一。及时地发现和控制害虫,对确保作物的产量和质量具有重要的作用。利用杀虫剂除虫是目前最普遍的除虫方法,但是“地毯式”的大面积喷洒方式与现代农业的绿色发展要求相违背,不但浪费,而且造成环境污染。如果能够针对害虫的地理分布,有选择性地进行喷药,就能在除虫的同时,减少杀虫药的使用,降低污染。要实现智能化喷药,首先要解决的问题就是如何准确、及时地监测害虫信息,并确定出害虫的位置、种类和分布情况等。

目前,农作物害虫的识别方法主要有人工识别法、遥感识别和基于机器视觉的识别法等。其中,由于节省劳动力、精确、快速、自动识别的优点,使得基于机器视觉的识别方法正成为害虫识别领域的研究热点。

1 基于机器视觉的害虫识别技术

机器视觉技术是利用代替人眼的图像传感器获取物体图像,将图像转换成数字图像,并利用计算机模拟人的判别准则去理解和识别图像,达到分析图像和提取被检测物体特征的目的。该项技术是20世纪50年代从统计模式识别开始的,当时的工作主要集中在二维图像的分析、识别和理解上[1]。机器视觉应用系统是在遥感图像处理和医学图像处理技术成功应用的基础上逐渐兴起的,它涉及到数学、光学、生物学、计算机和图像处理等诸多学科的理论知识,是一门新兴的交叉性学科。其研究范围很广,包含了图像处理的绝大部分内容,如图像的增强与恢复、模式识别等。此外,还包括边缘提取,图像分割,纹理分析,形状分析,图像序列分析和三维景物分析的高层次视觉模型和知识的表示、推理、知识库、人工智能等内容[2]。目前,机器视觉技术已经应用于医学诊疗、自动监测和控制、资源探测、灾害控制、智能机器人、远程传感等许多领域,获得了极大的社会和经济效益[2]。机器视觉系统由硬件和软件两部分组成。硬件部分一般包括摄像机、图像采集卡和计算机;软件用高级语言编写,完成图像处理、自动控制等功能。

1.1 利用数学形态学方法进行害虫识别的研究

1.1.1 理论依据

数学形态学是建立在集合代数的基础上,用集合论的方法定量描述集合结构的科学,是一种分析几何形状和结构的数学方法。其基本的形态学算子有腐蚀(erosion)、膨胀(dilation)、开运算(opening)、闭运算(closing)、击中不击中(hit-miss)[3]等。由于害虫的几何特征比较明显,所以在害虫的图像分析和处理中数学形态学方法应用比较多。

1.1.2 研究现状

马骏等[4]首次提出了应用数学形态学进行植物病虫识别,提出一种膨胀和腐蚀的快速算法用于提取病虫骨架特征,根据不同种类病虫骨架的几何矩特征,应用神经网络进行病虫识别;牟少敏[3]以白粉虱为例,对二值化后的图像,利用数学形态学方法中的腐蚀操作,能够将重叠昆虫进行有效的分离;周龙[5]用数学形态学的方法能够清晰、连续地检测到储量害虫的边缘,成功地进行了害虫的特征提取;王庆雷[6]等首次论述了数学形态学特征在昆虫分类上的作用,探讨了用计算机视觉技术较易提取的昆虫的面积、周长、横轴长、纵轴长、形状参数等11项昆虫数学形态特征在不同昆虫分类阶元上的应用可行性和可靠性,从数学形态学角度对同分类阶元的昆虫类群的亲缘关系进行了研究。

1.1.3 关键问题

运用数学形态学的方法进行害虫识别的关键是结构元素的选择和算法的构造。结构元素是具有一定几何形状的集合,在形态变换中起到类似于信号处理中的滤波窗口的作用。结构元素的尺寸大小和结构形状都会影响图像边缘检测效果。小尺寸的结构元素去噪声能力弱,但能够检测到好的边缘细节;大尺寸的结构元素去噪声能力强,但所检测的边缘较粗[7]。而且不同形状的结构元素对不同图像边缘的感应能力不同[8]。对于复杂图像的边缘检测,如果只采用一个结构元素,通常不能产生令人满意的结果。因此,在运用数学形态学方法进行图像识别时,多结构元素的合理选择是研究的关键。

1.2 利用二叉树方法进行害虫识别的研究

1.2.1 理论依据

二叉树方法是模式识别中树决策的一种简单形式,即树的每个节点只有两个分支。二叉树可以把一个复杂的多类问题划分为简单的多个两类问题来解决。二叉树结构分类器简单直观,而且在各节点上可以采用不同的决策规则,设计方法灵活多样,从而可以获得较好的分类效果。

1.2.2 研究现状

杨秀金[9]等对仓储虫形态二项式检索中二叉树方法的应用和含有多科目仓储虫检索与辨别中的二叉树方法的应用进行了介绍;王庆雷[6]等对隶属8目25科的40种昆虫进行了二叉树分类,并以此为鉴别机理,实现了对昆虫自动识别软件Bug Visux的升级。

1.2.3 关键问题

在计算机视觉领域中运用二叉树的方法,主要是在分类和检索上,其关键是树的建立。

1.3 利用人工神经网络方法进行害虫识别的研究

1.3.1 理论依据

人工神经网络(ANN)是由大量的、简单的处理单元(神经元)互联组成的大规模分布式并行信息处理系统,它通过模拟人脑的神经系统组织结构,能够对复杂问题进行有效的求解。由于人工神经网络具有自学习、自适应、自联想功能以及良好的容错性和高度并行性等优点,已在社会生产各方面尤其是模式识别领域得到了广泛的应用。其中,在模式识别领域中应用最广的是BP模型。运用人工神经网络进行害虫识别,主要是利用算法模型进行分类器的设计。

1.3.2 研究现状

目前,利用人工神经网络进行害虫识别的研究主要局限于对储粮害虫的识别上。马骏等根据不同种类病虫骨架的几何矩特征,应用神经网络进行植物病虫的识别;邱道尹[10]等将GA和BP算法相结合来训练神经网络进行储粮害虫的识别,对4类害虫的20个样本进行了识别,识别率较高;张红梅[11]等利用BP模型对储粮害虫进行分类识别,对具有噪声和残缺的图像也能较好的识别;王剑等设计了基于神经网络的水稻三化螟识别系统,能够对静态的三化螟进行图像识别。

1.3.3 关键问题

运用人工神经网络进行害虫识别研究的关键是构建合适的算法。对某种害虫检测合适的算法不一定适合其它害虫的检测。由于害虫的科目、种类繁多,环境信息的多样性,在运用人工神经网络进行害虫的分类识别时,要选择、开发匹配的算法,同时注重与其它的识别方法相结合。

1.4 利用机器视觉技术进行害虫识别的其它方法

以上方法是目前害虫识别领域应用较多的方法,几乎都是对静态图像的识别。基于机器视觉的识别方法还有灰度和二值化、平均值分割算法、迭代阈值分割算法、领域收缩法和中值滤波等方法。随着识别技术的不断发展,其它方法也将会被改进应用到害虫识别领域。

2 结束语

机器视觉技术是一门新兴的交叉性学科,该学科的发展带动了模式识别等相关技术的发展。机器视觉技术在害虫识别上的应用起步较晚,但是发展较快。尽管目前大多数的识别系统还处于对静态图像的识别阶段,但是国外在杂草识别上已经开发出实时自动识别的综合系统[12]。可以断定,在研究人员的不断努力下,机器视觉系统在害虫识别上的研究也将有突飞猛进的发展。

参考文献

[1]张广军.机器视觉[M].北京:科学出版社,2005.

[2]马玉真,陶立英,王新华.计算机视觉技术的应用[J].试验技术与试验机,2006(1):60-65.

[3]牟少敏.基于数学形态学的重叠昆虫图像分离的研究[J].计算机工程与应用,2003(18):219-220.

[4]马骏,王建华.一种基于数学形态学的植物病虫识别方法[J].深圳大学学报(理工版),2004,21(1):72-75.

[5]周龙.基于数学形态学的储粮害虫图像边缘检测算法的研究[J].微计算机信息,2005,21(4):115-116.

[6]王庆雷,沈佐锐,刘春琴,等.林果病虫害防治技术专家系统的建立与应用[J].农业网络信息,2005(3):13-15.

[7]陶洪久,柳健.基于小尺度的数学形态学遥感图像边缘检测方法[J].武汉理工大学学报(信息与管理工程版),2001,23(4):19-22.

[8]SONG J,DELP E J.The analysis of morphological filters with multiple structuring elements[J].Computer vision Graphics and Image Processing,1990,50:308-328.

[9]杨秀金,刘志.利用二叉树对储藏物害虫进行检索和辨别的探讨[J].郑州粮食学院学报,1996,17(2):29-35.

[10]邱道尹,张成花,张红涛,等.神经网络在储粮害虫识别中的应用[J].农业工程学报,2003,19(1):142-144.

[11]张红梅,范艳峰,田耕.基于数字图像处理技术的储粮害虫分类识别研究[J].河南工业大学学报(自然科学版),2005,26(1):19-22.

计算机视觉技术 篇10

基于视觉的交通监控是计算机视觉中的一个重要的研究方向,拥有广泛的应用前景。对行驶中的车辆进行自动跟踪,能够得到车辆的动态信息,为交通监控提供重要依据。近年来comaniciu等人[1]成功将Mean-Shift算法用于运动目标的跟踪,取得较好的效果,最近基于最大后验概率指标(Posterior probability measure)[5,6]的质心迭代跟踪算法也引起了大家的关注。Mean-Shift跟踪算法通过对图像的颜色特征进行位置加权而引入位置信息,对位于候选目标区域中心的像素赋予更高的权值,离中心越远则权值越小,进而得到含有位置信息的相似度函数,然后引入巴氏系数指标作为模板与候选区域之间相似度衡量的依据。基于PPM的质心迭代跟踪算法是将每个像素的相似度贡献作为密度,候选区域的相似度作为区域质量,通过计算初始候选区域的质心并经反复迭代,从而获得目标位置。该算法无需核函数,迭代计算无需指数运算,降低了计算复杂度。具体算法可以参见文献[1]和[6],应用这两种算法分别对运动车辆进行跟踪试验,并做了对比分析。

2 运动车辆跟踪实验结果对比

实验中Mean-Shift算法采用Epanechnikov核,RGB空间的每个子空间采用16个bin,共使用16x16xl6个bin。PPM算法中取搜索区域长宽大小是目标区域的3倍,大框是搜索区域,小框为跟踪区域,对不同情况的运动车辆做了跟踪实验。

2.1 算法稳定性

本实验序列共500帧,通过图1可以看到PPM跟踪算法始终能够非常稳健地进行跟踪。

同样的序列采用Mean-Shift跟踪算法结果如图2,发现Mean-Shift算法跟踪目标时在第314帧发生了偏移,第352帧重新跟踪到目标。

通过实验可以发现,PPM跟踪算法在稳定性上优于Mean-Shift跟踪算法。本段实验视频是摄像机移动下拍摄的,摄像机存在突然剧烈抖动的现象。当Mean-Shift过程的收敛区域为当前帧中的目标矩形,即当第K+1帧中的目标矩形与第K帧中的目标矩形有相交部分时,则Mean-Shift过程最终寻找到与巴氏系数极大值对应的位置,就是第K+1帧中目标的位置。本实验中由于摄像机的抖动以致当前帧中目标的矩形与上一帧目标矩形不相交,Mean-Shift过程陷入局部最大值,出现目标暂时性丢失,Mean-Shift算法一直在周围区域内搜索,由于模板没有更新,一旦当前目标矩形框和真实目标发生重叠,就会通过连续多帧的迭代重新找到目标。而PPM算法只要抖动后的目标仍然在搜索区域内,那么就能准确寻找到目标,所以能有效抑制摄像机的突然抖动带来的干扰。

2.2 算法精度

本实验采用的序列是基于摄像机移动的情况下采样得到的,跟踪序列为900帧。PPM跟踪结果如图3所示。

Mean-Shift跟踪结果如图4所示。

现将上面两种算法跟踪结果进行比较,从50帧起到190帧,每隔10帧提取两种算法得到跟踪中心坐标,然后与实际中心计算两者的欧式距离,对照如图5所示,数据显示PPM跟踪精度总体上要高于Mean-Shift跟踪。

2.3 算法性能对比

经过多次实验,得出PPM跟踪算法与Mean-Shift跟踪算法性能对比结果,如表1所示。

注:表中3倍,5倍,7倍是指搜索区域的长宽是目标区域长宽的3倍,5倍,7倍。

从表1中可以看出PPM跟踪算法的平均迭代次数虽然比Mean-Shift跟踪算法少,但Mean-Shift跟踪算法时间效率较优。而且PPM跟踪算法随着搜索区域的增大,耗时越大。一般取3倍目标框大小,实时性较好。

3 结语

通过对运动车辆跟踪实验结果可以看出,PPM在对运动车辆跟踪上稳定性、精度要优于Mean-Shift算法,但在实时性上相比较稍差,若搜索区域取3倍目标框大小,实时性能够满足实际需求。

参考文献

[1]Comaniciu D,Ramesh V,and Meer P.Kernel-based objecttracking[J].IEEE Transactions.on Pattern Analysis and Ma-chine Intelligence,2003,25(2):564-577.

[2]Comaniciu D,Meer P.Mean Shift:A Robust application to-ward feature space analysis[J].IEEE Transactions on Pat-tern Analysis and Machine Intelligence,2002,24(5):603-619.

[3]彭宁嵩.Mean-shift可视跟踪中的稳健性研究[D].博士学位论文.上海交通大学,2005.

[4]朱胜利.Mean Shift及相关算法在视频跟踪中的研究[D].博士学位论文.浙江大学,2006.

[5]冯祖仁,吕娜,李良福.基于最大后验概率的图像匹配相似性指标研究[J].自动化学报,2007.

[6]吕娜,冯祖仁.质心迭代图像跟踪算法[J].西安交通大学学报,Dec.2007.

激光技术的全新视觉感受 篇11

显示技术已完成了由阴极射线管显示向以薄膜晶体管液晶显示技术和等离子体显示为主流技术的平板显示器的过渡,目前,显示技术处于多种技术并存、新型显示发展迅速的黄金阶段,宽色域、高分辨、大尺寸、低功耗正成为显示技术的发展方向。“激光显示最突出的特点就是色彩优势,激光显示的色域空间比传统显示技术的色域空间大两倍以上,能更好地再现自然界的色彩。”在谈到激光显示的优势时,毕勇首先提到这一点。在他看来,以投影技术作为未来消费类家庭影院的显示终端,主流很可能是以激光光源为主,激光显示技术的发展前景非常光明。

毕勇,中国科学院光电研究院光电系统工程部研究员,北京中视中科光电技术有限公司总经理,“十一五”国家重点项目总体专家组专家。主要从事全色激光显示技术、大功率全固态激光器系统技术与应用和非线性光学频率变换技术等方面的研究。

毕勇及其团队的研究工作主要集中在四个方面:光源技术,着力研发小型、低成本、高效率的红绿蓝光源模组,研制出了15瓦的光源模组;散斑消除技术,已获得10余种散斑消除技术专利,并开发出散斑测量仪器;在色彩空间坐标系下推导出新的色彩管理方程,使颜色算法从线性节点算法变为非线性映射关系;围绕工程化展开工作,合成了500瓦的激光输出,在高流明激光投影放方面,做到了45000流明的输出,在关键元器件的抗冲击震动、抗高低温存储、抗高低温冲击、防潮等方面做了很多工作,对工程应用有重要意义。

“十一五”规划中,激光显示技术被列为重点专项,毕勇作为“十一五”国家重点项目专家组专家,主持参与了多项重要技术的研发,取得了多项成果:首先,在低成本、大尺寸的激光晶体和非线性光源晶体制备中,将LBO晶体做到1千克以上甚至两千克,比传统的200克大了近10倍;其次,在半导体材料和器件方面,突破了TM模式近红外半导体的设计、开发和制备,完成短波长635纳米的红光半导体器件的研发,解决了我国红光半导体和红外半导体器件的国产化问题,降低了生产成本;第三,激光技术方面,开发小体积15瓦的光源模组,电光转化效率高达16.6%,有利于激光显示技术国产化、构建自己的产业链和产业群;第四,终端产品方面,开发出两款1000流明的激光投影仪和10000流明的激光高亮度投影仪以及65英寸和71英寸的激光电视产品。

虽然我国激光显示研究的技术水平发展迅速,但毕勇也清楚地看到问题和不足。“国内在成果转化和产业化方面,与国外相比,还存在着一定的差距。”他解释说,造成我国激光显示产业化水平较低的主要原因在于,我国对激光显示的研究主要还是高校和科研院所在做,短时间内很难实现以企业为主体,产业化水平较低。因此,毕勇及其研究团队在“十二五”期间的主要目标就是努力搭建激光显示产业群,构建完整的产业链。

计算机视觉技术 篇12

关键词:计算机视觉技术,家禽养殖

计算机视觉系统具有类似人的视觉成像及分析判别系统,其核心思想是用感光元件(CCD或CM O S器件)模拟人眼的视觉感官,采集物体的数字图像,通过各种图像图形算法实现识别目标的任务。

相对于人而言,计算机视觉技术有以下几个优势:客观性更强、运算速度更快、处理的信息量更大、能够连续长时间工作、准确度更高、稳定性好等。

计算机视觉的主要研究内容是从三维立体场景映射到二维平面图像中,并提取出对图像分类贡献率最高的信息:例如屋内移动机器人前方的障碍物,目标的颜色,目标的轮廓,目标的位置等[1]。

计算机视觉技术是一个跨学科的领域,目前已广泛应用于农业与畜牧业等很多领域。

1计算机视觉技术简介

计算机视觉技术又称机器视觉,起源于20世纪50年代[2],至今已有60多年的发展历程。

如图1所示,计算机视觉系统主要由光源、相机、图像采集卡和计算机等组成。

相机对鸡只的行为特征进行即时采集,获取其视频流;图像采集卡将相机采集的视频流通过光电信号转换,得到可以用于计算机进行分析处理的数字信号,为后期图像处理做准备。

光照系统为相机提供稳定的光照环境,保证获取目标物的图像清晰。

2计算机视觉技术在家禽养殖中的应用

2.1家禽行为识别与分类

家禽行为是最容易观察到的家禽应对环境变化的反应,对于家禽家畜等动物来说,当它们的机体出现不适时,它们无法直接向人类描述,只有出现比较严重症状、甚至是死亡时才会被人们发现。不过这个过程中它们的一些行为变化信息已经反映出这种状态。利用图像处理技术自动识别动物行为方式具有不打扰动物、实时、连续、客观的优势,应用前景非常广阔。

A ydin等[3]及K ristesen[4]等利用图像处理技术展开了针对鸡群群体活动水平及单只畜禽走路姿态的研究。L eroy等[5,6,7]通过对蛋鸡轮廓椭圆拟合的点分布模型,研究了单只鸡的站、走和抓饶等行为监测。A ydin等[3]利用椭圆拟合的技术,通过视频监测被限制在不用高度笼子中的火鸡在运输途中的行为,来评估运输过程中的火鸡福利状态。

2.2家禽体重预测

体重是家禽生长过程中重要指标参数,它能体现家禽的增长信息、一致性以及饲料转化率。同时,能够根据家禽群体性的平均体重来预测群发性疾病的发生,以挽救企业的经济损失[8]。养殖户可以根据家禽的重量,对比其生长周期的生长曲线,来预测家禽的出笼和屠宰时间。

传统的家禽体重检测方法是从鸡笼中随机挑选出几个代表性鸡只进行称重,并求平均值来预估整个笼子中鸡只的生长信息,这种做法不仅耗时耗力,还不能及时了解家禽生长。利用计算机视觉技术预测家禽体重,有效克服了以上缺点。Mollah等[9]开发了一种新的图像处理算法,提出利用计算机视觉技术对家禽体重进行预估的可行性。Paulo G等[10]的研究中利用图像处理技术,使用图像面积估计肉鸡体重。L.DeWet等[11]利用图像处理技术,分析了肉鸡每日体重的变化情况。

2.3禽蛋产品检测

计算机视觉技术可以检测禽蛋外观、新鲜度、蛋壳裂纹等品质。国内外许多学者开展了大量研究,目前已在实际生产中得到很好的应用。Garcia等[12]通过对鸡蛋的红、绿、蓝(RGB)三个颜色的单通道图像进行形态学提取操作,实现了对鸡蛋的形状和表面缺陷进行检测与分类。饶秀勤等[13]采用HIS颜色空间的H、S、V三灰度图像,对其进行阈值分割并确定H分量分割效果最佳,建立禽蛋重量在线检测模型,检测误差精度到3g。王巧华等[14]以鸡蛋内部颜色信息(H、I、S)与鸡蛋新鲜度为特征,建立BP神经网络模型,模型识别率为90.8%。

3存在的问题

随着计算机视觉技术快速发展和普及,在家禽养殖领域方面的应用将会越来越广泛。但在养殖产业应用中,由于各种原因,存在以下几个问题:

1)家禽养殖业环境复杂,对计算机视觉技术的应用要求高。一般的养殖场环境湿度较大,空气灰尘较多,容易损坏计算机视觉系统的仪器设备,影响仪器的寿命和测量精度。

2)计算机视觉技术应用单一,成套技术设备少。虽然国内外学者在家禽行为监测、禽蛋检测和加工方面都做了大量研究,可是这些研究通常都仅适用于一些狭隘的目标,目前还无法广泛应用到不同场合当中。

3)检测精度有待提高。计算机视觉技术在家禽养殖业中应用研究已有几十年的时间,但目前只有禽蛋品质检测应用最为广泛,家禽的行为监测和重量预估的准确率较低。其中重量预估中,鸡只身体姿态变化对估计结果会有较大的影响,目前的研究中都是将鸡放置在预先设计好的光照箱中拍照,以获得较好的结果。而且不同品种鸡的体重与图像面积模型的通用性没有经过检验,离实际生产养殖还有一定的距离,其硬件条件和软件编制技术都急需提高。

4计算机视觉技术在家禽养殖中的应用前景与展望

随着家禽业的集约化、工厂化、现代化和产业化的发展,越来越多的人开始关注养殖行业的安全和可持续发展。养殖领域也需要与时即进,与自动化、高精度的控制与检测技术相结合。计算机视觉技术将会更多地应用到家禽领域中,其发展方向主要包括以下几个方面:

1)利用计算机视觉技术采集家禽行为数据,建立家禽行为数据库,通过对家禽行为在线实时监测,即时与数据库进行对比,养殖者可以需要随时监测到家禽的身体状况,给予最早、最及时的有效管理和疾病预防。

上一篇:云南民族广播下一篇:基于网格