单目视觉测距

2024-10-11

单目视觉测距(精选7篇)

单目视觉测距 篇1

单目视觉测距技术因其只采用一个摄像机,就能一定程度获得图像中目标的深度等相关信息,因此具有结构简单、运算速度快等特点,从而可应用于汽车防撞系统,机器人自动避障系统等[1—4]。本文在现有测距模型的基础上[2],建立单目视觉测距的几何模型,得出了地面物体实际高度的测量方法。

现有的目标面积测量的方法主要是基于像素当量的[5—9]。文献[5,6]中先将图像分割成目标区域和背景,提取图像目标区域轮廓并标注,计算边界及边界内像素总数,利用像素当量求得面积; 文献[8]利用freeman链码矢量法得到目标的边缘,再对边缘进行标定,然后由联通区域内的像素数和像素当量计算面积; 有文献中利用网格法,根据二值化后图像中目标区域的像素数与参照物相应面积的比例关系计算目标的面积。以上方法的主要区别仅仅是目标在图像中所占的像素量的计算方法不同。依据小孔成像模型,并在分析世界坐标系、图像坐标系与摄像机坐标系三者之间关系的基础上,从而得出一种依据目标实际面积与像面积关系的目标面积测量方法。

1 三维测距原理

首先利用待测摄像头对8 × 8 的黑白棋盘格标定板采集20 帧空间位置不同的图像,然后用摄像机标定程序对摄像机进行标定,并通过多次测量求取平均值的方法,得到较为精确的摄像头内部参数,设dx和dy分别为单像素在x轴方向和y轴方向上的物理尺寸,f为摄像头的焦距。三维测距模型的原理示意图如图1( a) 所示。

图1 中变量设定如下: 世界坐标系中的目标物体与水平地面的交线的中心点的位置为P ; 世界坐标系中目标物体与摄像机镜头到水平地面的垂直投影点的实际距离为D ( 求解时分解为Dx和Dy两个分量) ; CCD板上的图像坐标系为二维空间坐标系,其横、纵轴分别为U 、V轴; 摄像机光轴与地面的交点为Q ; 摄像机光轴与CCD板的交点为( U0,V0) ,可以换算得到中心点的坐标; 目标物体在图像坐标系中的对应位置P'为( U1,V1) 。为了方便得出距离的计算公式,对以上三维示意图进行二维分解如图1 中的( b) 和( c) 所示。

如图1( b) 测距原理示意图1 所示,该图为三维测距模型在摄像机光轴和图像坐标系U = U0轴组成的平面上的示意图。在该平面上,点V0代表光轴在成像面上的实际位置,点V1代表目标物体在成像面上的实际位置的投影点,夹角 β1代表目标物体投影点Py与光轴Q的夹角,目标物体投影点Py与镜头在水平地面上的投影点O1 的距离为Dy。则有下式成立。

测距原理示意图如图1( c) 所示,该图为三维测距模型在L所在直线和图像坐标系V = V1轴组成的平面上的示意图。在该平面上,点U0代表目标物体在成像面上的实际位置的投影点,点U1代表目标物体在成像面上的实际位置,夹角 β2代表目标物体投影点Py与目标物体真实位置P的夹角,目标物体P与目标物体投影点Py的距离为Dx。则有下式成立。

通过上述模型推理得到,世界坐标系中目标物体与摄像头在地面上的垂直投影点的实际距离可以由式( 7) 得到。

当摄像头的高度H已知,物体到摄像头的距离可由式( 8) 计算。

2 测高原理

物体测高示意图如图1( d) 所示,对于待测物体的底端,即在地面上的某点,利用上述测距模型可以得到物体底端到摄像头在地面投影点的距离D0。同时,对物体顶端也利用上述模型计算得到的距离实际为该点与摄像机中心连线的延长线在地面的交点到摄像头的距离,也就是图1( d) 中的R点到摄像头在地面的投影点之间的距离D2。由图1 中可以看出,R点和物体组成的直角三角形和摄像头、摄像头在地面的投影点、R三点组成的直角三角形相似,由式( 9) 可以得到物体的高h的计算公式。

3 面积映射关系

依据摄像机二维像平面中的三维场景投影原理,由小孔成像模型可知,有关系式( 10) 成立。

式(10) 中f为摄像机的焦距; ( x,y) 对应像平面中的点的物理坐标,(Xc,Yc,Zc) 为对应点在摄像机坐标系下的坐标。

通过MATLAB精确摄像机定标工具定标得到的摄像机内部参数dx与dy: dx和dy分别为单像素在x轴方向和y轴方向上的物理尺寸。像平面像素坐标与像平面物理坐标的关系如式( 11) 。

式( 11) 中( u0,v0) 为摄像机光轴与像平面的交点,在不考虑特殊畸变的情况下,一般取图像的中心点。

在空间中任意选取世界坐标系,其与摄像机坐标系总存在着如下关系。

式( 12) 中( Xc,Yc,Zc) 为目标在摄像机坐标系中的坐标,( Xw,Yw,Zw) 为目标在世界坐标系中的坐标,R为3 × 3 旋转矩阵; D为3 × 1 平移向量。

特别地当世界坐标系的选取如图2 所示时,R为单位矩阵,D为( 0,0,d) ,代入式( 10) ~ 式( 12)可得式( 13) 。

对于垂直于光轴的平面内,即Zw= 0 时,

如图3 所示,将目标微分可得:

将式( 14) 代入式( 15) 可得:

式( 16) 中S为待测面的实际面积; s为待测面在像平面中的面积。综上所述,通过以上推导得到的待测面在像平面中的面积与待测面实际面积之间的对应关系,可以较精确地计算出待测面的实际面积。从而避免了使用可能存在误差的像素当量。

4 实验结果及分析

实验环境为: 实验室长廊。设置摄像头高0. 97m,摄像头像素300 万( 2 048 × 1 536 ) ; 经MATLAB精确标定,摄像头焦距2 500( 单位是每米的像素个数) 。采用C ++ 编程实现。

4. 1 测距实验及结果分析

图4 为测距实验图,其中A,B是为了测得图1( a) 的 α 及 β1而标定的参考点,点1,2 是在测试图片中任意选取的测试点。

测距试验结果如表1 所示。由该实验结果可以看出,此单目三维视觉测距的准确性较高,特别是根据已有的先验知识逆向计算获得摄像头实时的角度时( 本实验采用的方法) ,其误差可以控制在5%以内。

注: 参考点A、B的实际距离分别为9. 800 m和34. 450 m。

测距误差的来源主要有以下几种: ①摄像头标定的误差; ②摄像头像素分辨率所引起的实际取点的误差; ③摄像头高度与俯角的误差。第一种误差可以通过标定程序的改进而使算法准确度更高; 第二种误差则可以选取更高像素的摄像头来逐渐弥补; 第三种误差也是对结果影响最大的,可以应用改进的算法来实时准确地求取摄像头的位置角度信息。

4. 2 测高实验及结果分析

A,B是为了测得图1(a)的α及β1而标定的参考点,蓝色竖线标注为需要测高的物体

测高实验结果如表2 所示。由该实验结果可知,本文提出的方法测量物体实际高度的精确度较高,误差在5% 以内。

注: 参考点A、B的实际距离分别为9. 800 m和34. 450 m。

4. 3 测面积实验及结果分析

选取任意形状的一块待测区域,如图6 中( a) ,( b) ,( c) 所示。摄像机位置与参数设置: f = 4 000像素,h = 20 cm。

实验结果( 表3) 显示,用本算法所测得面积平均相对误差为1. 48% ,与文献[4]基于像素当量的方法( 其平均相对误差为2. 43% ) 相比提高了精确度,证实了本方法的有效性和准确性。

5 总结

基于三维测距模型,提出了一种测量地面物体高度的计算方法。为了避免双目视觉中对应点匹配难的问题,同时减少利用像素当量计算面积时产生的较大误差,本文依据小孔成像模型,并在分析世界坐标系、图像坐标系与摄像机坐标系三者之间关系的基础上,计算得出目标面积测量方法。实验结果证实了本测高测面积方法的有效性。由误差分析得出,摄像头角度对测高准确率的影响较大,测面积时摄像头是否与待测面垂直对结果的正确性也至关重要。因此,如何实时得出摄像头角度以及保证摄像头与待测面垂直成为今后进一步研究的重点。

参考文献

[1] Chen Y X,Das M,Bajpai D.Vehicle tracking and distance estimation based on multiple image features.IEEE Computer and Robot Vision,2007:371-378

[2]魏龙翔.基于视频中目标跟踪的行为分析.四川大学,2014Wei L X.Video target tracking based behavior analysis.Sichuan University,2014

[3] Busch A,Palk P.An image processing approach to distance estimation for automated strawberry harvesting.Image Analysis and Recognition.Springer Berlin Heidelberg,2011:389-396

[4] Baudrier,Tajine M,Daurat A.Polygonal estimation of planar convex-set perimeter from its two projections.Discrete Applied Mathematics,2013;161(15):2252-2268

[5]洪英,党宏社,宋晋国.基于图像处理的不规则形体表面积测量方法.计算机测量与控制,2009;17(9):1679-1681Hong Y,Dang H S,Song J G.Image processing based irregular body surface area measuring method.Computer Measurement&Control,2009;17(9):1679-1681

[6]李震,洪添胜,吴伟斌,等.植物多叶片图像目标识别和叶面积测量方法.华南农业大学学报自然科学版,2007;28(3):105-109Li Z,Hong T S,Wu W B,et al.Multi-leaf plants image target recognition and leaf area measurement method.South China Agricultural University Natural Science,2007;28(3):.105-109

[7]郭尚,苏鸿根.基于像素的计算大量连通区域面积的快速算法.计算机工程与设计,2008;29(7):1760-1763Guo S,Su H G.Fast algorithm of the calculation of the area of connected region Based on pixel.Computer Engineering and Design,2008;29(7):1760-1763

[8] Chen B S,Fu Z,Pan Y C,et al.Single leaf area measurement using digital camera Image.IFIP,2011:525-530

[9] Roussillon T,Lachaud J O.Accurate curvature estimation along digital contours with maximal digital circular arcs.Combinatorial Image Analysis.Springer Berlin Heidelberg,2011:43-55

单目视觉测距 篇2

近年来,随着汽车数量的急剧增加,汽车安全驾驶也成为了世界性的社会问题。为保障汽车行驶安全,发展汽车的智能性十分关键,因此世界各国对智能汽车技术的研究和开发投入了大量的人力、物力和财力[1]。相对于传统的超声波、微波和激光等传感器而言,视觉信号具有探测范围宽、目标信息完整、价格便宜,而且更符合人类认知习惯等优势,特别在对前方道路情况的探测等方面,视觉信号具有无可比拟的优势,受到了学者的广泛关注[2]。很多学者试图利用双目或多目视觉技术来收集前方道路信息,但面临的最大难点是特征点匹配问题,实时性、协同性和价格也是必须考虑的问题。因此,基于单目视觉的安全辅助驾驶是当前智能车研究的热点和重点。

基于单目视觉的前方车辆检测方法有很多,但本质都是利用车辆本身特征把车辆从背景区域中分割开来。常用车辆检测方法利用颜色、纹理、阴影、边缘、对称性等特征来检测车辆,具有方法简单、速度快、稳健性强的特点[3,4,5]。但单一特征在复杂场景中存在着局限性。只有联合使用多种车辆特征,融合多线索检测,才能取得良好效果,达到实际应用要求[6]。

基于以上考虑,笔者提出了一种利用车辆阴影和对称性两种特征,进行前方车辆检测的方法。在检测出前方车辆的基础上,利用基于摄像机内部参数和几何关系的单目视觉测距方法得到本车与前方车辆之间的距离。该方法在标准化公路的日间驾驶环境下检测准确,具有很好的实时性和较强的通用性。

1 前方车辆检测

1.1 自适应阈值分割

最大类间方差法(Otsu)是一种聚类的阈值化方法,基于统计理论来寻找阈值。这种方法能最大限度地区分出目标和背景[7]。

通过对道路图像进行分析,车辆阴影区域一般集中在图像下半部分,因此本文只在图像下半部分寻找最佳阈值,这样就排除了大部分背景信息的干扰。公路图像中存在与车辆阴影部分的灰度相差不大的干扰信息,直接使用Otsu法分割效果较差。本文方法可描述为:

1)运用Otsu法对原图像提取阈值T1;

2)利用T1对原图像分类,灰度值大于T1的像素标记为目标,小于T1的像素标记为背景;

3)再次利用Otsu法在原图像中对灰度值大于T1的部分提取阈值T2;

4)用T2对原图像进行二值化,灰度值大于T2的像素设置为1,小于T2的像素设置为0。

本文方法与直接使用Otsu法的图像分割效果比较如图1所示。

1.2 车辆位置的确定

为了取得疑似车辆区域,首先得到疑似区域的位置线条。从图1c的分割结果中可以看到,由于白天光线的照射,在车辆底部有比较明显的阴影区域。这个阴影区域为确定车辆的位置提供了便利。具体步骤为:从下往上扫描二值图像的下半部分(疑似车辆区域),确定垂直方向上由亮变暗的点。当遇上像素点由白变黑时记录下来,否则不是疑似车辆位置,即

利用式(1)对图1c进行处理,得到图2。通过对图2的分析发现,同一辆车会出现多个位置线条,且线条呈现不连续性。对这些情况,可以采用合并阴影的策略,以减少后续不必要的验证。实际道路情况中,两辆车之间不能距离太近。经过实验可知,可以将水平间距在5个像素点内、垂直间距在10个像素点内的阴影合并,如图3所示。经过阴影合并处理后产生清晰的车辆位置线条。当线段长度大于设定的阈值(30个像素)时,就可以认为此线段所在的区域为感兴趣区域(可能车辆区域)。

1.3 验证疑似区域

在确认检测到的车辆之前,应首先获得车辆在疑似区域中的具体位置。本文采用Sobel算子在疑似区域内进行垂直方向的边缘检测,垂直边缘所在列的灰度值相比边缘图像中的其他列会产生较大的突变。为找出垂直方向上的边缘作为候选的疑似车辆外轮廓,在垂直方向上对边缘图像进行投影,得到其灰度值的投影直方图。在直方图中找到左右局部最大值所在位置,以此位置定位车辆的外轮廓。采用与检测垂直边缘相同的方法,检测疑似区域内的水平边缘。得到两条水平线和两条垂直线,构成一个矩形框,即车辆区域,在这个矩形内验证对称性即可确定车辆。

对于道路前方的车辆目标,可以通过验证疑似区域中的灰度对称性来确认车辆。灰度对称性测度定义如下[7]

式中:f(x,y)表示点(x,y)处的灰度值;H和W分别表示待确认窗口的高度和宽度。GS值越小,表明图像对称性越好。实验表明,GS小于0.15时认为检测到的区域为车辆区域。

1.4 车辆检测结果及分析

实验数据为图像大小为640×480的256级灰度视频文件,使用摄像机采集白天的城市与城郊道路。程序用VC语言实现,在一台CPU为Core 2.0 GHz的便携式计算机上运行。部分检测结果如图4所示,图中检测到的车辆用矩形框标记。从实验结果可以看出,该算法能检测出本车前方的大部分车辆。当前方车辆距离本车太远时(大于120 m),由于车辆底部阴影变得模糊,可能会造成漏检,如图4f中的右方车辆。当车距大于120 m时已超过最小安全车距,可以不予考虑。经实际统计,本算法的正确检测率为94.1%,漏检率为4.1%,虚警率为1.8%,完全满足车辆检测正确率的要求。

2 前方车距测量

2.1 测距模型

图像采集是将三维世界坐标平面映射到二维像平面。这个映射一般用几何变换来描述。根据小孔成像模型,可以将单目视觉系统简化为摄像机投影模型,如图5所示。

图5中,平面ABU表示路平面,ABCD为道路平面上摄像机照射到的梯形区域,O点为镜头中心点,OG为光轴,G点为道路平面与光轴交点,I点为O点在路平面上的垂直投影。在路平面中,把G点定义为坐标原点,本车车辆前进方向定义为Y轴方向。G,A,B,C,D各点在像平面中的对应点如图5b所示,a,b,c,d为像平面矩形的4个端点,W和H分别为像平面的宽和高。定义图像矩形的中点g为像平面坐标系的坐标原点,y轴表示车辆前进方向。

设路平面上一点P(Xp,Yp)在像平面内的对应点为P(xp,yp)。利用几何关系,路面坐标与图像坐标之间的对应关系为[8]

其中

式中:W为图像的宽;H为图像的高;h为摄像机的离地高度;2β0,2α0,γ0分别为摄像机镜头的水平视野角、垂直视野角和俯仰角。式(3)为像平面到道路平面的映射关系,式(4)为道路平面到像平面的逆映射关系。

设本车与前方车辆的距离为dr,dr=d1+d2,其中d1为摄像机最近视野到本车前端的距离,d2是由图像上得到的最近视野与前方车辆的距离。求解d2的算法流程如图6所示。

2.2 实验结果及分析

为了验证模型的准确性,用摄像机拍摄了一组图像,测量结果见表1。实验前,首先测量摄像机以下参数:h=1.2 m,俯仰角γ0=89.1°,水平视野角2β0=47°,垂直视野角2α0=32°,摄像机最近视野到本车前端的距离d1=3.2 m,本车到障碍物的实际距离为d′。

实验结果显示,当本车与前车的实际距离在10~60 m的范围内时,测距相对误差在3%以内;当实际距离大于60 m时,误差将逐步增大。这是因为距离值与像素坐标相互对应,像素的离散导致了距离的离散。当距离增大时,相应的一个像素代表的实际距离也将增大,距离越远,距离随像素坐标变化越快,从而误差越大。在标准公路上,车速一般限制在100 km/h以内,安全车距至少为50 m,可见本算法可以满足测距精度的要求。由于利用了世界坐标系和像平面坐标系之间的几何关系模型,所用参数均是摄像机内部参数,因此本算法具有较强的稳定性和通用性。

3 小结

本文研究了智能车辆的一个重要部分,即前方车辆检测和测距。首先在分割出的道路的基础上,获得疑似车辆区域的位置线条信息,然后根据线条的长度和位置信息生成疑似车辆区域,对每个疑似区域内的灰度对称性进行验证,当结果不满足对称条件时,就剔除虚假目标,最后利用基于摄像机内部参数和几何关系推导的单目视觉测距方法得到本车与前方车辆之间的距离。实验结果表明了本方法的有效性和实用性。

参考文献

[1]BERTOZZI M,BROGGI A,FASCIOLI A.Vision-based intelligentvehicles:state of the art and perspectives[J].Robotics and AutonomousSystems,2000,32(3):1-16.

[2]WILLIE D J.Keeping cars from crashing[J].IEEE Spectrum,2001,38(9):40-45.

[3]江登表,程小辉.基于高斯运动模型的车辆检测[J].电视技术,2009,33(8):103-105.

[4]MIKIC I,COSMAN P C,KOGUT G T,et al.Moving shadow and object detection in traffic scenes[C]//Proc.15th International Conference onPattern Recognition,Spain:[s.n].,2000:1321-1324.

[5]徐煜,方向忠.基于运动向量模型的车辆检测[J].电视技术,2007,31(9):74-76.

[6]HEIKKILA M,PIETIKAINEN M.A texture-based method for modelingthe background and detecting moving objects[J].IEEE Transactions onPattern Analysis and Machine Intelligence,2006,28(4):657-662.

[7]DU Qi,XIANG Jianyong,YUAN Chunsheng.An improved Ostu method[J].Infrared Technology,2003(5):33-35.

单目视觉测距 篇3

目标测距主要研究目标二维图像信息到二维或三维笛卡尔空间信息的映射的问题, 是机器人视觉控制技术的重要组成部分。其中, 从二维图像平面到二维笛卡尔空间信息的映射比较容易实现, 而从二维图像信息到三维笛卡尔空间信息的映射则是目前视觉研究的重点[1]。

在基于移动机器人视觉系统的测距技术中, 需要获得目标物体在环境中的三维立体信息, 其主要方法分为基于单目视觉的测距技术、基于立体视觉的测距技术、基于多目视觉的测距技术等。单目视觉测距技术可以仅通过一台摄像机提取的目标图像信息来进行测距, 并且摄像机测距模型的结构与摄像机标定方法相对简单、可靠等优点, 同时可以避免立体视觉匹配难度大等缺点, 是一种简单实用的视觉测距技术。

1 基于单目视觉的目标测距方法

在单目摄像机运动参数已知的情况下, 可以利用运动先后摄像机拍摄的两幅目标图像中的可匹配图像点, 来实现对任意空间中目标物体三维目标位置的测量。另外在单目摄像机的透镜直径已知的情况下, 通过对摄像机的聚焦、离焦来改变景物点的大小, 同样可以实现对目标物体三维位置的测量。本文采用了智能汽车单目摄像头目标测距的一种方法与几何相似算法相融合的方法。

1.1 基于单目视觉的目标测距算法

当机器人在搜索目标物体时, 其单目摄像头会与地面成相对固定的角度。在建立的单目视觉目标测距算法1几何模型中, 其摄像机光心在世界坐标系下投影点为, 利用几何关系可以推导出目标坐标与图像坐标之间的对应关系, 投影原理如图1所示, 地平面上目标物体点为, 其在地平面坐标系的坐标为 (XP, YP) , 目标点在图像平面内的对应点为, 其在像平面坐标系的坐标为 (xp, xp) [2]。

P点的坐标YP值为:

其中求得参数如式 (1) 所示:

在式 (1) 中, H为图像的高, W为图像的宽, h为摄像机的安装高度, 2α为摄像机镜头的水平视野角, 2β为摄像机镜头的垂直视野角, θ为摄像机的俯仰角。利用Y轴坐标的映射关系推导出X坐标为:

单目测距算法1对目标物体测距运算中所得到的数据会产生误差[3], 故采用在机器人所测到俯仰角度的基础上进行正负小角度的微调θ+θi, 其中的θi取0.4°、0.3°、0.2°、0.1°、-0.1°、-0.2°、-0.3°、-0.4°, 将得到的数据进行圆曲线拟合来得到较准确的目标深度坐标。

在机器人单目摄像机距地面高38.2cm, 俯仰角度γ=60°, 目标物体相对于摄像头在世界坐标系平面内的坐标为 (34cm, 23cm) 时, 通过后得到的数据如表1所示:

利用单目测距算法1, 通过仿真实验求出的数据再经过圆曲线拟合后的目标物体Center X=34.5073, Center Y=25.4099, z的大小由目标物体的直径决定。

由数据可以看出利用这种算法求得的三维坐标比目标物体在世界坐标系下的真实坐标偏大。

1.2 基于单目视觉的实时测距算法

经摄像机标定后, 我们可以得到摄像机的内外参数, 并且经过目标物体的检测可以求出景物点P在图像平面内唯一对应的坐标 (u0, v0) 。但单个摄像头获取目标物体图像信息的时候丢失了目标物体的深度信息, 导致目标物体的图像点与空间点不能得到唯一的对应关系[4]。故需要加入一些约束条件来实现单目视觉对空间点的三维坐标的求取。在测距实验设备和实验环境具有以下特点: (1) 地面平整, 使移动机器人的运动可以认为是在同一平面上进行的; (2) 机器人的高度和摄像头的位置固定不变; (3) 摄像头的角度可以精确控制, 并且在测距过程中是己知的[5]。在此基础上建立一个地平面测距模型, 来实现移动机器人的单目测距工作。

单目摄像头与地面成一定角度的时候, 建立测距模型的侧视图如图2[6]所示, 世界坐标系位于地平面上, 其原点O为摄像机光心C在地平面的投影。单目视觉的目标测距所求的即是求解目标物体P在世界坐标系下的坐标 (XW, YW, ZW) :

可求的坐标关系如式2所示:

h为摄像机光心到地面高度, v0为P0光轴在像平面的投影点纵坐标, 为目标点在像平面的纵坐标, 是CCD芯片的横轴放大系数倒数, 是CCD芯片的纵轴放大系数。

在利用单目视觉目标测距算法2的仿真实验中, 经过俯仰角修正后利用在相同的实验环境下对目标进行测距运算[7], 得到的数据再经过圆曲线拟合后求得的目标物体在世界坐标系平面内的三维坐标是 (33.34cm, 22.54cm, 1.9cm) , 这与目标物体在世界坐标系下的真实坐标偏小[8]。

1.3 基于单目视觉目标测距算法改进

运用移动机器人单目视觉测距算法2求得的数据同样也进行俯仰角度的修正后可知这种方法是利用单目摄像机自身的数据以及获取图像中目标物体中心点的坐标以及图像中光心在图像上的坐标结合几何关系求解的, 而方法1则是利用单目摄像机在固定高度拍摄的路面面积作为求解参数结合几何关系进行求解的, 由于两种算法建立的几何模型所使用的参数不同, 故数据上都存在一定的误差,

2 实验结果与误差分析

2.1 单目测距实验及结果分析

在实验室环境下机器人利用自带的单目摄像机采集到的目标物体图像信息传输到控制机器人的计算机上进行图像检测与测距计算, 最后在控制软件中输出获得的目标物体的位置信息。

2.2 实验结果及误差分析

在理想环境下目标物体相对于机器人坐标系的坐标为 (34cm, 23cm, 1.9cm) 情况下, 经过基于移动机器人单目视觉目标测距算法的实验后, 获得的目标物体在世界坐标系下的位置坐标为:XP=33.56, YP=22.88, ZP=1.9。

由此可见, 通过本章测距算法所测得的数据与真实数据有一定的误差, 主要因为: (1) 移动机器人在行走过程中由于震动摄会使摄像机的高度发生变化; (2) 在摄像机标定的过程中对摄像机内外参数的求解时产生误差; (3) 周围环境中的光照、背景信息等因素对单目测距的准确度造成影响。

综上所述, 为了尽可能大的降低由于实验环境及设备对移动机器人单目视觉的目标物体的测距结果的误差, 本文选取了两种几何测距算法数据融合的方法来对目标物体进行测距定位。这种算法考虑到了移动机器人运动过程中的摄像机的俯仰角以及高度变化, 对每种算法在融合前进行了数据拟合, 然后又对两种算法拟合后的数据进行了二次拟合, 进一步降低了数据误差, 并通过实验验证了方法的可行性。

3 总结

本文根据单目视觉伺服系统对目标物体从三维空间与二维平面映射的几何原理, 选取了两种单目几何测距算法数据融合的算法。在本文中分别对选取的两种测距算法进行了几何模型构建、几何公式推导以及仿真实验, 利用圆曲线拟合方法对所测得的目标位置信息进行了降噪分析与处理, 并在此基础上将两种方法所得到的数据进行了二次拟合来进一步降低目标定位过程中的误差, 从而达到较好的对目标的测距定位效果。

参考文献

[1]章毓晋, 图像理解与计算机视觉, 清华大学出版社, 2000:22.

[2]曾素娣.基于单目视觉的测距算法研究[D].昆明:昆明理工大学, 2007

[3]李燕.数码相机对三维空间尺度测距研究[D].昆明:昆明理工大学, 2005

[4]徐德, 谭民, 李原.机器人视觉测量与控制[M], 国防工业出版社, 2008:41-46

[5]王健, 王孝通, 徐晓刚.基于单目机器视觉的船舶测距定位原理研究[J], 中国航海, 2005, 21 (3) :8-10.

[6]胡占义, 吴福朝, 基于主动视觉摄像机标定方法[J], 计算机学报, 200225 (11) :1149-1156

[7]孟小桥, 胡占义, 摄像机自标定方法的研究与进展[J], 自动化学报, 2003, 29 (1) :110-124。

基于单目视觉的行人检测研究 篇4

目前国内外有一些成熟的系统应用, 如德国Daimler Chrysler公司研制的Chamfer系统[2], 通过不同姿势的人体外部轮廓的模板匹配及图像获得的距离信息, 并利用纹理的特征, 采用神经网络方法来确定图像中行人的位置。意大利帕尔玛大学的ARGO实验室采用立体视觉技术确定感兴趣区域[3], 通过模板匹配的方法, 利用行人在垂直方向对称性的特征检测行人。目前ARGO实验室又提出了利用红外立体成像对行人进行检测[4]。

本文以基于机器视觉的技术对车辆前方的行人进行检测和识别。通过对目标区域的对称度特征提取, 快速获取感兴趣区域, 再利用图像处理和模式识别等技术实现行人的检测和识别, 为减少车辆与行人发生碰撞而引起的交通事故提供技术支持。

1 感兴趣区域提取

1.1 图像预处理

由视频序列可知, 彩色图像适于人眼观察, 但是对机器视觉而言, 彩色图像信息量过大, 更多是无用、冗余的信息, 给后续处理造成麻烦。因此, 将彩色图像转化为灰度图像就成为一种必然选择, 灰度图像可以在一定程度上减少信息量携带。在24位彩色图像中每个像素均需要R、G、B这3位来表示图像的色彩信息, 但是在灰度图像中只需一位即可表示图像的亮度信息, 减少了2/3的信息量[5]。对许多算法来说, 灰度图像所携带的信息仍然较大, 且不利于特征的提取, 所以需要对变换后的灰度图像做一个边缘检测, 如图1所示。

对图像进行边缘检测后, 图像信息只保留在一些点和线中, 已将图像中的无用、冗余信息量减到最小, 但是此时图像中的像素均是由一些大小不一的梯度值表示, 这便造成了计算时的困难, 需对其进行归一化处理, 图像二值化则是针对此类问题最佳的解决方案[6,7,8], 如图2所示。

1.2 对图像进行线检测处理

本文所采用的提取感兴趣区域的方式是基于行人纹理特征的高度对称性而言的, 但观察图2可知, 有一些伪目标也具有较强的纹理对称性, 如图像上层的树叶, 它们的分布不均匀, 时而稠密, 时而稀疏, 但都具有很强的对称性, 而且有些地方还连成一片, 严重影响行人对称性特征的使用[9,10]。

因此, 需要一些方法消除这些伪目标的影响或者使伪目标的影响最小化。如图2所示, 可发现一些规律, 即行人的轮廓明显而且连续。基于这一事实, 文中可找到一种方法, 在确保行人特征的前提下还能消除或减弱伪目标的影响, 即对整幅图像进行线检测, 只保留超过一定长度的线条, 这个长度可提前根据实验或经验设定。

通过观察图像中的连续线条, 若像素点连续, 则为如图3所示的几种情况。

已知连续线条的组成情况后, 可根据图像的组成结构, 检测其中符合条件的线条。具体流程如下:

Step1按照列的方式从左往右检测整幅图像, 若在某一列中检测到不为零的像素值, 则按照图3所示的4种顺序检测下一行中是否有相连的像素。如果有, 则转向Step2;如果没有, 则转向Step3。

Step2将下一行中不为零的位置作为首位, 则转向Step1。

Step3判断相连的像素是否大于提前设定的阈值, 如果大于设定的阈值, 则继续向下检测不为零的点, 转向Step1。否则, 转向Step4。

Step4将这一列中已检测过的像素清零, 并继续向下检测不为零的点, 转向Step1, 直至整幅图像被检测完。

线检测后图像如图4所示, 经过线检测后, 基本消除了树叶等不连续伪目标的影响, 只留下具有一定长度的行人边缘, 如行人衣服的花纹边缘, 或车辆等物体的连续垂直竖直边缘。经过事实验证, 线检测可较好地消除一些伪目标的影响, 为后续处理营造了良好的识别环境。

1.3 提取高对称度区域

观察图4可发现, 图像中的行人对称度最高, 充分证明了本文所采用的假设前提, 即基于行人纹理的对称性获取感兴趣区域的正确性。以图像每一列为对称轴, 计算以这一列为对称轴, 在对称轴左右一定宽度内像素的对称度, 具体计算公式根据文献所提供的公式, 并结合本文的实际情况如下

其中, Wmin和Wmax为竖直边缘的搜索宽度, 根据样本图像中行人的宽度确定。SV (k) 为对应第k列的对称性测量, 值越大, 则说明以第k列作为对称轴的对称度越高。图5为提取高对称度区域的图像, 以对称轴表征高对称度区域。

1.4 感兴趣区域最终提取

行人的长宽比符合一定的特征, 即使在图像中因为焦距、目标的远近等问题, 使目标看起来有一些大小变化, 但其长宽比是不变的。由郭烈的论文[5]可知, 行人长宽比的均值一般约为0.4。可以根据此事实依据, 利用图像边缘的突变性, 获得行人可以存在的候选区域

根据图5和行人轮廓长宽比为0.4的事实可知, 虽然图像中只有两条对称轴, 但却存在3个候选区域, 具体如图6所示。

由图6可知, 在获取感兴趣区域后, 会有一些伪目标被识别为行人, 所以还需要利用基于HOG特征的支持向量机统计分类方法对结果进行验证。

2 实验结果及分析

本文利用纹理特征的高度对称性来获得感兴趣区域, 图7为感兴趣区域被单独分割后的图像, 图8为视频序列中第20帧图像的检测结果。

在提取感兴趣区域的过程中, 采用线检测的方法, 可以较好地消除阴影、树叶等的影响。因为纹理特征的局限性, 所以不可避免地遇到了一些问题:如在背景较为复杂时, 尤其是行人被淹没在背景时, 就难以将感兴趣区域提取出来。本文算法还受到遮挡的影响, 若行人的关键区域被其他物体遮挡时, 也难以检测出行人。因采用可见光摄像头, 所以在低能见度和低照度时, 检测效果并不理想。还有就是受基于统计分类方法的局限性, 学习过程完全依赖于特征库丰富程度, 如果特征库中的特征不能代表大多数情况, 则统计分类方法的推广性就会受到较大影响。还有一些在目前行人检测中公认的难题, 如: (1) 如何能更快、更准确地检测, 而且使漏警、虚警情况最少。 (2) 场景复杂多变, 受光照、天气的变换都会对行人检测造成较大影响。 (3) 行人姿态、着装的千变万化, 也是目前行人检测的难题之一。目前所谓的特征库, 不能充分、全面地表征行人。 (4) 行人出现的无目的性、突然性, 对目前的许多方法来说是灾难性的。比如基于摄像机标定的方法, 它通过先验知识去标定行人可能存在的区域, 但又不能规定行人不能出现在什么地方, 所以目前的行人检测系统还需要更进一步地完善。

3 结束语

本文在利用纹理对称度特征的基础上, 提出了线检测的方法。实验表明, 这种方法可在较大程度上降低阴影、树叶等小纹理特征的影响。针对文中所提不足, 下一步研究将寻找更加准确地表征行人的特征, 更快、更好的分类方法, 使检测的速度和准确度进一步提高。

参考文献

[1]贾彗星, 章毓晋.车辆辅助驾驶系统中基于计算机视觉的行人检测研究综述[J].自动化学报, 2007, 33 (1) :84-90.

[2]BROGGI A, BERTOZZI M, CHAPUIS R, et al.Shape-based pedestrian detection[C].Proceedings of the IEEE Intelligent Vehicles Symosium, 2000:328-333.

[3]BERTOZZI M, BROGGI A.Infrared stereo vision-based pedestrian detection[J].Intelligent Vehicles Symposium Proceedings IEEE, 2005 (6) :24-29.

[4]COLLADO J M, HILARAO C, ESCALERA A L, et al.Model based vehicle detection for intelligent vehicles[C].Procs.IEEE Intelligent Vehicles Symposium, 2004:572-577.

[5]郭烈.基于单目视觉的车辆前方行人检测技术研究[D].长春:吉林大学2007.

[6]NAVNEET D, BILL T.Histograms of oriented gradients for human detection[C].Proceedings of the 2005 IEEE Computer Soclety Conference on Computer Vision and Pattern Recognition, 2005 (l5) :886-893.

[7]CORINNA C.Vladimir vpanik.support-vector networks[J].Machine Learing, 1995 (20) :273-297.

[8]DAVID GEROO'NIMO, ANTONIO M, LOO'PEZ.Survey of pedestrian detection for advanced driver assistance systems[J].IEEE Transactions on Pattern Analysis And Machine Inteligence, 2010, 32 (7) :1239-1258.

[9]郑瀚, 韦文斌, 齐子城.机器视觉检测胶囊图像的预处理研究[J].电子科技, 2012, 25 (12) :133-136.

基于单目视觉的道路图像理解综述 篇5

计算机视觉旨在用各种成像系统代替视觉器官作为输入敏感手段,由计算机来代替大脑完成处理和解释,其最终研究目标就是使计算机能像人一样通过视觉的观察和理解,弄清楚外部世界有什么东西,它们在什么地方。基于单目视觉的道路图像理解在移动机器人、自动导引车、辅助驾驶、智能交通系统等领域得到了广泛的应用。

道路图像包含了丰富的周围环境信息,依据不同的应用,道路图像对周围场景给出不同的解释。道路检测是从道路图像中检测出道路区域或道路的边缘,它是道路理解的基础。对于结构化道路(如高速公路场景),道路边缘、车道线的颜色、亮度与路面差异较大,通常使用基于道路边缘的检测方法检测道路。对于边缘不够明显的道路(如越野道路),基于道路边缘的检测方法便不再适用,此时,可以采用基于路面的检测方法检测道路。该类方法是建立在道路区域内特征比较统一,且与背景的特征之间有可区分性的基础上。

本文将着重介绍道路检测方法,并对今后的研究进行展望。

2研究现状

由于缺乏标注数据,早期的道路检测算法通常是针对在线场景,如[1,2]。多数针对在线场景的道路检测算法都假设输入图像的中央底部区域的像素属于道路样本,则该区域像素特征分布可以用于在线训练,进而判别图像中的剩余像素是否属于道路。这种简单的假设在路面条件较简单的情况下比较有效,但是当路面条件较复杂时,图像底部的像素与道路存在偏差,这种假设便不成立,从而导致算法的检测结果很差。

随着一些标准数据库(如Cam Vid[3],KITTI[4,5])的公开,使得利用大规模标注数据训练离线模型成为了可能,因此基于监督学习的离线训练方法开始流行起来。现有的大部分基于离线训练的道路检测算法都是基于图像表面和运动特征训练像素分类器[6]。当遇到与训练场景类似的测试场景时,训练得到的分类器能够较好地检测出道路,使得算法能够保持较好的性能;当遇到不同的场景或受到外界干扰时,训练得到的分类器就会表现出“数据库偏见”[3],从而导致算法的性能急剧下降。

近年来,出现了一些基于在线学习的道路检测算法,如[7,8]。其中文献[7]提出了一种结合在线学习和离线学习的道路检测方法:利用离线标记样本训练学习得到道路模型,该离线道路模型包含了离线样本的一般性信息,当进行在线道路检测时,这些信息能够与在线学习相结合,进而提高道路检测的鲁棒性。

3检测方法分类

迄今为止,虽然衍生出了众多的道路检测方法,但是并没有一种权威的方法对其进行分类。通常情况下,当前视觉导航中的道路检测技术,可以被大概分为下述三类:

3.1基于模型的道路检测方法

基于模型的方法首先假设非结构化道路具有相对规则的路边,根据路边形状建立相应的道路模型。根据所建立的道路模型,然后结合图像特征和视觉模型对道路。进行拟合匹配,求得道路的路边。常用的模型有直线模型、蛇型线模型、抛物线模型、样条曲线模型等[9]。基于道路模型的匹配法可以有效克服路面阴影、污染、光照不均等外界环境因素干扰,但是当道路不符合预先假设模型时,算法就会失效,因此道路模型的选取显得至关重要。

3.2基于学习的道路检测方法

基于学习的方法主要是采用神经网络[10]或自监督的方式,根据车前方一块区域是道路这一假定,然后通过分析其特征来进行其他区域的道路检测。

3.3基于特征的道路检测方法

基于特征的非结构化道路检测算法是目前应用最广泛也是被研究最多的算法。图像特征法在进行道路检测时,利用图像特征上的差异作为其主要思想,主要是指道路标线或边界在形状、纹理、灰度和对比度等方面与其他图像背景之间的特征差异,大部分的计算集中在图像处理以及如何感知分类所利用的特征值上。这种方法的优点是计算较为简单,但外界因素的干扰,比如阴影遮挡、光照变化、噪声、道路边界或标志线的不连续性等都会成为难以跨越的障碍。另外由于各个特征都存在自身的优点和不足,因此同时采用边缘、区域等多种特征是基于道路图像特征检测算法的一种趋势。

4图像特征

在基于视觉的目标检测中,特征选择是关键的一步,特征选择结果的好坏直接影响着分类器的分类精度和泛化性能。常用的图像特征包括颜色特征、纹理特征和形状特征等。

图像的颜色特征被广泛应用于道路检测中,如RGB、HSV等。实际上,道路场景中光照条件的变化会导致道路中经常出现阴影,在这种情况下,仅使用图像的颜色特征就不能很好地描述道路信息。针对这种情况,使用基于颜色特征的光照不变特征,能够改善道路检测结果。

除了颜色特征和光照不变特征,纹理特征也是表示图像的重要视觉特征。纹理结构反映图像亮度的空间变化情况并不依赖彩色和灰度[14],它具有局部与整体的自相似性。纹理是由纹理基元按某种确定性的规律或某种统计规律排列组成的,在纹理区域内各部分具有大致相同的结构。文献和文献[16]分别提取不同的纹理特征用于道路检测。

方向梯度直方图(Histogram of Oriented Gradient,HOG)是通过计算局部区域的梯度方向直方图来构成特征,可以对图像的纹理特征进行描述。最初用在行人检测]当中并且得到了很好的效果,因此在物体检测领域得到了广泛的应用。

颜色特征在光照条件不理想的场景下,不适用于目标颜色与背景颜色相近的情况;在非结构化环境下,道路中有些地方的纹理特征可能与背景纹理特征非常相似,使得提取的纹理特征存在较大的噪声;HOG特征对光照和阴影的适应性强,对图像几何和光学的形变都能保持良好的不变性,但其计算量较大。近年来,为了将各种特征的优势结合起来,组合特征被用于目标检测中,文献[18]中将颜色特征、灰度特征和纹理特征的组合作为路面检测的依据。

5面临的挑战

目前基于单目视觉的道路图像在移动机器人、自动导引车、辅助驾驶、智能交通系统等领域得到了广泛的应用,但仍有很多的问题需要解决:

1) 实际的道路标示线由于磨损而变得模糊,或者被道路上的其他物体所遮挡,或者由于天气等原因光照条件比较差。

2) 结构化道路有着明显的道路标志,易于检测,准确性高。 一般的城市道路、乡村道路从建立道路模型到道路检测与识别跟踪都仍然是富有挑战性的课题。

3) 计算机视觉具有信息量丰富、信号探测范围广、获取信息完整、智能化水平高等优点,激光雷达、GPS、测距器传感器等则可提供精确的检测物方位与距离信息,将其结合起来可以更好地检测跟踪道路。充分利用多个传感器资源,将各种传感器在空间和时间上的互补与冗余信息依据某种优化准则组合起来,可产生对观测环境的一致性解释和描述。

6结束语

道路检测是道路场景理解中十分关键的一步,因为道路既是道路场景中的一大要素,又能为其他任务的完成提供线索。然而,道路检测却是一项极具挑战性的任务,今后的研究仍然需要进一步提高系统的实时性、可靠性、鲁棒性,并且从适合结构化道路转向适合各种自然道路,同时进行多传感器信息融合。

摘要:基于单目视觉的环境感知一直是机器视觉领域的重要研究内容。视觉信息处理技术主要应用于道路检测识别、路标检测识别、障碍检测识别、障碍跟踪及其他传感器的自标定、辅助标定等几个主要方面。道路检测识别是环境感知、场景理解中的关键技术之一。道路图像理解不仅能够从道路图像中理解道路环境、获取未知信息,而且能为其他任务(如行人和车辆检测、路径规划等)提供线索。但同时,基于视觉的道路图像理解也是一项极具挑战性的任务,因为道路场景的检测易受光照、天气、遮挡等因素的影响。

基于单目离面视觉的结构振动检测 篇6

结构振动参数识别及振型检测是结构振动分析的重要内容。传统振动分析方法一般采用单个或多个振动传感器提取结构振动信息[1],检测系统复杂,空间分辨率低,且在一定程度上可能会改变结构的原有动力学特性。视觉测量是一种非接触式振动测量方法,它具有全场测量、不改变被测物的振动特性等优点,在微电子器件自动检测、工业产品质量在线监控以及结构三维形状测量等方面已得到广泛应用[2]。#

视觉测量方法中,基于结构光、单摄像机以及多目立体视觉的测量方法已得到广泛的研究和应用[3,4,5,6,7,8,9]。Jing等[5]利用结构光测量系统,对复杂三维轮廓进行了高精度的尺寸测量并进行了像素级的结构三维轮廓重建。Teyssieux等[6]利用单个高速CCD相机和显微成像系统,实现了MEMS悬臂梁的面内运动位移和高频振动的精确测量。Wang等[7]通过两个高清晰度、高频相机得到结构三维振动散斑图像,利用数字图像相关法实现了结构的全场振动模态、应变等测量。Seungbae等[8]利用高速相机获取PCB电路板的离面振动图像,得到电路板的振动模态信息以及振动幅值随时间变化的分布图。

上述结构振动视觉分析方法,有些需要额外的结构光投射系统;有些需要复杂昂贵的光路系统与高速高精度成像系统;有些则需要进行大量的匹配运算等。本文针对这些问题,提出一种常规成像条件下的离面视觉测量方法,该方法利用单个相机获取结构离面振动信息,结合实验模态分析理论,识别结构振动特征参数和振型。最后进行了悬臂梁冲击响应实验。与ANSYS有限元分析的对比结果表明,所提出方法能够准确有效地实现结构振动分析。

1 离面视觉测量原理

1.1 离面振动成像原理

根据针孔成像模型[10,11,12],给出离面视觉振动检测原理,如图1所示。相机垂直振动方向成像,离面位移造成物距大小的改变,使得成像大小及位置发生改变,通过分析这种成像变化即可获得结构振动特性。

图1中,O为摄像机光心,MM1表示位移前的物体,高度为h,NN1表示位移前相机所成的图像,高度为h′,M′M′1表示向相机靶面位移w后的物体,位移后相机所成的图像为NN′1,高度为H。由相似关系有:

由式(1)可知,随着物距的增加,离面位移引起的测量变量会显著减小。在本文的实际测量中,物距b一般远大于振动位移w,故式(1)可以近似简化为

此时,离面位移量与相机成像的像素位移大小之间成近似的线性关系。

1.2 振动信息提取

边缘特征检测法是一般图像处理问题的关键[13]。一般情况下,边缘信息在图像上呈现出不连续性,如灰度突变、亮度变化等。经典的图像边缘检测方法有Roberts算子、Sobel算子、Laplace算子以及Canny算子等,这些方法主要是使用图像梯度的极大值或一阶、二阶导数来检测图像边缘,通过微分算子模板和图像进行卷积来完成。Canny算子在噪声抑制和边缘检测之间取得较好的平衡,具有很好的边缘检测性能。

如图2a所示,在被测结构上设置具有反差颜色的线状边缘标志,经过图像滤波和Canny边缘提取算法处理得到包含边缘位置信息的图像(图2b)。由图2可知,相邻两帧图像中的边缘位置分别为H1和H2,通过计算每幅图像中边缘线位置的差值ΔH=H1-H2,即可得到线状边缘标志物的运动信息,并根据式(2)获得此时结构的振动信息。

1.3 模态参数识别方法

在模态分析中,通常将系统离散化为N个自由度的模型进行分析[14]。设X=(x1,x2,…,xN)T和F=(F1,F2,…,FN)T分别为系统各点的位移响应向量和激振力向量,X(ω)和F(ω)分别为位移响应与激振力的傅里叶变换,有

其中,H(ω)称为频响函数矩阵,是一个对称阵。

在理想脉冲激励下,系统的输入为F(ω)=[F1F2…FN]T,特别地,当在p点进行单点激励时,有F(ω)=[0…0 Fp0…0]T,则由式(3)得系统第r阶脉冲响应为

其中,rHij(ω)为该点第r阶模态对频响函数的贡献,rX(ω)=[rx1j(ω)rx2j(ω)…rxNj(ω)]T,rxij(ω)为该点第r阶频域脉冲响应函数。由式(4)可以看出,在理想脉冲激励下,由系统脉冲响应rX(ω)得到的模态参数与由系统传递函数rH(ω)得到的模态参数之间相差一个常数。

由模态分析理论知[1],系统归一化的第r阶模态振型向量为

式中,rRij为系统中对应点的第r阶留数值。

本文采用的归一化方法为:以模态振型向量中最大元素取值为1,rRsj为留数向量中的最大值。

当系统各阶模态较为分散时,在实模态条件下,由单模态识别法得系统中各点的第r阶留数值为

其中,ωr为固有频率,ωA和ωB为半功率点对应的频率,即|H(ωA)|=|H(ωB)|=0.707|H(ωr)|,如图3所示。

系统的第r阶阻尼比为

模态振型实质上是指结构上各测点之间的相对位移关系,是一组比值,非绝对量[15]。结合式(4)~式(6)可知,由系统脉冲响应rX(ω)得到的模态振型与由系统传递函数rH(ω)得到的模态振型在进行归一化之后是相同的。

2 实验设计及数据分析

2.1 实验系统

实验系统如图4所示,其中相机为德国Baumer公司的TXG03cCCD相机,最高分辨率为656pixel×490pixel,最高分辨率下的最高帧率为90帧/s。本研究分别采用150帧/s(200pixel×200pixel分辨率)和60帧/s两种帧率模式进行实验。实验中,由于是离面测量,相机应正对xy面放置,相机中心轴与z轴平行。由于相机越靠近固定端,测得的像素位移越小,为了保证一定的分析精度,本实验悬臂梁振动检测点为A点。此外,为了后续数据分析的方便,将悬臂梁A点分析区域固定在相机视场内,实验中相机与悬臂梁之间的距离为35cm。选取拾振点时要尽量避免拾振点在模态振型的节点上,该实验取拾振点为B敲击点处。悬臂梁为长(x向)550mm、宽(y向)30mm、高(z向)3mm的合金铝板,其密度为2900kg/m3,弹性模量为63GPa。在悬臂梁xy面中间,为黑白交界的特征线。

实验中采用的激励装置为橡胶帽脉冲力锤,其频率特性如图5所示,力锤频谱在截止频率fc=75Hz以内是平稳的[1]。

2.2 数据分析

2.2.1 振动频率测量

图6a为140pixel×140pixel分辨率下,帧率为150帧/s时,在B点进行锤击激励,悬臂梁A点的冲击响应时域波形;根据傅里叶变换得其频率响应曲线,如图6b所示;图6c为t=2s时的原始图像。

在悬臂梁上B点位置处加装ICP压电式加速度传感器,使用LabView软件进行悬臂梁在锤击激励下的振动信号测试。ICP压电式加速度传感器型号为PCB-333B45,频率范围为10~3000Hz,灵敏度为51.7mV/(mm·s-1),测量时采样频率为1652Hz。测量数据如图7a所示,根据傅里叶变换得到其频率响应,如图7b。

由系统频率响应得到该试样的一阶、二阶固有频率。表1为该悬臂梁的一阶、二阶固有频率与ANSYS有限元分析的结果对比。由表1可以看出,检测结果与仿真结果基本一致。由于在悬臂梁结构上加装了加速度传感器,故在一定程度上降低了结构固有频率,导致检测频率偏低。对比本文视觉测量方法的数据和传统传感器法的数据可知,视觉测量方法准确有效地测量出了悬臂梁的一阶、二阶振动频率。

2.2.2 振型检测

为了提高振动测量图像分辨率,采用650pixel×200pixel分辨率,帧率为60帧/s进行脉冲激励实验。由于相机视场限制的原因,将悬臂梁在x方向分成3等份(OA、AB、BC),如图4所示,分三次用CCD相机采集每段梁的离面振动图像信息。三次实验中,均在B点脉冲锤击激励。每段梁在特征线上等间距选取13个点作为响应特征点,根据模态参数识别的理论方法,由其冲击响应得到三个一阶振型向量X1(OA段)、X2(AB段)、X3(BC段)。图8为AB段梁的一阶振型向量X2(未归一化)以及点10处的时域响应图和频谱图。图9为三段梁分别在三次激励下所得的一阶振型向量。

由式(5)及式(6)可知,在理想脉冲激励下,系统第r阶振型向量可由各点该阶脉冲响应函数值得到。由图3可知,在60Hz采样频率范围内,脉冲激励频率特性为常数。由式(4)可知,在三次实验中,不同大小的脉冲激励信号(不同大小的fp)对系统响应的影响只是在响应幅值上相差一个比例常数,且结构的振型是连续的,故设悬臂梁的一阶振型向量为

其中,α、β为比例常数。

如图9所示,由OA段数据拟合,得到第一次敲击时点14(A点)的幅值为1.60V;而由AB段,第二次敲击时点14(B点)的幅值A′m=0.73V,于是有α=Am/A′m=2.19;同理可得β=1.70。图10为振型向量校正归一化曲线及其拟合曲线,其中实测一阶振型与拟合振型均方根偏差为1.05%。图11为ANSYS有限元仿真分析得到一阶模态振型向量与拟合实验结果对比,二者的均方根偏差为0.41%。

3 结语

视觉测量方法具有非接触、大范围测量等优点。本文提出一种常规成像条件下的离面视觉测量方法,实现单相机下的结构离面振动分析。通过对悬臂梁实际测量分析,及与有限元仿真数据对比分析可知,该方法能够以较高的精度进行结构固有频率、振型等振动参数的检测。

单目视觉测距 篇7

1桥梁挠度检测技术现状

桥梁的挠度测量方法有传统的和当前流行的两类,传统的测量方法包括精密水准仪法和全站仪法,当前比较流行的方法包括光电成像法,倾角仪法和连通管法等,各种方法的局限和优势见表1。

通过表1格能很清晰的看到光电成像法的优势,结合现在计算机图形学的技术实现桥梁挠度的多点实时监测是现实的,文章提出的基于单目视觉和的挠度测量方法在保证精度的前提下可以满足多点测量的要求。

2基于单目视觉的挠度测量原理

如图1,单目视觉测量系统可以用中心透视投影的原理解释,既是针孔模型,被测量的物体(本文使用自制标志件)表面反射的光线经过一个针孔投射到成像平面上,物像点的大地实际坐标(x,y,z)和对应的相机成像面的坐标(x',y',z')。

在几何光路中构成一定的关系,实际的坐标经过一次的旋转和第二次的平移可以得到其在相机坐标平面的坐标。设三维正交矩阵T1和三维列向量T2分别是旋转和变换的矩阵,则实际坐标和成像面的坐标的对应变换关系如下公式(1)

公式(3)中若已知成像点的计算机图像坐标(xp,yp)和相机的内外参数还需要固定大地坐标系的一个坐标轴,两个方程解两个未知量可得成像点的大地坐标的x和y值,文章设计的基于单目视觉的桥梁挠度检测系统既是通过这种方法最终取得坐标计算挠度值的。

3基于单目视觉的桥梁挠度检测系统

3.1系统的组成

该系统主要由工业面阵CCD、长焦镜头、30mm*30mm的正方形标靶和一套桥梁挠度检测系统软件组成。该系统标靶与桥梁待测点刚性连接,当桥梁待测点产生位移时,与之连接的标靶也随之产生相应的移动。通过工业CCD和长焦镜头高频采集标靶上的数字化图像,CCD和镜头通过三脚架固定与计算机相连,计算机对采集到的图像进行同步处理,计算出图像中标靶A、B、C、D四点的中心坐标的位移,通过换算就可以得到标靶四个点中心点的实际位移,进而得到待测点的实际位移,从而得到桥梁的挠度变化值。以图1为系统原理示意图,图2为该系统所使用的标靶图案标识。

3.2系统的工作原理

3.2.1整个系统的标定

在标靶上有四个标识点,事先我们知道这四个标识点的实际距离和实际坐标,通过计算采集的图像四个标识点的像素距离,得到像素距离和实际距离的转换参数,以便将测量得到的标识点的像素位移转换为实际距离。

转换参数(mm/pixel)=实际距离(mm)/像素距离(pixel)

测量待测点的位移时,可以用四个标识点的中心坐标位移量作为待测点的位移,计算精度更高,实时性比较好。通过计算机实时预览、抓拍、连续保存图片,经过后续处理能够观测待测点的静态位移和动态位移,观测实时数据和曲线。

3.2.2图像处理和挠度数据输出

实际工作环境下,CCD相机捕捉的图像由于受到环境影响(光照,空气折射率),图像会出现失真和噪声,基于HANLLCON开发图像预处理程序去除图像噪声,然后进行图像分割,标志件识别和定位,最终计算出坐标的变化值,既是挠度值。如图3是标志件图像预处理的效果图。

4试验验证

选取真实的桥梁,放置10个标志件,对于每个标志件都连续测量五次,每次时间的间隔为1ms,实验所得的数据汇总如表2。

表中X,Y分别代表被测的标志件的A、B、C、D四个点的坐标平均值,既是标志件中心点的坐标,由实验的数据结果来看,在1000HZ的采样频率下,仍然能够保证1mm的精度,并且在每个点5次采样中每次的数据差距不大,说明进行重复性测量时重复性精度高。

5结论

该桥梁动态挠度检测系统能够以极高频率对桥梁上的多点进行挠度的动态测量,从而可以将桥梁结构的细微变形测量的时间刻度缩小至1毫秒以下,可以更加微观的反映桥梁在动态载荷下的结构变形情况,尤其对于冲击性载荷的快速加载与卸载过程的真实还原有开创性和突破性的技术意义。

参考文献

[1]陈学友.基于摄像测量变形识别方法研究[D].南京:南京航空航天大学,2011:1-10.

[2]叶肖伟.基于机器视觉技术的桥梁挠度测试方法[J].浙江大学学报:工学版,2014,48(5):813-819.

[3]韩亚荣.图像法动态位移监测系统的实现及其工程应用[D].武汉:武汉理工大学,2012:38-40.

[4]周逸.桥梁挠度线型快速测量系统研发[D].重庆:重庆交通大学,2011:3-6.

[5]高雷雨.基于激光图像测量法的桥梁挠度监测系统稳定性研究[D].重庆:重庆交通大学,2010:9-13.

[6]陈洪涛.基于机器视觉的运动参数测试方法的研究[J].机械与电子,2007(10):49-52.

[7]陈洪涛.利用机器视觉的运动参数测试方法的研究[D].长春:吉林大学,2006:15-16.

上一篇:幸福设计下一篇:轻烧氧化镁