形貌测量

2024-10-05

形貌测量(共6篇)

形貌测量 篇1

摘要:提出一种基于图形处理器(GPU)的快速傅里叶变换算法和并行处理算法,给出了傅里叶变换分析法的GPU并行实现流程,通过对各像素点进行并行处理,使得处理速度大大加快。GPU和计算机的处理精度和运算速度计算结果表明:GPU能在不降低处理精度的前提下,保证其效率得到很大提升。

关键词:表面形貌测量,白光谱线扫描干涉法,GPU,CUDA

0 引言

随着机械加工精度的不断提高,与表面形貌有关的应用也越来越广泛,表面形貌测量技术在精密加工行业和各类研究领域中的地位显得愈发重要。白光谱线扫描干涉法是表面形貌检测的有效方法,适合于大范围、高精度的测量,但由于图像数据量大,数据处理时间过长,限制了在实时测量中的应用。如何加速数据处理的过程,缩短数据处理时间,提升系统整体的实时性已成为关键问题。

图形处理器GPU可以在较低的成本下,以较快的速度完成科学计算中的并行处理问题,并具有十分明显的加速效果,近年来图形处理器已在诸如光学测量[1]、物理模拟[2,3,4]、科学计算[5,6]、图像处理[7,8,9,10]等领域得到成功应用。

本文介绍一种利用GPU进行数据处理的实时表面形貌测量方法,利用NVIDIA Geforce GTS250图形卡(16个流多处理器,1100MHz)进行数据处理,对比分析了CPU运行下的串行处理算法的运行时间和精度,实验表明基于GPU的数据处理可以得到很好的效果。

1 系统结构

所搭建的表面形貌测量系统主要由白光谱线扫描干涉模块、声光滤光器控制模块、图像采集模块和数据处理模块组成。其系统结构如图1所示。白光源经过透镜发出平行光,经过滤光装置后成为波长呈线性变化的单色光。这束单色光进入类似迈克尔逊干涉仪的系统之中,经过分光镜BS后分为两束,一束打在参考反射镜上,另一束打在被测工件的表面。两束光反射后,重新在分光镜BS处汇聚并产生干涉条纹。干涉图像由CCD采集并存放到计算机中进行处理。

干涉图像上单个像素点的灰度值表征了某一波长下该点发生干涉时其干涉条纹的光强信息。由CCD上某像素点(x,y)探测到的光强可表示为

Ι(σ)=Ι1(σ)+Ι2(σ)+2Ι1(σ)Ι2(σ)cos(φ(x,y,σ)) (1)

φ(x,y,σ)=σ h(x,y) (2)

式中,I1(σ)、I2(σ)分别为由被测工件与参考反射镜反射回来的光线光强;σ为波数;φ(x,y,σ)为干涉信号的相位;h(x,y)为该点处两束反射光的绝对光程差。

由波数改变而引起的相位改变为

Δφ(x,yσ)=Δ σ h(x,y) (3)

可得点(x,y)的绝对光程差h(x,y)为

h(x,y)=Δ φ(x,yσ)/Δ σ (4)

滤光装置可以使得波数呈线性变化,同时CCD的采集过程也是线性的,因此通过求取波数变化Δσ时的相位变化Δφ(x,y,k),就能求得该点的绝对光程差。通过分析整张干涉图像上所有像素点的相位变化得到绝对光程差,以此能描绘出该被测区域表面的形貌特征,以进行下一步的分析和评定,由此可见精确的相位是获得绝对光程差的关键。

本文采用快速傅里叶变换法[11,12]来对光强分布函数进行分析,此时式(1)可改写为

Ι(σ)=a(σ)+12b(σ)exp[2πiσh(x,y)]+12b(σ)exp[-2πiσh(x,y)](5)

a(σ)=Ι1(σ)+Ι2(σ)b(σ)=2Ι1(σ)Ι2(σ)

a(σ)和b(σ)相对于光程差h(x,y)来说是缓变元,其频率远低于后者,故可以在频域上对低频部分进行滤波,将a(σ)滤去。对式(5)做傅里叶变换:

I(f)=A(f)+B(f-h(x,y))+B(f+h(x,y)) (6)

a(σ)过滤之后做反傅里叶变换,并通过对数运算分离相位信息:

log{12b(σ)exp[2πiσh(x,y)]}=log[12b(σ)]+iφ(σ) (7)

式(7)中的虚数部分即为每个波数所对应的相位值。此时的相位值是以2π为周期分布的,并不能直接应用,需要先进行相位的展开运算,通过展开的相位值可以求解该点的绝对光程差。

2 基于GPU的数据处理算法

鉴于上述算法在处理干涉图像时,是对干涉图上的各像素点光强进行分析,而每个像素点之间的处理是相互独立的,故可以采用并行处理的方式对这一过程进行加速。

2.1 统一计算设备架构CUDA[12]

在CUDA架构中,CPU作为主机执行一些复杂的逻辑处理和事务处理,同时作为协处理器的设备端GPU负责执行高度线程化的并行处理任务。CUDA程序就是由主机端的串行执行部分加上设备端并行执行的一系列内核函数组成的。内核函数通过一个线程网格(Grid)来执行。执行内核函数的线程网格包含着两层并行的结构,即线程块(Block)和线程(Thread),线程块之间以及每个线程块中的所有线程之间都是相互独立并可以并行执行程序的。本文的并行处理算法就是通过构建一系列内核函数实现的。

2.2 基于CUDA的GPU并行算法的设计

傅里叶变换分析法的GPU并行实现流程如图2所示。首先,在内存中完成初始化;其次,拷贝到显存运用FFT-IFFT方法滤除多余的光强信号并提取光强分布函数的相位信息;最后,通过求解相位跳变并展开干涉信号相位求取绝对光程差。

(1)对光强分布函数进行快速傅里叶变换。

首先将原始干涉信号进行快速傅里叶变换。

(2)带通滤波。

设计内核函数进行带通滤波将式(5)中的变元a(σ)过滤掉。过滤前后的频率分布如图3所示。

(3)傅里叶反变换。

滤去a(σ)之后,利用CUDA做傅里叶反变换,将信号从频域转换到时域上,此时存在归一化问题,即傅里叶反变换后的值应除以上步FFT的点数才是其真实值。

(4)求取相位信息。

将过滤a(σ)后的信号做对数运算,得到结果的虚数部分即为相位值。这一过程对于每一个波数σ都是独立的,故可以选择大尺度的线程块维度。

(5)求取相位跳变。

由FFT-IFFT法求得的相位呈周期性分布,需对其进行相位展开。在展开之前先求取其相位跳变,分析其相位分布情况。

(6)相位展开。

相位展开原理如图4所示。其表达形式为

φa(z,σ)=φ(z,σ)+2kπ (8)

式中,k为相位周期数。

(7)求取绝对光程差。

展开相位后,得到每个波数所对应的相位值,由最小二乘法拟合出相位分布,根据式(4)求取该像素点对应工件表面的绝对光程差。

3 实验结果分析

3.1 结果比较

基于GPU的相位计算并行处理算法与CPU运行下的CPU串行处理算法进行实验比较。

图5a、图5b所示为150像素×150像素区域CPU和GPU的运算结果;图5c为该块绝对光程差数据的相对误差,其定义为:相对误差=(GPU结果-CPU结果)/CPU结果。

图5c表明,CPU和GPU运算结果相对误差最大仅为1.5×10-6,可以忽略不计。

3.2 加速对比

设计开发了基于GPU的相位计算并行处理算法,并与CPU运行下的CPU串行处理算法的运行时间进行实验比较,见表1。为对比不同数据量下的两种算法的运算效率,分别对多个不同大小范围的图像区域进行处理。处理分为相位求取阶段和相位展开求光程差阶段。

由表1可以得出:GPU加速比随着数据处理数量的增多而增大。在数据量小的情况下内存和显存之间数据搬运的时间没有被GPU运算时间掩盖,使用CUDA进行小计算量的运算是不划算的,只有当并行计算在整个应用中所占的比例较大时,其加速性能才能很好地得到体现。

相位展开阶段的加速比大于相位求取阶段的加速比,这是由于相位展开阶段全部采用速度极快的共享存储器进行并行运算,并且在这个过程中并行算法避免了程序出现共享存储器区冲突问题。

4 结束语

本文基于CUDA提出了表面形貌测量的数据处理算法,经实验表明运算速度比传统的算法大幅提高,其运算精度也可以得到保证。基于GPU的数据处理算法对表面形貌实时测量有重要意义。

参考文献

[1] Zhang S.GPU-assisted High-resolution,Real-time 3-D Shape Measurement[J].Optics Express,2006,14(20):9120-9130.

[2]Hu L,Xuan L,Li D,et al.Real-time Liquid-crys-tal Atmosphere Turbulence Simulator with GraphicProcessing Unit[J].Optics Express,2009,17(9):7259-7269.

[3] Ren N,Liang J,Qu X,et al.GPU-based Monte Carlo Simulation for Light Propagation in Complex Heterogeneous Tissues[J].Optics Express,2010,18(7):6811-6824.

[4]Fang Q,Boas D A.Monte Carlo Simulation of Pho-ton Migration in 3D Turbid Media Accelerated byGraphics Processing Units[J].Optics Express,2009,17(22):20178-20192.

[5]Kang H,YamaguchiT,Yoshikawa H,et al.Acceler-ation Method of Computing A Compensated Phase-added Stereogram on A Graphic Processing Unit[J].Applied Optics,2008,47(31):5784-5790.

[6]Bin H,Tarek T.Acceleration of Spiking Neural Net-work Based Pattern Recognition on NVIDIA Graph-ics Processors[J].Applied Optics,2010,49(10):B83-B91.

[7]Pan Y,Xu X,Solanki S,et al.Fast CGH Compu-tation Using S-LUT on GPU[J].Optics Express,2009,17(21):18543-18556.

[8]Kang H,Yaras F,Onural L.Graphics Processing U-nit Accelerated Computation of Digital Holograms[J].Appled Optics,2009,48(34):H137-H144.

[9]Vinegoni C,Fexon L,Feruglio P F,et al.HighThroughput Transmission Optical Projection Tomo-graphy Using Low Cost Graphics Processing Unit[J].Optics Express,2009,17(25):22320-22333.

[10] Shimobaba T,Sato Y,Miura J,et al.Real-time Digital Holographic Microscopy Using the Graphic Processing Unit[J].Optics Express,2008,16(16):11776-11782.

[11]Sandoz P,Tribillon G,Perrin H.High-resolutionProfilometry by Using Phase Calculation Algo-rithms for Spectroscopic Analysis of White-lightInterferograms[J].Journal of Modern Optics,1996,43(4):701-708.

[12]Kuwamura S,Yamaguchi I.Wavelength ScanningProfilometry for Real-time Surface Shape Meas-urement[J].Applied Optics,1997,36:4473-4482.

形貌测量 篇2

薄壁型钢因其重量轻、强度高、性能稳定等特性而越来越受到人们的关注。目前,国内外对薄壁型钢的三维形貌已经进行了大量的测试试验,其中多采用手工方式控制导杆式位移传感器测量试件表面若干测点,再对测量数据进行处理分析。但是,接触式传感器的探针与被测试件表面直接接触,对试件表面产生划痕之类的破坏,而且接触力对试件产生微小变形,影响测量精度,同时这种测量方式均由操作者手工操作完成,对操作人员的专业技术水平要求比较高,且会造成不同程度的测量误差。

本文研究了一种自动、快速、精确的三维形貌测量系统,该系统采用非接触式测量方法,保证在对试件表面不产生任何损伤的前提下测量试件的三维形貌尺寸,将试件表面的形状和位置等数据生成相应的数据表格,同时建立试件的三维网格模型,为薄壁型钢承载问题试验奠定基础。

1薄壁型钢表面三维形貌测量系统的原理

薄壁型钢表面三维形貌测量系统主要包括计算机、步进电机、滚珠丝杠、直线导轨和激光位移传感器[1]。对本系统的基本要求是:①测量时间短,可编程控制测量路径以及测量的范围和速度;②传感器响应快,一般1 s~2 s就能采集一个数据;③数据存储空间大,由于需要逐点测距,数据量大;④测量误差能控制在一定范围之内,一般为±0.5 mm。本文采用的激光位移传感器型号为OADM 12U6460/S35A,其响应时间<900 μs,线性误差为±(15~350)μm;步进电机为上海固若金电子科技公司的42BYGH250A型步进电机,其径向最大跳动为0.02 mm,轴向间隙为0.1 mm~0.3 mm,步距角为1.8°。可算出步进电机每运动一步,激光位移传感器沿水平方向运动50 μm,可以满足上述要求。

1.1 薄壁型钢表面三维形貌测量系统的测量原理

如何控制测量系统在被测试件表面上自动连续测量曲面轮廓,是本系统的设计关键所在。图1为本系统的机械运动部分原理图。

图1中,激光位移传感器安装在随着滚珠丝杠旋转作直线运动的固定架上,滚珠丝杠与步进电机1连接,在步进电机1带动下作匀速旋转运动;步进电机2与被测试件连接,通过程序控制被测试件作相关运动。试件的运动和激光位移传感器的直线运动相结合,试件的旋转角度确定被测点的极角,激光位移传感器的测量数据为被测点的极径,激光位移传感器的移动距离确定被测点的横向位置,从而精确测得测点的空间坐标。测量系统工作期间,所有的运动均由控制系统控制,同时记录下转动信息。

1.2 薄壁型钢表面三维形貌测量系统的控制原理

测量系统工作时,自动将激光位移传感器移至初始测量位置,首先在计算机中输入相关参数,设定测量路径以及测量的范围和速度。激光位移传感器作水平运动到某一位置后,被测试件旋转一定角度,激光位移传感器对该截面上的若干个点进行测量。该截面测量完成后,激光位移传感器沿水平方向移动一定距离,进行下个截面的测量。完成整个试件测量后,数据保存为Excel文档,为数据后期处理做准备。

图2为测量系统控制原理图。该测量系统可根据操作者的指令控制两个步进电机[2]运动,向数据采集系统发送数据采集命令,将所有点的测量数据和关系数据存入到计算机中。

1.3 求解采样点的空间坐标

由于激光位移传感器只能测量传感器激光发射面到激光反射面的距离,因此必须将测量值转化为各个实际尺寸值[3]。以圆柱薄壁型钢为例,在圆柱上取n个采样横截面,设每个横截面上采样点数为m。图3为某一采样横截面的测量示意图,则采样点的空间坐标可表示为:

pij(ri,θi,zj) i=1,2,…,m;j=1,2,…,n。

其中:ri为圆周上各点到基准坐标的距离,ri=D-di,D为传感器到基准轴的距离,di为激光发射面到激光反射面的距离,undefined为激光位移传感器的采集数据,Umax为激光位移传感器的最大输出值,dmax为激光位移传感器的最大测量距离;θi为各采样点处的角度值;zj为所取横截面的纵向坐标值。

2测量系统试验研究

采用上述测量系统对一圆柱薄壁型钢试件进行表面三维形貌测量试验,并绘制所测表面的三维图形。该试件壁厚为3 mm,外径为160 mm,长度为600 mm。测量前应先对测量试件表面进行网格划分,试件沿周向均匀设定200个测点(间隔1.8°),沿轴向设定41个测点(间隔15 mm),共计8 200个测点。

2.1 试验测量结果

按照图2的系统控制原理图对该试件进行测量,测量完成后分析处理数据,将所得到的数据转换成柱坐标系中的三维坐标[4],测量及转换后的部分数据如表1所示。

将数据从Excel表中导入后处理软件,可得到如图4所示的三维网格曲面。测量结果表明,该圆柱薄壁型钢试件表面总体光洁度较好,但是大约在465 mm处的截面上有一个凹坑,深度为17 mm左右。

2.2 影响测量精度因素分析

影响薄壁型钢表面三维形貌测量系统测量精度的因素包括很多方面:①系统中步进电机的精度直接影响系统水平方向的数据zj和工件旋转的极角坐标值

θi;②测量平台的平面度也是影响测量精度的一个重要因素,它直接影响传感器到基准轴之间的距离D;③测量环境以及被测试件本身的某些特性也会影响测量精度,例如试件表面的颜色若为黑色或是比较暗的颜色时,由于表面对红色激光吸收较大,故传感器接收到的光信息很少,易引起较大的误差,相反,被测表面为白色或接近白色时测量误差较小。

3结论

本文采用激光位移传感器作为测量元件,研制了一套薄壁型钢表面三维形貌测量系统,对该系统的机械原理和控制原理进行了分析和设计。通过激光位移传感器的水平直线运动和被测试件的旋转运动实现对薄壁型试件的表面三维形貌测量,系统中所有的运动均由计算机控制步进电机实现,测量的路径以及数据的采集和存储均由计算机自动控制,因此该测量系统具有非接触、精确、自动、快速等显著特点。

用该测量系统对一试件进行试验,所测数据和生成的三维图形符合被测表面的实际形状,验证了该系统的适用性。

参考文献

[1]李演楷.激光位移传感器输出特性分析及应用[D].长春:吉林大学,2011:6.

[2]王勇.步进电机和伺服电机的比较[J].西部煤化工,2010(12):47-19.

[3]朱万彬,钟俊.激光位移传感器在角度测量中的应用[J].传感器与微系统,2010,29(6):131-133.

形貌测量 篇3

三维形貌测量是使用电子仪器获取被测物体表面三维形貌信息的技术[1]。随着现代科学研究的深入和工业生产水平的不断提高,人们对于物体三维形貌准确测量的需求日益强烈,而基于数字条纹投影的三维形貌测量技术作为新一代非接触式三维形貌测量技术,相比较传统方法有着诸如非接触无损耗、操作和实现简单、实时、成本低廉等优势,已经被广泛应用于工业自动检测、逆向设计、生物医学、文物复制、特征识别等众多领域[2-6]。

基于数字条纹投影的三维形貌测量需要的硬件设备仅仅是一台照相机和一台投影仪,利用计算机设计一组光栅图像通过投影仪投影到待测物体表面,同时用照相机拍摄经物体表面形貌调制后的变形条纹,通过对变形条纹的分析获取待测物体表面的三维数据,如图1所示。

1 测量步骤

基于数字条纹投影的三维形貌测量一般有五个步骤,如图2所示。第一步,搭建测量系统的硬件平台,进行系统标定,确定照相机所在坐标系、投影机所在坐标系和待测物体所在的世界坐标系之间的关系。第二步,合理的设计一组光强呈正弦规律变化的数字条纹图片,通过投影仪将其投射到待测物体上并用照相机拍摄经物体表面形貌调制的变形条纹。第三步,利用条纹分析方法从变形条纹中求解出取值范围被限定在-π 到π 范围内的包裹相位图。第四步,选择合适的相位展开算法从包裹相位图中求解出单调变化的绝对相位。第五步,结合第一步得到的标定参数和第四步得到的绝对相位计算出物体表面的三维坐标。其中,第四步相位展开的效果直接影响最后获取的待测物体表面三维点云数据的准确性,是基于相位测量技术的关键,也是研究者们研究的热点之一,陆续有多种相位展开算法被提出。 其中一类时间相位展开方法因其相位展开结果稳定、展开过程简单、测量范围较宽[7]等显著优点而具有更大的研究价值。但是,传统的时间相位展开算法也存在需要投影和拍摄的图片数目过多,实时性差等缺点,因此,为了最小化投影条纹图片数目即提高测量效率的同时提升测量精度,我们在自己已经提出的基于波长选择的双波长条纹投影相位展开算法[8]的基础上进行了双波长条纹投影三维形貌测量的实现。

2 硬件系统的搭建

为解决传统的基于数字条纹投影的三维形貌测量系统可操作性差和约束过强等问题,S.Zhang和P.huang提出一种新的三维测量系统模型[9],即通过建立照相机图像和投影仪图像的对应关系,使得投影仪可以像照相机一样拍摄图像,即变成一个逆向相机,从而将投影仪的参数标定转化为成熟的照相机参数标定,进而将整个三维形貌测量系统的标定演变成为成熟的双目视觉系统的标定,如图3所示。

这种模型是基于小孔成像原理的,它通过标定确定照相机坐标系、投影机坐标系和待测物体所在的世界坐标系之间的关系[10],新的系统模型无需参考平面,标定过程减少人工操作,对硬件的位置关系要求不严格,且最终得到的是待测物体表面的三维坐标,而不是像传统模型一样只能得到物体表面的高度数据,因此使用较为广泛。

基于以上原理我们搭建了一套基于新模型三维形貌测量系统,如图4 所示。 其中我们利用微软公司提供的以C+ + 类的形式封装了Windows API的类库即MFC,结合USB数字照相机的SDK,通过调用其中的应用程序编程接口API,实现了工业相机的曝光时间、图像增益和AD转换级别等自动调节,并通过控制计算机的桌面显示间接控制了投影仪的投影,从而实现整个测量系统的自动化。

3 基于波长选择的双波长条纹投影相位展开算法[8]

当两组波长分别为λ1和λ2的正弦条纹图片进行投影时,投影图像上的一个像素点(记为yp)投影到物体表面并被照相机拍到,那么照相机拍到的图像(记为照相机图像)上必然有一一对应的一个像素点存在(记为yc),也就是说两幅图像中相位相等的点一一对应。如果投影仪的垂直分辨率为R ,那么投影仪图像相位 Φpi(yp), (i=1,2)可以表示如下:

然而从变形条纹通过条纹分析技术只能得到被包裹的相位图φc1y()c和φc2y()c,它们的范围被压缩在[-π,π)中,而这些相位图又是与各自的绝对相位Φc1y()c和Φc2y()c相关的,具体关系如下:

其中m1(yc)和m2(yc)是条纹阶数,为整数,要从包裹相位图获取绝对相位即要求解条纹阶数。为了与方程组(1)和(2)的表达式匹配进行零对齐,不失一般性,相位图φc1(yc)和φc2(yc)可以平移至[0,2π)。因为相位相等的点一一对应即方程(1)和(2)相等,可以推出式(3)所示的对应关系:

注意到方程(3)的左边可以通过条纹分析技术得到,因为方程的右边必为整数,所以方程的左边也要为整数。 如果方程的右侧数值与m1(yc)和m2(yc)有一一对应的关系,那么方程(3)就揭示了一个从方程左侧的相位图求出条纹阶数的办法。为简化表达,后面的推导将省略下标c。联立方程(3)和相位图的取值范围将得到:

同时,可推出条纹阶数的取值范围:

联合不等式(4)、 (5) 和(6), 从[λ1φ1(y )-λ2φ2(y)]/2π到m1(y) 和m2(y) 的特殊映射关系将建立起来。为了证明这种方法的有效性,我们选择条纹波长λ1=55和λ2=70,投影机垂直分辨率R=768为例进行说明。我们根据不等式(5)和(6)依次取遍所有可能的条纹阶数m1(y) ,m2(y) 的值,再计算出对应的m2(y )λ2-m1(y )λ1值,选出并保留所有符合不等式(4)范围要求的数据,超出范围的去掉。如此可将满足不等式(4)(5)(6)的所有数据用表格的方式罗列出来,如表1所示。

上面这个例子说明了[λ1φ1(y )-λ2φ2(y )]/2π和m1(y )、m2(y) 是存在一一对应的关系,也就是说可以通过每个像素点的相位图的值唯一的确定对应的条纹阶数,那么就能够正确的进行展开相位的操作。所以基于波长选择的双波长条纹投影相位展开算法的实现步骤如下:

1.选择两个符合要求的条纹波长(λ1,λ2),满足条件R≤λ1λ2,其中R是指投影机的分辨率,k是λ1和λ2的最大公约数,以确保m2(y )λ2-m1(y )λ1和一组m1(y) ,m2(y) 是一一对应的关系,并建立如表1所示的查找表;

2.将具有这两个波长的正弦条纹图片投影到待测物体上并拍照,通过条纹分析技术获取包裹相位图φ1(y) 和φ2(y) ;

3.根据相位图计算[λ1φ1(y )-λ2φ2(y)]/2π并四舍五入取整,在第一步建立的查找表中寻找m2(y )λ2-m1(y )λ1数值与其最接近的一行,记录下同行的m1(y) ,m2(y) 值;

4. 根据方程(2)和已得到的m1(y) ,m2(y) 值进行相位展开,恢复两个投影条纹的绝对相位。

4 实验

在图4所示的硬件平台上我们首先完成了系统的标定工作,即设计并制作了黑白棋盘格的标定板,通过分别投影单色光和棋盘格图片拍照,然后利用Jean-Yves Bouguet[11]的照相机标定Matlab工具箱进行照相机的标定,接着将照相机拍摄到的图像转换为投影机“拍摄”的图像,进行投影机和系统标定,最后确定相位和三维坐标间的转换关系。

系统标定完成后设计两个波长为55和70的横向条纹图像,即光强在垂直方向(y方向上)呈正弦规律变化的条纹图片,投影到待测长方体上,通过照相机采集到的变形条纹如图5(a)和(b)所示。对变形条纹用六步相移的条纹分析技术处理得到的包裹相位图见图5(c)和(d)所示。因为该包裹相位图的相位误差约为π/100,小于根据文献[8]计算出来的双波长条纹投影相位展开算法的最大相位误差容限kπ/(λ1+λ2)=π/28,且55×70/5=770大于768满足双波长选择条件R≤λ1λ2/k,因此根据文献[8]的结论可知绝对相位能被正确恢复。图5(e)和(f)即为恢复的绝对相位,从图中可以看出在待测物体表面绝对相位的变化是连续的,因此可以判定这个相位展开的结果是正确的。

为了在后续操作中丢弃无用的背景区域,降低运算量,提高运算速度,我们设计了背景滤波器,如图6(b)所示。图6(a)为待测长方体的照片。因为待测物体表面形貌起伏很小,设计的滤波器可以有效的滤除背景噪声。通过计算,对该长方体进行相位展开的误差率为1.625×10-5。重构的三维视图如图6(c)所示,注意到此实验中我们只做了一个面的三维重构,要精确获得待测物体的三维数据,例如此长方体盒子的长宽高至少需要重构五个面的数据并进行拼合。本实验中利用单面重构,通过测量像素点之间的距离我们初步估算出长方体的长宽高的参数分别为:20.75cm,14.27cm和4.23cm,而用最小刻度为mm的尺子测得长宽高为20.8cm×14.3cm×4.1cm,结果显示双波长条纹投影的三维测量技术是可以准确的进行三维测量和三维重构的。

5 结论

基于数字条纹投影的三维形貌测量技术是目前最有发展前景的非接触式光学测量技术之一。本文在分析了基于双目测量原理的系统的标定方法和基于波长选择的双波长条纹投影相位展开算法的基础上搭建了一套双波长条纹投影三维形貌测量系统,该系统能够实现全电脑控制操作且计算速度快。通过测量实验,验证了该技术的可行性,为快速准确的进行三维测量和三维重构奠定了实验基础。开发自动化的实时三维形貌测试平台有助于三维形貌测量技术向实际应用系统的转化。因此,研制自动化的三维形貌测量和重建实验原型系统有着十分重要的实用价值。

参考文献

[1]SuX.and Zhang Q,Dynamic 3-D shape measurement method:A review[J].Optics and Lasers in Engineering,2010.48(2):191-204.

[2]Luhmann T,Robson S,Kyle S et al.Close range photogrammetry:principles,techniques and applications[M].New York:Wiley&Sons.,2006.

[3]Besl P.Active optical range imaging sensors[J].Machine Vision and Applications,1988,1(2):127-152.

[4]Blais F.Review of 20years of range sensor development[J].Journal of Electronic Imaging,2004,13(1):231-240.

[5]Rocchini C,Cignoni P.Montani C.A low cost 3Dscanner based on structured light[J].Computer graphics forum,2001,20(3):299-308.

[6]Chen F,Brown G,Song M.Overview of three-dimensional shape measurement using optical methods[J].Optical Engineering,2000,39(1):10-22.

[7]Ding Yi,Xi Jiangtao,Yu Yanguang,et al.The height variance range for one frequency fringe pattern profilometry[C].2010Seventh International Conference on Computer Graphics,Imaging and Visualiztion,Sydney,Australia,2010.

[8]Long Jiale,Xi Jiangtao,Zhu Ming,et al.Absolute phase map recovery of two fringe patterns with flexible selection of fringe wavelengths[J].Applied Optics,2014,53(9):1794-1801

[9]Zhang S,Huang P.Novel method for structured light system calibration[J].Optics Engineering,2006,45(8):8360-8368.

[10]Zhang Z Y.A flexible new technique for camera calibration[J].IEEE Trans,2000,22(11):1330-1334

形貌测量 篇4

关键词:大尺寸三维形貌测量,双目视觉原理,全局控制网,平差算法,数据融合

0 引言

近年来, 高精度测量大尺寸物体三维形貌[1]的研究引起了人们的高度重视, 其中, 双目立体视觉装置结合激光扫描装置构成的传感器被广泛应用于三维形貌测量中。但是, 由于受到传感器视场范围[2]的制约, 对大尺寸物体的测量往往不能一次完成, 而是需要将被测物体分割成若干相关联的区域进行分别成像测量, 最终通过特定方法把各个相关的区域拼接[3]成一个整体, 进而实现大尺寸三维形貌的测量。目前使用的拼接方法主要有序列拼接方法和整体拼接方法。因为序列拼接方法会产生较大的累积拼接误差, 所以在精度要求较高、分割区域较多的情况下序列拼接方法实用性较差。相比而言, 利用全局控制点建立全局控制网的拼接方法不会产生累积的拼接误差, 该拼接方法主要基于视差原理以及平差算法[4]获得全局控制点在各测站中的三维坐标, 再通过不同测站中的同名控制点将数据融合, 进而得到全局控制网, 最后利用双目立体视觉装置结合激光扫描装置[5]将每次测量的传感器坐标系下的三维坐标映射到全局控制网中, 完成大尺寸物体的三维形貌测量。

经纬仪测量系统是较早应用于大尺寸测量领域的分布式测量系统之一, 然而使用经纬仪测量系统进行测量之前, 需要进行人工互瞄等比较复杂繁琐的工作, 效率较低, 人为误差明显, 重复精度比较低, 不利于大批量连续作业。另外, 经纬仪整个系统的便携性往往较差[6]。本文提出一种基于全局控制网的三维形貌测量方法, 该方法具有自标定功能, 测量时所有被测控制点采用图像处理技术通过计算机系统获得亚像素级的测量精度, 无需人为识别, 并且最终系统的便携性较好。该方法的图像处理操作能够实现计算机全自动化, 故测量速度快, 且光束平差算法的精度高, 从而保证了该方法具有较高的精度。

1 测量方法概述

基于全局控制网的三维形貌测量方法首先需要在被测物体表面均匀且无规则地放置少量编码点[7]和较多的非编码点[8]用以构建全局控制网, 这些编码点和非编码点统称为全局控制点。利用大视场相机在不同区域对被测物体以及全局控制点成像。通常假设第一个测站坐标系为全局坐标系, 在全局控制点精确配准的基础上利用光束平差技术获得全局控制点在各测站中的三维坐标, 然后再将不同测站中的全局控制点融合到全局坐标系中进行联合平差, 得到全局控制点精确的全局三维坐标, 进而建立起全局控制网;利用非接触测量传感器, 根据双目视觉测量原理对大尺寸被测物体进行局部测量, 利用每次成像视场中至少3个全局控制点获得测量传感器坐标系到全局控制网坐标系的转换关系, 将局部的形貌信息拼接到全局控制网中, 实现大尺寸物体的三维形貌测量 (图1) 。

2 建立全局控制网

全局控制网就是利用特殊反射材料制成的由编码点和非编码点构成的能够反映被测物体三维形貌信息的点状网格。其中编码点有各自独立的特征 (即编码值) , 容易实现同名匹配;而非编码点没有独立的特征, 必须通过特定的方法找到不同图像中同名的非编码点, 才能实现非编码点的匹配。

在大尺寸三维形貌测量过程中, 相机的视场范围相对于尺寸较大的被测物体而言往往很小, 因此对大尺寸物体三维形貌的测量往往不能一次性完成。于是, 就不可避免地需要先对大尺寸物体进行分区域的局部测量, 然后再将测量结果拼接起来。目前使用较为广泛的序列拼接方法是将每个区域的测量结果拼接到与该区域有重叠部分的相邻区域, 进而构成一个新的较大区域;重复上述操作最终将每个区域均与第一个区域实现拼接。当被测物体尺寸很大、分割的区域很多时, 后续区域的测量结果需要经过多次的旋转、平移转换运算才能得到在最初区域坐标系下的测量坐标。由于每进行一次旋转、平移转换运算就会产生一定的误差, 那么进行多次转换运算后必定会产生相当大的累积误差, 从而大大影响测量精度。

而基于全局控制网的大尺寸三维形貌测量方法则可以大幅地减小由多次转换运算而引起的测量误差。该方法是在全局控制网建立的基础上, 通过全局控制点获得每次测量时传感器坐标系与全局控制网坐标系的转换关系。这样只需计算一次旋转、平移转换关系就可以将每次测量的结果拼接到全局控制网中, 进而实现大尺寸三维形貌的测量。由此可见, 该方法既简化了测量过程又有效地提高了测量精度。

2.1 全局控制网建立流程

首先根据对极几何约束[2,4]关系, 通过求得的基本矩阵来实现非编码点的匹配。得到同名的非编码点后, 根据光束交汇原理[4], 利用光束平差技术就可以精确算出全局控制点在各个测站坐标系下的三维坐标。再通过至少3个相同编码点确定各个测站的转换关系, 然后就可以将所有的全局控制点的三维坐标统一起来, 最后利用全局坐标系下所有点的坐标值进行联合平差求得所有全局控制点的精确坐标, 从而建立起一个全局控制网。全局控制网建立流程如图2所示。

(1) 在被测物体表面均匀且无规则地放置全局控制点 (包括编码点和非编码点) , 利用大视场相机, 分别对被测物体的每个区域进行拍摄测量, 测量每个区域时需要选取两个位置分别进行正交拍摄, 并且要保证拍摄时尽量使所需的全局控制点分布在相机的视场中心, 这样可以尽可能地消除由相机镜头的畸变而引起的测量误差。

(2) 对每个区域的4幅图像均采用直方图处理、二值化滤波、质心提取等图像处理方法[4]进行处理, 得到包含清晰特征的全局控制点的测量图像;通过辨别编码点的编码值实现4幅图像中编码点的同名匹配;对于每2幅图像构成的图像对, 利用至少8个同名编码点结合测量图像中编码点的图像坐标求取基本矩阵。因为八点法求得的基本矩阵存在很大的误差, 而且此误差可能导致后续的非编码点的匹配产生错误, 最终使得全局控制网建立失败, 所以需要采用匹配点到各自对应极线距离平方和最小的非线性优化方法对基本矩阵进行优化。优化过程中将八点法求得的基本矩阵作为初值进行迭代;用优化后的基本矩阵结合对极几何约束关系对相应的图像对中的非编码点进行初步粗匹配;为了提高匹配的正确率, 还需要利用3幅图像进行非编码点的精确匹配, 匹配后对非编码点进行全局编号。

(3) 得到精确匹配的非编码点后, 利用非编码点在4幅图像中的图像坐标, 采用光束平差算法, 求得全局控制点在每个测站中的精确三维坐标;为了使每个区域中所有的全局控制点的坐标实现统一, 需要利用每两个测站中公共的编码点在各自测站坐标系下的三维坐标计算出这两个区域的坐标系转换关系, 即旋转、平移矩阵;最终通过所有区域的旋转、平移矩阵将所有的全局控制点的坐标统一到全局坐标系中;选取一定的距离阈值, 将全局坐标系中相互距离小于阈值的控制点融合为一个点, 大于阈值的控制点作为新点加到全局控制网中, 最后进行总体的联合平差运算得到全局控制点精确的全局三维坐标, 从而实现全局控制网的精确建立。

(4) 使用双目视觉测量传感器并结合激光扫描装置, 对被测物体表面的各个区域进行双目视觉测量;利用传感器视场中至少3个全局控制点得到传感器测量坐标系到全局控制网坐标系的旋转、平移转换关系, 进而将测得的被测区域信息拼接到全局控制网中, 实现大尺寸物体的三维形貌测量。

2.2 全局控制网建立的基本原理

2.2.1 确定基本矩阵

对极几何约束关系在两幅图像的非编码点匹配过程中有着重要的作用。其原理如图3所示。

两相机中心C1和C2的连线分别交左右图像平面于极点e1和e2, 全局控制点P在左右两幅图像中的像点为P1和P2, e1与P1的连线lP1称为P2在左图像中的极线, e2与P2的连线lP2称为P1在右图像中的极线。对极线间存在一定的几何关系, 其关系式可以表达为[2]

其中, m表示某幅图像中的一个像点, m′代表其余图像中对应的匹配像点。

基于式 (1) 求得的基本矩阵F存在一定的误差, 需要对求得的基本矩阵F进行优化处理。优化方法是用式 (1) 得到的基本矩阵F作为迭代初值, 利用非线性优化方法得到更精确的基本矩阵F, 优化式为[2]

其中, d (mi, FTm′i) 表示对应匹配像点的极线距离。

2.2.2 全局控制点匹配

通过选取一定的距离阈值得到优化后的基本矩阵之后, 首先利用2幅图像根据对极几何约束求得一幅图像中非编码点在另一幅图像中对应的极线, 选取一个误差带, 把误差带内的疑似匹配点作为粗匹配的结果记录下来;再利用3幅图像对非编码点进行精确匹配, 如图4所示。设空间中一个非编码点M在3幅图像中成的像点分别为m1、m2、m3, 图像1中的像点m1在图像2中的对应极线为l1, 且在误差带h1中的点均为m1在图像2中的疑似匹配点;同理, m1在图像3中对应的极线为l3, 且在误差带h3中的点也均为m1在图像3中的疑似匹配点;图像3中的疑似匹配点在图像2中也有各自对应的极线l2和误差带h2。则图像2中误差带h1与误差带h2公共部分中包含的非编码点即为m1在图像2中精确匹配的同名非编码点。利用这种方法得到所有图像中精确匹配的非编码点。

2.2.3 光束交汇原理与平差技术

非编码点正确匹配后, 就要求得每个全局控制点的三维坐标值。双目立体视觉原理表明, 三维空间中的一个点在两个相机像面中所成的像点分别与对应相机中心的连线一定在空间中交于一点 (图5) , 此即光束交汇原理。该原理也正是光束平差算法的基础。

对于单个相机而言, 由几何比例关系可以得到下面的公式[2]:

式中, (x, y) 为空间点在像平面的成像坐标; (x0, y0) 为像面中心坐标; (Δx, Δy) 为系统误差修正值;f为相机焦距; (X, Y, Z) 为空间点在全局坐标系下的坐标; (X0, Y0, Z0) 为相机主点在全局坐标系下的坐标。

r1、r2、……、r9构成相机坐标系到全局坐标系的旋转矩阵。其中, Δx和Δy分别满足如下关系[2]:

平差解算时引入观测值改正数vx、vy和近似值改正数dx、dy, 则式 (3) 、式 (4) 变形为[2]

全局控制点在所有测站下均满足上述关系式, 故可将所有测站下的全局控制点列出的方程构成一个大规模的方程组, 且空间中一个全局控制点在n幅图像中的像点应满足[2]:

采用光束平差技术可以求解上述大规模方程组, 即把相机的内外参数以及控制点的全局坐标均视为未知量整体, 通过求方程组的优化方法求出未知量。

平差解算时需要有合适的平差初值, 以使迭代运算收敛于最优解。平差初值包括各测站坐标系相对于全局坐标系的转换关系初值以及控制点全局三维坐标初值。其中坐标系转换关系初值可以通过基本矩阵分解求得两个测站之间的旋转、平移转换关系, 而全局三维坐标初值可以利用分解得到的旋转、平移矩阵结合各像面坐标计算得到。获得平差初值后, 就可以通过多次迭代计算出全局控制点在该区域精确的三维坐标。将不同区域中相同的全局控制点融合起来后, 再利用光束平差技术进行联合平差运算就可以得到所有全局控制点精确的全局三维坐标。

3 实验

使用Kodak dcspro14n摄像机和Nikon24mm镜头结合计算机系统对白车身的车盖 (图6) 进行三维形貌测量, 对均匀且无规则地分布在车盖上的全局控制点进行拍摄。实验时, 只需按照上述方法拍摄相应的车盖图像, 其余处理操作无需人工参与, 整个过程能够实现全自动化, 因此该测量方法速度快。最终融合得到的全局控制点如图7所示, 得到的实验数据如表1所示, 其中距离真值是利用V-stars系统测量得到的。

由表1数据可知:距离误差绝对值的平均值为0.0224, 上述距离误差的均方差为0.0226。

4 结论

由实验数据可知, 本文方法的测量精度 (相对误差) 可以在0.01%以内, 且测量计算过程完全自动化。由此可见, 基于全局控制网的大尺寸三维形貌测量方法能够高精度地恢复被测物体三维形貌特征。该方法有效地提高了测量时的拼接精度, 同时使测量变得更加快速简单。

参考文献

[1]Rosin P L.Shape-Measuring the Orientability of Shapes[J].Lecture Notes in Computer Science, 2007, 4673:620-627.

[2]张广军.机器视觉[M].北京:科学出版社, 2005.

[3]Chaneski W.Simplifying Measurement of Complex Shapes[J].Modern Machine Shop, 1998, 71 (2) :48-49.

[4]邾继贵, 于之靖.视觉测量原理与方法[M].北京:机械工业出版社, 2011.

[5]叶声华, 邾继贵, 张滋黎, 等.大空间坐标尺寸测量研究的现状与发展[J].计量学报, 2008, 29 (增刊1) :1-6.Ye Shenghua, Zhu Jigui, Zhang Zili, et al.Status and Development of Large-scale Coordinate Measurement Research[J].Acta Metrologica Sinica, 2008, 29 (S1) :1-6.

[6]周虎.基于视觉的目标跟踪与空间坐标定位系统研究[D].天津:天津大学, 2011.

[7]郑建冬, 张丽艳, 周玲, 等.基于单数码相机自由拍摄的空间点定位[J].航空学报, 2007, 28:1521-1526.Zheng Jiandong, Zhang Liyan, Zhou Ling, et al.3D Target Location with One Single Hand-held CCD Camera[J].Acta Aeronautica et Astronautica Sinica, 2007, 28:1521-1526.

形貌测量 篇5

1 三维点云拼接技术概述

三维点云拼接技术是现代地质检测的主要技术手段之一, 是现代网络计算机空间模拟技术应用的重要体现, 其核心技术主要包括摄像精确技术、图像处理技术、空间拼接技术、曲面构建技术[1]。三维点云拼接技术在应用过程中, 首先通过摄像精确技术对检测形貌进行数据采集, 然后应用计算机数据处理空间进行数据处理, 应用曲面构建技术构建虚拟空间, 最后对不同部分数据模型进行数据处理, 形成三维空间模拟图形。三维点云拼接技术的种类主要包括典型性扫描技术和非典型性扫描技术[2]。依据典型性扫描技术的拼接方式分为坐标式拼接和空间图形拼接, 其中坐标式拼接形式最常用。

2 三维点云拼接技术的应用优势

2.1 立体性

三维点云拼接技术在大尺寸形貌检测中的应用优势包括三个方面, 其一为立体性。三维点云拼接技术应用计算机网络空间模拟技术构建空间模型, 这种抽象空间数据将传统的二维数据模型转化为三维空间立体图像, 使形貌图的结构性更加完整、数据应用的立体性增强, 发挥了三维点云拼接技术在实际地貌检测中的作用。

2.2 数据云储存

其二, 数据云储存。三维点云拼接技术应用计算机系统进行数据空间处理, 使外部空间的使用程度降低, 网络云空间的应用率提高, 从而实现现代形貌检测技术网络存储空间的智能化应用。此外, 三维点云拼接技术对不同部分中数据信息储存实现数据智能化存储, 大大提高了形貌检测数据的准确性和完整性, 提高形貌数据监测应用率。

2.3 数图同步应用

其三, 数图同步应用。传统的形貌检测技术以数据监测为主, 这种数据监测形式需要人工进行检测, 较大尺寸的形貌测量不仅需要耗费较多的人力, 而且检测时间也较长, 制约了我国地貌建筑的长远发展。应用三维点云拼接技术进行检测, 能够简化检测手段, 保障检测数据和检测技术应用水平的进一步提高, 一方面, 三维点云拼接技术的应用可以准确反馈检测数据, 另一方面, 三维点云拼接技术能够科学应用虚拟空间模型, 构建空间图像, 实现大尺寸形貌测量数图同步应用。

3 大尺寸形貌测量三维点云拼接技术的应用

3.1 数据收集

大尺寸形貌测量中三维点云拼接技术的应用主要包括五部分, 第一部分, 数据采集[3]。应用数据采集系统进行数据拼接。当前, 我国常用的几种三维点云拼接技术主要包括精确化摄像机技术、视觉传感技术, 这几种数据采集技术在计算机系统的操作下实施红外线检测定点, 检测系统中半导体技术将红外线监测数据反馈到系统内部, 最终实现地理形貌基础信息的检测, 初步实现对检测形貌数据的收集整理, 为后期三维图形构建提供数据保障。例如, 某大型建筑工程中应用三维点云拼接技术进行形貌检测, 检测系统中应用红外线实施系统定位, 不仅保障了大型建筑施工形貌测量数据的准确性, 同时也提高了地质环境监测的工作效率, 为该工程的顺利施工提供了前期数据保障。

3.2 数据存储

第二部分, 数据存储。三维点云拼接技术与计算机内部数据挖掘管理系统之间相互联系, 能够在三维点云拼接技术进行红外线定点检测后, 依据地貌特征实施数据挖掘处理, 实现了形貌检测数据的系统性存储。智能化数据存储系统的应用与传统数据处理相比, 数据存储的效率提高, 数据处理的基础管理分配技术更准确, 后期形成的三维空间模型更加清晰。同时, 三维点匀拼接技术的应用将整体数据切分为不同层次的小数据, 从系统程序中基础数据存储的主要依据来看, 数据应用的整体逻辑性提高, 云数据存储的层次性更强。例如, 三维点云拼接技术中的数据存储技术在实际程序操作中, 能够对外部检测数据进行智能检测[4], 一旦系统初步检测到数据应用中出现数据不符的情况, 系统会自动给予数据错误信息反馈, 保障了数据应用的准确性。

3.3 数据处理

第三部分, 数据处理。由于数据采用红外线声音感应扫描系统, 实施大尺寸形貌检测扫描, 系统中收集的数据信息资源为声音图像, 为了使后期形成的数据监测图像更加清晰, 对数据声波中的噪音等数据信号进行处理。一方面, 数据处理步骤能够对后期应用的数据资源实施净化处理[5];另一方面, 应注重分析后期图像形成后, 数据变动的空间, 充分发挥网络三维点云拼接技术的空间灵活应用特征, 实现了大尺寸形貌检测技术应用中整体构造与部分的灵活应用。

3.4 图像拼接

第四部分, 是三维点云拼接技术中最主要的技术应用部分, 这一部分的构成主要包括两方面, 一方面为部分空间虚拟坐标应用技术。依据国内外三维点云拼接技术分析研究得出结论, 三维点云拼接技术的最初形态是从数据转化为独立的空间模型, 这种空间数据模型之间存在着数据链接, 保障不同部分的数据不会丢失。第二方面为综合性拼接技术。数据图像拼接技术应用中, 依据各部分之间的数据链接将不同部分的图像拼接成为整体, 形成完整的数据应用系统, 实现了系统的整体性特征。例如, 某地质检测中心对某地区的地质资源进行检测[6], 这种检测技术的应用, 将大型地质检测系统划分成不同的子系统, 最终完成数据拼接, 实现了地质检测系统中数据管理的完整性和逻辑性特征, 推进我国地质检测应用技术的进一步创新。

3.5 图形复原

第五部分, 图像复原技术[7]。主要从图像的清晰程度和图像的数据准确性两方面入手进行分析。应用曲线平滑处理技术, 系统中数据资源进行内部图像平滑处理, 从人的视觉感官上达到清晰的程度, 提高三维点云拼接技术的实际应用作用。同时, 图像复原技术应用过程中, 为三维空间模拟数据图形的数据变化提供了可变动数据虚拟模型处理功能, 技术操作人员应用三维点云拼接技术处理图像时, 可以基于现有的空间模型实施空间建设, 实现了三维点云拼接技术的灵活应用。

4 大尺寸形貌测量三维点云拼接技术应用中遵循的原则

4.1 整体性原则

大尺寸形貌测量三维点云拼接技术应用中应遵循以下几个原则, 第一, 整体性原则。三维点云拼接技术是在计算机网络空间分析的基础上将较大型的形貌切分成多个子部分[8], 然后再将不同部分数据转化为空间模拟图像。技术人员应用三维点云拼接技术时, 应从最终形成的拼接图像整体入手, 把握整体特征的基础上, 进行不同部分的分析, 遵循整体原则, 避免出现以偏概全的数据分析情况, 提高三维点云拼接技术应用的准确性。

4.2 局部数据精确原则

第二, 局部数据精确原则。大尺寸形貌测量三维点云拼接技术是应用现代网络拼接技术将一个大型整体切分成不同层次的小数据, 在这些小数据构成的数据图形的基础上进行数据重组, 最终实现图像三维空间图像综合应用, 技术人员应用三维点云拼接技术时, 应遵循局部数据精确原则。三维点云拼接技术的应用只有各个子系统中数据分析的准确性得到保障, 系统最终形成的图像才具有较高的清晰度, 大尺寸形貌测量三维点云拼接技术才能够发挥实际作用。

4.3 实用性原则

第三, 实用性原则。三维点云拼接技术应用网络通讯技术对监测数据实施全程监控分析, 保证系统应用图像的清晰程度和数据的准确性, 从而使数据三维空间模型建立能够为地质检测提供准确的、科学的、合理的检测数据, 为大型地质检测提供可靠数据资源, 发挥三维点云拼接技术的优势, 推进技术的进一步深入应用与发展, 体现大尺寸形貌测量三维点云拼接技术研究的意义。

5 结语

三维点云拼接技术是一种新型形貌检测技术, 结合计算机智能数据监测处理系统, 将较大的外部空间切分成不同子部分实施数据分析, 将分析完成的数据整体构建成为三维空间模拟图像, 为地质建设提供准确的数据和立体空间模型, 实现了数形结合的技术分析模型, 推进科学技术在社会建设发展中应用程度的进一步加深。

参考文献

[1]谭启蒙.基于视觉定位跟踪的大型机械部件数字化对接关键技术研究[D].北京:北京邮电大学, 2012.

[2]葛云峰.基于BAP的岩体结构面粗糙度与峰值抗剪强度研究[D].北京:中国地质大学, 2014.

[3]刘旭冉.微磨削锥塔结构Si表面的自适应方向检测与加工精度评价[D].广州:华南理工大学, 2014.

[4]王超.基于角度扫描法的大口径非球面高精度测量方法研究[D].北京:北京理工大学, 2015.

[5]陆子渊.基于结构光3D扫描的数据反求及处理研究[D].南京:南京师范大学, 2014.

[6]魏新国, 刘涛, 刘震.基于平面圆靶标的三维数据拼接[J].光学学报, 2013 (2) :137-143.

[7]韩建栋, 吕乃光, 王锋, 等.采用光学定位跟踪技术的三维数据拼接方法[J].光学精密工程, 2009 (1) :45-51.

形貌测量 篇6

关键词:机器人,三维形貌,自动化测量

三维形貌自动化测量系统是制造业的一部分, 它使制造业在一定程度上得到了发展。在传统工业制造的过程中往往会出现以下问题, 即需要测量的构建结构复杂, 能够运用的方式也很少。而基于机器人的三维形貌测量系统则在很大程度上改进了测量方式。

1 三维形貌测量技术概况

1.1 三维形貌测量技术的现状

要想了解基于机器人的三维形貌自动化测量系统, 对三维形貌技术的探究必不可少。三维形貌的第一步是建立物体坐标, 在物体表面获取被测点的三维坐标。根据传感器的不同反应方式, 将探测头分为两种, 一种是可接触模式, 一种是不可接触模式。在三坐标测量机的使用过程中, 接触式是非常常见的。它是沿着机械的纵向坐标轴进行导轨式运动, 根据三维运动的数据探测点对系统进行归位。三维形貌技术的优点则是测量的精准性高, 在探针逐渐移动的过程中检测物体的效率。由于地貌会对物体表面产生一定的影响, 所以, 测量物体的针对性特别强, 它能够深入硬性的物体当中。但是, 不太适用于软性物质的测量。例如, 关节式坐标测量机是非常小的, 它的好处就是方便工作人员随身携带。但是, 正因为它的体积太小, 决定了它的受用范围不是很大。它只能在固有的范围内进行测量, 可测量的面积与体积相对较小。非接触式测量主要分为两种, 一种是光学方式的, 另一种则是非光学方式的。光学法的应用范围相对广阔, 它主要能够根据自有结构进行调节, 对光厂内部的机器扫描形式进行深化。因为光厂中具有相关的三维数据, 所以, 它能够通过坐标轴在空间上进行调制。

1.2 三维形貌测量技术原理

从三维形貌的测量原理上来讲, 被动视觉法是主要的技术形式之一。它主要分为两种, 一个是单目, 一个是双目。双目视觉法是非常先进的一种, 也是应用相对广泛的一种。它的基本原理是视觉上的立体差异形成, 将一个视觉观测点作为场景分布的基本规律, 在同一场景下进行角度设置。这样就能够达到两幅图片的细致观察程度, 并且是从不同视角进行的远距离观测, 通过像素之间的固有偏差来获得场景的基本位置。而单目测量法就相对简单, 它将二维透视的图像固定在探测仪上, 以视觉聚焦和视觉分散两种不同效果来探测场景的基本位置[1]。

2 基于机器人的三维地貌测量技术系统分析

2.1 系统构成

基于机器人的三维地貌测量技术系统是将信息化技术结构作为主要平台, 将通信方式作为主要类型, 将拼凑相机作为主要观测途径的先进技术成分。它与传统方式不同的是, 它在统一的流水线完成三维系统的生产检测。并且, 它的时效与速度非常高, 在实现产品效率的同时也提高了在线监测的质量[2]。

基于机器人的三维地貌测量技术系统主要有四个模块, 分别是数据分析模块、信息采集模块、地势拼接模块与控制模块。其中, 视觉监测设施作为基础的衡量部分, 以工业机器人作为主要的拼接平台, 进行仪器检测、区域划分、通讯交流等活动。视觉监测设备是利用探测头进行物体扫描的一种先进手段, 一般来说, 它对相机速率的要求都是非常高的, 扫描仪器与分支辅助结构结合, 将机器人固定在设备的首端, 在测量过程中固定相机的具体方位, 在探测头的背面进行标记。其次, 控制系统也是非常重要的。它对机器人发出测量指令, 当检测信号发出时进行操作运行。一次循环的规则执行后进入初始状态, 在命令的接收点进行规则性录入。第三, 通信系统。当计算机向机器人发出探测信号时, 计算机与通信系统之间会形成探测数据线与信号的接受端口, 在二者调节的状态下进行通信距离输送。这样将减少二者之间的线路, 在集约化的条件下对整体构造进行了重组[3]。

2.2 基本原理测量

视觉探测头是该系统的主要部分, 它在物体表面对三维成影进行三维坐标控制组织规划, 再利用相机对整个部分进行拼接, 达到时间与空间上的平衡。如RA+T=B所示, 相机模型只要在一个位置得到局部区域的成影图像, 就能够获取所有点的云坐标结构分散图, 进而会将这些点进行连接, 得出物体表面的整体地貌。其中针孔模型是最常用的一种, 它是在三维空间上按照地貌的基本形态绘制孔状的节点, 在这些小孔中, 可能会有某些结构与传感器的图像分布规律是一致的, 进而形成互投的形式。在物体通过反射进行投影成像时, 会发现透视镜的焦距与假设过程中的焦距是在同一水平面内的[4], 并且它们之间是吻合的。所以, 能够根据已有的测量节点, 将三维模型中的规律计算出来。

3 基于标记点的机器人三维地貌拼接方法

3.1 拼接原理

在上文中提到, 基于机器人的三维地貌测量方式在拼接上有着一定的应用空间。它主要适用于大型机械设施的曲目测量, 先建立一个实际性的坐标, 在其中取相应的节点作为单位内部的统计成本, 将探测头放入不同的位置进行不同区域的探测。简单来说, 就是在单元坐标轴下将数据进行统一规划。所以, 当要确定最终位置的空间节点时, 应将各自测量的结果结合起来, 以实现准确定位[5]。

3.2 拼接的实现途径

为了满足自动化测量的要求, 要考虑被测点与坐标之间的距离。第一, 将各区域之间的数据换置到相机的拼接成分之中, 将被测点的表面设置成均可见模式, 建立一个基准数据, 将各区域的模块机制统一到基本的拼接平台上[6], 完成多样化的拼接方式。测量过程中利用相机成影的焦点在每一个拼接口处进行注册, 注册的内容就是相机坐标点中的三维信息。由于拼接点与刚性连接条件是有一定顺序的, 所以, 它们的位置是相对集中的。这种拼接方式与机械定位很像, 只不过三维立体坐标方式能够在很大程度上提高测量的精准性, 间接完成各系统之间的转化[7]。基于标记点的拼接方式主要有三点:第一, 在测量前, 要确定探测头与扫描仪器之间的坐标关系。在完成测量后, 要确认探测站中的各小点, 保证拼接相机空间分布的合理性后, 再进行规则性成像设置, 从而达到区域探测到全局探测的目的。第二, 为了实现拼接探测的功能, 探测仪与空间相机的实际接口一定要有所对应。在集合性坐标的连续编码中心进行顺序规划。第三, 对注册口的设计。系统会对注册登记的结果进行整合, 在探测范围进行扩大, 进而将各独立的探测节点连接到一起, 实现拼接方式的灵活性调整。

3.3 标记点的定位与识别

标记点的定位与识别在系统中是非常重要的。进行精确的标记点定位需要考虑以下几个方面。第一, 要增加标记点的个数。增加标记点个数的最大好处就是利于坐标系的转化, 它能够在一定程度上提高定位的精准程度, 也能够使图像的分辨率提高, 加大图像的清晰程度。但是, 标记点的数量不能过多, 过多会使建设位置变得相对混乱, 增加图像的处理难度与空间设置规则。所以, 测量标记点在三个以上五个以下最为合适, 并且每个标记点都要存在于拼接相机之中。第二, 标记点的摆放。为实现系统规模的最大拼接方式, 标记点应在各区域内部进行分散设置, 另外, 应将它贴在拼接相机的背面, 以达到有效的场景测量。另外, 标记点在相机的侧面还能够防止物体被遮盖, 在一定程度上防止检测不到或是检测不及时的情况出现[8]。

标记点的定位就是为了使我们能够准确获取三维坐标, 而改进坐标点与坐标位置的分布原则应从两个方面入手。第一, 设备的硬件方面。在相机使用过程中, 一般运用分辨率比较高的材料进行相机安装。当相机的分辨率已达到最大限度时, 可以将相机的各侧面进行分置, 将像素进行部分分割, 这样就可以在不同的角度观察图像的成影规律, 达到预定目的。另外, 还可以采用精密度非常高的亚像素相机。但在使用亚像素相机之前, 应考虑以下两点。第一, 要规定好前景的空间布局位置, 在各阶段进行点位标注。第二, 前景的立体结构部分要保证原始灰度。简单来说, 就是按照一定的图像处理规则, 使图像的质量得到保证。在这种情况下, 不仅能够使图像的预处理速度达到最高, 还可以将系统中的信息数据进行精准定位, 减少处理时间。

4 结语

综上所述, 本文首先对三维形貌测量技术进行了分析, 进而对基于机器人的三维地貌几大处理方式进行了简述。由此可以得出, 在此过程中基础原理的测量方式与机器人的标记与拼接位置都是非常重要的。只有在标点与拼接相机测试的双重合作之下, 才能完成多测量点与场景之间的转换, 进而达到提高系统可靠性的目的。

参考文献

[1]李学瑞.基于激光双目视觉的焊接机器人波纹板焊缝三维重建的研究[D].广州:华南理工大学, 2014.

[2]车军.基于光栅投影的三维测量技术研究与应用[D].南京:南京林业大学, 2014.

[3]张园.基于工业机器人和w MPS大型自由曲面扫描测量技术研究[D].天津:天津大学, 2014.

[4]赵军.大构件焊缝磨抛机器人视觉测量技术的研究[D].长春:吉林大学, 2014.

[5]黄佳.基于工业机器人的三维激光扫描测量系统研究[D].天津:天津大学, 2012.

[6]胡勇.机器人成形加工可视化系统三维形貌检测技术基础[D].武汉:华中科技大学, 2006.

[7]张明财.投影栅线法形貌测量中系统标定及相位去包裹的研究[D].济南:山东大学, 2008.

上一篇:水质分析中误差的控制下一篇:京剧走进音乐课堂