立体像对

2024-05-24

立体像对(精选3篇)

立体像对 篇1

1 引言

随着信息科技的发展,对三维建筑物建模和实现城市虚拟现实的需求越来越多。三维虚拟建筑物的实现将对计算机科学以及地球信息科学等诸多领域的前景产生前所未有的巨大影响[1],如三维虚拟城市、机器人智能导航、导弹制导、车辆辅助驾驶等。由于航空影像获取的便捷性、高效性和高信息容纳性,用摄影测量的方法从大比例尺的航空影像获取建筑物的三维几何信息和表面的纹理,是实现三维建筑物建模的有效途径之一[2]。由于视觉计算理论、硬件水平的限制及影像数据的复杂性等原因,从航空影像自动提取建筑物的研究成果已经有很多,但至今尚没有无需人工干预且适用于任何比例尺和影像质量,适用于任何类型的建筑物的实用方法[3,4]。半自动量测和人机交互是解决当前面临问题的可行方法。

为了完成建筑物的三维重建,所需的高精度三维信息,可以通过航空立体像对用图像处理和数字摄影测量的方法来获取。假设建筑物的墙壁是垂直的,那么可以通过提取图像长边界的角点来完成建筑物的重建。这些角点按照一定的顺序相连接组成一个封闭区域,可近似看为建筑物的顶部轮廓。将建筑物顶部的角点映射到地面上,这些映射到地面上的角点和对应的顶部角点相连接就组成了建筑物的侧面轮廓。 本文首先按照一定的顺序(顺时针或者逆时针方向)依次在左航空影像和右航空影像中提取建筑物的顶部角点并对提取出的建筑物的角点进行纠正,然后对影像进行自动定向,最后按照自动定向的结果进行三维坐标的计算并显示三维建模的结果。

2 建筑物角点的提取

建筑物顶部角点的提取采用人机交互的方法,首先在图1的左图上按照顺时针(或者逆时针)方向提取第1个建筑物上的角点,并对这些角点的个数和像素位置进行存储,默认为相邻的两个角点相连,最后一个角点和第一个角点相连。接着在图1右图上按照相同方法进行提取同一建筑物上的角点。然后按照类似方法依次提取其余建筑物上的角点。建筑物的个数、标识符和节点号都进行了存储。人机交互提取建筑物角点时,首先设置特征点选取状态,在选取时鼠标设置成十字状,选取后的角点用“。”表示。建筑物角点提取的结果如图1所示,蓝色“。”表示新提取的建筑物角点,红色“。”表示以前提取的建筑物角点。

3 建筑物角点位置的纠正

对于人机交互方法提取出的建筑物角点位置和实际位置有一定的偏差,这对于三维坐标的计算结果有一定的影响。根据近似点位对角点位置进行纠正。具体方法为:首先自动提取图像上的角点,假定上述人机交互方法提取出的角点为1,2,…,N,而自动提取的角点为a,b,…,M,如果角点i=(i=1,2,…,N)和角点j(j=a,b,…,M)之间的距离小于3个像素,则将角点j的位置赋给角点i,这样就实现了建筑物角点位置的纠正,可以最大限度的减小手动提取角点带来的影响,角点位置也更接近于真实值。本文自动提取的角点为图像上的Harris角点[5]。Harris角点检测通过选取小区域并作出微小位移,由此得到每个像素处的梯度矩阵:

undefined

式中,I(x,y)表示该点灰度级别的强度,当在某个点上矩阵M(x,y)的两个特征值都很大时,那么在任何一个方向上的一个很小的移动都会导致灰度级别的一个很大的改变,这就表明该点是一个角点。通过提取特征值λ1和λ2计算角点响应函数:R=λ1λ2-k(λ1+λ2)2 其中,k为系数,角点可选取为局部最大化R,同时R大于某一阈值。根据实际的需要,阈值可以更改,当阈值大时,提取的Harris角点数目少,反之则多。建筑物角点位置纠正结果如图2所示,图中阈值设定为1500,红色角点是手动提取的建筑物角点,蓝色角点是自动提取出的Harris角点。

4 影像的自动定向

影像的定向主要包括内定向和相对定向。首先定义影像的坐标系[6]。影像的扫描坐标系:数字影像的结构形式是一个数字阵列,通常采用影像左上角作为坐标原点,I为横轴,取值为影像的列号;J为纵轴,取值为影像的行号。像平面坐标系O-xy:取影像中心为原点,取影像的列序列方向为x轴,取影像的行序列方向为y轴。像空间坐标系:由像平面坐标系的原点平移构成,即原点为传感器摄影中心S,x和y轴分别与像平面坐标系的x和y轴平行,z轴垂直于影像平面,且z=-f。像空间辅助坐标系:是像空间坐标系旋转的结果,其原点位于摄影中心,u,v,w轴分别平行于地面坐标系的三轴。地面坐标系A-XYZ:其原点为某一地面点A,Z轴取竖直方向,X轴位于Z轴和摄影基线所在的平面,是一个右手空间直角坐标系。这里,摄影基线B是左右影像传感器摄影中心S和S′的连线。

内定向的目的就是确定扫描坐标系与像平面坐标系之间的关系以及数字影像可能存在的变形[6,7,8]。数字影像之变形主要是在影像数字化过程中产生的,主要是仿射变形。扫描坐标系与像平面坐标系之间的关系为

undefined

(2)式中:是像平面坐标系的坐标;m0,m1,m2,m0,n1,n2为6个仿射变形参数;I,J是扫描坐标系的坐标;Δ为距离采样间隔。

相对定向的目的就是恢复两幅影像在空中成像时的相对方位,建立被摄物体的几何模型[6,7]。其数字模型是相应的摄影光线与基线应满足共面条件,即

undefined

(3)式中,BX,BY,BZ分别为X,Y,Z方向的基线分量,即摄影基线B在地面坐标系X,Y,Z轴方向的分量;u,v,u′,v′,w′分别为左右影像像空间辅助坐标系的坐标。相对定向的迭代解法有连续像对的相对定向和独立像对的相对定向[6]。连续像对的相对定向是以左影像像空间坐标系(x,y,-f)为基准,求右影像在左影像空间坐标系中的相对方位元素:BY,BZ,ψ′,ω′,κ′。根据公式(3),有 F=BX(vw′-v′w)-BY(uw′-u′w)+BZ(uv′-u′v) (4)

其误差方程为

undefined

式中,Q为上下视差,即

undefined

独立像对的相对定向是以摄影基线和左主核面为基准的,定向元素为φ′,κ,φ′,ω′,κ′。根据共面条件,有

F=(vw′-v′w)=0 (7)

其误差方程为

undefined

式中

undefined

此外,在内方位或姿态均为未知时,还可采用相对定向的直接解法[6,8]。

自动相对定向的关键是自动识别定向所需要的同名点对,可以利用图像匹配来识别足够多的同名点,使得相对定向达到高精度。本文通过相关匹配和松弛法迭代左右图上的Harris角点得到用于相对定向的同名点对。

松弛法是Waltz1975年提出的,它能很好地解决整体最优控制问题[9]。影像匹配是一个确定左(或右)影像某个点在另一个影像之共轭点的问题[8]。本文首先计算每个特征点在搜索范围内的相关系数,寻找相关系数大于给定阈值的峰值点作为候选匹配点,构成候选匹配点集。通过相关匹配法求出的初始匹配点集中,可能含有大量的模糊的匹配点对。比如在图像I1中的角点m1可能和图I2像上的多个角点的相关值均大于相关阈值,反之亦然。这样两幅图像角点之间形成了一个多对多的对应关系。可以通过计算匹配点的匹配强度和明确度进行迭代可最终得到具有一一对应关系的同名点对[10]。

通过图像匹配得到的同名点对,按照内定向计算出的参数,将像素坐标转化为像平面坐标。通过相对定向的迭代解法计算出相对定向元素。图3为松弛法匹配得到的同名点对。图中,蓝色“。”表示提取出的Harris角点,红色“+”字表示匹配后的同名点对。阈值为3000,左图检测到115个角点,右图检测到142个角点,经过松弛法匹配后得到了37对同名点。已知,图像焦距为300mm,基线B距为695m,通过计算,连续像对相对定向结果为:BY=2m,BZ=0.5m,φ′=0.004950,ω′=-0.006998,κ′=0.003440;独立像对相对定向结果为:φ=-0.000066,κ=0.021518,φ′=-0.020667,ω′=-0.002066,κ′=0.021593。

计算出的角度均满足航空影像竖直摄影角度在0~3度的要求。

5 模型坐标的计算

当采用连续像对相对定向时,φ=ω=κ=0,模型坐标的计算公式为[6]:

undefined

undefined

其中,b=x-x′,M是摄影比例尺分母。

当采用独立像对相对定向时,BY=BZ=0,模型坐标的计算公式为[6]:

undefined

undefined

6 实验结果

根据本文的方法,在Windows环境下,使用VC++6.0编写程序来实现。图1~图3所用的航空影像是西安市部分城区图,焦距为300mm,比例尺为1:10000,实验结果用骨线文件(.gxd)来存储。提取的建筑物部分结果为:

图4是图1提取出的部分建筑物的三维模型(骨线结构图),从图中可以看出建筑物的位置和形状和原图很接近,计算出的结果基本上符合实际。

7 结束语

实验证明,采用本文提出的半自动量测和人机交互方法进行三维建筑物建模,所生成的三维骨线结构图完全符合实际结果。由于给出了节点在原图上的位置,可以通过纹理映射[7]的方法将建筑物纹理映射到骨线结构图上,真实地模拟三维建筑物景观[11]。对于大范围的三维建筑物建模,例如数字城市,全部采用人机交互的方法,工作量将是巨大的。对于一些仅需小范围的建筑物建模场合,例如三维制导时的目标区域,采用本文提出的方法进行建模不失为一种简单而有效的方法。

参考文献

[1]陈爱军,徐光祐,史元春.基于城市航空立体像对的全自动3维建筑物建模.测绘学报,2002,31(1):54~59

[2]江万寿,航空影像多视匹配与规则建筑物自动提取方法研究.[博士学位论文],武汉大学,2004.

[3]张剑清,张祖勋,徐芳,朱英浩.城区大比例尺影像三维景观重建.武汉测绘科技大学学报,1998,23(4):355~358

[4]程曦冉,张剑清,张祖勋.航空影像多直角平顶房屋的半自动提取.武汉大学学报.信息科学版,2004,29(12):1097~1100

[5]张广军.机器视觉.北京:科学出版社,2005.

[6]陈鹰.遥感影像的数字摄影测量.上海:同济大学出版社,2003.

[7]程效军,朱鲤,刘俊领.基于数字摄影测量技术的三维建模.同济大学学报(自然科学版),2005,33(1):37~41

[8]张祖勋,张剑清.数字摄影测量学.武汉:武汉测绘科技大学出版社,1997.

[9]仇彤,张祖勋.基于松弛法的影像边缘提取.武汉测绘科技大学学报,1994,19(4):322~327

[10]张迁,刘政凯,庞彦伟,李威.基于SUSAN算法的航空影像的自动配准.测绘学报,2003,32(3):245~250

[11]靳海亮,高井祥,康建荣.基于VC和OPENGL的地形三维可视化.微计算机应用,2006,27(5):577~581

立体像对 篇2

刚开始京津雾霾的时候,由于我的无知,我觉得这好像还挺有意思的,把它看做人间仙境了都。再后来,水墨画渲染似的以迅雷不及掩耳之势扩大了仙境的范围,我才大梦初醒。英国作家狄更斯笔下的那个常年被雾气缭绕的“雾都”回来了。这次全国有30个省市区遭遇过雾霾天气,今年2月下旬这轮雾霾天气中,全国有33个城市发生重度及以上污染,其中10个城市为严重污染。这时,隐约听见天上飘来一句幽幽的声音说到,“这下可否满意啊?”

好吧。我想说。我满意了。我满意是因为终于又一次看到大自然发怒了,我满意是因为我们这些行尸走肉般活着的人们终于也能够意识到这件事的严重性了,我满意是因为那些脑满肠肥的人终于又要不得安宁一会儿了。

你们亲眼见过化工厂的大烟囱吗?大大小小层出不穷的柱状物冒出的烟是不是很漂亮啊?浓的化不开的白在碧蓝的天空下映衬的格外清新脱俗啊!我敢说它丝毫不会比你花钱去观赏的景点逊色。But,注意了啊,我们澄净的蓝天几乎要game over了,再纯白再浓烈的云烟不能在蓝天的怀抱里翱翔也就如狐狸离开了老虎。可怜我们连这免费的美丽景色也要失去咯!心悲夕,人痛夕,钱包瘪夕啊„„

你要说你对此愤懑至极,我完全理解,我是咱也没办法啊,咱是学生党,一没钱,二没权,就连最值得我们骄傲的知识思想也还只在艰辛地拼命作战升级中啊。作为一个像我们一样良心未泯的人来说,目前为止,对于各种废物排放我们也只能眼巴巴的看着,心一阵一阵的疼着。

本以为只我那颗只会在社会上愤懑的心没想到在我们的校园里也被唤醒了。你知道其他大学校园里的食堂是不会免费提供一次性塑料袋的吗?一次安徽理工大的参观,让我很是惊讶,在他们学校的同学大多是愿意呆在食堂里就餐的,开始我也很纳闷,就想着这些人怎么都这么自觉,是不是素质就是比我们高呀?后来才发现原来他们在食堂就餐的很大一部分原因,是他们一个一次性塑料袋还得花一毛钱,我想是个会过点日子的人都不会选择天天买塑料袋回宿舍吧。而我们学校呢,一次打饭,你扯两三个塑料袋都是小case,本人也经常这样干过,一个用来盛饭,一个用来盛菜,一个用来盛汤。三的确不是一个吓人的数字,但是,请将三乘以5000人,再乘以4个年级,再乘以三餐,再乘以年年月月日日,我数学不好,得不出精确数据,你们自己估计吧。我觉得在很多小事方面,我们可以去做的更好,无论是化工厂这样的大污染还是学校无偿塑料袋这样的小污染,只要你有一颗爱护环境,敬畏自然的心,万变不离其宗,生活处处都会绽放美丽的光彩。

我想建议大家放学后看一看我们学校里唯一的那条小河,不可否认它曾经也是一条洁白的哈达啊,可近日,水面上长了好多绿油油的黏糊糊的东西,这难道就不影响我们的食欲、影响我们踏青的兴致、影响那些校园情侣的雅兴吗?这时候要是有男生为了女友去找寻治理的方法,这何尝不是一段动人佳话呢?我在想我们学校生化系和地科系的同学是不是应该知道点相关方面的知识呢? 也许你心里会嘀咕,“你站在台上大言不惭的说这道那,你自己就做的很好?”诚然,我也只是屌丝一枚,只能说说大话,但是,这是我听见的我的内心所告诉我的,这些让我的头脑轰然一击。这些我的内心告诉我的我也将告诉你们,告诉我的身边的每一个人,一屋不扫何以扫天下,让我们从身边做起,从校园做起,从良心做起。

立体像对 篇3

数字摄影测量是基于数字影像与摄影测量的基本原理,应用计算机技术、数字影像处理、影像匹配、模式识别等多学科的理论与方法,提取所摄对象用数字方式表达的几何与物理信息的摄影测量学的分支学科。数字摄影测量与模拟、解析摄影测量的最大区别在于:它处理的原始信息不仅可以是像片,更主要的是数字影像或数字化影像;它最终是以计算机视觉代替人眼的立体测量;其产品是数字化形式的。数字摄影测量与传统的摄影测量技术相比,在测绘过程的数字化、自动化方面表现出了巨大优势,代表着当代摄影测量发展的方向。但因量测用大像幅数字相机尚未普及,故数字影像大多通过对光学影像的数字化获取,这使目前数字摄影测量的研究与应用集中在航测领域。显然,数字摄影测量技术也将给近景摄影测量的发展带来新的机遇,尤其在实时测量、自动控制、自动绘图方面更为突出。

2 立体显示技术简介

如果人的眼睛可以分别看到一个物体在不同位置拍摄的像片,由于视差的存在,就会产生立体视觉。红绿立体影像就是通过红绿眼镜,分别让人的左眼和右眼看到偏红和偏绿两张像片,从而产生立体视觉。

3 红绿立体影像生成方法研究

3.1 三维视觉原理与视差实时消除方法研究

3.1.1 人体生理三维视觉的原理

根据研究,我们人类的眼睛在观察一个三维物体时,由于两眼水平分开在两个不同的位置上,所观察到的物体图像是不同的,它们之间存在着一个像差,由于这个像差的存在,通过人类的大脑,我们可以感到一个三维世界的深度立体变化,这就是所谓的立体视觉原理。

据立体视觉原理,如果我们能够样我们的左右眼分别看到两幅在不同位置拍摄的图像,我们应该可以从这两幅图像感受到一个立体的三维空间。

红绿立体影像就是使到人的左眼和右眼分别看到一个物体的在不同位置拍摄的图像,以产生立体视觉。

红绿立体影像的基本原理就是使到左片和右片分别进行变换,用户带上红绿(本文以左红右绿为标准)眼镜后,左右眼分别只能看到左片和右片,从而产生立体视觉。

3.1.2 上下视差消除方法研究

仅仅使到左右眼分别看到不同的侧面的影像并不能使人看到立体影像。要产生立体视觉,还必须消视差,但每一点的视差都不相同,所以我们以除视野中央一点(即窗口的中心点)为标准,把这点的视差消除。计算机在显示左右影像时,左右影像的初始位置是完全重叠的,需要以左影像(或右影像)为固定不变,对右影像(或左影像)进行位移,以消除中心点的视差。移动的距离大小,就是需要求取的视差。

视差的计算,就是已知道连续像对的相对定向元素及内、外方位元素,求取窗口中心点位于左右片的两同名像点的坐标差。

要计算视差,首先必须读取内方位元素和左右像片的外方位元素。

本文所使用的数据文件是Access数据库类型的。其中,内方位元素是存放于“参数.mdb”文件的“相机参数”表中,3个内方位元素分别存放于列“XO”、“YO”、“ZO”下;外方位元素是存放在“外方位.mdb”文件的“X”表中,六个外方位元素分别存放于列“xs”、“ys”、“zs”、“phi”、“ow”、“k”、下,左右片的外方位元素分别对应行“s0001.JPG”和“s0002.JPG”。

然后,还必须确定旋转矩阵R。

《摄影测量学》中有关于旋转矩阵的论述,并且给出了旋转矩阵:

但是此矩阵只适合于航拍像片。

由图2-1、2-2可以看出,航空摄影坐标系中的Y轴,恰好是近景摄影坐标系中的Z轴,航空摄影坐标系中的Z轴恰好是近景摄影坐标系中的Y轴。因为本文是以近景影像为对象的,所以按照航空摄影坐标系和近景摄影坐标系的异同,本文选用了另一旋转矩阵:

当对象是航拍像片时,应该使用式2-1。

下面将计算上下视差:

假设a的像平面坐标系坐标为(x1, y1), a'的像平面坐标系坐标为,对应的地面模型点为A, A的物方坐标系坐标为(XA, YA, ZA),由于A的高程ZA是未知的,所以可假设为平均高程,平均高程可由各控制点的高程平均值求得。

由共线方程 (式2-3) 与空间坐标转换公式可得:

(式2-5) , 由式2-5中的第三式可得: (式2-6) , 代入式2-5的第一和第二式, 可得: (式2-7) (注意, 此处使用的是左片的旋转矩阵) 。

然后再根据中心投影的构像方程:

(式2-8) , 可得到此时右片同名像点所处的像平面坐标系位置 (注意, 此处使用的是右片的旋转矩阵) 。所以若要使得两同名像点重合, 右片需移动dx、dy, 其中:

3.1.3 上下视差的实时自动消除

如图2-4所示,大的矩形框代表要显示的图像,里面小的矩形框代表图片框。程序在显示图像时,先在窗口中绘制一个图片框,然后在图片框中显示图像,图片框的大小与窗口同样。由于图像比图片框大,所以显示出来的只是图像的一部分,如要观看图像的其余部分,就要拖动图像,使要观看的部分位于图片框中。

当拖动图片时,窗体的位置时不变的,窗体的中心也是不变的,但位于窗体中心的左影像的像点是不一样的(拖动时,左右影像是一起拖动的,但计算视差是以左影像为标准的)。为了实现对视差的自动消除,必须实时地计算每次拖动后位于窗体中心的左影像的像点的像平面坐标系坐标。

设该点的像平面坐标系(以左影像中心像点为原点)坐标为(x1, y1)则:

x1=窗口宽度的/2–图片左边界的坐标–图片宽度的/2

y1=图片高度的/2–窗口高度的/2+图片上边界的坐标

关键程序代码:

3.2 左右影像的处理与红绿立体影像生成

3.2.1 左片和右片的色彩处理

左片和一张同样大小的红色底片(每点的颜色值为RBG (255, 0, 0))进行“或”运算,得到一张新的左边影像。

假设左片某一像点(i, j)的灰度值为(r, g, b),红色底片像点(i, j)的灰度值为(255, 0, 0),进行“或”运算,得出的结果是(255, g, b),即新的像点灰度值为(255, g, b)。如图2-6所示,将左片所有的像点都与红色底片对应的像点进行类似的“或”运算,就产生了一张新的左影像:

关键程序代码:

相似地,右片和一张同样大小的绿色底片(每点的颜色值为RGB (0, 255, 0) )进行“或”运算,得到一张新的右边影像。

关键程序代码:

3.2.2 红、绿影像的结合与立体影像的生成

从上面的色彩处理中可以的到新的左影像和右影像,如要将两张新的影像结合起来显示出立体,还需要将两张影像进行“与”运算。假设左影像某一像点(i, j)的灰度值为(255, g, b),右影像对应的像点的灰度值为(r, 255, b),进行“与”运算,得到的灰度值为(r, g, b)。将新的左片和右片的每一个像点都进行类似的“与”运算,就可以得到一张新的图片,如图2-6所示:

关键程序代码:

通过红绿立体眼镜,就可以看到立体影像。

3.2.3 运行结果

操作流程如下:单击按钮“打开左片”,选择要打开的左片,单击“打开右片”,选择要打开的右片,然后单击“生成红绿立体”,就能生成红绿立体图像了。运行后的结果如下(已经行自动视差消除),带上红绿立体眼镜,即可看出立体:

通过鼠标拖动,可以看到影像的其他部分,并且每拖动一次,程序都将自动进行视差消除。自动视差消除功能,消除的是窗口中心点的视差,由于每一个点的视差都不一样,这就导致了除了窗口中心点以外,其余的点的视差不能自动消除,即使利用手动微调功能,在任何时刻也只能消除一个点的视差而不能消除所有点的视差,但正因为有了视差的存在,我们才能产生立体视觉。由于进行视差消除时,使用的是平均高程,所以会有一定的残差存在,即窗口中心点也还存在一定的视差,可以通过箭头按钮,对影像进行微调,以达到理想效果。

红绿立体影像一改过去对数字像对的二维显示和阅读,准确地模拟和再现了三维立体场景,符合人的生理视觉习惯,具有强烈的临场感觉,是一种全新的人机交互系统。

4 结语

本文研究并实现了红绿立体影像的制作,同时也提供了一种消除视差的方法,但这种消除视差的方法存在一定的残差,如能加入影像匹配功能,将能更好地消除视差。

红绿立体影像技术能够提供良好的三维视觉效果,重现三维景物外观,有望在此基础上,加入交互功能以及测图功能,实现三维立体测图,提高摄影测量数字作业的工作效率。

参考文献

[1]金为铣, 杨先宏, 邵鸿潮, 崔仁愉.摄影测量学.武汉大学出版社, 1996.

[2]冯文灏.近景摄影测量学.武汉大学出版社, 2002.

【立体像对】推荐阅读:

立体安全07-14

立体成像05-27

立体形式06-03

立体多维06-15

立体06-16

立体影像06-28

立体车库07-05

立体体积07-08

立体探究07-10

立体视觉08-04

上一篇:岩爆的成因和预防下一篇:大功率中短波发射台站