背景差分

2024-06-07

背景差分(精选6篇)

背景差分 篇1

引 言

在现有的图像运动目标检测[1]方法中,帧差法[2,3]基于图像序列中两帧(或多帧)图像间的差分来实现检测,具有简单、直接、易于现、可连续处理等优点,可较好地适应环境的较大变化;但因其难以有效地检测出对应于运动目标但帧间变化不够明显的像素点,一般难以获得运动目标的完整轮廓[4]。光流法[5]通过估计图像的运动场并合并相似的运动矢量来实现检测,对于摄像机可动的情况其性能较好。但其算法复杂,运算量较大,很难实现对视频流的实时处理;背景差法[6]通过将图像序列和参考背景模型相减来实现检测,可以检测出和运动目标相关的所有像素点(完整地分割出运动对象),因而近年来广受重视和研究。但现有的该类算法普遍对于外界环境的变化(如光照、外来事件等)较为敏感[4]。

将帧差法与背景差法相融合可获得较好的检测性能[6]。本文提出一种基于梯度图像,融合帧间差分和背景差分的运动目标检测新方法。针对真实视频序列的实验结果表明,该方法既简单有效,又具有较强的抗干扰能力,较宽的适应范围,较小的运算量和较好的实时性。

1 基于梯度图像帧间差分和背景差分的运动目标检测新方法

1.1 基本思路与流程

如图1所示,本文方法的特点是基于梯度图像,将帧间差分与背景差分相融合。预先选取一帧作为背景帧,建立各像素点的(混合)高斯模型;再对相邻两帧图像的梯度图像进行差分处理,区分出背景点和变化区域;然后将变化区域与背景帧的对应区域进行模型拟合(差分),区分出显露区(此前被遮挡而今显露的区域)和运动物体;最后对运动物体进行连通性分析和检验,进一步降低噪声以获得无阴影的运动物体。背景模型更新也在此过程中完成:对帧间差分所判定的背景点按一定的规则进行更新;对背景差分所判定的显露区,则以较大的更新率收入到背景帧中;对运动物体对应的区域不进行更新。以下具体加以说明。

1.2 梯度图像生成

帧间差分法的关键是选择适当的分割阈值以区分目标和噪声。固定阈值无法适应情况(信/噪比)和环境的变化,自适应阈值则往往算法复杂。另一方面,图像的梯度不易受亮度变化、量化噪声等的影响,针对梯度图像进行帧间差分可以较小的计算成本较好地提取运动目标。因此,本文利用边缘检测性能较好、计算复杂度较低的Sobel算子[7]提取梯度图像:

fG(x,y,t)=|f(x,y,t)*ΗX|+|f(x,y,t)*ΗY|(1)ΗX=14[10-120-210-1]ΗY=14[-1-2-1000121](2)

其中,f(x, y, t)为原始灰度图像在(x, y)处的像素点;fG(x, y, t)是在t时刻的近似梯度幅值;HxHy分别是水平、垂直方向上的Sobel算子。

1.3 帧间差分

研究表明序列图像中背景点的帧间差分值服从零均值,方差为σ2的高斯分布N(0, σ2)[7]:

p(dk|Η0)=exp[-dk2/(2σ2)]/[2πσ](3)

其中H0代表(x,y)处像素点是背景的假设,dK代表该像素点的灰度差分值。因此,根据概率统计学中的假设检验“3σ”法则,利用适当设置的阀值T即可滤除背景,检出变化区域:

FD(x,y,t)={255fG(x,y,t)Τ0fG(x,y,t)<Τ(4)

上述思想和方法同样适用于梯度图像的帧间差分[3,7]。为提高自适应性,本文按照式(5)、式(6)实时估计当前帧的背景区域的均方差值σ,按照式(7)选定T值:

D¯(t)=1Ax=1ly=1bD(x,y,t)*δ(FD(x,y,t-1))(5)σ=x=1ly=1b(D(x,y,t)-D¯(t))2*δ(FD(x,y,t-1))A(6)Τ=ασ(7)

其中,lb分别是图像序列的长度、宽度,A是背景区域的面积;一般可令α=3;对于较复杂的场景(如有摆动的树枝,波动的水面等),α可取值4到8。

1.4 自适应混合高斯背景模型[8]

为了适应较为复杂的背景,本文利用混合高斯模型{η1(Xt),…,ηk(Xt),…,ηN(Xt)},为背景中的每个像素点Xt分别建模。其中N为分布模型的总个数,N=3~5(本文N=3);ηk(Xt)={μk(Xt),Dk(Xt)}为第k个高斯分布,μk(Xt)、Dk(Xt)分别对应于Xt的均值、方差。相应地,像素点Xt的概率模型是:

Ρ(Xt)=k=1lωk(t)ηk(Xt)(8)

其中,ωk(t)是t时刻第k个分布的优先权系数,反映它在最近时段内在模型里出现的频度。

为快速、鲁棒地反映背景的变化,本文采用下列背景更新策略:逐一将每个像素点Xt与混合模型包含的N个分布进行比较,直到找到一个与Xt最匹配的分布,匹配的定义是:

Μk(t)={1|Xt-μk(t)|<λDk(t)0(9)

其中,λ一般取3~7。然后根据ωk/Dk对这N个分布进行降序排序,并区分背景/前景状态:若前B个状态的累计概率大于TPB最小,则认为它们是背景状态;其余状态认作前景:

B=argminb(k=1bωk>ΤΡ)(10)

若这N个分布与Xt都不匹配,说明Xt是一个新的前景点,则使用一个新的分布η(μ,D)来代替混合模型里优先权系数ωk(t)最小的那个分布,该新分布的均值μ=Xt,方差DDMAX,优先权系数ω取一个较小的值。对各优先权系数按下式更新:

ωk(t)=(1-α)ωk(t)+Μk(t)k=1,2,,Ν(11)

其中α是学习速率。t时刻各分布的均值、方差分别按式(12)、式(13)进行更新:

μk(t)={(1-ρ)μk(t-1)+ρXtXtkμk(t-1)(12)Dk(t)={(1-ρ)Dk(t-1)+ρ(Xt-μk(t))Τ(Xt-μk(t))XtkDk(t-1)(13)

其中,ρ的定义和估算公式分别如式(14)、式(15)所示:

ρ=αη(Xt|μk(t),Dk(t))(14)ρk(t){α/ωk(t)Xtk0(15)

2 实验与讨论

利用上述方法,针对实际视频序列进行了多组实验。部分结果如图2、图3所示,反映本文方法可获得较为理想的背景图像和较好的检测效果。更多的实验结果[9]进一步表明,该方法既简单有效,又具有较强的抗干扰能力,较宽的适应范围和较小的运算量。

3 结束语

考虑到帧间差分和背景差分各有其优缺点且可互补,而图像梯度具有突出的抗噪声特性,本文提出了一种基于梯度图像,融合帧间差分和背景差分的运动目标检测新方法,并进行了实验验证。今后将继续研究其DSP实现,以实现视频运动目标的高效、实时检测。

参考文献

[1]Bors A G,Pitas I.Prediction and tracking of moving objectsin image sequences[J].IEEE Trans.on Image Processing,2000,9(8):1441-1445.

[2]Lipton A,Fujiyoshi H,Patil R.Moving target classi-ficationand tracking from real-time video[C].In:Proc.IEEE Work-shop on Applications of Computer Vision,Princeton,NJ,1998:8-14.

[3]Zhao S G,Zhao J,Wang Y,et al.Moving object eetecting us-ing gradient information[C].Three-frame-differencing andConnectivity Testing,AI 2006,LNAI 4304:510-518.

[4]Valera M,Velastin S A.Inteillgent distributed surveillancesystems:a review[J].IEE Proc.Vision Image Signal Pro-cess,2005,152(2):192-204.

[5]Barron J,Fleet D,Beauchemin S.Performance of optical flowtechniques[J].International Journal of Computer Vision,1994,12(1):42-77.

[6]朱明旱,罗大庸,曹倩霞.帧间差分与背景差分相融合的运动目标检测算法[J].计算机测量与控制,2005,13(3):215-217.

[7]William K Pratt.数字图像处理[M].北京:机械工业出版社,2005.

[8]Stauffer C,Grimson W.Adaptive background mixture modelsfor real-time tracking[C].In:Proc IEEE Conference on Com-puter Vision and Pattern Recognition,Colorado,1999:246-252.

[9]王媛.视频运动目标检测与跟踪算法研究[D].西安:西安电子科技大学,2007.

运动目标检测中的背景差分方法 篇2

关键词:数字图像处理,运动目标检测,背景差分,动态背景

1 概述

在成像应用领域, 运动是由于感觉系统和视觉场景之间的相对位移而形成的。物体的运动信息可以看成由一系列的静止图像所组成, 我们称之为图像序列。通过对序列中各静止图像以及它们之间的差异进行分析、判断, 提取出物体以及它运动的相关信息, 这就是我们所说的对运动物体 (目标) 的检测[1]。目标检测的输入是一个时间图像序列。与静止图像相比, 象素值的变化是时间图像序列的主要特征。对于某一场景下拍摄到的图像序列, 相邻两帧图像至少有一部分的象素值发生了变化[2]。

造成象素值变化的原因有:

(1) 景物本身发生了变化, 即目标发生了变形或运动;

(2) 摄像机与景物发生了相对位移:摄像头的平移、旋转使图像内容发生变化;

(3) 光照变化:在自然环境中, 物体亮度受到外界光照变化而变化;

(4) 上述几种情况的组合。

从图像序列中分析物体运动有着广泛的应用范围。运动目标的检测估计分析在军事上应用范围非常广, 应用于空中的地面预警系统、目标攻击、空载预警系[3]。在工业控制的一个重要应用就是自动检验, 用视觉进行产品检验, 代替人的目检[4]。在对安全要求敏感的区域都需要智能监控设备, 如军事禁区、国界、机场、停车场、银行等其他人员密集的区域。基于计算机视觉的检测技术, 可以保证24小时实时监控, 并能对捕获的数据进行分析, 如果有可疑的人、物就报警[5]。

2 背景差分方法

目标检测的目的是从图像序列中将变化区域, 即运动目标, 从背景图像中提取出来。背景差分的基本思想是选取视频图像序列的一帧或提取背景图像作为参考图像, 然后将待检测图像与背景参考图像逐像素相减, 经过阈值划分的方法得到目标的二值化图像, 定义公式如式 (1) 所示:

这种方法进行运动目标检测时可以克服帧间差分法的缺点, 同时也可以比较完整和精确地对运动目标进行检测。背景差分法的优点是可以应用于运动目标检测中, 但是该方法不能自适应, 要想适应环境的变化, 必须对背景进行实时升级, 这必然会涉及到背景模型, 包括背景的提取和背景的更新。通常会遇到如下一些问题:

(1) 背景的提取。当前背景的提取方法大致分为两大类, 一类是无运动目标存在时背景的提取;另一类是有运动目标存在时的背景提取方法, 如基于统计的方法包括平均值法, 中值法, 渐消记忆递归最小二乘背景估计法等, 然而这种方法在运动物体所占面积较大和在大量帧中出现时, 估计出的背景帧不理想且处理时间较长。

(2) 背景的更新。其需要背景模型应迅速跟上实际背景关照的变化、运动物体静止下来时应及时收入到背景帧中、静止物体移走后应及时从背景模型中消失, 否则会出现大范围的噪声和误检测现象。

在基于视频图像的运动目标检测算法中, 如果采用图像背景差分法来进行目标检测, 则背景的建立和及时更新就会成为算法成功的关键。因为在监视过程中, 由于室外光照强度和方向的经常变化, 以及一些不可预测的天气状况的突然变化, 背景图像都会发生变化。同时针对目标检测的一般情况背景提取即有运动目标存在时的背景提取方法, 应采取相应的背景图像建立和更新策略的背景模型。目前主要的背景模型有统计学背景模型、混合高斯模型和自适应更新模型。

2.1 统计学背景模型

从统计学的角度来看, 背景中像素的灰度值可以看作是一个统计的结果, 即图像序列中各个像素在统计上最可能出现的值。这样就可以建立背景更新的统计学模型, 定义t时刻的背景图像为β1 (x, y) , 如式 (2) [6]所示:

在此统计模型中, U取不同的函数会得到不同的背景更新结果, 比较常用是均值和中值函数。这种方法初始化时间比较长, 更重要的是其不能完全将运动目标与背景分开, 这样估计出的背景并不理想。这种方法适用于目标数量少且连续运动而且背景在大部分时间是可见的情况, 而对于监测场景中有大量的运动物体, 特别是它们运动缓慢的情况, 这种方法估计的背景就会有比较大的偏差了。通常, 采用这种方法时, 为了保证能有比较小的估计偏差, 需要对很长的图像序列进行平均。

2.2 自适应更新模型

自适应更新模型的原理在于将当前帧图像分成前景图像 (待检测目标) 和背景图像两部分组成, 所以可以利用运动分割的二值运动目标图像对前一时刻背景进行选择性更新得到当前帧的背景图像[7]。由当前帧背景图像Bn (x, y) 得到下一帧背景图像, 如式 (3) 所示:

其中是时间常数。

自适应背景减除原理如图1所示。

3 实验及结果分析

采用如图2所示的时间序列图像作为实验对象, 其中共包含10张图像。

按照统计学背景模型 (中值、平均值) 提取背景, 实验结果如图3所示, 从图中可以看出, 相对平均而言, 中值获得的背景要比平均值更接近于实际背景, 获得的运动目标相对而言也更理想。

4 总结与展望

本文介绍了一种基于背景差分的运动目标方法, 该方法动态或者静态的维护一个背景图像, 通过和该图像的差分来识别图像中的运动目标。实验证明该方法能够有效的识别出图像中的运动目标。实验证明该方法能非常有效提取动态图像中的运动目标。背景差分可以克服帧间差分法的缺点, 可以比较完整和精确地对运动目标进行检测。如何获得理想而且稳定的背景图像是该方法的一个难点, 也是今后的一个研究方向。

参考文献

[1]万缨, 韩毅, 卢汉清.运动目标检测算法的探讨[J].计算机仿真, 2006, 23:221-26.

[2]林洪文, 姚作, 涂丹, 李国辉.基于减背景技术的运动目标检测方法研究[J].国防科技大学学报, 2003, 25:66-69.

[3]彭嘉雄, 周文琳.红外背景抑制与小目标分割检测[J].电子学报, 1999, 27:47-51.

[4]代科学, 李国辉, 涂丹, 袁见.监控视频运动目标检测减背景技术的研究现状和展望[J].中国图象图形学报, 2006, 11.

[5]张文杰, 戚飞虎, 江卓军.实时视频监控系统中运动目标检测和跟踪的一种实用方法[J].上海交通大学学报, 2002, 36.

[6]林洪文, 涂丹, 李国辉.基于统计背景模型的运动目标检测方法[J].计算机工程, 2003, 29.

背景差分 篇3

运动车辆的检测是自动跟踪的前提,常用的方法有光流场法[1—4]和图像差分法[5,6]。基于光流场法的运动目标检测由于噪声、多光源、阴影、透明性和遮挡性等原因,使得计算出的光流场分布不是十分可靠和精确,且光流场的计算实时性和实用性较差,因此它多适用于图像噪声比较小,目标运动速度不大的情况。图像差分法又分基于帧间差分的方法和基于背景差分的方法,前者可以提取出物体的运动信息,但由于相对运动与物体位置并非完全一致,检测出的区域会大于物体实际存在的区域,并且区域的大小与物体的运动速度有关;后者定位精确、速度快,但缺乏合理的背景更新方法。为此有人提出许多方法的融合改进,如基于边缘的背景去除法[7],但该类方法存在着由于运动目标边缘与背景边缘可能有一定交叠,使部分运动目标信息被去除的缺点。又如C.Vieren[8]提出一种获取运动物体精确位置的方法,但该方法需要连续3帧图像,并要计算梯度图像,计算量大并且有一帧时间的滞后性。

本文研究考虑到ITS系统中运动目标检测的实时性要求,及运动背景随光线等环境因素变化的情况,提出了一种栅格算法:在图像差分算法的思想基础上,采用当前帧与背景帧图像相比较,通过计算栅格不相似度来检测是否有运动车辆进入摄像机的视场,而不是通过获得差分图像来检测运动车辆。算法中使用的背景图像也不是固定不变的,而是通过更新机制不断的进行更新,以适应光线和噪声的影响。

1系统框架

运动车辆检测的前提条件为:

1)检测的对象为在一个车道上运动的单一车辆,并且假设车辆之间没有遮挡;

2)在进行运动车辆检测时,摄像机是固定不动的。

系统框架如图1所示。由于BMP图像文件格式结构清晰,操作方便,所以本文采用BMP图像文件格式来实现对运动车辆模板的保存和读取,以下对各部分进行说明。

1.1 图像的采集、存储与背景更新机制

采用双缓存机制实现运动车辆图像的采集和存储,即在内存中开辟两块缓冲区Buffer0和Buffer1。Buffer1存放当前帧图像,Buffer0存放参考帧(背景)图像,通过比较Buffer1与Buffer0中的图像来检测有无运动车辆进入摄像机的视场。

为了达背景更新的目的,将Buffer0中存放的参考帧图像每隔4帧更新一次,也就是每隔4帧将当前帧图像同时存放在Buffer0和Buffer1中,通过不断地更新参考帧的图像,以适应光线的变化以及噪声的影响。

1.2 图像的预处理

本文研究的运动栅格算法是在车辆检测过程中,通过优化选择沿道路方向(车辆行驶方向)的像素,对这些像素依次进行灰度化,中值滤波等处理获得要检测的图像数据,减少数据处理量,来满足实时性要求。

1.3 运动车辆自动检测的栅格算法

1.3.1 图像数据的栅格化

为了检测沿道路方向由右向左行驶而进入摄像机视场的运动车辆,把沿道路方向右端大小为400 × 100个像素的图像均匀分割成100个栅格,每个栅格的大小为20 × 20个像素,如表1所示。

1.3.2 栅格不相似度的计算

将图像数据栅格化后,通过计算当前帧与参考帧对应栅格的不相似度来检测是否有运动车辆进入视场。不相似度计算公式如(1)式[10]。

undefined

(1)

(1)式中,DisSimil—栅格不相似度;

Mbuffer0—参考帧某一栅格内像素灰度值的均值;

Mbuffer1 —当前帧对应栅格内像素灰度值的均值;

Sbuffer0 —参考帧某一栅格内像素灰度值的标准方差;

Sbuffer1 —当前帧对应栅格内像素灰度值的标准方差。

公式(1)是两个集合或者两类点集之间的基于距离的相似度的一种表示方法。由公式(1)可知,当两帧图像完全相同时,DisSimil=1,而且可以证明1为公式(1)的最小值。

当不相似度DisSimil的值小于某个阈值T1时,称这个栅格是“静止”的,否则称这个栅格是“运动”的。当“运动”的栅格数目大于某个阈值T2时,就认为有运动车辆进入视场,此时参考帧就不再进行刷新了。当“运动”的栅格数目大于某个阈值T3时,就认为整个运动车辆全部进入视场。

1.3.3 运动车辆位置的确定

当检测到有运动车辆进入视场后,下一步就要确定出运动车辆在栅格中的位置。由于运动车辆与背景之间在灰度值上的差异,当运动车辆进入视场时,就会引起对应栅格不相似度值的较大变化,而剩余栅格的不相似度值不会发生较大的变化,因此可以通过计算不相似度值的变化来确定出运动车辆在栅格中的位置。

首先将上述100个栅格的不相似度值按列进行平均,设yi (i=1~100)表示每个栅格的不相似度值,设xi (i=1~20)表示每列栅格不相似度值的平均值,则

undefined (2)

然后将得到的每列栅格不相似度值的平均值xi按照从大到小的顺序进行排序,得到xi',并记录对应的栅格的列号。定义不相似度下降率DSDR (DisSimil Descend Rate)为:

undefined (3)

(3)式中,A —一列栅格不相似度值的平均值;B—另一列栅格不相似度值的平均值。

计算xi'中相邻两列的DSDR,找到DSDR最大值所对应的列,即为运动车辆与背景的边界。下面通过一个实例对以上算法进行说明。表2为计算得到的一组数据,

由计算可知DSDR的最大值为99.724%,即表2中用粗实线标出的位置,此位置即为运动车辆与背景之间的分界线,粗实线以上的表格代表了运动车辆,而粗实线以下的表格代表了背景。由表1可知,运动车辆所占的列数为9~19列。图2是与表1对应的图像,

由图2可以清楚地看到,在实际的图像中运动车辆所占的列数为9 ~ 19列,与计算得到的运动车辆的位置完全相同。也就是说,利用DSDR法可以比较准确地确定出运动车辆在栅格中的位置。

1.3.4 运动车辆数据的提取与模板保存

当确定出运动车辆在栅格中的位置后,就可以将对应栅格内的图像数据提取出来,并保存为BMP格式的模板图像。另外还需要保存的数据包括:模板的中心位置、模板的宽度、模板的高度、模板中栅格的数目、每个栅格像素灰度值的均值及每个栅格像素灰度值的标准方差。

根据以上对栅格算法的分析,通过栅格算法得到的运动车辆模板的保存实例如图3所示。

2 总结

运动车辆的自动检测是自动跟踪的前提,实时性和准确性是处理运动序列图像的基本要求,本文以自动检测的图像差法为基础,提出了运动车辆检测的栅格算法,总结如下:

1) 采用双缓存机制采集和存储图像,加快了图像的采集、传输和处理的速度,以满足实时性要求;通过背景更新机制,使参考帧的图像得到及时的更新,以适应光线的变化以及噪声的影响。

2) 优化选择图像数据减少了图像数据的处理量,提高了处理速度;对图像进行灰度化和中值滤波处理,为运动车辆的自动检测做好了准备。

3) 对图像数据进行了栅格划分,通过计算当前帧与参考帧的栅格不相似度来检测是否有运动车辆进入视场;定义了栅格不相似度下降率DSDR,并利用DSDR比较准确的确定出了运动车辆在栅格中的位置。

4) 给出了运动车辆自动检测栅格算法的详细流程图和车辆模板的保存实例。

摘要:对运动车辆的检测进行了研究。在图像差分算法的基础上,研究提出了运动车辆自动检测的栅格算法,该方法通过计算当前帧与参考帧对应栅格的不相似度来检测是否有运动车辆进入视场,定义了不相似度下降率DSDR。基于此,可以比较准确地确定出运动车辆在栅格中的位置,并可方便地将车辆图像作为模板保存下来。实验结果表明,利用DSDR法比较准确地确定了运动车辆在栅格中的位置。

关键词:智能交通系统,运动车辆,检测,栅格算法,不相似度

参考文献

[1]张泽旭,李金宗,李宁宁.基于光流场分割和Canny边缘提取融合算法的运动目标检测.电子学报,2003;31(9):1299—1302

[2]屈有山,田维坚,李英才.基于并行隔帧差分光流场与灰度分析综合算法的运动目标检测.光子学报,2003;32(2):182—186

[3]Sasa G,Loncaric S.Spatio-temporal image segmentation using optical flow and clustering algorithm.First Int1'Workshop on Image and Sig-nal Processing and Analysis.Pula,Croatia,2000:63—68

[4]Smith S M,Brady J M.ASSET-2:Real-time motion segmentation and shape tracking.IEEE Trans,1995;8(17):814—820

[5]Jong Bae Kim,Hang Joon Kim.Efficient region-based motion seg-mentation for a video monitoring system.Pattern Recognition Letters,2003;24(1—3):113—128

[6]Needham C J,Boyle R D.Tracking multiple sports players through occlusion,congestion and scale.British Machine Vision Conference,2001;1:93—102

[7]Li Xiaobo,Liu Zhiqiang,Leung Kaming.Detection of vehicles from traffic scenes using fuzzy integrals.Pattern Recognition,2002;35(4):967—980

[8]Vieren C,Cabestaing F,Postaire J.Catching moving objects with snakes for motion tracking.Pattern Recognition Letters,1995;16(7):679—685

[9]何斌等.Visual C++数字图像处理.北京:人民邮电出版社,2001

背景差分 篇4

运动目标检测是指在视频序列图像中检测相对于整幅场景图像运动的物体, 在安全监控、交通控制、智能车辆等领域得到了广泛的应用。目前常用的运动目标检测方法包括帧差法、背景差分法、光流场等方法。为了给高层视觉算法提供依据, 在序列图像中可根据运动目标检测的结果进一步提取单帧图像中运动目标的轮廓, 三帧时间差分法简单易行, 它利用相邻三帧图像通过常规帧差法得到连续两个差分图像, 然后对两个差分图像的相与操作获得运动目标的轮廓和位置信息, 但该方法在复杂背景下的结果不够稳定。本文结合基于区域光流的运动目标检测算法和基于统计平均的背景差分法来获取运动目标前景图像, 结合两种方法的优点, 从而更准确地提取运动目标轮廓。

1 联合背景差分与区域光流的运动目标轮廓提取模型

光流易于捕捉运动物体的运动特性, 可以反映出运动目标的位置和轮廓信息。如果在每一帧图像中对运动目标提取轮廓, 仅利用光流信息并不能很好的完成, 因为梯度计算需要利用连续的若干帧的图像信息, 而运动目标边界区域的梯度变化比较丰富, 将导致光流图像中得到的运动目标大于实际运动目标, 多出的部分正是运动目标在若干帧时间内经过的区域, 这也正是光流对运动物体捕捉其运动特性的体现。另外, 对于相对较大的运动目标而言, 如果运动目标内部颜色、灰度等比较单一, 那么运动目标内部光流为0, 导致光流图像中运动目标内部出现空洞区域。

我们结合背景差分法就能够有效地解决上述问题。背景差分法能够有效地从背景中提取出当前帧前景运动目标, 运动目标轮廓精确, 且当背景与目标灰度存在差异时运动目标内部一般不会出现空洞。然而高精度的背景建模成为限制该方法的一个难点问题, 复杂的背景模型精度较高, 但其系统开销也大。本文采用简单的基于统计平均的背景差分方法, 该方法具有简单、计算量小等优点, 并且有一定的自适应性, 但是在目标运动的轨迹上会存在运动目标的阴影。

本文考虑利用背景差分法解决上述光流法产生的问题, 同时利用区域光流消除背景差分法产生的运动目标阴影, 为此提出一种联合背景差分与区域光流的运动目标轮廓提取算法, 原理如图1所示:

2 算法描述

根据联合背景差分与区域光流的运动目标轮廓提取模型, 要求输入视频中的序列连续图像, 输出运动目标在当前帧中的轮廓信息, 详细算法步骤如下:

步骤1 采用基于统计平均的背景差分方法, 对第k帧 (假设为当前帧) 求前景图像, 即灰度差分图像Iundefined。令Gk (p, q) 表示视频序列第k帧 (p, q) 位置像素点的像素值, 则背景图像中第k帧 (p, q) 位置像素点的像素值Bt (p, q) 可由式 (1) 求得, 灰度差分图像Iundefined由式 (2) 求得;

undefined

步骤2 采用基于视频窗口切分与分类的序列图像运动目标检测算法, 快速标定出第k帧图像中的n个包含运动目标的矩形区域Ωundefined, Ωundefined, …, Ωundefined;

步骤3 由光流方程 (3) 和全局平滑约束条件 (4) 对标定的矩形运动区域求解光流, 并认为矩形区域外的像素点的光流为0, 我们按此方法求解第k帧图像的光流场[u, v]k;

undefined

其中Ix, Iy, It分别为图像中对应点 (x, y) 的灰度值I (x, y, t) 沿x, y, t三个方向的偏导数;

步骤4 为便于对光流场矢量数据进行分析, 我们对第k帧图像的光流场[u, v]k按照 (5) 、 (6) 式进行归一化处理;

undefined

其中Vundefined是对应当前帧图像的速度场, Vundefined为归一化后的速度场。为了直观的显示光流速度并有效借助于图像处理的相关技术, 我们将Vundefined内数据转换为类似灰度图像的整型数据。只需将取值范围做一个[0, 1]-[0, 255]的变换, 得到灰度光流图像Iundefined, 灰度值较大的像素点是那些光流较大的点, 其对应的运动目标就具有较大的速度;反之, 灰度值较小的像素点是那些光流较小的点, 其对应的运动目标就具有较小的速度;

步骤5 将步骤1中得到的灰度差分图像Iundefined与步骤4中得到的灰度光流图像Iundefined按照式 (7) 进行图像信息融合, 得到灰度融合图像Iundefined;

undefined

步骤6 分别将图像Iundefined和图像Iundefined二值化, 并对二值化后的图像做与操作, 最终得到运动目标的二值化图像Iundefined, 从而得到当前帧图像中的运动目标轮廓。

3 实验设计与结果分析

本文采用一个运动行人视频序列进行实验, 该视频是在摄像机固定的情况下拍摄的场景, 每帧图像大小为480×640像素。测试结果分别如图2和图3所示:

实验结果表明, 在监控场景中, 联合背景差分与区域光流的运动目标轮廓提取方法能够准确地提取视频序列中运动目标轮廓, 尤其对非刚性物体的运动目标而言, 本文算法能更好地检测出运动目标在每一帧序列图像中的完整轮廓信息。另外本文采用区域光流求解大大降低了光流的计算代价, 提高了算法的效率。图2中对区域光流求解的计算量为全帧光流场计算量的0.0651倍;对该运动行人序列连续100帧进行统计, 平均每帧计算光流的时间开销仅为全帧光流场计算量的6.17%。

4 结束语

本文针对光流法计算量大并且无法精确提取运动目标轮廓的问题, 提出了一个联合背景差分与区域光流的运动目标轮廓提取模型。通过实验表明该模型在摄像机静止、物体运动的监控场景中, 能够准确地提取运动目标轮廓, 为运动目标识别、跟踪以及行为分析奠定了基础。

摘要:针对光流法计算量大并且无法精确提取运动目标轮廓的问题, 提出一个联合背景差分与区域光流的运动目标轮廓提取算法, 首先对运动目标区域进行标定, 并通过求解区域光流得到光流图像, 然后结合基于统计平均的背景差分法获取运动目标二值图像, 从而提取出运动目标轮廓。实验结果表明, 在监控场景中, 本文算法能够准确地提取运动目标轮廓。

关键词:运动目标检测,背景差分,区域光流,轮廓提取

参考文献

[1]王亮亮, 王黎, 高晓蓉, 等.基于视频图像的运动目标检测算法研究[J].微计算机信息, 2010 (6) .

[2]A.FRANCOIS, G.MEDIONI.Adaptive Color Background Model-ing for Real-Time Segmentation of Video Streams[C].Proceedingsof International Conference on Imaging Science, Systems and Tech-nology, University of Southern California, Losangeles, USA, 1999.

[3]盛旭锋, 朱方文, 李校祖, 庄俊.基于三帧时间差分法的独居老人运动检测[J].计算机工程与应用, 2010 (13) .

[4]B.GLOYER, H.K.AGHAJAN, K.Y.SIU, T.KAILATH.Video-Based Freeway Monitoring System Using Recursive Vehicle Track-ing[C].In:Proc of the IS&T-SPIE Symp on Electronic Imaging:Image and Video Processing, San Jose, CA, USA, 1995.

背景差分 篇5

运动目标检测和识别是机器视觉研究应用及智能视频监控中的关键技术,一直是备受关注的研究热点。目前的检测方法主要有:光流场法[1,2]、减背景法、三帧差分法[3]等。光流场法优点是能够检测独立运动的对象,并且可用于摄像机运动的情况,但是光流场法计算复杂、耗时长,很难实现实时检测;减背景法对于背景图像固定不变的条件下目标提取效果很好,但受光照和阴影影响较大;三帧差分法利用相邻三幅图像分别进行差分运算,并将两次差分的结果进行与运算,可以满足较复杂场景下运动目标的检测,但是存在两帧目标重叠部分不易检测、出现虚假目标等问题,当背景存在相对运动时,三帧差分就无法将运动目标和背景区分开来。

图像边缘信息不容易受到噪声和亮度信息突变的影响[4]。本文首先采用灰度投影算法检测出背景运动矢量,并通过帧间运动矢量补偿将连续三帧图像的相同背景稳定在同一幅图像的相同位上,其次对连续的三帧图像进行边缘信息[5]提取,并对三帧连续的边缘图像进行差分法运算,最后结合数学形态学的闭运算和填充运算分割出运动目标。

1 全局运动矢量估计

1.1 灰度投影算法

全局视频序列实质上就是图像灰度发生变化的图像序列,灰度投影算法能够充分利用图像灰度总体分布的变化规律,准确而快速地估计出图像的运动矢量。

1.1.1 行、列灰度投影

行、列灰度投影就是将一幅图像的二维灰度信息Gk(i,j)映射成行X,Y方向上独立的一维投影序列。为了消除由于光照不同造成的相关误差,需要对投影矢量做均值归一化处理:首先求取图像灰度值的均值E,在计算独立的一维投影序列时用各像素值分别减去灰度均值E。计算公式如下:

式(1)和式(2)是归一化后的行、列灰度投影公式,其中Gk(i),Gk(j)分别为第k帧图像的第i行和第j列的灰度投影值,Gk(i,j)是第k帧图像上(i,j)位置处的像素灰度值。

1.1.2 位移相关检测

将参考帧r图像与第k帧图像的行、列灰度投影曲线做互相关计算,根据两条相关曲线的谷值即可确定当前帧图像相对于参考帧图像的行列位移矢量值。相关运算公式如下:

式(3)中Gk(j)、Gr(j)分别为第k帧与参考帧r的第j列的灰度投影值,L为列的长度,m为位移矢量相对于参考帧在一侧的搜索宽度。设Wmin为C(W)最小时的W值,则第k帧图像相对于参考帧图像在垂直方向的位移矢量可由式(4)计算得到。同理得到了水平方向和垂直方向的位移矢量后,就可以把当前图像向位移矢量的相反方向移动相应大小的像素距离,或者将前一帧图像沿着位移矢量移动相应大小,从而成功补偿了图像序列背景的运动矢量。根据式(1)∼(4)得到当前帧与参考帧灰度投影曲线及相关曲线如图1所示。

利用投影式(1)、(2)分别得到当前帧和参考帧的行、列投影曲线,如图1(a)至(d)所示。利用式(3)得到参考帧与当前帧的行相关曲线、列相关曲线如图1(g)、(h)所示。文中行搜索宽度为取21,列搜索宽度取63,垂直方向上的位移矢量由式(4)知δc=0,表示当前帧背景相对于参考帧背景在垂直方向位移矢量为0像素。同理水平方向位移矢量为δr=-3,表示当前帧相对于参考帧的位移矢量为-3像素。

1.2 改进的三步搜索算法检测运动矢量

1.2.1 投影区域的选择

投影区域选择很重要,因为全局运动序列中不仅有运动目标造成的背景显露和遮拦,而且摄像机本身的运动使得背景产生了相对运动,出现了退出视场的部分和进入视场的部分,因此投影区域包含有目标的运动和背景的相对运动。由于灰度投影算法[6]是直接利用图像灰度来确定帧间运动矢量的,因此该算法所估计的运动矢量实际上是运动矢量的合成。为了提高帧间背景运动矢量检测的准确度,必须检测出目标的运动,才能分离出图像序列帧间背景的运动矢量。最好的办法就是将图像分为几个区域块,如图2所示,对各子区域分别利用改进的三步搜索算法求出其局部运动矢量,根据局部运动矢量可以排除图像序列中的运动目标的干扰,图2中矢量V4可能是由于目标的运动产生的运动矢量,因为它与其他区域的运动矢量不同。本文采集的图像分辨率为352×288,为了克服退出视场的部分和进入视场的部分对灰度投影计算的影响,将宽和高分别去掉32像素后得到中间区域分辨率为320×256的图像,并将图像分为四个投影区域块如图2所示。

1.2.2 ITSS算法特性分析以及算法实例

现有算法中,TSS(三步搜索算法)算法采用了一种循环迭代的搜索策略来搜索MBD(Minimum Block Difference)点,即最小误差点。该算法以搜索窗宽度的一半作为初始搜索步长,每次循环确定新MBD点并将搜索步长减半直至步长等于1,得到最终的MBD点。本文采用改进的三步搜索算法(ITSS)[7]设计了大小菱形搜索模板,采取自适应搜索策略,操作步骤如下:

步骤1,搜索17个点,包括9×9格上的9个点和中心周围大菱形模板上的8个点,如果MBD点为搜索窗中心,算法结束;如果MBD点在大菱形模板上,转步骤2,否则转步骤3。

步骤2,以步骤1的MBD点为中心,重复使用小菱形模板进行搜索,直到MBD点位于搜索窗中心。

步骤3,将搜索步长减半并确定新的MBD点,直至步长等于1,算法结束。ITSS与NTSS相比,虽然增加了搜索位置,但是其自适应选择搜索模板的特性决定了其比TSS平均搜索点数更少,而且克服了搜索时容易陷入局部最小的缺陷。

如图3是用ITSS算法搜索运动矢量A(-2,-2),首先执行步骤1,搜索17个点,得到MBD点后,将模板从大菱形模板改成小菱形模板,然后再搜索第一个小菱形模板周围的4个点,图中圆圈所示。得到MBD后,再用小菱形模板搜索2个位置如图中三角形所示,即可得到运动矢量A(-2,-2)。搜索过程用ITSS算法有3步,用了1次大菱形模板和2次小菱形模板共搜索23个点,检测的新点数分别是17,4,2。而用全搜索算法(FS)需要搜索169个点,用TSS算法需要搜索3次,共搜索25个点,因此ITSS在速度上有明显提高,而且保证了搜索精度。利用该算法对图3各个区域进行搜索,检测到各子区域的局部运动矢量,排除运动目标矢量,然后取局部矢量中出现频率最高的作为全局运动矢量。

2 运动对象分割

2.1 三帧差分法思想

设fk-1,fk,fk+1是图像序列中的连续三帧图像,利用常规二帧差分法可得到差图像d1,d2。二次差分则是对差图像d1,d2进行“AND”运算,即:d=d1⊗d2。三帧差分法能精确地检测出运动目标的位置和形状轮廓信息。计算公式如下:

由于差图像d是由d1,d2通过“AND”运算产生的,因此在d中存在着一些孤立的噪声像素,为了剔除噪声的干扰,可利用高斯滤波去除噪声的干扰。

2.2 动背景条件下运动矢量的补偿

针对动背景条件下的连续三帧图像,利用ITSS算法估计出第k帧相对于k-1帧背景的位移矢量,第k+1帧相对于第k帧背景的位移矢量。根据位移矢量将原始图像k-1帧补偿到第k帧,将k+1帧也补偿到第k帧,这样就将相邻三帧图像的相同背景稳定在同一幅图像的相同位上,即三帧图像背景部分位置不变。相邻三帧图像进行背景补偿后,背景的差异减小,从而能够沿用静止背景下帧差分图像分割算法。

2.3 基于背景补偿的帧差分与边缘信息融合的目标检测算法流程

算法流程如图4所示。首先对背景补偿后的连续三帧图像进行边缘信息提取得到连续的三帧边缘图像,然后对三帧连续的边缘图像进行三帧差分运算,提取的运动信息,并进行二值化和形态学处理得到运动目标图像。

2.4 边缘检测算子确定

边缘检测的基本算法有很多,有梯度算子、方向算子、拉普拉斯算子和坎尼(Canny)算子等。几种常用的边缘检测方法有属于梯度算子的Roberts算子、Sobel算子和Prewitt算子、高斯偏导滤波器(LOG)以及Canny边缘检测器等。

Sobel[8]算子是边缘提取中最常用的算子之一,它结合了高斯平滑和微分,其边缘提取的结果对噪声有一定的鲁棒性。在Sobel算子中,邻域的像素对当前像素产生的影响不是等价的,所以距离不同的像素具有不同权值,对算子结果产生的影响也不同。与Roberts算子和Prewitt算子相比,Sobel算子边缘提取效果更好。因此,选取Sobel算子作为边缘算子,Sobel算子是一阶微分算子,它利用像素邻近区域的梯度值来计算1个像素的梯度,然后根据一定的阈值来取舍。它由下式给出:

Sobel算子是3×3算子模板,2个卷积核dx、dy形成Sobel算子。一个核对垂直边缘响应最大,而另一个核对水平边缘响应最大,2个卷积的最大值作为该点的输出值,运算结果就是1幅边缘幅度图象。

2.5 二值化阈值确定

Otsu方法是经典的非参数、无监督自适应阈值选取方法。Otsu法利用灰度直方图的0阶和1阶矩,是图像分割的重要方法[9]。它以目标与背景之间的方差最大而动态的确定图像分割门限值,不需要其他先验知识,因而应用范围很广,至今仍是最常用的图像分割方法之一。设原始灰度图像灰度级为L,灰度值为i的像素数目为ni,则图像的全部像素数目为

图像中像素的灰度值为i的概率pi为

按阈值t将所有像素划分两类:C0=(01,,L,t)和C1=(t+1,t+2,L,t+L)。C0和C1类的出现概率w0和w1及灰度值均值μ0,1μ分别由下列各式给出:

C0和C1类的方差可由下式求得:

定义类内方差σw,类间方差σB,总体方差σT为

从0到L-1之间找到使σB2/σT2最大的t值即为最佳二值化阈值。

2.6 形态学处理

由于噪声的存在,二值化后得到的图像往往会出现许多孤立的小区域、小间隙,这给目标的检测带来了干扰。此用采用图像形态学方法去除二值图像中孤立的小区域,同时将小间隙填充。图像形态学中的腐蚀运算是消除边界点,使边界向内部收缩的过程。膨胀运算是将与物体接触的所有背景点合并到该物体中,使边界向外扩张的过程。对二值图像进行形态学处理时,首先用腐蚀运算将孤立的小区域去除,然后用膨胀运算将小间隙填充。这样一方面可以消除噪声,一方面可以平滑图像,从而将运动目标完整的检测出来。

3 实验分析

为了验证本文算法的正确性、有效性。硬件如下:笔记本配置为CPU(AMD)主频2.0 GHz,内存为2.0 GB,ATI RADEON X550显卡,显存容量256 MB(DDRII);软件:Matlab 7.0版本,实验用视频序列分辨率为320×256,每秒钟25帧。利用Matlab仿真结果如下:首先对标准视频序列Coastguard中连续三帧原始像图5(a)∼(c)采用文中提出的改进的三步搜索算法进行运动估计,其中行、列搜索宽度设为21像素和63像素。搜索得到第二帧相对于第一帧的背景运动矢量为(-3,0);第三帧相对于第二帧运动矢量为(-3,0),这里假设坐标系X轴向右为正,Y轴向下为正。其次将第一帧图像的背景,第三帧图像的背景配准到第二帧,至此就实现了将连续三帧图像的背景稳定在同一幅图像(第二帧)的相同位置上,图5(d)∼(f)、图6(d)∼(f)为背景补偿后的连续三帧图像。图5、6(g)为经典的三帧差分法对动背景下连续三帧图像三帧差分,可以看出,运动目标几乎被背景淹没,很难提取出运动目标。图5、6(h)是采用本文算法针对背景补偿后的三帧图像进行的帧差分,保留了运动目标的大部分边缘信息,图5、6(i)是对图(h)进行形态学运算包括闭运算、填充运算和中值滤波得到的运动目标的二值掩膜,图5、6(j)是对二值掩膜图像5、6(i)进行canny边缘检测图像,图5、6(k)是利用图5、6(i)和连续三帧图像中间帧灰度图像相与后提取的运动目标区域。本算法运行时间如下:运动矢量的估计、补偿、边缘信息的检测及帧差分和目标提取计算时间为35 ms,加上帧差分法有一帧延迟时间40 ms,合计时间为75 ms,基本上达到了实时的要求。

实验证明本文提出的目标检测算法能有效克服背景运动的影响,克服了光线变化对目标检测的影响,提高了检测鲁棒性,达到了实时性要求。其次针对“飞机跟踪视频”给出了实验结果效果如图6所示,能够较准确的检测出运动目标,验证了此算法的泛化性和有效性。

4 总结

本文结合改进的灰度投影法和连续三帧图像的边缘信息提出了一种基于背景补偿的帧差分与边缘信息融合的目标检测算法。首先对连续三帧图像进行背景运动矢量的检测,然后进行背景运动矢量的补偿,使三帧图像的背景稳定在同一幅背景上,根据边缘检测算法提取三帧连续图像的边缘信息,并对三帧连续的边缘图像进行三帧差分运算,最后通过二值化处理和形态学处理完成对目标的提取。实验结果表明该方法能对动背景下的移动目标进行准确检测,同时克服了图像之间存在亮度突变的情况,具有实时性和泛化性及很好的鲁棒性。

参考文献

[1]Lipton A J,Fujiyoshi H,Patil R S.Moving target classification and tracking from real-time video[C]//Proceedings,Fourth IEEE Workshop on Applications of Computer,Princeton,N J,May21,1998:8-14.

[2]Valera M,Velastin S A.Intelligent Distributed Surveillance Systems:A Review[J].IEE Proceedings Vision,Image and Signal Processing(S1751-9632),2005,152(2):192-204.

[3]王建平,刘伟,王金玲.一种视频运动目标的检测与识别方法[J].计算机技术与自动化,2007,26(3):78-80.WANG Jian-ping,LIU Wei,WANG Jin-ling.A Moving Object Detection and Recognition Method in Video Sequences[J].Computing Technology and Automation,2007,26(3):78-80.

[4]TONG Nian-nian,DUAN Xiao-hui.Research on detection algorithm for vehicle monitoring system[C]//The First Chinese Conference on Intelligent Surveillance,Beijing,April24,2002:612-616.

[5]李劲菊,朱青,王耀南.一种复杂背景下运动目标检测与跟踪方法[J].仪器仪表学报,2010,31(10):2242-2247.LI Jin-ju,ZHU Qing,WANG Yao-nan.Detecting and tracking method of moving target in complex environment[J].Chinese Journal of Scientific Instrument,2010,31(10):2242-2247.

[6]孙辉,李志强,孙丽娜,等.一种空域和频域相结合的运动图像亚像素配准技术[J].中国光学,2011,4(2):154-160.SUN Hui,LI Zhi-qiang,SUN Li-na,et al.Sub-pixel registration of special and frequency domains for video sequences[J].Chinese Journal of Optics,2011,4(2):154-160.

[7]王建平,栾庆磊,何勇.无特定背景条件下运动目标的分割算法研究[J].计算机应用与软件,2010,27(3):255-259.WANG Jian-ping,LUAN Qing-lei,HE Yong.Resarch on moving objects segmentation algorithm with no special background condition[J].Computer Applications and Software,2010,27(3):255-259.

[8]左颢睿,张启衡,徐勇,等.基于GPU的快速Sobel边缘检测算法[J].光电工程,2009,36(1):8-12.ZUO Hao-rui,ZHANG Qi-heng,XU Yong,et al.Fast sobel edge detection algorithm based on GPU[J].Opto-Electronic Engineering,2009,36(1):8-12.

背景差分 篇6

GPS差分技术的越来越成熟, 使得GPS定位精度得以大大提高, 相对于惯性测量、电磁波测距等这些经典测量技术来说, GPS具有观测站间无需通视、定位精度高、观测时间短的特点, 以及它能够实施全球性全天候全天时的连续不断的三维导航定位测量的特性, 为广大用户提供了高精度多用途的导航定位服务。这也就难怪美国将GPS技术视为20世纪最重大的科技成就之一了[1]。

GPS差分技术包括静态差分, 准动态差分, 实时动态差分三种, 而实时动态差分的快速发展, 加快了GPS定位技术的应用, 实时动态差分经历了从常规实时动态测量和到实时动态相位测量的伟大突破。

常规实时动态差分也叫RTD (Real Time Differential) , 是基于测距码的一种实时差分技术, 该定位技术通过在基准站上利用已知坐标求出测站至卫星的距离, 并将其与含有误差的测量距离比较, 然后利用一个滤波器将此差值滤波并求出其偏差, 并将所有卫星的测距误差传输给用户, 用户利用此测距误差来改正测量的伪距。最后, 用户利用改正后的伪距求出自身的坐标;而实时动态相位差分也叫RTK (Real Time Kinematic) , 是基于载波的一种实时差分技术, 其基本思想, 是在基准站上安置一台GPS接收机, 对所有可见的卫星进行实时连续的观测, 并将其观测数据, 通过无线电传输设备, 实时的发送给用户观测站。在用户站上, GPS接收机在接受卫星信号的同时, 通过无线电接收设备, 接收基准站传输的观测数据, 然后根据相对定位原理, 实时的计算并显示用户站的三维坐标及其精度[2]。

目前RTD和RTK是应用比较广泛的两种差分定位方式。在实际的工程应用中, 这两种定位方式的定位精度如何, 本文将通过实验, 论证RTD与RTK之间的定位精度。

1 实验方法与数据分析

1.1 实验过程

实验过程中使用中海达双频RTK, 中海达信标机, 对A、B、C、D四个E级GPS控制点进行多次独立测量, 计算出各点中误差和漂移量进行比较。

1.2 数据分析

四个观测点的数据如下图所示, 图中“x”表示使用RTK测量的点坐标, “+”表示是使用信机测量的点坐标, 三角点标示的位置是已知点。

从以上图中可以看出, 不管是RTK还是RTD其测量坐标都在已知点坐标周围漂移, 由实测数据可得, 采用RTD技术测量的数据漂移量比RTK的明显高出许多。使用RTK测量时, 其点位漂移量基本集中在0~0.05m之间, 而RTD测量的点位漂移量较大, 像正弦曲线的变化, 最大的点位漂移达到0.9m, 主要集中在0~0.3之间。漂移量越大, 说明点的离散度也越大, 这对定位精度也会产生一定的影响, 其离散度我们用相对已知点中误差来表示, 如下表2.2-3所示, 使用RTK进行测量时, 点位中误差在0~0.1之间, 主要集中在0.05以下, 而使用信标机所测量的点位中误差最大可以达到0.6m多, 最小也有0.4m, 可以看出, 实际测量中RTK的定位精度比信标机的定位精度要高, 这也反映出了载波相位差分定位精度比伪距差分定位的精度要高。

对其原因, 我们分析如下:

1) RTK采用的是载波相位差分测量原理, 通过测量卫星与接收机之间有多少个波长来测量距离的。在传播过程中, 虽然波的强度虽然会变弱, 但是波形没有改变, 而且大气环境对其的影响就会比较小;而信标机是采用伪距差分测量, 通过测量卫星到接收机的时间来确定其距离的, 由于信号在对流层, 电离层的传播过程中会发生时间延迟, 对测量精度产生较大的影响;

2) RTK是双频载波, 而信标机是单频。双频载波可以通过自身的两个载波求差, 得出的观测方程大大削弱电离层和对流层的影响, 提高定位精度;而伪距差分定位是通过基准站向移动站发送坐标差信息进行定位的, 而且随着距离的越来越远, 其定位精度也会越来越低。

3 结语

本文通过研究GPS伪距差分技术和载波相位差分技术的基本原理, 结合实例, 通过点位中误差, 证实载波相位差分定位精度高于伪距差分定位, 主要观点如下:

3.1 载波相位采用的是测相伪距观测, 即通过波长进行伪距的计算, 由于信号在传播过程中, 波形发生的改变很小, 基本上维持不变, 这样可以获得较高的定位精度;而伪距差分采用的是测码伪距观测, 通过计算时间差进行定位, 由于信号在大气中传播的过程中, 会产生延迟, 大大降低了定位的精度。虽然两者同为差分GPS, 移动台都要通过接受基准站的差分信息进行高精度定位, 但是载波相位差分采用双频接收技术, 即同时接收L1载波和L2载波的信号, 然后进行单差改正, 消除环境误差的影响。

3.2 由点位中误差的表格可以看出, 使用RTK进行定位测量时, 中误差最大到0.07m, 最小到0.02m, 根据工程测量规范 (如表2所示) , 可以得出, 使用RTK至少可以进行大比例尺的测量要求, 而使用RTD进行定位时, 可以满足小比例尺的测量要求。

摘要:伪距差分和载波相位差分是差分GPS的两大定位技术, 在各领域都有广泛的应用。本文首先介绍GPS的定位原理及其误差分析, 然后介绍伪距差分原理和载波相位差分原理, 最后结合实例, 通过点位漂移量和点位中误差, 证实载波相位差分定位精度高于伪距差分定位的精度。

关键词:伪距差分,载波相位差分,精度

参考文献

[1]张勤, 李家权, 等.GPS测量原理及应用[M].北京:科学出版社, 2006:42-70.

上一篇:用地供需矛盾下一篇:音乐与绘画之共性