遥感数据融合(精选9篇)
遥感数据融合 篇1
摘要:通过对HIS遥感影像融合方法的认识,在分析其缺陷的基础上,提出并深入讨论了改进型HIS变换的影像融合方法,选用Landsat-7 ETM B7、B4、B1(30米空间分辨率)和全色波段B8(15米空间分辨率)以及P6数据5.8米空间分辨率影像为例,将这种方法与HIS变换融合方法作定性定量的比较,结果表明:基于改进型HIS变换法的融合方法是最优方法。
关键词:遥感影像数据融合,改进型HIS变换
0 引言
随着遥感技术的发展,不同传感器的遥感影像相继出现,这使得为用户提供不同空间分辨、不同时相与不同光谱信息的海量遥感影像数据成为现实。不同数据源的数据各自显示了自身的优势和局限,同时也造成了信息冗余。影像融合问题的提出解决了这些多源影像数据的合理有效的利用。遥感影像数据融合[1]是指将不同的遥感影像按照一定的算法(即融合方法),在规定的地理坐标系下,生成新的影像的过程。遥感影像融合的方法很多[2,3,4,5],但在实际应用中,除了基于Multiplictive算法的融合、基于小波分析的融合、基于主成分分析(PCA)的融合之外,基于HIS变换的融合是比较有效且较为普遍的一种影像融合方法。
1 基于HIS变换的融合
HIS变换[2]是一种影像显示增强和信息综合的方法。即将低分辨率的多光谱影像分离出代表空间信息的明度I和代表光谱信息的色别H、饱和度S的3个分量,利用其高空间分辨率的全色波段代替RGB影像变换的I分量,然后进行HIS的逆变换,完成融合过程。
在色度学中,把彩色影像的红(R)、绿(G)、蓝(B)变换成亮度(I)、色度(H)、饱和度(S)称为HIS变换,而I、H、S变换成R、G、B称为反变换;与HIS之间可以相互变换,并且过程是可逆的[6]。也就是说,对于一幅彩色图像来说,经过正反两次变换以后,图像信息不会发生改变。可是这种融合方法也有自己不足之处:影像波段选择的局限性,由于其固有的融合运算方法,使得该融合方法只能选择三个波段作为融合前的多光谱影像;另外就是融合运算的局限性,即每一次运算只能解决两种不同空间分辨率之间的融合问题;进而,我们提出了改进型HIS变换法,它能够很好的弥补HIS变换法的不足之处,能够很好的解决多种不同空间分辨率融合、多光谱信息叠加的问题。
2 改进型HIS变换
改进型HIS变换实质上是由N次HIS变换的叠加运算而实现的一种融合方法,这样融合后的影像较之传统的HIS变换后的影像具有更高的空间分辨率,同时又保持了原低空间分辨率多光谱影像相同的色度和饱和度,而且具有更多更丰富的影像光谱信息以及纹理信息。
该方法能够一次性解决多种不同空间分辨率影像数据之间的融合问题,现以低、中、高三种不同空间分辨率的影像数据为例,来说明该方法的具体实现步骤。(见图1)
由图1可以很明显地看出:该方法经过两次正反HIS变换后,影像信息不会发生变化,不仅能够同时做出两种不同空间分辨率的影像数据,并且越高空间分辨率的影像数据具有越多的影像光谱信息,更有利于提高影像的空间分辨率,增强目标特征,改善解译精度;而且最大限度地保留了低空间分辨率多光谱影像的光谱信息,有利于提高影像分类精度。
3 质量评价
现以经过校正配准的Landsat-7卫星ETM B7、B4、B1(30米)合成的多光谱影像和全色波段B8(15米)以及P6数据(5.8米)为例(见影像1、影像2),对改进型HIS变换法做进一步的评价。
需要指出的是:选用Landsat-7的B7、B4、B1作为低空间分辨率多光谱影像数据是因为这三个波段之间的相关性低,合成的影像具有很丰富的色彩信息,与高空间分辨率的影像融合,更能通过色调来显示出地物之间的差别,同时又能增加更多的纹理信息以及光谱信息;而不选用P6的多光谱数据作为低空间分辨率多光谱影像数据的原因是它的各波段之间的相关性很高,合成的影像色彩单一,与高空间分辨率的影像融合,地物之间不能够表现出极好的差异。
目前常用的融合结果评价标准有:主观和客观两类[7~8]:
(1)主观评价标准主要是目视判别,由人主观来评判融合效果:影像是否更清晰,影像的光谱是否畸变。
影像1是选用经过校正配准的Landsat-7 ETM B7、B4、B1与P6数据经过HIS变换法融合而成的影像数据,而影像2是选用Landsat-7 ETM B7、B4、B1和B8以及P6数据经过改进型HIS变换融合而成的影像数据;通过目视判读可以明显地看出:影像2具有很高的清晰度,并且纹理信息也很强,不同的地物有不同色彩信息。
(2)客观评价标准主要是统计方法:
主要是通过影像间的光谱相关系数hsp、空间相关系数hHF、偏差指数DDR、平均梯度等做定量的比较分析来评价影像融合结果的[9];影像各波段之间的相关性的离散程度也可以很好的说明一幅影像融合数据质量的好坏,如果各波段之间的离散程度高,则说明该影像数据各波段间的相关性就差,影像色调就更丰富,增强了各地物目标特征,那么影像质量就好;反之影像质量就较差。不过,所谓的离散程度只是相对而言的。
在此,影像1与影像2之间的融合质量的好坏程度我们通过各自影像波段之间的离散程度来说明(见图2、图3),其它的统计方法在这里就不做一一比较了。
通过这两幅图,我们可以看到图3中两波段的离散程度较图2中两波段的离散程度高,则说明由改进型HIS变换法融合的影像质量优于HIS变换法融合的影像质量。该融合方法不仅提高了多光谱影像的空间分辨率,而且很好的保留了多光谱影像的光谱信息,并且极大的增强了目标特征,改善了解译的精度、可靠性以及使用率。
4 改进型HIS变换法在遥感专业软件中的实现
任何一个好的融合方法不仅要考虑到融合影像质量要好,而且还要考虑到在融合实现的过程中速度要快、占用系统空间要少、产生的冗余数据要少,在改进型HIS变换法中由于牵扯到多种不同空间分辨率的影像数据,势必会在融合过程中其速度、系统占用空间都会受到很大的影响,因此有必要对改进型HIS变换法作为一个独立的功能将其实现。
遥感专业软件主要指的是遥感数字图像处理系统,主要有RDAS IMAGINE、ENVI、Geomatica等。由于Geomatica遥感数字图像处理系统拥有相当齐全的功能模块,包括四百多个软件包,因此,该变换法的实现主要在Geomatica遥感数字图像处理系统中完成。
利用PCI Modeler模块编程实现改进型HIS变换功能的实现。(见图4)
需要再一次指出的是:改进型HIS变换法可以一体化实现多种不同空间分辨率影像数据的融合问题,为了能更好的阐述该功能模块,在这里只实现三种不同空间分辨率影像的融合。(统称低、中、高空间分辨率)
下面具体介绍一下该功能模块:
(1)数据输入模块:有三个输入模块,分别输入经过校正配准的三中不同空间分辨率的影像数据,一个是低空间分辨率的多光谱影像数据,两个是高空间分辨率的全色影像数据。
(2)数据处理模块:主要由两个HIS变换和两个RGB变换组成。
(3)数据输出模块:分别由两个输出模块和两个显示模块组成,两个输出模块分别输出的是由多光谱影像与中空间分辨率的全色影像融合而成的中空间分辨率的多光谱影像数据和由中空间分辨率的多光谱影像与高空间分辨率全色影像融合而成的高空间分辨率的多光谱影像数据。两个显示模块分别是对这两个输出数据的屏幕显示。
用户只要在输入模块中输入经过校正配准的影像数据,定义好输出数据的文件名及文件类型,通过运行上述的模块,就能很方便的得到需要的两种不同空间分辨率的融合影像,并且运算速度快,占用系统空间少。
5 结论
本文通过对HIS变换法与改进型HIS变换法的分析比较,我们知道改进型HIS变换法不但继承了HIS变换法的所有优点,而且很好的弥补了HIS变换法的不足之处,不仅最大限度地保留了低空间分辨率多光谱影像的光谱信息,而且只通过一次改进型HIS变换的运算就能生成多种不同空间分辨率的影像数据。
参考文献
[1]覃征,鲍复民.数字影像融合[M].西安:西安交通大学出版社,2004.
[2]孙家炳,李军.多源遥感影像融合[J].遥感学报,1998,2(01):47-50.
[3]杨肖琪,林嵩,全斌,高建阳,修晓龙.高分辨率卫星遥感数据的融合比较研究[J].集美大学学报,2005(4):338-342.
[4]Chavez P S Anderson J A.Comparison of the Three Different Meth-ods to Merge Multi—resolution and Multispectral Data:TM&SPOT Pan[J].Photogram metric Engineering and Remote Sensing,1991,57:295-303.
[5]贾永红.遥感多光谱影像空间分辨力增强的融合方法[J].遥感技术与应用,1997:P19-23.
[6]W.K.Pratt.Digital image processing[M].Addison Wesley Publishing Company,1991.
[7]李树涛,王耀南,张昌凡.多传感器图像融合的客观评价与分析[J].仪器仪表学报,2002,23(6):651-655.
[8]夏明革.基于小波分析的图像融合评述[J].红外与激光工程,2003,32(02):177-180.
[9]DL Hall.An introduction to multisensor data fusion[J].Proceedings of IEEE,1997,85(01):6-23.
遥感数据融合 篇2
总结分两大部分:融合部分和评价部分。图像融合阶段包括图像的预处理,最佳波段的选择,以及融合方法的选择。
图像的预处理主要有对接收图像质量的控制,几何校正,正射校正。论文中列出的算法均为常用算法。而后是对重采样后图像像素亮度的处理,有直方图均衡化,直方图匹配。最后对多源影像进行影像匹配。
最佳波段的选择主要是根据多波段图像间各波段图像中信息含量多、相关性小、地物光谱差异大、可分性好的波段,进行波段组合,进行后续的图像融合。
融合方法的选择方面除了常规方法以外,作者提出了2种改进型融合算法: 在像素级的融合方面(1)将HIS变换与小波变换结合算法;(2)小波变换的改进算法。在突出边缘的融合方面采用将突出边缘的特征级融合图像与像素级融合图像再融合的改进算法。
图像质量的评价这几篇论文进采用主客观相结合的评价方式,最终以评分的形式确定图像的质量。主要有
1、基于人眼视觉系统HVS的评分系统;
(1)基于HVS感兴趣特性和对比度的遥感图像无参考质量评价方法
这种方法基于人类视觉系统感兴趣性的原理,在对比度计算时考虑视觉感兴趣区域与背景区域权重系数,实现了一种基于HVS的感兴趣特性和对比度的遥感图像无参考质量评价方法。并利用遥感图像专家库的图像和数据进行实验,实验结果表明本章方法更加符合主观评价的结果。
(2)基于HVS掩盖效应和图像模糊的遥感图像无参考质量评价方法
该方法以盲测量图像模糊算法作为理论基础,将HVS的空间复杂度掩盖模型、亮度掩盖模型引入到图像质量评价过程中,并对人眼灰度敏感度进行建模,建模过程依据人类视觉系统对灰度具有差异的敏感性这一特性。实现了基于HVS和模糊的改进的遥感图像无参考质量评价体系。
2、基于模糊集的评分系统;
该方法基于模糊度理论,选取若干个图像质量参数,确定图像模糊度,由模糊度级隶属函数划分图像一级等级,然后再按二级隶属函数划分二级等级。次方法过程较复杂,工作量较大,结果相对精确。
3、针对土地利用项目的各个阶段质量对应控制的质量评价方式。
这种质量控制方法从阶段到整体对图像处理的每一步均进行质量检验,确保每一阶段图像质量均在可接受范围之内,最后再对结果进行整体检验,确定图像质量。其针对的是土地利用变更遥感监测项目,针对性较强。
遥感图像融合及质量评价总结.......................................................................................................1
一、融合阶段总结:.......................................................................................................................3
1、遥感影像预处理.................................................................................................................3
1.1几何校正.....................................................................................................................3 1.2基于影像直方图的预处理.........................................................................................3 1.3 影像配准....................................................................................................................4
2、多波段遥感影像最佳波段选择.........................................................................................5
2.1遥感影像最佳波段选择指标.....................................................................................5 2.2分析试验数据.............................................................................................................6 2.3 试验数据最佳波段选取............................................................................................7
3、图像融合方法.....................................................................................................................8
3.1像素级融合处理方法.................................................................................................8 3.2 突出边缘信息的影像融合方法................................................................................9
二 质量评价阶段总结...................................................................................................................10 1基于HVS的主客观相结合的评价方法.............................................................................10 1.1建立主观评分数据库...............................................................................................10 1.2基于HVS和SSIM的遥感图像全参考质量评价方法............................................11 1.3基于HVS感兴趣特性和对比度的遥感图像无参考质量评价方法.......................11 1.4基于HVS掩盖效应和图像模糊的遥感图像无参考质量评价方法.......................12 2基于模糊集理论的主客观相结合评价方法......................................................................13 2.1评价参数选取...........................................................................................................13 2.2建立基于模糊集的评分系统...................................................................................14 2.3评分并评级...............................................................................................................16 3阶段性与整体性图像质量控制方法..................................................................................16 3.1图像接收阶段...........................................................................................................17 3.2 图像预处理阶段......................................................................................................18 3.3 图像融合阶段..........................................................................................................18 3.4 整体性图像质量检验..............................................................................................18 小结................................................................................................................................................19
一、融合阶段总结:
1、遥感影像预处理 1.1几何校正
1.1.1位置校正 1.1.2重采样
论文列举方法有最邻近内插法,双线性内插法及三次卷积内插法。最邻近内插法的优点是不破坏原来的像元值,处理速度快,但会使原影像中的某些线状特征变粗成块。双线性与三次卷积内插法则可以减少线状特征的块状化现象,但两种方法均具有低通滤波性质,校正后滤掉信号中的部分高频分量。在实际工作中,应依据具体的影像和应用目标选择不同的内插算法。
1.2基于影像直方图的预处理
1.2.1 直方图均衡化
直方图均衡化又称直方图平坦化,是将一已知灰度概率密度分布的影像,经过某种变换,变成一幅具有均匀灰度概率密度分布的新影像,其结果是扩展了像元取值的动态范围。其实质是对影像进行非线性拉伸,重新分配影像像元值,使一定灰度范围内的像元的数量大致相等。
直方图均衡后每个灰度级的像元数理论上应相等,但实际上为近似相等,直接从影像上看,直方图均衡效果是:
1、各灰度级所占影像的面积近似相等,因为某些灰度级出现高的像素不可能被分割。
2、原影像上出现频率小的灰度级被合并,频率高的灰度级被保留,因此可以增强影像上大面积地物与周围地物的反差。
3、如果输出数据分段级较少,则会产生一些大类地物的近似轮廓。
1.2.2 直方图匹配
直方图匹配是通过非线性变换使得一个影像的直方图与另一个影像直方图类似。直方图匹配对在不同时间获取的同一地区或邻接地区的影像,或者由于太阳高度角或大气影响引起差异的影像处理很有用,特别是对影像镶嵌或变化检测。
为了使影像直方图匹配获得好的结果,两幅影像应有相似的特性:
1、影像直方图总体形状应类似。
2、影像中明暗特征应相同。
3、对某些应用,影像的空间分辨率应相同。
4、影像上地物分布应相同,尤其是不同地区的影像匹配。如果一幅影像里有云,而另一幅没有云,那么在直方图匹配前,应将其中一幅进行去云处理。
直方图匹配在HIS变换融合、主成分变换融合和小波变换融合中用得较多,且能起到辐射增强的效果。许多研究表明:直方图匹配能够在尽量保持光谱信息的情况下提高融合影像的细节信息,增大信息量。
1.3 影像配准
影像配准为对从不同传感器、不同时相、不同角度所获得的两幅或多幅影像进行最佳匹配的处理过程。其中的一幅影像是参考影像数据,其它影像则作为输入影像与参考影像进行相关匹配。
影像配准是影像融合处理中最关键的一个步骤。在影像融合的各项预处理过程中,多幅影像的几何配准精度对融合影像的质量影响最为显著。主要有两类像素层影像配准算法:基于区域的配准算法和基于控制点的配准算法。基于区域的影像配准算法已广泛的应用于各种影像配准领域,它运用的是整个区域的影像像素灰度值来进行配准。基于区域的像素层配准算法主要分为三类:灰度相关类算法、快速相关算法(如变灰度级相关算法、FFT相关法、序贯相似性检测算法(SSDA)、变分辨率相关算法等、以及相位相关算法)。这类配准技术目前发展较为成熟,在没有太大的畸变情况下具有较好的配准性能且对各种影像场景都有较好的适应性。由于基于区域的配准是以像素的灰度值为基础,当存在较大的灰度畸变时,这类算法就难免失效。此外,整个区域的影像灰度值难以正确描述影像的结构信息,当存在较为复杂的结构畸变时,基于区域的配准算法也很难得到正确的配准结果。针对以上两种情况,目前研究较多的是基于控制点的影像配准算法。
基于控制点的影像配准方法通过选取影像间明显的控制点对,利用它们之间的对应关系来获得配准结果,从而解决了无法掌握灰度畸变成因而失配的难题。控制点的选择分为人工选点和自动选点两种,两种选点方法的选点精度都受到影像质量影响,例如在低分辨率或噪声干扰大的影像中选取的控制点的精度都会有所降低。而影像配准效果在很大程度上取决于控制点选取的好坏,因此,如何选取高精度的控制点是基于控制点的配准算法的关键所在。
2、多波段遥感影像最佳波段选择 2.1遥感影像最佳波段选择指标
通常,波段选择考虑三个方面的因素:(1)波段或波段组合信息含量的多少;(2)各波段间相关性的强弱;
(3)研究区内欲识别地物的光谱响应特征如何。
那些信息含量多、相关性小、地物光谱差异大、可分性好的波段组合就是最佳组合。因此常选用下列指标判断最佳波段。
2.1.1均值、标准差、信息嫡和联合嫡 1)均值
均值就是像素的平均灰度值,对人眼反映为平均亮度;标准差反映了相对灰度均值的离散状况,标准差越大,灰度分布越分散。一般认为平均灰度接近128和更大方差的图像有较好的视觉效果。
2)标准差
标准差反映了图像灰度相对于灰度平均值的离散情况。在某种程度上,标准差也可用来评价图像信息量的大小。若标准差大,则图像灰度级分布分散,图像的反差大,可以看出更多的信息。标准差小,图像反差小,对比度不大,色调单一均匀,看不出太多的信息。
3)信息嫡
图像的嫡值是衡量图像信息丰富程度的一个重要指标,嫡值的大小表示图像所包含的平均信息量的多少。对于一幅单独的图像,可以认为其各像素的灰度值是相互独立的样本,则这幅图像的灰度分布为p={p0,p1,…,pi,…,pL-1 },pi为灰度值等于i的像素数与图像总像素数之比。根据shamrnon信息论的原理,一幅图像的信息嫡为
4)联合嫡
两幅图像的联合嫡为:
式中Pi1i2是图像X1像元亮度值为i1与图像X2中同名像元亮度值为i2时的联合概率。一般来说联合嫡值越大,图像信息量越大。
2.1.2 相关系数及最佳指数 1)相关系数
融合图像与源图像的相关系数能反映两幅图像光谱特征的相似程度,其定义如下:
式中,f和a分别为融合图像与源图像的均值。通过比较融合前后的图像相关系数可以看出图像的光谱信息的改变程度。融合的影像与相应多光谱影像的相关系数p能反映融合影像同原多光谱影像光谱特征相似程度,即保光谱特性能力。同样,通过比较融合增强前后的图像相关系数可以看出融合影像与高分辨率影像的空间分辨率改善程度。2)最佳指数
美国查维茨提出的最佳指数OIF的概念,即 __
其中,Si为第i个波段的标准差,Rij为i,j两波段的相关系数。对n波段图像数据,计算其相关系数矩阵,再分别求出所有可能三组合波段对应的OIF。OIF越大,则相应组合图像的信息量越大。对OIF按照从大到小的顺序进行排列,即可选出最优组合方案。
2.2分析试验数据
以议论文中选取IKONOS和QUICKBIRD影像试验为例
QUICKBIRD影像是2005年5月份合肥地区256平方公里的数据,IKONOS影像是2001年5月份北京地区100平方公里数据。
由表可以看出:QUICKBIRD标准差Ⅱ>Ⅱ>Ⅲ>Ⅰ,IKONOS标准差Ⅳ>Ⅲ>Ⅱ>Ⅰ,标准差越大越好,则图像灰度级分布分散,图像的反差大,说明信息量丰富;QUICKBIRD信息嫡Ⅳ>Ⅲ>Ⅱ>Ⅰ,IKONOS信息嫡Ⅳ>Ⅲ>Ⅱ>Ⅰ,墒值的大小表示图像所包含的平均信息量的多少,信息嫡越大说明信息量越丰富。
2.3 试验数据最佳波段选取
一般来说,波段选择有两点原则:①所选择的波段和波段组合的信息量最大;②所选的波段和波段组合使得某些地物类别之间最容易区分。对于论文中试验数据做各个波段组合分析:
由上表可知波段Ⅰ、Ⅲ、Ⅳ联合嫡和最佳指数最大。由联合嫡、最佳指数以及以上各波段的分析可知,最佳波段组合是Ⅰ、Ⅲ、Ⅳ。
3、图像融合方法 3.1像素级融合处理方法
论文中对于此类列举了几种常规算法并一种改进算法,包括: 3.1.1影像代数运算融合方法 1)加权平均融合方法 2)乘积性融合方法 3)比值融合方法 4)高通滤波融合方法 3.1.2彩色空间变换融合方法 1)HIS变换融合法
2)YIQ与YUV变换融合法
3.1.3 PCA变换融合方法
3.1.4基于塔式分解和重建融合方法
1)基于拉普拉斯塔形分解的影像融合方法。2)基于梯度塔形分解的影像融合方法。
3.1.5小波变换融合方法
3.1.6 改进算法
1)将HIS变换与小波变换结合算法
其基本思想是:多光谱影像经TROUS小波分解后生成不同尺度的近似影像和一组相关分辨率的小波面,不同尺度下的近似影像及每一小波面的尺寸都与原影像的尺寸相同。在不同尺度下的近似影像中,低频分量集中了绝大部分能量,它与多光谱影像中的光谱信息相对应。高分辨率全色影像经TROUS小波分解得到一组不同分辨率的小波面,在每一小波面中,绝对值较大的系数对应于原始影像中的显著特征(如边缘、线、区域边界等),它反映了原始影像中的丰富细节和空间结构。
因而在高分辨率全色影像与多光谱影像融合时,尽可能保留高分辨率全色影像的小波面系数;另一方面保持多光谱影像的近似数据,并抑制高分辨率全色影像的近似数据,以达到融合影像既保留原始影像中的丰富细节和空间结构,又不改变原多光谱影像的光谱信息。因此将高分辨率影像经小波分解得到的各小波面叠加到低分辨率多光谱影像中,从而既提高了多光谱影像的空间分辨率,同时又保持了多光谱影像的光谱信息。
2)小波变换的改进算法
该算法根据待融合影像分辨率之比来确定采用几进制小波,将待融合的高分辨率影像进行多进制小波变换,然后把高分辨影像经小波变换后获得的低频成分和低分辨率影像依据一定的关系进行相互替换,以形成新的高分辨影像的低频成分,经过多进制小波逆变换获得融合后的影像最大限度地利用了待融合影像的信息,防止了影像信息的丢失。
3.2 突出边缘信息的影像融合方法
3.2.1经典边缘检测算子
常用的边缘检测算子有Sobel算子、Prewitt算子、Roberts算子、Laplacian算子和Canny算子。
3.2.2改进算法
首先对高分辨率全色影像与多光谱影像选取适当的方法进行像素级融合,同时,对边缘信息丰富的全色影像进行不同算子的边缘检测分别得到边缘影像1和边缘影像2,然后将两幅边缘影像进行特征融合,融合后的边缘影像与前面生成的像素级融合影像用下列公式进行叠加,其中,N(x,y)、F(x,y)、L(x,y)分别为边缘增强影像、像素级融合影像及边缘影像;K为权系数。
其流程图如下:
二 质量评价阶段总结
1基于HVS的主客观相结合的评价方法
HVS:人类视觉系统,论文提出的所有方法均以HVS为依据,按尽量符合人眼观察信息时的生理特点而设计。
1.1建立主观评分数据库
论文中选取10张原始遥感图像,经过4种失真方式处理,获得了 240张待评价图像。选择3个专家人员以及15个非专家人员参加图像主观质量评价。按照ITU-R BT.500-11中有所描述标准,评分系统采用双刺激连续质量测量法的设计,为评价人员展示图像对。评分人员对图像打分(百分制)。该过程工作量较大。
1.2基于HVS和SSIM的遥感图像全参考质量评价方法
该方法主要针对大部分图像无法较准确的评价包含严重失真的图像的问题而设计。具体实现的过程如下,首先生成相应的视觉感知图,生成过程使用到图像的空间域视觉特征(包括空间位置、纹理复杂度以及亮度对比度等)。其次生成失真感知图,该图可通过计算块结构相似度得到。接着通过视觉感知图计算获得相应的视觉特征显著区域,同时通过失真感知图计算获得相应的失真严重区域,再进而计算视觉注意焦点的转移,要分别从视觉特征显著因素与失真严重因素这两个方面进行考虑,分析该转移影响了视觉感知的哪些方面,在考虑视觉注意焦点转移的基础之上,重新生成一幅视觉感知图(焦点转移后的)。最终图像的客观质量可以通过将块结构相似度与两幅视觉感知图加权求和获得。
1.3基于HVS感兴趣特性和对比度的遥感图像无参考质量评价方法
实际为在对比度计算时考虑视觉感兴趣区域与背景区域权重系数,实现了一种基于HVS的感兴趣特性和对比度的遥感图像无参考质量评价方法。
通过①计算图像中感兴趣区域与非感兴趣区域的加权因子以及归一化后的加权系数;
②计算出图像的原始对比度值以及添加HVS特性之后的对比度值。所得结果作为评价标准。论文中实验结果为
此方法计算结果表明添加了 HVS特性之后的对比度值与图像的主观评价值相关性和单调性都高于传统方法。这就意味着,在添加了 HVS特性之后,图像的评价值与其主观评价值更为相似,即加入了 HVS特性之后的图像评价值的结果更为符合人类在现实生活中对图像所进行的评价。
1.4基于HVS掩盖效应和图像模糊的遥感图像无参考质量评价方法
该方法以盲测量图像模糊算法作为理论基础,将HVS的空间复杂度掩盖模型、亮度掩盖模型引入到图像质量评价过程中,并对人眼灰度敏感度进行建模,建模过程依据人类视觉系统对灰度具有差异的敏感性这一特性。实现了基于HVS和模糊的改进的遥感图像无参考质量评价体系。
该方法通过对图像进行掩盖后确定图像的边缘,则使用边缘检测算子计算出边缘结果,然后计算该边缘点的灰度敏感度s(g),由s(g)求出所有边缘点基于HVS的模糊度HB,取其最大结果作为该图像的模糊度。
论文中实验验证结果为:
如表5.5,在第一组实验中,引入了 HVS的掩盖特性的质量评价结果(HB)与主观评价结果的相关度:pearson相关系数为90.4%,spearman秩相关系数为90.7%,说明本文的方法与主观评价结果更加具有一致性。
在第二组实验中,虽然三幅图像均使用同样的模糊半径进行模糊,但由于亮度不同,评价人员从视觉感知上对他们的打分显然有所不同,而评分也反映出它们的质量是依次下降的。对于原始的模糊度值(B)得出的评分确实完全相同的,根因也是其并未考虑人眼灰度敏感度特性的影响。根据评价分析可以看出,三幅图像的基于HVS的掩盖特性的质量评价结果(HB)与主观评价结果的相关度:pearson相关系数为94.1%,spearman秩相关系数高达95.1 %,表明本文方法所得到的模糊程度评价结果与主观评价结果更加具有一致性。
根据以上两组实验,可以推断,引入了 HVS的掩盖特性的质量评价方法更加符合人眼的视觉特性。
2基于模糊集理论的主客观相结合评价方法
模糊集合是将普通集合论中元素 x 对于集合 A 隶属关系体征函数的取值范围从{0,1}拓展到了[0,1]。从而导出了模糊集合(也称模糊子集)的概念。检测图像质量时选取若干个相应参数,用这些参数确定图像的模糊度,再将模糊度代入隶属函数,确定图像的质量等级。
2.1评价参数选取
客观质量的评价的元素,应该具备
①靠元素的一个数值便能在一定程度上说明质量的优劣; ②数值的大小应与质量和分数都应呈线性关系(无论正反比),便于建立函数为宜。因此经过分析,在客观评价方面采用影像几何精度、调制传递曲线、分辨率、信噪比、元数据和说明文件正确性以及完整性、为评价标准。评价是采用10分制模式。
其中影(1)像几何精度采用Kappa 度量模型,K临 经Kappa分析所得的图像合格临界值
(2)调制传递曲线采用MTF 度量建模,(3)分辨率采用
(4)信噪比
(5)元数据和说明文件正确性以及完整性
另外再加一项(6)主观因素
这里采用传统的描述方式,由专业人员先按五分制打分,再转化成十分制,其标项有:影像的清晰度、影像的色彩、影像的亮度、对比度以及色差、色斑等分别列表如下:
具体得分细则如下:
2.2建立基于模糊集的评分系统
此论文运用模糊集原理将遥感图像质量划分为五大级,每一大级再细分为五级,共25级,并从整体,局部,特征三方面评分:
1、整体 信噪度 分辨率 清晰度 图像精度
2、局部 局部信噪度 局部分辨率 局部清晰度 局部精度
3、特征
说明文件完整性
元数据完整性
元数据正确性
主观因素性
评分项目列表如下:
2.3评分并评级
多位评分人员计算上述评分参数,建立评分矩阵,与对应权重矩阵相乘,将结果代入对应一级模糊度隶属函数出区间值模糊综合评判矩阵,计算最终模糊度。根据模糊度划分一级,然后再代入二级模糊度评分函数,确定二级区间,划分二级等级。
基于模糊集的评价方法步骤多,而且每个参数的计算量较大,由参数代入隶属函数计算模糊度时也比较多,但结果精确。针对不同融合目的的图像,应选择不同的模糊度评价参数,保证计算结果的合理性。
3阶段性与整体性图像质量控制方法
这种质量控制方法是对图像处理的每一步均进行质量检验,确保每一阶段图像质量均在可接受范围之内,最后再对结果进行整体检验,确定图像质量。其针对的是土地利用变更遥感监测项目,针对性较强。操作流程如下图:
3.1图像接收阶段
数据接收阶段是数据质量问题最早出现的阶段,在对接收到的各种数据进行生产 和加工之前就需要对所接收到的各种数据进行数据质量的检查。针对该项目在该阶段 所接收到的数据大致包括:基础底图、原始影像、DOM 数据、2010 年度的土地调查 数据库及年度疑似新增的建设用地数据库等。
接收数据检查及处理表:
3.2 图像预处理阶段
该阶段检测针对的是预处理中的几何校正和正射校正。
3.3 图像融合阶段
该阶段论文针对的是土地变化进行的检测。
3.4 整体性图像质量检验
该阶段针对提交前成果按监理组相关标准,对提交成果进行全面检查。主要有以下几方面:
1、成果是否完整,格式,命名,组织是否正确。
2、数学基础(坐标是否统一、投影是否正确)
3、DOM 检查
4、镶嵌块信息文件
5、检测图斑
6、逻辑一致性
7、XXB检查
8、DMM检查
最后按这8个大方面对提交前的结果进行整体性检查,保证最终提交结果的质量。总体上看此方法目的性、针对性较强,某些评价指标不具代表性,而且论文各阶段进行质量控制方面属其对操作过程的规范化,后续图像质量的检测又属图像处理中的必须工作。其整体检测思想可以借鉴。
小结
本次总结主要真对图像融合处理各阶段,其中融合阶段包括图像预处理,最佳融合波段选择,融合方法选择。其中预处理和波段选择阶段的算法属于常规方法。图像融合阶段论文根据融和信息抽象层次包括数据层(即像素层)、特征层和决策层,按这三个层次将融合分为三级,即像素级融合、特征级融合和决策级融合。提出了在像素级融合、特征级融合的改进型算法。
结合边缘特征的遥感图像融合 篇3
多源图像数据融合是信息融合的重要分支,在遥感图像处理等方面有广阔的应用前景。多光谱图像(Multi-Spectral,MS)和全色(Panchromatic,PAN)高分辨图像融合是多传感器图像融合中的一种,高分辨率的全色图像反映了空间结构信息,能够充分描述地物的细节等特征,但频谱分辨率较低,不能较好地描述地物的光谱信息。低空间分辨率的多光谱图像光谱信息丰富,对地物的识别与解释起到重要作用。在遥感应用中,具有丰富光谱信息的多光谱MS图像与具有高空间分辨率的全色波段PAN图像的融合就是利用它们各自的互补信息获得具有高空间分辨率的MS图像,使融合后的图像能够尽可能地保持原始多光谱图像的频谱信息,提高空间分辨率,融合后的MS图像不仅应具有较高的几何信息内容,同时还应保持良好的光谱信息质量。
Candes[1]等人提出了一种适合分析具有曲线或超平面奇异性高维信号的曲波(Curvelet)变换。曲波变换不但和小波一样具有局部时频分析能力,还具有比小波变换更强的方向选择和辨识能力,而且对图像边缘的表达更优于小波,是一种更适合于图像处理的多尺度几何分析(MGA)方法。曲波较小波具有更好的稀疏表达能力,它能将图像的边缘,如曲线、直线特征用较少的大的曲波变换系数表示,克服了小波变换中传播重要特征到多个尺度上的缺点,变换后能量更加集中,更利于跟踪和分析图像的重要特征。将Curvelet运用到图像去噪[2]、增强[3]、融合[4,5,6,7,8]等方面,均得到了较好的效果。
1 基于边缘信息的曲波域图像融合
1.1 HSI变换
在RGB空间中,光谱信息与三个坐标R,G,B的耦合性较强,R,G,B中任一分量的改变都会改变光谱信息,在图像处理过程中处理起来困难。为了将高分辨率影像的结构信息叠加到低分辨率多光谱影像中,经典的方法是采用HSI变换法。在HSI空间中,光谱信息主要体现在色调和饱和度H,S上,亮度I主要反映地物辐射总的能量及其空间分布,即表现为几何特征。从视觉特点上分析,亮度I的改变对光谱信息影响较小,便于处理。对于高空间分辨率影像和多光谱影像的融合,希望在保留光谱信息的前提下添加高空间分辨率影像的细节信息,因此更适于在HSI空间进行处理[9]。
1.2 基于边缘信息的曲波域图像融合
单一的HSI变换融合方法往往会带来极大的光谱失真,将HSI变换和curvelet变换结合,利用HSI融合增强空间细节表现能力以及Curvelet融合保留MS图像的光谱特性和PAN图像的纹理信息优点,使融合图像在保持光谱信息、提高空间分辨率和增强细节纹理信息三个方面的综合性能达到较好的平衡。
本文提出了一种结合边缘信息的曲波域遥感图像融合方法,利用曲波对图像几何特征更优的表达能力有效地提取原始图像的特征,为融合图像提供更多的信息,针对全色图像和多光谱图像进行了融合实验。首先对多光谱图像MS进行HSI变换,得到亮度分量I,对全色图像和I分量进行曲波变换得到粗尺度系数、细节尺度系数以及最小尺度系数,利用边缘信息对粗尺度系数进行处理,采用函数对细节尺度系数中的弱边缘进行增强;最小尺度系数采用简单的选择;曲波逆变换后得到新的亮度分量Inew,用Inew替代原亮度分量I进行逆HSI变换得到最终融合结果。
具体融合步骤:
1)对MS图像进行RGB到HSI颜色空间的转换,得到亮度分量I,色度H和饱和度S;
2)对I和全色图像(PAN)进行曲波变换,分别得到粗尺度系数CI,CPAN,细节尺度系数DI,DPAN以及最小尺度系数FI和FPAN;针对多光谱和全色的成像特点,本文采用分层的融合方法,对曲波分解的粗尺度系数和细节尺度系数分别采用不同的融合规则。
3)粗尺度系数融合如下:
a)曲波系数的选择取决于该级曲波分解的幅值。对PAN图像的曲波变换系数进行叠加,即
计算叠加系数的归一化直方图1。可以看出,归一化的直方图呈现出一个明显的脉冲状且峰值左右基本对称,这样,在峰值附近区域对应于区间[u-c×σ,u+c×σ],由于曲波系数的绝对值较小,边缘信息比较弱,此区间为目标平滑区;在峰值两边对应于区间cu×-],0[σ和cu×+]1,[σ,由于曲波系数的绝对值较大,反映了较强的边缘信息,这两个区间为目标边缘区。从直方图分布上可以看出,边缘在图中所占的比例比较小,平滑区所占的比例较大。其中,u为均值,σ为方差,c为区间调节因子。实验中取c=2时,融合图像基本在保持多光谱大部分光谱信息的同时将PAN图像的大部分较强边缘保留了下来。
b)令GPAN(i,j)为PAN R图像在(i,j)处的灰度值,GMS(i,j)为多光谱图像对应的灰度图像在(i,j)处的灰度值。令Y为边缘有效因子,定义为
c)融合后的粗尺度系数按照如下规则选取:
4)细节尺度融合规则(弱边缘增强)
边缘是图像非常显著的一个特征,全色图像有很多弱小边缘,在融合时,应该尽可能多地保留图像的有用特征。目前的多尺度变换融合方法无论是基于像素的融合还是基于区域的融合,只涉及到反映图像中的强边缘的值,并没有考虑图像中那些弱的边缘值。受文献[10]的启发,本文使用同一函数来对图像的Curvelet系数进行修改,使图像中的那些弱边缘放大,强化图像中的弱边缘,从而改善融合图像空间分辨率。经处理后所得的图像边缘平滑,纹理更为清晰。
式中:各参数值的含义为σ是图像的噪声方差,采用文献[11]中的估计方法对源图像的噪声方差进行估计。p决定了非线性的程度,如果s>0则在增强弱边缘的同时削弱强的边缘。k是标准化参数,k≥3保证噪声不被放大,m是Curvelet系数的调整因子,其值由Curvelet变换各子带中明显像素值决定,随子带变化而变化,一般取Curvelet最大系数值的一半。在实验过程中发现,参数p、s、k的取值分别为p=0.5、s=0、k=3时效果最佳,参数m,σ在融合过程中得到。因此,yk(x,σ)主要的作用为:1)抑制噪声;2)增强弱边缘。
5)最小尺度融合规则:取全色图像的最小尺度系数,Fnew=FPAN;
6)对于Cnew、Dnew和Fnew进行曲波逆变换,得到Inew;
7)用Inew代替I分量,同H、S分量一起进行HSI逆变换得到融合图像。
2 实验结果分析与评价
实验数据采用北京附近的SPOT全色影像和同一地区的Landsat TM影像进行实验,如图2(a)和图2(b)所示,在保持MS图像多光谱信息的基础上加入高分辨率PAN图像中的重要目标信息进行融合。为方便对比,同时也对曲波域其他融合算法进行了实验,分解3层。图2(c)为文献[4]中的方法,对粗尺度和细节尺度均取大(Curvelet(CmaxDmax));图2(d)为文献[5]中的方法,粗尺度取平均,细节尺度取大(Curvelet(CmeanDmax))。图2(e)为文献[6]中的方法,粗尺度取MS,细节尺度取PAN(Curvelet(Cms Dpan));文献[4-6]方法均为直接在曲波域对系数直接处理得到融合结果;图2(f)、图2(g)为文献[7]和文献[8]结合HSI变换对亮度分量调制(Intensity Modulation,IM)的曲波域融合方法,为与本文算法区别,记为粗尺度亮度调制方法1(IM1),亮度调制方法2(IM2),本文算法记为亮度调制方法3(IM3)。本文算法HSIIM3Dedge如图2(h),实验结果如图2(c)∼图2(h)所示。
对比分析融合前的MS图像、全色图像以及融合图像可以看出,融合后的图像信息量都有所增加,集中了图像的信息优势,使得融合后的图像既保持了MS图像的多光谱信息,又不同程度地加入了全色图像中的细节信息,目视效果上不仅具有光谱特性,而且加入了全色图像中的细节信息。
从目视效果来看,直接进行系数处理的融合方法(图2(c)、图2(d)和图2(e))中,直接系数值取最大(图2(c))和平均(图2(d))的方法产生了较大的光谱扭曲,尤其是蓝色波段扭曲最为严重。丢失了原多光谱图像的大量信息;图2(e)的光谱扭曲较少。说明曲波粗尺度直接取大的方法和曲波粗尺度采用平均的方法(Curvelet(CmeanDmax),图2(d))不适合光谱差异较大的图像融合;结合HSI变换的三种方法都较好地保持了光谱信息。其中,对比原多光谱图像右半部分蓝色可以看出,HSICmeanDmax方法(图2(f))和HSICIM1Dmax方法(图2(g))的融合结果在该部分颜色偏浅,出现了一定程度的光谱扭曲;目视光谱保持较好的算法(图2(e))和本文算法,在使目标清晰可见的基础上较好地保持了原多光谱图像的光谱特征,融合图像的纹理更清晰。
对于遥感图像融合效果的评价应综合考虑空间细节信息的增强与光谱信息保持。一般利用两类统计参数进行分析与评价[12]:一类反映空间细节信息,如标准差、信息熵和清晰度;另一类反映光谱信息,如扭曲程度、偏差指数与相关系数。本文采用熵、平均梯度、空间频率、扭曲程度来进行融合结果的客观评价。
1)熵(Entropy)是衡量图像信息丰富程度的一个重要指标,融合图像的熵值的大小表示图像所包含的平均信息量的多少。信息熵越大,图像所含的信息越丰富,融合质量越好。
2)平均梯度(Grad)反映了图像中的微小细节反差表达能力和纹理变化特征,同时也反映了图像的清晰度。平均梯度越大表明清晰度越好。
3)空间频率(Space Frequency)
图像的行频率和列频率分别为
则图像的空间频率为
空间频率反映了一幅图像空间域的总体活跃程度。
4)扭曲程度(Degree of Distortion)
光谱扭曲度能够客观地反映融合图像相对于MS图像的光谱信息丢失情况,其值越小说明融合图像越多保留了MS图像中的光谱信息,产生的光谱畸变越小。光谱扭曲度反映了融合图像的失真程度,定义为
其中IF(i,j),I(i,j)为融合后和原图像上(i,j)点的灰度值。扭曲程度越小表明图像的失真程度越小。
综上,融合结果的熵、平均梯度、空间频率这三个指标参数值越大越好,扭曲程度则越小越好。
表1中列出了实验中各融合算法的原始图像与各融合图像的熵、梯度、空间频率和扭曲度评价参数值,各参数所表示的含义如前所示。可以得出以下结论:
1)直接系数处理的融合方法与结合HSI变换融合方法的熵、梯度和空间频率相比:结合HSI变换的融合图像的熵、梯度和空间频率值都有提高,图像清晰度增强,说明Curvelet域结合HSI变换的融合方法在空间信息保持上优于直接系数处理的融合方法;
2)直接系数处理的融合方法与结合HSI变换融合方法的扭曲度相比:结合HSI变换的三种方法的扭曲度大大降低,说明Curvelet域结合HSI变换的融合方法在光谱保持能力上远远优于直接系数处理的融合方法。
3)本文提出的结合边缘信息和全色图像特征信息的曲波域融合方法得到的融合图像的熵、梯度和空间频率值都最大,说明融合图像损失的相关信息最少;得到的光谱扭曲度值最小扭曲度低,光谱相似性程度最高,说明本文方法在光谱信息保持以及空间细节保持能力上都优于其他曲波域融合方法。
3 结论
全色图像与MS图像由于成像方式以及接受波谱段不同,对地物的特征描述存在很大的差异,将全色与MS图像融合,可以更好地利用互补信息,使得融合图像在保持MS图像光谱特征的基础上增加了全色图像的目标信息和细节特征信息,增强了融合图像的目标识别能力。曲波变换作为一种新的图像多尺度几何分析的有力工具,在图像的融合应用上显示出了良好的特征提取和跟踪能力。本文提出了一种结合边缘信息和全色图像特征的遥感图像融合方法,定义了边缘有效因子对全色图像进行了分区,利用边缘信息和系数统计信息对MS图像I分量和全色图像曲波变换的粗尺度系数、细节尺度系数和最小尺度系数分别进行处理,重构得到了融合图像。实验结果表明,结合边缘信息和全色图像特征的遥感图像融合方法用于全色图像和MS图像的融合是有效的,融合结果在保持光谱信息的同时提高了空间分辨率。
参考文献
[1]Candes E J,Demanet L,Donoho D L,et al.Fast Discrete Curcelet Transforms,Applied and Compurational Mathematics[M].California:California Institute of Technology,2005.
[2]Starck J L,Emmanuel J,Candes,et al.The Curvelet Transform for Image Denoising[J].IEEE Transactions on Image Processing(S1057-7149),2002,11(6):670-684.
[3]李林.基于Curvelet变换的全色图像增强[J].仪器仪表学报,2006,27(6):2134-2135.LI Lin.PAN image enhancement algorithm based on curvelet transform[J].Chinese Journal of Scientific Instrument,2006,27(6):2134-2135.
[4]李晖晖,郭雷,刘坤.基于曲波变换的遥感图像融合研究[J].光电子激光,2008,19(3):400-403.LI Hui-hui,GUO Lei,LIU Kun.Remote sensing image fusion based on curvelet transform[J].Journal of Optoelectronics Laser,2008,19(3):400-403.
[5]张强,郭宝龙.一种基于Curvelet变换的多传感器图像融合算法[J].光电子激光,2006,17(9):1123-1127.ZHANG Qiang,GUO Bao-long.Fusion of multisensor images based on curvelet transform[J].Journal of Optoelectronics Laser,2006,17(9):1123-1127.
[6]张强,郭宝龙.应用第二代Curvelet变换的遥感图像融合[J].光学精密工程,2007,15(7):1130-1136.ZHANG Qiang,GUO Bao-long.Fusion of remote sensing images based on the second generation Curvelet transform[J].Optics and Precision Engineering,2007,15(7):1130-1136.
[7]许星,李映,孙瑾秋,等.基于Curvelet变换的SAR与TM图像融合研究[J].西北工业大学学报,2008,26(3):395-398.XU Xing,LI Ying,SUN Jin-qiu,et al.An Algorithm for Image Fusion Based on Curvelet Transform[J].Journal of Northwestern Polytechnical University,2008,26(3):395-398.
[8]蒋年德,王耀南,毛建旭.基于2代Curvelet改进IHS变换的遥感图像融合[J].中国图象图形学报,2008,13(12):2376-2382.JIANG Nian-de,WANG Yao-nan,MAO Jian-xu.Using the Second Generation Curvelet to Improve IHS Transform Merge Remote Sensing Images[J].Journal of Image and Graphics,2008,13(12):2376-2382.
[9]杨旭红,敬忠良,李建勋.基于局部统计特性和IHS变换的遥感影像融合[J].系统工程与电子技术,2005,27(4):627-631.YANG Xu-hong,JING Zhong-liang,LI Jian-xun.New fusion approach using local statistical characteristics and colorspace transform for remote-sensing images[J].Systems Engineering and Electronics,2005,27(4):627-631.
[10]Jean-Luc Starck,Fionn Murtagh,Emmanuel J Candes,et al.Gray and Color Image Contrast Enhancement by the Curvelet Transform[J].IEEE Transactions on Image Processing(S1057-7149),2003,12(6):706-717.
[11]肖磊,隆刚,陈学佺.基于Curvelet变换抑制SAR图像斑点噪声的方法[J].计算机工程,2006,32(9):196-198.XIAO Lei,LONG Gang,CHEN Xue-quan.Denoising Method of SAR Image Based on Curvelet Transform[J].Computer Engineering,2006,32(9):196-198.
卫星遥感数据浏览查询技术的研究 篇4
卫星遥感数据浏览查询技术的研究
遥感卫星图像数据的浏览查询系统作为遥感卫星地面站数据处理系统中的一个重要环节,向遥感数据用户提供查询和检索卫星原始数据以及各级产品数据的服务.针对每天需获取上百GByte的遥感数据并进行存储管理而导致的并发用户进行浏览查询时等待时间过长的现象,从卫星遥感图像数据库的`设计和管理方面,介绍了Oracle数据库技术在新一代高码速率遥感卫星地面数据处理的浏览查询系统研制中的应用.
作 者:李莹 王风华 范士明 LI Ying WANG Fenghua FAN Shiming 作者单位:中空间技术研究院卫星应用系统部,北京,100086 刊 名:航天器工程 ISTIC英文刊名:SPACECRAFT ENGINEERING 年,卷(期): 17(1) 分类号:V19 V474.2 关键词:遥感卫星 浏览查询 Oracle基于引导滤波的遥感图像融合算法 篇5
关键词:遥感图像,图像融合,引导滤波
图像融合是将对同一目标拍摄的两幅或多幅图像合成为一幅图像的过程,得到的融合图像同时具有源图像的优点,能提供更加丰富可靠的信息,方便人们有效的分析数据或者观察目标[1]。图像融合分为3个处理层次,分别是像素级融合、特征级融合和决策级融合。像素级融合是对源图像中的目标和背景等信息直接进行处理,其能最大程度地保持图像细微的信息,因此研究较为广泛[2]。
遥感图像是用于描述地表信息的重要数据源,但受到传感器的限制,得到的遥感图像难以同时具有高光谱分辨率和高空间分辨率。全色成像的频带宽、频率分辨率低,具有较高的空间分辨率,得到的全色图像较清晰。多光谱成像的频率窄、频率分辨率高,但空间分辨率较低,得到的多光谱图像较模糊[3]。将全色图像和多光谱图像进行融合,利用它们的互补信息,可提供一个同时具有高空间分辨率和光谱分辨率的融合图像,从而满足更深层次应用的需要[4]。
1 引导滤波器基本理论
1.1 引导滤波器定义
常见的空间滤波器有高斯滤波器等,属于线性移不变滤波器,其共同点是核空间不变性,且与输入图像的内容无关。但多数情况下,需要把图像包含的信息在滤波过程中体现出来,因此提出引导滤波器[5]。引导滤波器,就是滤波器核权重,是由引导图像信息确定的滤波器。引导图像和输入图像可以为同一幅图像,也可以为不同的图像。引导滤波器(Guided Filtering)的概念在2010年由Kai Ming He[6]等人提出。引导滤波器具有边缘保留平滑特性,在图像增强[7]、图像去雾[8]、图像融合[9]等方面取得了良好的效果。
引导滤波的输出图像O和引导图像G是基于局部线性模型的,即在以k为中心的窗ωk内,在像素点i处,输出值Oi是Gi的线性变换,即
其中,ωk是(2r+1)×(2r+1)大小的窗;ak和bk是窗ωk内的常数系数。为估计常数系数ak和bk,可以通过最小化输出图像O与输入图像P的平方差来计算
其中,ε是调节滤波器滤波效果的重要参数;pi是输入图像p在像素点i处的像素值。用μk和σ2k表示引导图像G在窗中的均值和方差;表示输入图像p在窗中的均值。通过最小二乘法,可以得到式(2)的解
在计算每个窗口的线性系数时,可以发现一个像素会被多个窗口包含,也就是说每个像素都由多个线性函数所描述。一个简单的方法就是平均像素i处所有可能的输出像素值Oi。因此,按以下公式计算滤波器输出
其中,
1.2 引导滤波器的参数分析
引导滤波器的窗口半径r和调整参数ε对滤波器的输出结果都会产生一定的影响。半径r控制滤波器滤波窗口的大小,决定了空间滤波的能力。r取值越大,滤波器在空间滤波时的窗就越大,图像会更加平滑。ε决定了滤波器的滤波效果。
当G=p时,即引导滤波器的引导图像和输入图像为同一幅图像时,如果ε=0,则根据ak=σk2/(σk2+ε),bk=(1-ak)μk,显然可以得到ak=1,bk=0,此时滤波器输出O=G,没有滤波效果。若ε>0,考虑两种情况:
(1)在高方差区域,即引导图像G在窗ωk内像素强度变化大,此时有σk2>ε,因此可得ak≈1,bk≈0。此时空间滤波效果很弱,有助于保持图像边缘;
(2)在平坦区域,即引导图像G在窗ωk内像素强度变化小,几乎为常数,此时有σk2≤ε,因此可以得到ak≈0,bk≈μk。此时引导滤波器相当于加权均值滤波器。
ε的大小就是判断高方差区域或者平坦区域的标准。在窗口内若方差σk2≤ε,就会被平滑,如果≥ε就会被保留。在窗口大小不变的情况下,ε越小,边缘保持特性越明显;ε越大,滤波效果越明显。
2 基于引导滤波器的图像融合算法
本文提出了一种基于引导滤波的遥感图像融合算法,算法对小波分解得到的小波系数和近似系数进行加权融合,得到的融合图像,较好地保留了图像的边缘和细节信息。
具体的融合算法步骤如下:(1)输入严格配准和预处理后的多光谱图像和全色图像;(2)对多光谱图像应用IHS变换进行处理,得到色调H、饱和度S和亮度I;(3)对多光谱图像的亮度I和全色图像应用一层小波变换。亮度I被分解为低频系数A1和3个小波系数H1、V1、D1。全色图像被分解为低频系数A2和3个小波系数H2、V2、D2;(4)使用基于引导滤波的加权融合算法来分别融合近似和小波系数。由于两个低频系数A1和A2维持了源图像的总体形状,因此对两幅低频图像基于每个像素点进行比较,得到权值图W1和W2
但这样直接比较得到的权值图通常含有噪声,并且边缘没有对齐。考虑到引导滤波的作用是保持图像边缘的同时滤除图像的噪声,因此对权值图W1和W2应用引导滤波器滤波,两个低频系数A1和A2分别作为引导图像。通过滤波得到新的权值图M1和M2
应用得到的权值图M1和M2,通过加权融合算法来融合两个低频系数A1和A2得到融合后低频系数A。并通过加权融合算法来分别融合3组对应的小波系数H1和H2,V1和V2,D1和D2得到融合后小波系数H、V和D
(5)针对融合后的低频和小波系数A、H、V、D应用小波反变换得到融合后的亮度Inew;(6)对多光谱图像的H分量、S分量和融合后的亮度分量Inew应用IHS反变换得到融合图像。
3 实验结果与分析
利用遥感图像对基于引导滤波的加权融合算法进行仿真实验,并对仿真结果进行分析。采用的遥感图像如图1所示,其中多光谱图像与全色图像是经过严格配准的。
基于引导滤波的融合规则进行融合时,引导滤波器的参数设置为r=7,ε=10-2。选用另外两种融合算法做对比实验,一种为直接取大融合算法,另一种为直觉模糊推理的图像融合算法[10]。为方便起见,分别称这3种算法为引导滤波算法、直接取大算法和直觉模糊推理算法。图2所示是3种融合算法的融合结果。观察图2中的3幅融合图像可以看出,3种算法都取得了不错的融合效果。但本文算法所得图像对比度更强,观察图3中3幅图像的右下角可以看出,本文所提算法能够更好的保持图像边缘信息。
为客观评价融合图像的质量,采用标准差、平均梯度、信息熵、光谱相关系数和空间频率这5种指标来评价遥感图像的融合结果,评价结果如表1所示。
在表1中,将本文算法所得结果与直接取大算法进行对比,本文算法在标准差、平均梯度和空间频率上明显更好,而其他两个参数相差不大。将本文算法所得结果与直觉模糊推理算法的进行对比,本文算法在标准差、平均梯度、光谱相关系数和空间频率上明显更好。所提融合算法在使大多数参数表现最好的同时能够尽可能地保持其他参数的特性,是一种综合性能最高的融合算法。该算法能够得到更好的融合效果,融合结果优于直接取大融合算法和直觉模糊推理融合算法。
4 结束语
本文提出了一种基于引导滤波的遥感图像融合算法,引导滤波器可在滤除图像噪声的同时保持图像边缘。使用文中算法对遥感图像进行仿真实验,实验结果表明,本文提出的融合算法,优于已有的直接取大融合算法和直觉模糊推理融合算法。
参考文献
[1]那彦,焦李成.基于多分辨分析理论的图像融合方法[M].西安:西安电子科技大学出版社,2007.
[2]魏世超.图像融合方法研究[D].镇江:江苏科技大学,2012.
[3]王金玲,贺小军,宋克非.采用区域互信息的多光谱与全色图像融合算法[J].红外与激光工程,2014,8(8):2757-2764.
[4]翟军涛,那彦,孟捷,等.基于非采样Contourlet变换的多光谱和全色图像自适应融合算法[J].系统工程与电子技术,2009,31(4):764-767.
[5]王峰.图像引导滤波器在单幅图像复原中的应用[D].合肥:合肥工业大学,2012.
[6]He Kaiming,Sun Jian,Tang Xiaoou.Guided image filtering[J].Pattern Analysis and Machine Intelligence,2012,35(6):1397-1409.
[7]肖创柏,赵宏宇,禹晶.基于引导滤波的Retinex快速夜间彩色图像增强技术[J].北京工业大学学报,2013,12(12):1868-1873.
[8]唐鉴波,江铁,王田.基于引导滤波的单幅图像去雾算法研究[J].科学技术与工程,2013,13(11):3021-3025.
[9]Li Shutao,Kang Xudong,Hu Jianwen.Image fusion with guided filtering[J].IEEE Transactions on Image Processing,2013,22(7):2864-2875.
遥感图像融合算法与质量评价探讨 篇6
对遥感应用来说,很多情况下要求图像既要有高空间分辨率又要有高光谱分辨率。多数对地观测卫星,如SPOT-5,IRS,IKONOS,QuickBird,WorldView-1,2等,都提供全色波段与多光谱波段,缓解了平台搭载的存储能力与数据传输率的局限性[1]。在现有数据获取能力的条件下,利用有效算法融合全色波段与多光谱波段是解决数据源与应用需求之间矛盾的重要方案。图像融合是将高空间分辨率的全色波段几何信息与低空间分辨率多光谱图像色彩信息进行整合,获得高分辨率多光谱图像的技术[2],该技术极大地拓展了遥感图像的应用潜力。但在实际应用过程中,如何对图像融合的质量进行定量的综合评价一直是一个难点。笔者根据遥感图像融合和应用的经验,通过改进图像融合质量评价的综合指标,以WorldView-2卫星图像融合为例,定量评价了5种典型算法融合图像的质量。
1 典型图像融合算法
自20世纪九十年代开始,图像融合方法受到了遥感应用的重视,许多图像融合算法得以发展。根据图像信息抽象程度和融合应用层次的不同,图像融合可分为像素级、特征级和决策级三个层次[3]。随着层次的提高,参与融合的数据量减少,容错性增加,对配准的精度要求和对传感器的依赖性降低;对数据的抽象性和统一性要求变高,保存的信息细节变少。现有的图像融合算法大多是直接面向图像信息,是一种图像到图像的处理技术。
按照融合算法核的不同,遥感图像融合算法可以归纳为基于色彩空间的算法、基于算术的算法、基于统计的算法、基于多分辨率的算法和智能算法五种,如图1所示。
目前遥感应用常用的典型算法有HIS变换、Brovey变换、PCA变换法、Gram-Schmidt算法、小波变换及PANSHARP算法等。HIS变换方法在空间细节的保留上有很好的效果。但在实际应用中,由于全色高分辨率图像与I分量相关性较低,容易产生色彩扭曲,使融合后图像的色彩失真[4]。Brovey变换算法也没有解决波谱范围不一致的问题,易产生色彩扭曲,而且需要进行去噪声和去相关等处理[3~5]。针对这种不足,研究人员(Strait 2008,Zhang 2004)设计权重矩阵C来模拟各波段的差异,但该矩阵的实际应用可信度不高[1]。PCA变换法能够提高图像的清晰度和分辨率,在光谱特征的保持方面要优于HIS变换。但经过PCA变换后的第一分量信息过于集中[6~10],很难与替换图像保持一致,容易产生光谱扭曲现象。Gram-Schmidt变换是基于线性代数和多元统计的方法,用于消除多光谱波段间的相关性,对多维影像进行正交变换。与PCA变换不同的是变换后的各分量只是正交,各分量包含的信息量相差不大。这样就减缓了由于信息过于集中而造成的建模困难,使融合图像的空间细节与色彩分布较为平衡。PANSHARP算法是利用最小二乘法来寻找待融合多光谱图像波段之间灰度值的最佳适应值,调整各个波段对融合结果的贡献值,运用了一系列的统计手段来评估所有输入波段的灰度值关系[10]。PANSHARP算法最大程度地减少了融合图像的色彩扭曲,保留了空间细节,减少了算法对融合数据集的依赖性和人工干预过程,增强了算法可靠程度,便于对算法实现自动化。
采用上述各个算法对中低分辨率的卫星图像进行融合时,通常都能够获得效果较好的融合图像。然而对高分辨率卫星,如IKONOS、QuickBird、WorldView等,由于高分辨率卫星全色传感器的波段范围较宽,很多高分辨率卫星的全色图像都包含了一部分近红外波段[2](见表1),造成全色图像与多光谱波段之间的光谱差异,使PCA变换、HIS变换等传统融合算法融合的高分辨率卫星图像,易产生色彩扭曲,影响了图像光谱应用,融合图像的质量较差。
2 图像融合质量评价
图像融合质量评价包括空间质量、多光谱图像色彩保持两个方面[1]。方法分为两大类,主观评价和客观评价。主观评价,即人通过目视观察评判融合图像的空间匹配是否准确,是否出现重影;图像清晰度、图像边缘是否增强;判断融合图像的亮度、对比度是否合适等。主观评价简单、直接,可以快速评判,但依赖于个人的视觉特性,具有一定片面性,而且对图像上目标的细微变化不够敏感[6]。
客观评价是利用图像及图像间的统计特性进行,有基于单个图像特征统计的指标评价(如图像均值、标准差等)、基于融合图像与参考图像间特征统计的指标评价、基于融合图像与源图像间特征关系的指标评价(偏差与相对偏差、相关系数等)。考虑到准确性与可实现性,目前通常利用融合图像与源图像之间的相互关系来评价融合图像。
Chris(2010)提出了Wang-Bovic指标,认为利用该指标可以很好地评价融合图像的光谱质量[2]。两幅图像F和G的Wang-Bovic指标QWB定义如公式(1):
式(1)中,σf和σg表示图像F和图像G的标准差,σfg表示这两幅图像的协方差;μf和μg分别代表两幅图像的均值。QW B在[-1,1]之间变化。
在融合图像QW B的值较小时,为得到更能客观反映融合图像光谱质量的评价参数,应该对公式(1)进行改进。由于影像的亮度改变对影像的标准差影响不大,而对于影像的均值影响较大,亮度增加均值将增大,亮度减小其均值将减小,所以为了提高融合影像的QWB值,应该调整公式中的影像均值,经过调整和试验,最终将公式(1)改进为公式(2):
式(2)中,QW B_M为改进后的评价指标。
通常待融合多光谱图像拥有几个输入波段,参与融合的多光谱波段可以分别计算QW B指标,得出一个指标向量Qλ,定义如公式(3):
式(3)中,MS表示原多光谱图像的输入波段,下标表示不同的波段号;PS表示融合图像,下标表示融合图像的不同波段号;N表示多光谱图像输入波段的数量。
QW B指标可以很好地评价融合图像光谱信息的保留程度。但在计算多光谱图像与融合图像的协方差时,需要照顾分辨率较低的多光谱图像,将融合图像向下采样与多光谱一致,这就无法进行融合空间质量的评价。考虑引入原始高分辨率图像与融合后图像的互相关系数,就可以评价融合图像的空间质量。其定义如公式(4):
式(4)中,CC表示全色影像与融合影像各波段的相应影像像素的相关系数,x代表融合影像某波段中的像元值,y代表全色影像的相应像元值,N为像元总个数。
影像融合过程中将有多个多光谱波段进行,按照公式(4)将会计算出多个CC指标,得出一个指标向量CCλ,定义如公式(5):
式(5)中,Pan表示全色图像,PS表示融合图像,下标表示融合图像的不同波段号。
综上所述,将Wang-Bovic指标的Qλ与互相关系数CCλ相乘,得到一个综合的指标QPS,就能够同时评价真彩色融合图像的光谱质量与空间质量。QPS值在[-1,1]之间变化,定义如公式(6)所示:
3 实验结果与分析
基于上述论述,选取WorldView-2全色与多光谱图像进行融合实验,来定量评价各算法的融合效果。WorldView-2具有8个波段分辨率为1.84m的多光谱数据,波长范围400~1050nm;1个全色波段,波长范围450~800nm,星下点分辨率是0.46m。
利用遥感影像处理软件对重庆市江津区柏林镇的WorldView-2的全色图像图2(a)和多光谱图像图2(b)进行几何精纠正后,分别使用HIS、Brovey、Gram-Schmidt、PCA、PANSHARP方法进行融合,结果如图3所示。
可以看出,各算法融合图像的空间分辨率都有了明显提升。其中HIS算法(图3(a))、GramSchmidt算法(图3(c))和PANSHARP算法(图3(e))对空间细节的提升效果更为明显。就光谱质量而言,HIS(图3(a))和PCA(图3(d))融合结果较原始多光谱彩色图像色彩失真明显。PCA算法融合的结果光谱扭曲尤其明显,甚至在特定区域出现了反色现象,对后续的目视解译、彩色成图等产生不利影响。
从目视对比来看,PANSHARP算法融合的图像色彩最自然,全色波段的空间细节保留完整,图像中目标边缘得到锐利。Gram-Schmidt算法和HIS算法能够基本保留原始多光谱图像的色彩,但部分边缘出现马赛克状的色块,深色屋顶及阴影区域细节损失严重。Brovey融合图像的空间细节增强不明显,马赛克现象严重;色彩与原始多光谱图像的光谱差异较大,融合效果较差。PCA融合图像的空间细节保留比较完整,但光谱扭曲现象明显。
根据前述公式,可以对五种融合影像的评价指标进行计算,计算结果见表2。
分析表2的计算结果可以看出,在综合指标上,Gram-Schmidt算法、PANSHARP算法、HIS算法的计算结果依次降低,其融合的质量依次降低。但在光谱融合计算指标方面,PANSHARP算法显示出优异的色彩还原能力;其次是Gram-Schmidt算法,光谱评价指标稍小;Brovey法的色彩还原能力较差,与原多光谱图像色彩差别较大;而PCA的光谱评价指标更是出现了负数,说明PCA融合法产生了极其严重的光谱扭曲现象,这一点与视觉上产生的“负片”现象一致。Brovey法融合结果在空间质量方面表现也较差,以至于目视观察有马赛克现象;而Gram-Schmidt算法很好地将高分辨率全色图像的空间细节融进了多光谱图像中,空间质量良好;PANSHARP算法的空间评价指标低于GramSchmidt算法。Brovey法和PCA融合质量较差,很难适应高分辨率图像的融合需求。
综合上述,对类似WorldView-2高分辨率卫星图像而言,Gram-Schmidt算法、PANSHARP算法的融合质量较好。但对需要一定光谱分析的应用来说,PANSHARP算法既显示了优异的色彩还原能力,又保持了较好的全色波段空间细节,是最优的融合方法。
4 结论
实验与分析表明,针对WorldView-2图像,Brovey、PCA等典型图像融合算法出现明显的光谱扭曲、空间细节损失,不适合高分辨率数据融合,而PANSHARP算法是最优的融合算法。通过改进Chris提出的综合评价指标进行图像融合质量的评价,对类似WorldView-2高分辨率卫星图像而言,Gram-Schmidt算法、PANSHARP算法的融合质量较好,其中PANSHARP具有优异的光谱还原能力,但其空间细节融合方面略低于Gram-Schmidt算法的结果。将PANSHARP优异的光谱还原能力和GramSchmidt算法高效的空间细节整合能力的优势结合起来,可以获得更高质量的图像融合方法。如何综合Gram-Schmidt算法空间细节融合能力和PANSHARP算法光谱还原能力,开发具有更高融合质量的算法将是下一步研究的目标。
摘要:图像融合技术能够显著提高遥感图像的应用效益,但对于高空间分辨率卫星图像(如IKONOS、QuickBird、WorldView-2),传统融合方法往往产生光谱扭曲等现象,导致遥感图像的应用效益有所降低。笔者在总结典型图像融合算法优缺点基础上,利用五种融合算法对WorldView-2卫星图像进行融合;基于改进的综合图像融合评价指标,定量地评价各种融合算法的性能。结果表明,对于以WorldView-2为例的高分辨率遥感图像,PANSHARP算法融合的图像色彩最自然,全色波段空间细节保留完整,目标边缘锐利。
关键词:图像融合,WorldView-2图像,综合评价指标,融合质量
参考文献
[1]Yun Zhang.Understanding Image Fusion[J].Photogrammetric Engineering&Remote Sensing2004,6:657~661.
[2]Chris P,Michael D,Fabio P,et al.WorldView-2Pan-Sharpening[A].ASPRS2010Annual Conference[C],April,26~30,2010.
[3]张寅玥,付炜.多源遥感图像融合算法研究[J].电子测量技术,2010,33(6):34~38.
[4]周志峰,丁军.几种常用遥感影像融合方法分析及应用[J].工程勘察,2011,(2):69~73.
[5]王海晖,彭佳雄,吴巍等.多源遥感图像融合效果评价方法研究[J].计算机工程与应用,2003,(25):33~37.
[6]谭永生,沈掌泉,贾春燕等.中高分辨率遥感影像融合研究[J].遥感技术与应用,2007,22(4):536~542.
[7]ZOU Mouyan,Liu Yan.Some New Concepts and Key Techniques in Multi-Sensor Image Fusion[J].Image and Signal Processing,CISP'09.2nd International Congress.1-5,2009.
[8]Jacobsen,K.,2006.Very High Resolution Optical Space Sensors-Overview,Accuracy and Information Contents.Sensors Peterborough NH,15th Inter,p.CD.Available at:http://www.ipi.uni-hannover.de/uploads/tx_tkpublikationen/KJ_Damaskus.pdf.
[9]刘松涛,周晓东.图像融合技术研究的最新进展[J].激光与红外,2006,36(8):627~631.
遥感数据融合 篇7
遥感技术的发展,伴随着遥感图像的分辨率不断提高,导致每一景图像的数据量大增,计算量也相应增加。根据图像数据本身存储的规律性以及相关性特点,其算法也具有一致性、邻域性、行顺序性的特点,自然就为图像并行计算创造了良好的条件。主要体现在:几何图形的并行性、相邻并行性、像素位的并行性和操作的并行性[1]。并行处理总的来说可以分为两类:数据并行性和任务并行。目前对于任务分配的研究取得了一定的成果,提出很多算法模型以及各种任务优先图。如启发式任务分配算法[2]多核处理器与网络处理器任务分配算法的研究等[3]。但专门针对集群环境图像处理过程的图像融合系统中任务分配调度研究相对较少。虽然图像融合的算法和应用取得了一定的进步,但快速有效地提高计算的效率仍是一个具有挑战性的研究课题。图像融合作为图像处理和模式识别过程的重要阶段,涉及到几个问题,其中任务并行对图像处理难度较大,因为同一任务的算法内部之间数据的相关性较大,不易分解,鉴于此我们提出采用数据并行处理的思路,吸取动态负载均衡的任务分配思想提出数据并行计算技术的算法模型。
1 集群环境下的图像融合并行计算
1.1 图像预处理
图像融合的目的就是将多传感器的个体优势转化成融合后的综合优势,更好地为判读解译过程提供服务。将其并行化是提高融合效率、满足图像的快速甚至实时处理要求的有效途径,因此对图像实施诸如增强、消畸变、配准、去噪等预处理,是保证图像融合的关键。本文提到的预处理是对预处理图像进行数据“区域”的划分,这里所提及的“区域”是指一个相互连通的、具有一致性属性的像素集。因此必须先对图像进行灰度处理,然后依据图像的灰度值对图像进行划分,以得到目标对象区域最小边界,最后统计出这些含有目标对象最小多边形的个数,以便将数据分配给集群机进行计算。
图像存储的规律性,是图像以矩阵进行存储与计算的基础,因此改善矩阵计算的并行性是提高图像处理性能的一个重要手段。本文采用四叉树结构对图像进行区块划分与存储。其基本思想是:首先获取待划分区块的四等分线,对每一等份继续按上述方法进行划分,一直等分到子象限上仅为目标对象区域最小长方形区域为止,然后舍弃不含目标对象已划分的区块,统计出含有目标区块的总数。这样就大大减少了对不含目标对象区域的计算时间,区块划分与编码方法如图1所示,所得块状结构用四叉树结构进行组织存储,即把2n×2n像元组成的阵列当作树的节点,树的高度为n级(最多为n级)。每个节点有分别代表北西(NW)、北东(NE)、南西(SW)、南东(SE)四个象限的四个分支。存储树结构如图2所示。
1.2 集群体系数据划分与并行计算
由并行模式的理论可知,分解方法有功能分解和数据分解两种。功能分解指的是将整个执行过程按一定的分解粒度对执行过程进行分解;数据分解指将待融合的图像先进行划分以获得子图,然后再在子图上施加适当的计算。通常对图像分解采用规则的分解,如条状划分或多维划分。虽然子域理论可以小到只有一个像素,而条状划分最小粒度是一行。与文献[6]提到的影像数据划分策略不同,同时也与文献[7]提到的基于小波包串行融合算法中的数据划分策略不同,其思想只是依据图像的区块大小进行划分,如图3所示。在此我们按照上一节介绍的四叉树结构的划分与存储思想,先把一幅图像进行图像的预处理,划分区块获得目标区域的数量,这些数量也就是我们进行并行计算的子图数量。我们仅关注含有目标的区块,因为就目标识别而言,所要计算的目标对象相对较少。如图4所示。依据集群体系结构对处理器节点层级分配策略,采用集中式处理结构,可以自适应地分配处理器节点层级与子图的数量,通过监测各处理器运行状态及预计执行时间,使用任务队列的方式适时地调配待处理的子图数据到处理器节点。
1.2.1 集群体系数据分配策略
分布式集群体系结构四叉树数据处理(以下简称为任务)分配模型可以考虑两方面内容。其一就是任务粒度的划分;其二就是各处理节点的任务分配。由于数据的划分已经在数据预处理阶段完成,下面主要讨论节点的任务分配问题。
如图5所示,首先将系统中所有的网络节点进行分级,初始时分级方法对应四叉树结构,主控节点对应根节点,依次类推。其中主控节点负责向各二级节点分配任务,并收集各二级节点的负载信息;二级节点在收到主控节点分配的任务之后,对三级节点进行调度,安排三级节点进行相应的工作;二级节点同时将自己的负载情况向主控节点汇报,主控节点根据提供的消息在二级节点之间进行负载平衡;三级节点在收到二级节点的命令之后,开始执行相应的任务,并将执行结果返还给二级节点。
考虑到二级计算节点所起的桥梁作用,其它除主控根与树叶位置外的节点算法也类同,因此有必要重点讨论一下二级计算节点的具体算法,描述如图6所示。
在进行具体的算法实现中,采用开源的p RPL函数库辅助实现四叉树节点信息的获取及调度,算法的核心代码如下:
1.2.2 集群体系时间成本计算
传统的单节点图像融合计算就是根据多光谱与高光谱图像的信息对整幅图像各像素点顺序扫描计算,因此融合时间相对较长。然而,集群体系图像融合并行计算的时间总开销主要包括图像分割时间、传输时间、节点图像融合时间和图像再分割时间、返回结果传输时间以及图像拼接规整时间等组成。由于我们摒弃了绝大部分的非目标区域的计算时间,同时采用并行计算与任务动态调度的思想,总计算时间与效率均有改善。具体计算公式为:
其中Max[Tn1,Tn2,Tn3,Tn4]表示按四叉树结构按单任务划分后对下级节点再分割与计算的最长时间,因此这个计算式是一个递归计算过程,取决于递归划分的粒度与计算节点的个数。每划分一次,其计算时间都将有一定的减少,划分后即有:
时间成本计算代码如下:
1.3 图像融合的并行计算
本文采用标准的图像融合方法,通常按如下步骤进行:
1)将原始图像增强、消畸变、校准、去噪;
2)对多光谱图像进行RGB到IHS的变换;
3)对真彩色图像和IHS多光谱图像的亮度成分进行直方图匹配。
首先,用真彩色图像的亮度成分作为融合图像的亮度成分,然后做逆变换以获得融合的RGB图像。
标准融合方法的结果依赖于采用的IHS系统,最常用的亮度变换公式为:
其次,被融合的两幅图像的亮度成分应当在融合之前进行匹配。为校准亮度,要计算每幅图像的亮度的均值和标准差,并用于调整一幅图像相对于另一幅参考图像的亮度成分。其表达式为:
其中I表示原来的亮度值;I'表示校准后的亮度值;σ1,m1分别是第一幅图像的亮度的均值和标准差,而σ2,m2分别是第二幅图像的亮度的均值和标准差。校准了亮度后,两幅图像可用下式进行逆变换到RGB平面:
具体的功能实现过程中,借助IDL函数库实现栅格图像的融合处理,提高并行运算的效率。主要代码如下:
1.4 数据的收集规整
对上述除主控核外的各级核计算结果,主控核负责按划分块即子图的索引ID及其相应的位置信息逐块进行无缝连接,形成一幅完整的融合图像,以便进一步的计算处理。至此,图像融合的整个过程完毕。
2 实验结果与性能分析
基于以上遥感图像的集群并行计算模型与四叉树结构分块策略,我们选取大小为200M左右的高光谱与多光谱遥感影像为融合数据,其中高光谱影像分辨率为14253×14312,数据大小为196Mb,多光谱影像分辨率为7129×7151,数据大小为196Mb,并将图像分别划分为4,16,64块,以单机、集群PC机的个数为1,4,16,64进行了相关测试,测试结果为图像融合进行10次所得的平均值。
测试节点计算环境为:集群系统中每个节点的CPU都为酷睿2代,内存4GB,实验中总共用到了64个节点,整个集群系统通过速度为1Gb/s的以太网相连,系统通过图像划分、融合、合成等步骤,同比单机图像融合计算的效率有所提高。测试结果见表1。
从表1可知,如果采用单机对于一个遥感图片处理,计算时间的代价将大于没有进行集群分割与并行策略。在数据分块数少于计算节点数的情况下,所花费的时间数与等数据块花费的时间相同。对单节点而言,随着分块数的增加,花费的时间也相应增加。另外,随着分块数与节点数的增加,总时间花费减少。
3 结语
基于四叉树结构数据划分策略在海洋遥感目标识别中,可以减少非目标区域的计算时间;整个算法的执行时间不仅跟图像数据划分有关,而且与计算节点数目有关;采用动态任务分配与调度算法也能减少并行运算时间。由于本算法主要关注的是对图像目标区域的划分策略与并行效率,对处理结果的收集与整理考虑欠缺,因此在融合的精度方面将在下一步的研究中加以改进。
摘要:集群体系下的大规模并行计算,是高性能计算的基础。遥感图像处理效率的提高,有赖于并行计算技术的应用。在分析已有网格计算环境下分布式任务分配方法的基础上,针对海上遥感图像目标物数量相对较少的特点,首先利用四叉树结构理念对目标区域进行划分,同时采用动态负载均衡的任务分配策略与并行计算思想,提出对目标区域图像进行融合处理的集群体系任务分配算法处理模型。通过对比验证,表明该集群体系下算法模型能有效地提高图像融合的速度。
关键词:集群计算,并行计算,四叉树结构,图像融合
参考文献
[1]程英蕾.多源遥感图像融合方法研究[D].西北工业大学,2006.
[2]刘轶,等.一种面向多核处理器并行系统的启发式任务分配算法[J].计算机研究与发展,2009,46(6):1058-1064.
[3]刘轶,等.多核处理器大规模并行系统中的任务分配问题及算法[J].小型微型计算机系统,2008,29(5).
[4]Liu Zhen,Rhonda R.Optimal parallel processing of random task graphs[J].Journal of Scheduling,2001,3(4):139-156.
[5]沈占锋,等.高分辨率遥感影像并行处理数据分配策略研究[J].哈尔滨工业大学学报,2006,38(11).
[6]程英蕾,等.一种多传感器图像并行融合新方法[J].空军工程大学学报:自然科学版,2006,7(6).
[7]刘振英,等.一个有效的动态负载平衡算法[J].软件学报,2001,12(4):563-569.
[8]翟亮,等.一种新型的遥感影像压缩质量评价指标[J].武汉大学学报:信息科学版,2007,32(10).
遥感数据融合 篇8
随着现代遥感技术的发展, 各种对地观测卫星源源不断地提供了大量不同空间分辨率、时间分辨率和光谱分辨率的遥感图像, 但由于观测的限制和设计的原因, 各种传感器提供的遥感图像数据各有特点, 这些遥感图像数据在时间、空间和光谱等方面的差异很大。为了对观测目标有一个更加全面、清晰、准确的理解和认识, 人们迫切希望寻找一种能综合利用各类图像数据的技术方法, 因此遥感图像融合成为了研究热点。近年来, 人们开始将小波变换用于图像融合, 并取得了较好的效果。而多小波作为单小波的扩展, 能同时具有对称性、正交性、短支撑和二阶消失距等优良性质, 因此在图像处理方面具有单小波所不具备的优点, 能够为图像提供一种更加精确、分辨率高的分析方法。在深入研究了多小波变换的特性以及遥感多源数据融合方法的基础上, 提出了一种利用离散多小波变换和IHS方法相结合的图像融合方法, 利用此方法对由不同传感器获得的不同分辨率的多光谱图像和全色图像数据进行了融合试验, 小波分析方法具有明显的优越性。
1 小波变换融合法的基本原理
1989年Mallat在构造正交小波基时提出了多分辨率分析 (Multi-Resolution Analysis) 的概念, 从空间的概念上形象地说明了小波的多分辨率特性。如果一个图像进行L层小波分解, 将得到 (3L+1) 层子带, 其中包括低频的基带Cj和3L层的高频子带Dh、Dv、Dd。用f (x, y) 代表源图像, 记为CO, 设尺度系数Φ (x) 和小波系数Ψ (x) 对应的滤波器系数矩阵分别为H和G, 则二维小波分解算法可描述为:
式中, j (=0, 1, …, J-1) 表示分解层数;h, v, d分别表示水平、垂直、对角分量;H和Gˊ分别是H和G的共轭转置矩陈。
小波重构算法为:
小波分解的层数越高, 对应图像的尺寸将越小, 因此图像小波分解的各个图像也具有金字塔形结构, 可称为小波分解金字塔。图像的小波变换是一种图像的多分辨率、多尺度分解。
基于小波多尺度分解图像融合的过程如图1所示。设A、B为两幅原始图像, F为融合后的图像。其融合处理的基本步骤如下。
(1) 图像的预处理 (确保高清晰、高分辨率) 。
(1) 图像滤波:对失真变质的图像直接进行融合必然导致图像噪声融入融合效果, 所以在进行融合前, 必须对原始图像进行预处理以消除噪声。
(2) 图像配准:多种成像模式或多焦距提供的信息常常具有互补性, 为了综合使用多种成像模式和多焦距以提供更全面的信息, 常常需要将有效信息进行整合, 使多幅图像在空间域中达到几何位置的完全对应。
(2) 对图像A和图像B进行小波变换, 建立影像的小波塔形分解, 得到图像的低频和高频分量。
(3) 对各分解层分别进行融合处理, 根据低频和高频分量的特点, 按照各自的融合算法进行融合处理, 最终得到融合后的小波金字塔。
(4) 对融合后所得小波金字塔进行小波逆变换 (即进行图像重构) , 以获取更高质量的融合图像F (见图1) 。
2 对遥感图像进行融合
遥感图像融合是一门新兴的技术, 具有十分广阔的前景。遥感图像融合的目的是把来自遥感器的图像数据合并形成一幅新的图像, 它不仅仅是图像数据间的简单复合, 还强调图像信息的优化, 按一定的算法进行运算处理, 获得比任何单一图像数据更精确、更丰富的信息, 生成一幅具有新的空间、波谱、时间特征的合成图像。
2.1 基于H I S彩色变换的图像融合
HIS彩色变换的小波算法的融合过程是: (1) 将多光谱图像和高分辨率图像进行几何配准; (2) 然后对多光谱图像进行HIS变换, 以提高多光谱彩色合成的解释能力; (3) 对I (亮度) 分量和高分辨率图像进行小波变换; (4) 然后保持多光谱图像亮度分量I的低频信息不变, 将高分辨率图像小波分解后的高频信息叠加到多光谱图像亮度分量I的高频分量上, 而后对同时具有低频信息和叠加后高频信息的亮度分量I进行小波逆变换, 这样得出的I将会最大地保留原来多光谱图像的光谱信息, 而且能最大限度地提高其空间分辨率; (5) 最后将变换后的H、I、S分量在RGB三维空间进行级联, 得到融合后的RGB空间图像。
从图2 (a) 上可以看出, 高分辨率图像具有更多的道路网信息和许多大型建筑的边缘细节信息, 而分辨率多光谱图像则含有丰富的彩色信息, 红色表示植物覆盖 (波段合成为SPOT近红外波段、红波段、绿波段) 灰绿色为水体, 褐色为建筑物。
图像融合的具体目标在于提高图像空间分辨率、改善图像几何精度、增强特征显示能力、改善分类精度、提供变换检测能力、替代或修补图像数据的缺陷等。经过MA TL AB软件仿真, 可得到融合图像如图2 (c) 所示。由图 (c) 可看到, 融合后的图像不但有较好的空间特征和纹理特征, 而且具有较好的光谱保持能力。
2.2 基于P C A变换的图像融合
PCA变换的图像融合如图2 (d) 所示, 从图上可以看出, PCA变换融合图像中水体和植被有较大的光谱失真 (见图2) 。
2.3 基于小波变换的图像融合
小波变换应用于图像融合的优势在于它可以将图像分解到不同的频率域, 在不同的频率域运用不同的融合算法, 得到合成图像的多分辨分解, 从而在合成图像中保留原图像在不同频率域的显著特征。
高分辨率和多光谱图像如图2 (a) 、 (b) 所示, 利用MATLAB仿真程序, 可得小波变换的融合图像如图2 (e) 所示。
2.4 实验结果分析
小波变换与传统的HIS数据融合算法相比较: (1) 小波融合模型不仅能够针对输入图像的不同特征来合理选择小波基以及小波变换的次数, 而且在融合操作时又可以根据实际需要来引入双方的细节信息从而表现出更强的针对性和实用性, 融合效果更好。 (2) 从实施过程的灵活性方面评价, HIS变换只能而且必须同时对3个波段进行融合操作, 而小波方法则能够完成对单一波段或多个波段进行融合操作。 (3) 在多分辨率数据融合中, HIS融合方法造成光谱特征的畸变最严重, 若是需要对数据作详细的辐射分析时, 应特别要谨慎。
3 融合图像质量评价
3.1 相关系数ρ、熵公式介绍
融合图像与多光谱图像的相关系数ρ能反映融合图像对原图像的保光谱能力;与高分辨率图像的相关系数ρ能反映融合图像空间分辨率改善程度。
式中:表示均值, m, n表示图像的行列象素个数。
图像的信息熵是衡量图像信息丰富程度的一个重要指标, 表示图像所包含的平均信息量的多少。
根据仙农 (shannon) 信息论的原理, 一幅8bit表示的图像的熵为:
式中:Pi为图像像素灰度值为i的概率。一般说来, 融合图像的H (x) 越大, 图像所含信息越丰富。因此可用熵来评价融合图像信息增加程度。
3.2 实验结果质量评价
采用相关系数和熵方法评价图像的融合效果, 如表1所示。从表1融合影像与多光谱影像的相关系数ρ来看小波变换融合法的保光谱能力最强;从融合影像与高分辨率影像的相关系数ρ来看主成分变换 (PCA) 融合可以最大程度的提高影像分辨率, 小波变换融合法次之;从融合影像的熵来看, 小波变换融合法和主成分变换融合较好。总体上, 证明了小波变换融合法使得融合后的图像最大限度地保留多波段光谱信息的同时, 提高了图像的空间分辨率, 并且信息量增加均衡, 与传统方法相比, 小波变换融合法具有明显的优越性, 见表1。
4 结语
本文根据高分辨率图像与多光谱遥感图像的频率关系和小波变换特点对图像进行最佳小波变换融合, 与HIS法、PCA法等传统融合方法相比较, 小波变换融合不仅很好地保留了光谱信息, 而且较大地提高了多光谱影像的空间结构与细节信息, 具有良好的融合效果。
摘要:在深入研究了多小波变换的特性以及遥感图像融合方法的基础上, 提出了一种用离散多小波变换HIS方法相结合的图像融合技术, 实验结果运用MATLAB软件进行仿真, 并对结果进行了分析, 证明了小波变换融合法使得融合后的图像最大限度地保留高分辨率、多光谱图像, 与统传方法相比, 小波分析方法具有明显的优越性。
关键词:小波变换,遥感图像,融合,分辨率,多光谱
参考文献
[1]王文杰, 等.一种基于小波变换的图象融合算法[J].中国图形图象学报, 2007, 6A (11) :1130~1135.
[2]闫敬文.数字图像处理[M].北京:国防工业出版社, 2007.2:181~182.
[3]王爱玲, 叶明生, 邓秋香.图像处理技术与应用[M].北京:电子工业出版社, 2008, 1:362~365.
[4]李军, 周月琴, 李德仁.小波变换用于高分辨率全色影像与多光谱影像的融合研究[J].遥感学报, 1999 (2) :90~97.
[5]王智均, 等.基于小波理论的IKONOS卫星全色影像和多光谱影像的融合[J].测绘学报, 2001, 30 (2) :112~116.
[6]孙岩.基于小波变换的遥感图像融合技术研究[J].哈尔滨工程大学学报, 2007, 3:127~132.
[7]Tu T M, Su S C, Shyu H C, et al.A new look at IHS-like image fusion methods[J].Information Fusion, 2001, 2:177~186.
[8]Liu J G.Smoothing filter-based in-tensity modulation:a spectral preserveimage fusion technique for improving spatial details[J].Remote Sensing, 2000, 21 (18) :3461~3472.
遥感数据融合 篇9
关键词:主成分分析,二代Curvelet变换,融合
图像融合是通过一些算法对各种不同传感器获取的图像信息进行综合利用。借助信息的互补性,融合后的图像可以满足更多应用需求,比原始图像更利于提取和分辨不同地物信息[1]。传统的遥感影像融合算法如PCA变换、小波变换等在进行遥感影像融合时都有一定的局限性。PCA变换会失去原有的物理特性。小波变换仅仅反映信号的点奇异性,也就是仅能反映奇异“点”的位置和特征,但在高维特征信息表达上存在困难[2]。
单一的融合方法不能取得令人满意的效果,所以要将多种融合方法的优势结合起来充分发挥其各自的优势。Curvelet变换是在小波变换基础上发展起来的一种新的多尺度变换,它的结构元素包括尺度和位置参数,比小波变换还多了方位参数,使得curvelet变换具有良好的方位特性。因此,curvelet变换对图像的边缘,如曲线、直线等几何特征的表达更加优于小波[3]。本文综合分析了PCA和curvelet变换的优缺点,提出了一种基于PCA和二代curvelet变换的新融合算法。为了验证该算法的有效性,对遥感图像进行仿真实验并对结果进行定量分析。结果表明这种方法不但增强了图像的空间信息,还保证了更多的光谱特性信息,可以获得好的融合效果,可用于图像分类和特征信息提取等方面。
1 Curvelet和PCA变换相结合的融合方法
1.1 Curvelet变换
Curvelet变换是由Candes和Donoho于1999年提出的[3],它的基础源自脊波理论[4,5,6]。该理论综合了脊波适于表达线特征和小波适于表达点特征,充分利用多尺度分析,所以适用于一系列图像处理问题并在应用中得到了较好的结果[7]。但是,第一代curvelet的数字实现比较复杂,需要子带分解、平滑分块、正规化和脊波分析等一系列步骤,而且curvelet金字塔的分解也带来了巨大的数据冗余量,因此,Donoho等人又于2002年提出了实现更简单、更便于理解的快速curvelet变换算法,即第二代curvelet[8]。
第二代curvelet与第一代curvelet在构造上已经完全不同,第一代curvelet的构造思想是通过足够小的分块将曲线近似到每个分块中的直线来看待,然后利用局部的脊波分析其特性。而第二代的curvelet和脊波理论并没有关系,实现过程也无需用到脊波,二者之间的相同点仅在于紧支撑,框架等抽象的数学意义。
本文提出的遥感影像融合算法采用基于Wrap的算法实现,即Wrap_based curvelet,它的基本结构与离散curvelet变换的数字实现方式相一致,有点不同的是在每个尺度和角度下空间格网转变为曲波更为简单。我们采用规则矩形来代替倾斜格网,以同样的方式定义“笛卡尔”曲波为b:
式(1)中的S-θlTb由(k12-j,k22-j/2)代替,θ∈(-4π,4π)或θ∈(43π,45π)。
围绕原点Wrap,是Wrap_based curvelet的核心思想点。见图1,意思是对任意区域,在具体实现时通过周期化技术映射到原点的仿射区域中,这种映射应该是一一对应的。将左上角的椭圆在原点位置重新装配映射完成后变为方形区域,这样才能用二维数组表示,才能利用二维傅立叶反变换。否则,在不装配成方形的的情况下,也没有办法对左上角的斜四边形进行二维傅立叶反变换。而一旦装配完后,计算量就大大增加了,除非实现零装配,但零装配的边界特性是非常之差的[9]。
1.2 PCA变换
PCA变换又称为主成分分析。它是建立在图像统计特征基础上的多维线性变换,具有方差信息浓缩,数据压缩的作用。变换后的第一主成分包含了总信息量的绝大部分,一般在80%以上,并且第一主成分相当于原来各波段的加权和,反映了地物总的辐射强度[10]。
PCA变换广泛应用于图像压缩,去除随机噪声,细部特征的增强和分析等。对低分辨率图像进行PCA变换并得到各成分变量,然后对高分辨率图像进行光谱拉伸,使它具有和低分辨率图像的第一主成分一致的均值和方差,用它替代低分辨图像变换后的第一主成分。最后进行PCA反变换到RGB空间,即融合图像。这种方法的优点在于它适用于多光谱图像的所有波段,但其有不足之处。由于在PCA融合算法中只是用高分辨图像来简单替代低分辨率图像的第一主成分。故会有低分辨率图像第一主成分分量中一些反映光谱特性的信息损失,因而使得融合图像的光谱畸变严重。
1.3 Curvelet和PCA变换相结合的融合方法
本文利用curvelet变换和PCA变换的优势,提出了一种遥感图像融合的新算法。具体流程如图2和图3所示。
2 实验
为了验证本文方法的有效性和适用性,选取Erdas软件实例中的dmtm.img和spots.img两幅影像作为数据源。图4中dmtm.img是由近红外波段、红波段和绿波段假彩色合成的低分辨率多光谱图像,spots.img图像是高分辨率全色波段图像。分别对实验区采用二维小波变换、PCA变换及本文提出的方法进行图像融合,结果如图4所示。在融合之前,已经对高分辨率图像和多光谱图像进行了几何校正等预处理操作。
3 实验结果分析
3.1 质量评价指标[1]
3.1.1 标准差
标准差是衡量一幅图像信息丰富程度的重要指标。
MN表示图像f的大小,f(i,j)表示图像f中像素点(i,j)的灰度值,f-表示对图像中所有像素值求平均,公式为
3.1.2 信息熵
图像信息熵是对图像信息量的测量,熵值越大,图像包含的信息量越丰富,图像质量就越好。
根据Shannon信息熵理论,一幅8 bit图像的熵为:
在这个公式中,Pi表示第i个像素值的概率。
后来Chavez(1984年美国)提出了多波段图像熵的表达方法最佳指数OIF。
stdi表示i波段标准差;Ri,j表示i和j波段的相关系数。
3.1.3 清晰度
图像清晰度用平均梯度衡量。
式(6)中
3.1.4 光谱扭曲度
Costantn等人用偏差指数来反映融合图像和原始图像的光谱信息匹配度。
g(i,j)是融合后图像g第(i,j)个像素的灰度值。
f(i,j)是原始多光谱图像f第(i,j)个像素的灰度值。
3.2 结果分析
从表1中我们可以看出,这三种方法各自不同波段统计出的标准差的值相差不大。比较它们的信息熵发现,本文提出的融合方法的OIF指数比PCA和小波变换融合后的值高,说明本文方法融合后的图像包含的信息量更大,信息对比更强而冗余小。在清晰度方面,某些波段PCA方法得到的值最高,本文方法次之,小波变换方法清晰度最差。清晰度反映了图像的变化率的程度。清晰度值越大,图像越清晰。这说明本文方法能较多地保留图像的细节纹理信息和空间结构特征,与PCA方法相比还达不到最优。最后比较光谱扭曲度参数,发现某些波段PCA方法值最高,本文方法次之,小波变换方法最小。光谱扭曲度值越小,说明融合图像增强分辨率和保留图像的光谱信息能力更强。因此本文方法的光谱扭曲度表现居中,能较好地保留图像的光谱信息但还有进一步改进的空间。比较上述所有参数,PCA变换和小波变换的融合方法都在某个方面表现较差,综合起来考虑,本文提出的PCA和curvelet变换相结合的融合方法可增强图像空间信息,保证更多的光谱特性信息,获得较好的融合效果。
4 结论
本文在分析二代curvelet变换和PCA变换特点的基础上,提出了一种curvelet变换和PCA变换相结合的遥感图像融合方法,将这两种方法各自的优势结合起来,克服其在遥感图像融合中的自身缺陷。实验结果表明,本文提出的方法可以增强多光谱影像的空间细节纹理信息,在保持数据光谱特性方面具有突出优势。但是,本文方法得到的融合结果仍存在部分细节纹理信息丢失的现象。由于curvelet变换对融合结果的影响主要体现在分解层数以及系数调整等方面,怎样更好地解决这些问题来增强图像的清晰度,减少光谱扭曲度,尽可能多地保留光谱信息,是本文需要继续研究的方向。
参考文献
[1]赵英时.遥感应用分析原理与方法.北京:科学出版社,2003
[2]张强,郭宝龙.基于Curvelet变换的多光谱图像与全色波段图像融合.系统工程与电子技术,2006;12(28):1186—1187
[3] Candes E J,Donoho D L.Curvelet-A surprisingly effective nonadaptive representation for objects with edges.In:Curve and SurfaceFitting:Saint-Malo 1999.Cohen A.,Rabut C.,Schumaker L L,eds.Nashville,TN:Van-derbilt Univ Press,1999
[4] Candes E J.Ridgelets:theory and applications.Department of Statis-tics,Standford University,1998;23—38
[5] Candes E J.Monoscale ridgelets for the Representation of image withedges.Department of Statistics,Stanford Univesity,Stanford,CA,1999;1—26
[6] Donoho D L,Flesia A G.Digital ridgelet transform based on trueridge functions.In:Stoeckler J,Welland G V,eds.Beyond Wavelets.Pittsburgh,PA,USA:Academic Press,2002:1—33
[7] Cheng Zhili,Wang Hongxia,Luo Yong.Wavelet’s theory and applica-tion.Beijing:Science Press,2004
[8] Candes E,Demanet L,Donoho D,et al.Fast discrete curvelet trans-forms.Multiscale Mode ling&Simulation,2006;5(3):861—899
[9] Candes E J,Demanet L,Donoho D L,et al.Fast discrete curvelet yr-ansforms.Applied and Computational Mathematics.California Insti-tute of Technology,2005:1—43