多特征联合

2024-11-03

多特征联合(精选7篇)

多特征联合 篇1

0引言

数据关联是建立某时刻传感器探测数据和其他时刻探测数据(或航迹)的关联,以确定这些探测数据是否来自同一个目标的处理过程,它是雷达数据处理的关键技术之一。常用的数据关联算法有最优邻近 (NN)、概率数据关联(PDA)和多假设(MHT)等等。 其中,最优邻近和概率数据关联算法只对最新的探测点迹集合进行研究,是一种次优贝叶斯算法;多假设关联[1]算法对当前时刻以前的所有确认点迹集合进行研究,是一种最优贝叶斯算法。理想条件下波门内出现的雷达探测点迹稀疏,NN算法和PDA算法可以正确关联点迹。然而在雷达实际探测过程中,由于受天气、海况、杂波和目标密集等因素影响,波门内的点迹变多增加了关联的不确定性,NN和PDA关联算法性能下降,导致目标跟踪不稳定。为改善目标在杂波区、目标密集区时的跟踪稳定性,采用MHT算法解决复杂环境下数据关联的模糊性问题。但MHT算法需要合理设计假设航迹分支的产生、删减和合并,否则算法的计算量和存储量会呈现爆炸性增长,这点限制了MHT的工程实现。文献[2]介绍了一种基于检测前跟踪技术的MHT工程优化方法。近些年,许多研究学者利用目标的不同特征信息进行数据关联。虽然目标的特征信息参数不能直接用于航迹更新,但是在有效区别目标和杂波方面起到了重要作用,提高了目标的数据关联正确率[3,4,5]。本文针对慢起伏目标回波,在杂波区、目标密集区等复杂环境下引入证据理论思想,充分利用目标点迹方位变化率特征、能量和特征以及位置特征等多特征信息综合判断点迹是否为目标的正确关联点迹。通过雷达实测数据验证,多特征联合数据关联可以改善目标在复杂环境下的跟踪稳定性,具有一定的工程应用意义。

1基于证据理论的多特征联合数据关联算法

1.1点迹特征提取技术

传统的点迹提取技术利用目标形状模板匹配检测到目标回波起始和目标回波结束位置,最终计算得到目标回波点迹的中心位置。这种处理方法对目标回波形状的依赖性较强,不规则回波形状容易造成目标点迹的不稳定性,增加了目标稳定跟踪的难度。为增强目标点迹的稳定性和提取目标点迹更多的特征信息,采用新技术实现目标点迹提取。其基本原理是利用目标回波在方位距离上的连续性对雷达测量的回波方位距离数据进行凝聚。假设目标回波形状如图1所示。

目标回波在距离上连续占据n至m个距离单元, 方位连续占据i到j个方位,A(i)为每个方位距离单元对应的能量信息,则雷达探测到的目标回波数据ESi可表示为(Azi,Dis Head,Dis Tail,Energy),其中Azi是目标回波方位数据,Dis Head是方位的距离起始数据,Dis Tail是方位的距离结束数据,Energy是目标回波能量的量化值。若目标两组回波数据ESi和ESj满足式(1)条件则凝聚ESi和ESj,同时更新方位起始、 方位结束、距离起始和距离结束数据,否则回波数据ESi和ESj来源于不同回波。式(1)中Gzai为方位凝聚门限参数,ɸ表示回波数据ESi和ESj在距离有重合非空集。

重复以上处理过程直至所有回波数据凝聚完毕, 按式(2)和(3)能量加权法计算点迹质心距离rk和点迹质心方位 οk:

目标点迹能量和为所有满足凝聚条件的回波数据能量总和,如式(4)表达。

经过点迹提取处理后可获得回波轮廓的Azi方位起始 、Dis Head方位结束 、Dis Tail距离起始 、 Energy距离结束以及回波点迹能量和信息 。

1.2基于证据理论的多特征联合数据关联算法

杂波区、目标密集区等复杂环境下的目标跟踪, 由于点迹密集导致基于位置信息的单一数据关联算法不确定性增加。1967年Dempster提出了证据理论,后由Shafer加以扩充和发展[6]。证据理论能把握问题的不确定性,为不确定性信息的表示、测量和组合提供了一种解决方案。基于证据理论思想的多特征联合数据关联算法,首先计算出点迹各个参数的特征统计概率值,并对各个特征值进行加权组合,将最优加权组合值作为目标关联结果,具体步骤如下。设目标运动模型和测量模型如下:

其中,X(k)为目标状态变量,F(k)为状态转移矩阵,Z(k)为雷达测量值,H(k)为观测矩阵,V(k)和W(k)分别是过程噪声和测量噪声。假设在k时刻目标预测状态波门范围内存在N个不同回波,通过点迹特征提取技术获得回波点迹的特征信息,定义特征集合A={A1,A2,A3}。其中,A1表示目标滤波信息特征, A2为点迹能量和特征,A3为点迹回波方位变化率特征。各个特征概率值计算步骤如下:

(1)滤波特征。根据目标运动模型对目标采用卡尔曼滤波处理,当k时刻目标预测范围内存在N个点迹,假设每个点迹为目标的正确关联点迹,则可能形成N个航迹分支,根据式(6)计算每个航迹分支的概率[7]:

其中Ck为常数,Vi对应测量值Zi的新息,Si协方差矩阵。

(2)回波点迹的能量和特征。设第k次扫描得到的目标关联点回波信号为Ek={E1,E2,…Ai,i=1,2,3…k},对Ek利用式(7)(8)进行统计量检验判断点迹回波能量和是否存在起伏现象。

则k+1时刻的目标关联点迹的能量和概率为 :

ΨE=1表示该点迹回波稳定,反之ΨE=0表示该点迹回波存在起伏现象。

(3)点迹回波方位变化率特征。设第k时刻雷达扫描得到的目标关联点迹方位数据集合为{(Azi-Head,Azi Tail,)1,(Azi Head,Azi Tail,)2…(Azi Head,Azi Tail,)k},其中Azi Head表示回波点迹的方位起始信息,Azi Tail表示回波点迹的方位结束信息。雷达在探测目标过程中,目标回波存在一定的起伏性。但在杂波区、目标密集区情况下,受杂波干扰和目标回波重合等因素影响导致回波点迹在方位上有明显变化。利用点迹在方位起始或者方位结束的变化率特征可推测出该点迹是否为目标的关联点迹。处理步骤,首先统计计算k个时刻目标方位起始、方位结束变化率的均值 ΔEˉHEAD和 ΔEˉTail。

则k+1时刻的目标回波方位变化率的概率值ΨA如式(12)表示。其中 ΔA1为目标回波起始变化率, ΔA2为目标回波结束变化率

(4)多特征联合关联度。上述点迹特征概率求出后,第个点迹跟目标的关联度可按式(13)求得,具体为:

式中 α1+ α2+ α3= 1。算法处理流程如图2所示。

1.3算法验证

算法采用VC2010开发,记录目标预测范围3公里以内点迹数据和AIS数据,将最优邻近和基于证据理论的多特征联合关联两种数据关联算法的结果进行对比。图3为跟踪目标穿越6批停航目标密集区场景,红色为停航目标的AIS信息。图4为目标穿越目标密集区时点迹各个特征的变化示意图。目标在穿越目标密集区过程中,目标回波重叠导致滤波协方差特征残差信息增大,目标点迹能量和表现为多个目标的能量总和,目标点迹的方位变化率突变。这些点迹特征变化在图5第120个探测周期和第160个探测周期内尤其明显。根据统计分析方法计算得出滤波协方差概率 Λ 较小,回波点迹的能量和 ΨE= 0 ,点迹回波方位变化率 ΨA= 0 ,组合加权后计算关联度小,判断该点迹不是目标关联点迹。相反,依据单一位置信息的最优邻近算法造成目标关联错误。图5和图6为目标在杂波区跟踪示意图和点迹特征变化示意图。 通过两种算法对比,多特征联合数据关联算法可以改善目标在杂波区、目标密集区等环境异常复杂下的稳定跟踪能力,具有一定的实际工程应用价值。

2结论

数据关联算法是雷达数据处理中的难点问题,特别是对海雷达目标跟踪过程中,由于受气象、杂波、目标密集等因素影响,目标数据关联过程中易发生关联错误,导致目标跟踪不稳定。本文根据证据理论思想利用目标位置、目标方位变化率和目标能量和等多种特征信息,判断点迹是否为目标正确关联点迹。通过实测雷达数据验证,多特征联合数据关联算法可以提高目标在复杂环境下的稳定跟踪能力。但是,这种多特征联合关联算法对于目标回波起伏缓慢的目标有效,对于回波变化较大的目标还存在一定的问题,需进一步研究完善。

多特征联合 篇2

基于无线传感器网络的目标识别研究也非常多, 其关键技术即目标的特征提取与分类识别一直是人们研究的重点和难点, 国内外对此进行了大量的研究工作, 如:文献[1]利用谐波集实现了对不同类型直升机的分类;文献[2]直接利用功率谱特征, 实现对战场车辆的分类;文献[3]利用降维后的功率谱特征, 实现了对战场四类目标的识别;文献[4, 5]用小波包能量特征实现了声目标的识别。战场上目标的声音信号构成非常复杂[6], 仅仅依靠某一特征, 很难全面反映其特征, 经常导致丢失其他重要的信息, 这就有必要利用多种互补的特征向量;即从不同方面完成对重要特征的描述, 从而有利于提高识别的正确概率, 降低错误概率。然而简单组合后的特征向量维数会非常庞大, 带来维数灾难, 不利于后续的分类识别。本文从无线传感器的实际特点出发, 提出对采集的声音信号用小波包去噪, 然后提取功率谱特征;并用核主分量分析 (kernel principal component analysis, KPCA) 对其进行降维处理, 再将降维处理后的特征与最优小波包提取的特征组成联合特征向量, 最后利用支持向量机 (support vector machine, SVM) 进行分类识别, 从而完成簇头中的本地决策。本文尝试对某型直升机、战斗机、巡航导弹、坦克和装甲车五种目标进行分类试验。其流程图如图1所示。

1 目标特性分析

目标的正确分类应建立在对目标的正确认识基础之上。首先深入分析目标特性, 然后进行数据处理和特征提取。

1.1 目标的噪声特性

1.1.1 直升机的噪声特性

文献[7, 8]和实测结果表明:直升机噪声是一种宽带信号, 能量主要集中在0~400 Hz的低频段, 其功率谱是由宽带连续谱上叠加一系列线谱组成, 如图2 (a) 所示。

1.1.2 战斗机的噪声特性

文献[9]和实测结果表明:战斗机的目标频率较低, 一般在500 Hz以下, 如图2 (b) 所示。

1.1.3 巡航导弹的噪声特性

文献[7]和实测结果表明:巡航导弹的飞行噪声主要为推进噪声和弹体噪声。推进噪声主要来自发动机, 其功率谱也呈现出鲜明的谐波特性。对于弹体噪声, 现在研究得较少。空气动力学原理分析表明: (1) 具有良好气动外形的弹体是一个宽带噪声源, 产生的噪声分布在一个150 Hz左右的低频峰值周围; (2) 弹体噪声强度与飞行速度之间呈5~6次方关系。当巡航导弹距测点位置较远时, 噪声高频成分明显衰减, 如图2 (c) 所示。

1.1.4 坦克的噪声特性

文献[10]和实测结果表明:主要频率在500 Hz以下, 如图2 (d) 所示。

1.1.5 机动车的噪声特性

机动车在正常速度行驶时, 高噪声辐射能量主要集中在400~1 000 Hz的频率段内, 如图2 (e) 所示。

1.2 数据预处理

数据预处理包括滤波和分帧。数据预处理的主要目的是提高信噪比, 减少后续处理的难度, 主要手段就是滤波。本文采用简单小波包去噪方法[11,12];即对采集的声信号进行小波包分解, 保留有用信号频率范围对应的小波包分解系数, 将剩余频率范围对应的小波包系数置0, 这样就消除了高频干扰噪声。实验中, 利用CC2530芯片设计的声音传感节点的采样率fs是11 k Hz, 由奈奎斯特采样定律可知, 经量化后有效信号的最高频率f为5.5k Hz。根据1.1节分析, 战场目标声音信号都在1 k Hz以下, 所以只需对5.5 k Hz的信号进行两级小波包分解。分解后的小波包系数为[C20, C21, C22, C23], 对应的频率范围分别为[0, f/4], [f/4, f/2], [f/2, 3f/4], [3f/4, f], 频段范围[0, f/4]即[0, 1 375 Hz]已经包含了目标信号的主要频谱范围。因此, 只保留系数C20, 将其他系数置0, 再进行信号重构, 这样就完成了信号去噪。

数据预处理的另外一个方面就是分帧。大量文献表明, 文中提到的五种目标在声音信号上存在很大差异, 频域波形必然能反映各自的特征;因此可采用功率谱对其进行特征提取。然而声音信号在统计上是非平稳的。也就是说, 它们统计特性是随时间变化, 无法直接利用原始信号进行功率谱估计。为了更好地利用平稳信号处理的成熟工具———功率谱进行特征提取, 必须将原始时间信号划分帧, 保证每一帧的时间里信号是平稳的。根据文献[13]分析可知, 战场声目标信号在10~20 ms内是准平稳的。因此对采样率是11 k Hz的信号进行功率谱分析时, 选取的帧长度是1024点数据。

2 功率谱特征提取与维数简约

2.1 信号的频域分析

采用了Welch法对滤波后的声信号进行功率谱估计, 即对信号重叠分段、加窗函数以及FFT等算法计算信号序列的自功率谱 (P) , 其算法表达式为:

式 (1) 中, L为分段的数量;M为分段的长度;d (n) 为选择的窗函数。对五类目标的声音信号分别作Welch功率谱分析, 如图2 (a) ~图2 (e) 所示。

从图3 (a) ~图3 (e) 可以看出, 五类目标的频谱峰值之间都存在明显的谐波关系, 其特征信息正如上文分析, 主要集中在0~1 k Hz, 因此只需对0~1 k Hz频带上的信号进行功率谱特征提取。

2.2 信号的频域特征提取

对采样率11 k Hz, 数据点是1024的数据进行功率谱估计时, 其频率分辨率是10.7 Hz。因此频率域上选取前100个数据, 对应的频率范围为0~1.07 k Hz, 这样频段就包含了主要的信号特征。然后将这100个数据, 每两个求和, 形成50维的谐波集特征, 如图4 (a) ~图4 (e) 。

2.3 频域特征的降维处理

主成分分析 (principle component analysis, PCA) 是一种基于目标统计特性的最佳正交变换, 具有提取模式中最大描述特征的能力, 然而PCA是一种线性算法, 只考虑数据中的二阶统计特性, 当特征信号中存在着大量非线性关系时, 已经不能满足要求。而PCA与核函数的有机融合形成的KPCA不仅特别适合处理非线性问题, 而且能够提供更多的信息。

2.3.1 核主成分分析

核主成分分析 (KPCA) 是经典PCA的核版本[14], 其基本思想就是通过一个非线性映射, 将输入数据映射到一个高维特征空间, 再在特征空间上进行线性主成分分析。给定一个包含m个样本的样本集X, xi (i=1, 2, …, m) 是样本集X中第i个样本, 将样本xi向RKHS H做隐含映射

设xi (i=1, 2, …, n;0

对于λ≠0我们可以写成

合并式 (3) 和式 (5) , 可以看出这一问题等价于求Gram矩阵的特征分解

式 (6) 中, a=[a (1) , a (2) , …, a (n) ]T。Gram矩阵的元素为κ (i, j) =K (xi, xj) , K (., .) 采用核函数。这样在式 (6) 中, 对应于κ的第k个 (非零) 特征向量, R的第k个特征向量可以表示为:

式 (7) 中, λ1≥λ2≥…≥λp表示各自的以降序排列的特征值, λp是最小的非零特征值, akT≡[a (1) , a (2) , …, a (n) ]是Gram矩阵的第k个特征向量。后者被假设成规范化的, 这样〈vk, vk〉=1 (k=1, 2, …, p) , 其中〈·, ·〉在Hilbert空间H内的点积。这使得对ak等量归一化, 结果为

2.3.2 基于KPCA的降维处理

按2.2节所述, 试验得到的五类信号的50维谐波集特征作为输入样本。然后利用2.3.1节的KP-CA法从特征空间中抽取核主成分特征。具体步骤如下:

1) 计算Gram矩阵κ (i, j) =K (xi, xj) (i, j=1, 2, …, n) , 采用高斯核函数, 其表达式为

式 (9) 中, 参数σ=0.3N, N为原始输入空间的维数。

2) 计算κ的n个特征向量和对应的特征值ak、λk, 其中k=1, 2, …, n。

4) 归一化主投影特征向量υk (k=1, 2, …, m) 。

5) 计算在各自主特征向量上的m个投影

6) 将m个投影组成特征向量T'1=[y (1) , y (2) , …, y (m) ]。

五类目标用KPCA降维处理后的特征向量如图5 (a) ~图5 (e) 所示。本文φ (m) 取80%, 则m=10。

3 最优小波包能量特征提取

基于最佳小波包基的特征提取方法[16]的基本思想是根据战场目标声音信号的频率特性, 选择不同的位置或频率对信号进行小波包分解, 在保证子频带不重叠的前提下, 用不同的子带组合覆盖整个频带。因此, 对于一个声音信号, 希望选择用较好的小波包基来表达此信号的特征。基于最佳小波包基的特征提取流程图如图7所示

1) 由小波包滤波后的信号频带范围为0~1375 Hz, 第1层分解后得到小波包系数C10和C11, 结合1.1节五类目标声音信号的频率特点可知, 除了机动车在C11频段上包含较多信息外, 其他声音信号在此频段包含的信息非常少, 故无须对C11进行细分。

2) 对C10进行第2层分解, 得到C20和C21。

3) 对C20和C21进行第3层分解, 得到4组系数C30, C31, C32和C33。根据直升机、坦克、战斗机的基频特性, 得知C33所对应的频带包含这3种信号的信息相对较少, 故不再对C33节点进行分解;C33只有巡航导弹主要能量集中在C30, 其他目标在C30频段上包含的信息非常少, 故无须对C30进行细分。

4) 由于C31和C32所对应的频带对直升飞机、战斗机和坦克都包含能量较大的信息, 为了达到更好的分类效果, 对C31和C32进行第4层分解, 得到C42, C43, C44, C45四组系数。最终得到的最佳小波包分解树图如图8所示

对应的最佳小波包基的节点分别为 (3, 0) (4, 2) (4, 3) (4, 4) (4, 5) (3, 3) (1, 1) 即这6个节点覆盖了不同频率成分的整个信号带宽, 每个节点所覆盖的频率分布范围见表1。

完成了对整个频带的非均匀划分后, 从低频到高频连续提取各节点的系数, 则原信号x (t) 可在最佳小波包基下分解为不重叠的7个子带的小波包系数:

这7个小波包系数可以表征战场目标的声音信号在不同频带的信号特点, 本文采用最佳小波包系数的能量作为信号的特征, 组成特征向量, 即式 (16) 。

小波包系数Ci, j对应的能量为Ei, j, 则有:Ei, j=∫|Ci, j (t) |2dt。构造最佳小波包基德能量, 得到初始特征向量如下:

对初始特征向量T2进行归一化处理, 令

得到最终的归一化特征向量T'2

按照上述特征提取方法, 对五类目标声音信号经过最佳小波包分解后, 各频带能量归一化的直方图如图9 (a) ~图9 (e) 所示。

将本节的最优小波包能量特征向量T'2, 同2.3.2节计算的特征向量T'1组合, 形成最终的联合征向量T=[T'1, T'2], 通过支持向量机 (support vector machine) 进行分类识别。

4 实验结果及分析

取某战斗机、直升机、坦克、车辆、巡航导弹五类战场目标共500个样本, 其中训练样本和测试样本各250个。分别采用单一特征向量的功率谱特征向量、最优小波包能量特征向量同本文提出的联合特征向量进行分类对比, 识别结果分别见表3、表4和表5。表中识别率均为目标正确分类的识别率, 计算公式为:识别率=正确的目标分类数目/总的测试样本数目。

对比文献[12]中用小波包作为特征向量、SVM进行分类的结果和表3、表4可知, 本文提出的将特征向量引进KPCA降维处理后, 再用SVM进行分类的识别结果明显优于直接用特征向量在SVM中的分类结果。对比表5可以看出, 联合特征向量要比单一特征向量的识别精度高, 且对每一种目标的识别率都在95%以上。因此本文提出的战场声目标识别算法具有非常高的识别精度。在战场侦查中, 无线传感器网络将监测到的数据发送到簇头, 在簇头中利用本文提出识别算法, 能够更加准确地识别出监测区域的重要军事目标。

5 结论

基于视觉的多特征手势识别 篇3

关键词:视觉,多特征,手势识别

依据输入方式的不同, 可以把手势识别分为基于视觉和基于手套数据的手势识别。基于手套数据的手势识别主要是利用手套来识别空间运动信息和轨道, 最终达到人机交互。基于视觉手势识别就是使用摄像机来收集图像信息, 分析识别图像信息, 此识别方式的主要优点就是设备要求低、简单、符合日常生活习惯。

1 手势的定义

因为手势自身就具有多义性和多样性, 不同空间和时间上存在很大差异, 还在一定程度上受到不同背影的影响, 导致手势意义不相同。从手势识别方面来说, 可以定义为:手势是手和臂膀之间出现的不同姿势和动作, 包括动态和静态两方面。静态手势实际上是模型空间的一个点, 动态手势是模型空间中的一条轨迹, 应该依据时间变化的特征来表达。

2 手势建模

手势模型是手势识别中非常重要的部分, 尤其是对于一些具有特定范围的识别起到更大的作用, 依据具体情况合理选择模型。如果需要特定的应用, 可以使用简单粗糙的手势模型, 例如, 可以使用图像梯度方向来跟踪和识别静态手势。但是想要实现人机交换自然进行, 此时就需要建立相应的精细识别模型, 例如, 使用3D人手模型, 手势识别系统此时能够对大部分手势做出合理反映, 从现阶段研究看来, 可以把所有的手势模型归结为两大类:一是基于3D模型的手势识别建模;二是基于表象的手势建模。基于表象的手势建模一般都是建立在图像的基础之上, 通过表观来合理分析手势信息, 通过表象特征来进行建模。基于3D手势模型建模, 一般都是充分考虑到产生手势的媒介, 一般来说, 主要遵循两个步骤:一是, 先给手臂之间的动态进行建模;二是, 从姿态和运动的参数来合理建设手势模型。

3 手势识别

一般都有很多种手势识别方式, 并且与手势建模密切相关。可以借力选取手势二值图像来表示手掌。利用指尖来对手指进行定位, 此时, 监测指尖就显得尤为重要。下图为十一个手势模板。

3.1 检测指尖

利用手势的凸缺陷以及手势轮廓来进行检测指尖。手势凸出缺陷实际上就是手势外部轮廓和手势凸包之间的差异, 如下图所示的手势凸缺陷。由图可以看出利用虚线构成的多边形形状实际上就是轮廓的凸包, 实心多边形就是人手的实际轮廓, 双向黑色箭头可以表示凸包与凸缺陷之间存在的最大距离, P1点用来表示开始时凸缺陷的轮廓点, P2点用来表示结束时候的凸缺陷轮廓点, P3点用来表示距离凸包最远处凸缺陷的轮廓点。从图上可以看出手势指尖和凸缺陷有着十分密切的关系, 可以有效地表示手势。

用以下方式来合理验证和检测得到的凸缺陷序列信息。第一, 手势外轮廓附近必定存在指尖。第二, 只有具有一定长度的凸缺陷满足与凸包的最大距离的时候, 才是凸缺陷指尖的候选集, 下图中的a处就是满足需求的凸缺陷, 而b处就不能满足凸缺陷的要求。第三, 指尖靠近开始和结束凸缺陷的轮廓点, 一般需要遵守以下几个原则:一是, 第一个和最后一个指尖由第一个开始的轮廓点和最后一个结束的轮廓点表示。二是, 把现阶段凸缺陷结束轮廓点以及下一个开始点作为指尖坐标, 这样就可以得到指尖位置和个数。

3.2 手势识别和表示

对于上文得到的指尖坐标点, 合理利用二值图形, 把其重心当做原点, 以此建立指尖坐标, 找到相应位置。假设指尖个数为M, 那么M在0~5范围内。可以得到两种计算方式;

第一, M大于等于2的时候, 利用相应的指尖位置来进行手势识别。可以利用第一个和其他指尖分别与重心连线的角度之和以及第一个和最后一个指尖与重心连线的角度来表示相对位置。

第二, M小于等于1的时候, 利用几何特征来识别手势。主要包括外轮廓面积、外轮廓凸包面积、轮廓长度、轮廓面积等, 可以方便于手势的识别。

4 手势识别的系统特点

4.1 功能强大

识别系统主要以知识工程和人工智能为基本依据, 利用数据库技术、分布式技术、GIS技术、统计分析、混合推理技术、图像分析技术以及回归预测和分析等技术, 因此系统功能十分强大。对于疾病的防治和诊断有十分重要的作用。合理的把OWC组件以及AJAX无刷新技术进行有机结合, 可以全面实现系统实时分析图表和更新功能。

4.2 安全性能高

识别系统主要是建立在NET之上, 可以从系统级、数据库级、网络级、用户级等多方面来保障系统安全, 采取限权用户多种组合模式的管理方法、数据库自动周期备份功能等多方面安全策略。

4.3 性能良好

合理使用多层的B/S系统和集成服务理念, 在层与层之间建立松散但是独立的耦合, 使系统变得方便维护、操作简单,

5 结束语

基于视觉的多特征手势识别逐渐发展成为未来的趋势, 也是在语音识别之后逐渐成熟和研究的新兴人机交互识别技术, 具有广泛的应用前景, 可以用于手语识别、虚拟交互、机器人的机械手等。手语其实是动作语言, 不仅是在聋哑人之间的交流, 也可以是非聋哑人的交流, 因此, 基于视觉多特征手势识别具有一定社会意义和前景。

参考文献

[1]翁汉良, 战荫伟.基于视觉的多特征手势识别[J].计算机工程与科学, 2012, 34 (02) .

[2]孙靖.基于视觉的实时手势识别及其应用[D].广西大学, 2013.

[3]闯跃龙.基于视觉的手势识别关键技术研究[D].浙江大学, 2013.

自适应多特征融合目标跟踪 篇4

视觉目标跟踪本质上是从视频图像序列中估计出感兴趣目标的位置以及运行轨迹。目前,在视觉跟踪领域提出的跟踪方法大致可以分为两类:产生式方法和判别式方法。产生式方法只利用目标本身的外观信息来建模,搜索与目标模型相似度最高的候选目标区域来进行跟踪;具有代表性的产生式跟踪器如:Histogram-Based Tracker[1]、Sparsity-based Tracker[2]、WSL Appearance Tracker[3]等;判别式方法既利用了目标本身的信息,也利用了目标周围的背景信息,它将目标跟踪看成一个二分类问题,即从背景中区分出感兴趣的前景目标。具有代表性的判别式跟踪器如:多实例学习跟踪器[4]、Ensemble tracker[5]、On-line Boosting Tracker[6]等。

跟踪时构建的目标表观模型的准确性和稳定性会直接影响跟踪器的精度,由单一特征描述的目标表观模型很容易受到外界干扰,跟踪效果会变差,有时甚至会跟丢目标,融合多个特征进行视觉目标跟踪能很好地提高跟踪器的精度和鲁棒性。J.Vermaak等人[7]将颜色、运动和立体噪声特征融入到了粒子滤波框架。Avidan的Ensemble Tracker[5]联合了局部方向梯度直方图HOG[8]和每个像素的RGB值去构建特征向量。Q.Zhao等人[9]利用联合跟踪框架将两个独立的特征(颜色特征和HOG特征)通过两个在线SVM分类器联合起来用于跟踪。D.Wang等人[10]利用空间金字塔匹配核函数计算每个特征构建出的目标直方图和候选目标直方图之间的相似度并生成一系列的概率图,然后通过粒子群优化(Particle Swarm Optimization,PSO)算法解决一个回归问题将各概率图融合进行目标跟踪。

文献[11]利用颜色名称特征(Color Names,CN)[12]对CSK跟踪器[13]进行扩展,提出了CNT(Color Name Tracking)跟踪器,提高了CSK跟踪器的精度,但在一些复杂环境下,效果不是很好,精度低,鲁棒性也较差。在CNT跟踪器中单纯用颜色名称特征CN构建目标表观模型,当出现相似特征的干扰物时,会出现漂移跟丢目标。此外,目标的特征随着环境变化也在不断变化,导致在一些复杂场景中跟踪精度很低。

为了提高CNT跟踪器[11]在复杂场景中的跟踪精度,由以上多特征融合算法的启发,提出一种基于回归的自适应多特征融合跟踪算法(Regression-based Adaptive Multi-feature Fusion Tracking,RAMFT)。提取出各子图像块的灰度特征、HOG特征和颜色名称特征构建目标表观模型,利用正则化最小二乘分类器得到各响应值,利用加权和准则融合各响应值,在跟踪过程中通过求解岭回归方程对各权重实时地自适应更新,得到准确稳定的检测分数值,通过找到检测分数取最大值的位置去估计目标的真实位置,从而进行精确地目标跟踪。

1 CNT跟踪器

CNT跟踪器[11]主要是利用颜色名称特征(CN)对CSK跟踪器进行扩展,对在线密集采样得到的子图像块构建目标表观模型,然后通过训练一种正则化最小二乘分类器来进行目标跟踪。

1.1 正则化最小二乘分类器

通过在线密集采样得到含m个样本的训练图集和相应的标签(xi,yi),i=1,2,K,m,训练分类器f( x) 找到正则化风险最小的参数。线性分类器的形式为f(x)=<τ,x>+b,这里 <τ,x>表示对 τ 和x进行内积,b是一个偏差项,求出 τ 之后将样本点代入就可以求出b 。最小化的问题可以归纳为

式中:L(y ,f(x) )表示损失函数,l 是一个正则项控制量,当二次损失函数L(y,f(x))=(y-f(x))2时,式( 1 ) 就表示正则化最小二乘。 为了改善在高维特征空间中的分类性能, 定义一个核函数, x是训练样本, z是测试样本,分别是训练和测试样本的特征向量空间,由文献[13]可以求出,对于正则化最小二乘核函数(Regularized Least Squares with Kernels,KRLS)得到一个闭合解:

其中K是核矩阵,其元素kij=k(xi,xj),I是单位矩阵。只要求出了 α ,就会得到前面的解 τ ,α 由系数αi组成,即α=(αi) ,由文献[13]可以解出KRLS的解为

将式(3)代入中,得到正则化最小二乘分类器的响应值

其中: A F(α) ,K(z,x)(k (zi,xi)), F表示离散傅里叶变换,F1表示离散傅里叶反变换。

1.2 快速检测

对于上述分类器,在第t帧的输入图像中,通过颜色名称特征对尺寸大小为M ×N的采样图像块构建的目标表观模型为zt,考虑所有位置的循环移位zt(c,d)作为第t+1帧的训练样本去训练分类器,用yt(c,d)表示zt(c,d)的标签,其中。在第t+1 帧的输入图像中,通过颜色名称特征对尺寸大小为M ×N的采样图像块构建出的目标表观模型为zt1,由式(4)可以得到在所有位置的分类器响应为

式中:。

CNT通过r取得最大响应的位置来估计该帧图像中真实目标的位置,取得了较好的跟踪效果,但在一些复杂场景中,由于光照、遮挡等众多因素的干扰,仅仅由颜色名称特征构建的目标表观模型极不稳定且不能准确地描述目标,从而导致跟踪精度低。

2 基于回归的自适应多特征融合跟踪

为了解决CNT跟踪器在复杂场景中跟踪精度低的问题,结合CNT跟踪框架提出一种基于回归的自适应多特征融合跟踪算法。

2.1 算法流程

本文的自适应多特征融合跟踪算法是通过提取多个特征分别构建出不同的目标表观模型,利用正则化最小二乘分类器得到各模型的响应,进而采取加权和准则融合各响应,在跟踪过程中通过求解一个岭回归方程实时地自适应更新权重,得到精确稳定的检测分数值,通过该检测分数值最大值的位置去估计目标的真实位置,算法流程如图1 所示。

2.2 自适应多特征融合

在第t帧,用qt表示当前帧目标的候选位置,用n个特征对目标图像块进行描述建立目标表观模型,通过上述分类器分别得到检测分数(即响应值)为ri(qi),i1,2,3,,n,通过加权和准则可得:

其中w=(w1,w2,K,wn),,初始化wi1/n(i1,2,,n),并在之后的跟踪过程中,基于岭回归方程设计权重wi的自适应更新策略增强各特征分量的局部判断力,进而提高跟踪精度。

2.2.1 岭回归方程

用qt表示第t帧目标位置的最优状态,其中第一帧目标位置的最优状态通过手动标记获取。设在qt的邻域N(qt*)里多特征融合后的响应为r(qt) ,则r(qt) 与r(qt)的差值应与qt和qt之间的距离成正比例关系,即当r(qt*)r(qt)的值越小时,qt与qt之间越近;当r(qt*)r(qt)的值越大时,qt与qt之间越远。并且,希望qt发生较小变化时能引起r(qt) 出现较大的变化,以增加跟踪器的位置判别力。因此,结合式(6),建立岭回归方程:

其中g(qt,qt*)=||qt-qt*||,是一个变量。由图2 可以直观地看到,ηt<0的曲线比ηt>0的曲线尖锐,说明当ηt<0时,qt的响应r(qt) 比ηt>0时更有位置判别力。所以,当所有的ht都小于零时,r(qt*)-r(qt)比g(qt,qt*)更具有位置判别力,故需要对ηt大于零的情况进行惩罚。

2.2.2 权重更新

由2.2.1 节可知,为了找到最优权重w*=(w1,w2,K,wn),需最大化r(qt*)-r(qt),而这等同于最小化,其中f(ηt)是用于惩罚ηt>0的成本函数,取Φ(ηt)=max(0,ηt)。设T为qt*的邻域N(qt*)里位置状态量的个数。由文献[14]可知,的最小化问题可以通过式(8)来实现。

其中δ 是一个正则化控制量,取δ =0.5,式(8)的最小化问题可以利用梯度下降法来处理。求出H(w) 的梯度:

其中:表示H(w) 的梯度,θ 是一个学习速率参数,初始取θ =1,之后每迭代一次减少为上一次的二分之一。

2.3 分类器更新

论文针对于每一个特征都进行了相应的分类器更新,这样使得跟踪器更具有鲁棒性。对于采用的第i个特征,考虑从第一帧到当前帧p提取出的目标表观特征{zt:t1,2,,p},从文献[11]可知分类器总成本函数的最小化可以通过式(11)的最小化来实现。

其中:在1.2 节已提到,,yt的元素为yt(c,d),。g 是学习速率参数,本文取γ =0.1,对AP的分子与分母分别通过式(12) 和(13) 更新,对于第n个特征在第p帧计算得到的AP分别为{AiPAPNi/APDi,i1,,n},目标表观模型zpi通过式(14)来更新,则可以得到总的更新策略:

3 实验结果及性能分析

3.1 实验装置与评价标准

实验仿真均在Matlab R2009a,Window8 系统,Pentium(R) Dual-Core CPU处理器,3.2 GHz主频和4G内存的计算机环境下编程实现。为了验证本文算法的有效性,采用了文献[15]中的跟踪评价方法,将本文提出的RAMFT跟踪器与CNT跟踪器、CT跟踪器[16]、IVT跟踪器[17]、STC跟踪器[18]进行了比较。选用的测试视频序列是Benchmark库[15]中一些比较有挑战性的视频序列,各视频序列的特点如表1 所示。

采用与[11,15]相同的衡量跟踪算法性能的三个重要指标,即平均中心位置误差(Average Center Location Error,ACLE)、距离精度(Distance Precision,DP)、重叠精度(Overlap Precision,OP)。ACLE表示跟踪结果中目标的估计中心位置与手动标记的ground-truth之间的平均欧式距离。DP表示在跟踪视频序列里中心位置误差(Center Location Error,CLE)小于一定阈值的帧数相对于视频序列总帧数的百分比(本文所有实验取与[11,15]相同的阈值20 pixels)。OP表示跟踪过程中估计的跟踪框与[15]中手动标记的跟踪框之间的重叠度SAOR超过一定阈值a (a[0,1])的帧数相对于视频序列总帧数的百分比(本文所有实验采用与[11,15]相同的阈值a0.5 )。重叠度的定义为

其中RT表示跟踪边界框的区域,RG表示ground-truth中手动标记的跟踪边界框区域,A表示求区域的面积。

3.2 实验结果及分析

3.2.1 定性分析

在六个测试视频序列中所有跟踪器的跟踪结果对比图如图3 所示(注:为了区分,采用各跟踪器的跟踪边框类型分别为:本文提出的RAMFT跟踪器的跟踪边框是实线,CNT跟踪器的跟踪边框是虚线,CT跟踪器的跟踪边框是点划线,IVT跟踪器的跟踪边框是点线以及STC跟踪器的跟踪边框是点划线且线宽比CT的线宽要小)。

1) 遮挡和光照变化

在Facebook2 中,目标被书本和帽子同时遮挡且有光照变化时,只有CT与RAMFT能较好跟踪,最后CT也漂移,RAMFT仍然能准确跟踪。在Coke中,由于光照变化强烈和部分遮挡,在几十帧的时候,除了STC与RAMFT,其他算法都已跟踪失败,最后只有RAMFT能准确跟踪。在Jogging中,目标被柱子完全遮挡时,CT、CNT、IVT、STC全部都跟踪漂移,目标再次出现时,只有RAMFT可以准确地跟踪。在Woman中,刚开始都能较好跟踪,目标被不同颜色的汽车连续遮挡后,只有本文算法能准确地跟踪。

2) 背景杂波、快速运动和旋转

在Basketball中,被跟踪的运动员有很多快速地形变,被相似球员干扰,旋转等诸多因素。刚开始除了STC,其他算法都能跟踪良好,在300 帧的时候,CT、IVT出现了漂移,随后CNT也逐渐漂移,最后只有RAMFT可以良好地跟踪。在Mhyang中,由于背景杂波和旋转等因素的干扰,CT表现很差,CNT与STC也有很大偏移,只有IVT与RAMFT跟踪效果最好。可以直观地看出,本文提出RAMFT跟踪器一直都能保持良好的跟踪,其他跟踪器大部分都会产生漂移或跟踪失败,本文算法性能优于其他四种算法。

3.2.2 定量分析

1) 以上算法的平均中心位置误差(ACLE)、距离精度(DP)、重叠精度(OP),分别如表2 所示,中心位置误差(CLE)曲线图如图4。当ACLE的值越小而DP和OP的值越大时,表明该跟踪器的跟踪精度越高,鲁棒性越好,反之不然。从表2 和曲线图中,可以看出,本文算法在跟踪过程中平均中心位置误差小,距离精度和重叠精度高,可见本文算法在精确性和鲁棒性等方面都优于其他四种算法。

2) 以上五个跟踪器的处理速度如表3 所示,从表3 可以看出,STC跟踪器的速度最快,其次是CNT跟踪器和RAMFT跟踪器。由于某些序列本身特征结构的复杂性较低,在提取特征时相对比较快或权重更新时对文中式(8)能较快地求解实现最小化,这样RAMFT跟踪器相对于CNT跟踪器只增加了较少的成本损耗,故在这些序列中RAMFT跟踪器与CNT跟踪器的处理速度基本相同,例如Basketball、Mhyang以及Facebook2 序列;而对于Jogging和Woman序列,由于序列本身复杂性较高导致多种特征的提取以及建模的复杂度有所增加,相比于CNT跟踪器提取单一的颜色名称特征多消耗了时间。从平均速度上看,RAMFT跟踪器比CNT跟踪器的处理速度稍微慢了一点,但每秒也处理了四十多帧,基本可以达到实时性。

f/s

4 结论

多特征融合的博文排序算法 篇5

目前,随着互联网技术的不断发展,博客以极快的速度融入到社会生活中。随之带来博文数量的急剧增加,如何在数量众多的博文中找到与用户查询相关的文章变得越来越重要。文献[1]首次提出博文排序算法,即iRank算法,此算法赋予包含信息源的站点较高等级,并且依赖不同信息源间引用同一链接的时间间隔,赋予存在潜在链接的可能性以权值。Wu 等人构建了博客数据挖掘的体系,此体系结合基于链接的权值、博文的语义内容、引用时间的延迟等对博客文章进行排序[2]。 InfluenceRank算法[3]利用博客文章间的信息新鲜度为每篇博文赋予分值。文献[4]中,利用在相关话题讨论中占据地位衡量博客的重要性;文献[5] 中,依赖博客信息源间的链接关系来分析博客的重要性,并提出了博客信息源重要性的评价指标;文献[6]中,通过博客文章的相关性、时效性、查询类型和博客作者的兴趣特征一致性等给出了一个排序算法E来衡量博客文章,相比传统算法,性能更优;文献[7]中,利用博主之间阅读评论的社会关系为每个博客赋予分值, 考虑到博客的时效性,采用衰减因子来影响博客的排序。

还有一些以PageRank和HITS算法为基础的典型算法。比如Fujimura K等人提出的以HITS算法为基础的EigenRumor算法,此算法基于博客作者的Hub和Authority值以及博主的Reputation值为每篇博文赋予分数[8]。BlogRank算法[9]是PageRank算法的修改版,此算法通过链接性和相似度来衡量博客文章的重要性。B2Rank算法[10]是以PageRank算法为基础的另一种博文排序算法,此算法通过用户的行为模型度量,依据的两个假设是:更新越频繁的博客越受关注;评论数量越多的博文越受关注。

以上算法进行博文排序时,并没有全面考虑博文的引用通告、标签、评论、分类、发布时间等传统网页上所不具有的结构特征,并且以PageRank算法为基础进行博文排序时,很少从改进PageRank算法的主题漂移和轻视新博文、重视旧博文的两个不足方面考虑。针对上述情况,本文提出了一种多特征融合的博文排序算法。通过衡量两链接博文的内容相似度和结构相似度,避免PageRank算法的主题漂移现象;依据度量博文的时间新鲜度和博文所在博主的受欢迎程度,改进PageRank算法轻视新博文、重视旧博文的现象。

1相关技术

1.1PageRank算法

1998年,斯坦福大学的Page和Brin最先提出基于链接结构分析的PageRank算法,此算法是一种与查询无关,用来评价网页权威性的重要方法。它的应用主要在网页上,本文将其引申到博文。算法的基本思想:被许多网页指向的网页,可能获得很高的链接值;被重要网页指向的网页,可能具有很高的链接值。

PageRank算法基于的两个假设是:

(1) 假设用户一开始随机的访问网页集合中的一个网页,以后跟随网页的向外链接向前浏览网页,不回退浏览,那么浏览下一个网页的概率就是被浏览网页的PageRank值。

(2) 假设一个网页被多次引用,则可能是很重要的;一个网页虽然没有被多次引用,但是被重要的网页引用,则它也可能是很重要的;一个网页的重要性被平均地传递到它所引用的网页。这种重要的网页称为权威网页。

由以上算法假设,得出对于某一篇博文A的PageRank值,公式如下:

其中,d:衰减因子,一般取值为0.85;PR(Pi):博文Pi的PageRank值;Nout(Pi):博文Pi的出链数;N:链接到A的博文总数。

虽然PageRank算法能够在一定程度上反映出博文之间的链接关系,可以有效地从博文链接结构中挖掘出博文。但是,PageRank算法仍然存在不足:

(1) 主题漂移

PageRank算法无法区分博文中的超链接是否和查询主题相关,即无法判断博文内容上的相似性,容易导致主题漂移问题。比如,Google等大网站往往拥有较高的PageRank值,因此这些网站的网页往往会在检索结果列表中占据靠前的位置,而事实上该网页与用户的查询主题并不一定相关。

(2) 轻视新博文,重视旧博文

决定某博文PageRank值的主要因素是指向它的链接个数。而如果刚由博主发布的一篇博文,由于时间短暂,没有其他的博文链接到此博文,同时也没有其他的用户评论。则即使这篇博文是用户最需要,与用户查询最相关的,或者此博主是受欢迎度很高的,但由于没有链接,或者链接很少,则此篇博文的PageRank值仍然将会很低。

1.2博文特性

博文不同于普通网页,在于博文是一篇以文章为中心附加文章分类、标签、评论的网页。除有网页的特性外,它更有自身的特点,如图1所示。

读者浏览博文时,博文的题目能帮助理解文章的主题,博文的分类能帮助确定文章的范围,博文的标签能帮助了解文章的内容。评论是读者对博文内容的共鸣或提出的看法,能帮助它对文章内容的理解。

2多特征融合的排序算法

用户查询结果的排序算法,优劣会直接影响用户使用的积极性,甚至于搜索引擎的性能。本文基于PageRank算法的不足,结合博文的结构特征,对PageRank算法进行改进。

2.1避免主题漂移

由于PageRank算法是基于博文间的相互链接,而并未考虑查询词,因此造成了主题漂移现象,本文综合考虑两链接博文的内容相似度和结构相似度,从而避免了主题漂移现象。

2.1.1 内容相似度

两链接的博文内容相似度由余弦相似度来衡量。给定两篇博文Di,Dj分别由n维向量<di1,di2,…,din>和向量<dj1,dj2,…,djn>表示,则计算两博文内容的相似度公式如下:

其中,wik,wjk分别对应Di,Dj博文中第k个词汇的权重,wik,wjk通过TF-IDF方法量化处理,考虑到文本长度对权重值会产生影响,对其进行Cosine规格化,从而一定程度上消除文本长度对权重的影响,使相同特征在不同向量中权重具有可比性,公式如下:

其中,wdk:文档d中特征词k权重;tfdk:文档d中特征词k出现频数; n:实验中抓取的2011/01/05—2011/02/04期间总博文数; nk:出现特征词k的文档数;s:文档d的特征总数。

2.1.2 结构相似度

考虑到博文结构中的标签,一定程度上能反映文章内容,所以通过拥有的相同标签数来衡量两链接博文的结构相似度,公式如下:

其中,Nt1:两篇博文相同的标签数;Nt:两篇博文总的标签数。

2.1.3 博文A的PageRank值

博文A的PageRank值是避免主题漂移现象后的值,通过内容相似度和结构相似度衡量,公式如下:

由式(5)知,d1用来限制内容和结构相似度对PageRank值产生过大影响。当d1值归为0时,式(5)将退化为最初的PageRank算法的公式。考虑到PageRank值相差1就会产生很大的影响,所以文中d1范围在[0,1]之间,通过实验验证最终得出数值。

2.2改善轻视新博文、重视旧博文的现象

由于PageRank算法是基于博文间的相互链接,因而对于刚发布的博文,当没有链接或用户评论时,链接值会很低。

因此,本文综合考虑博文的时间新鲜度和博主的受欢迎程度,进而改进轻视新博文、偏向旧博文的现象。

2.2.1 博文的时间新鲜度

因为用户在搜索结果中,选择博文时,更倾向于点击近期的博文。所以在衡量博文分值时,加入博文的时间新鲜度,新鲜度高的博文理应受到重视。它依赖博文的发布执行时间和查询执行时间的时间差,公式如下:

ST(A)=lb(2+Tissue-Tpost) (6)

其中,Tissue:博文的执行时间;Tpost:博文的发布时间。为防止对数真数为0,加入常数2作为平滑。

2.2.2 博主的受欢迎程度

博客文章的评论,一般位于文章的后面,它是读者在阅读完文章后,给作者写下的留言,读者可以自己借此对博客文章进行评论,这是读者同博客文章作者间相互交流最直接的渠道。因此,博客中评论数量在一定意义上代表了博客的人气和受欢迎程度。

所以利用一段时间内博主获得的平均评论数度量博主的受欢迎程度。平均评论数代表了读者对作者文章的关注度,评论数越多,即博主的受欢迎程度越高。公式如下:

其中, Np(B):博主B在一段时间T内发表的总的博文数;NC(Pi):博文Pi获得的评论数。

2.3博文A的分数

博文A的分数是基于博文的结构特性,改进PageRank的不足后得出的博文的最终分数,公式如下:

其中,PR(A):是经过改进主题漂移现象后的PageRank值。a,b两个参数通过实验估计得到,用以权衡不同因素的重要程度。

3实验与分析

3.1实验数据

为验证改进算法的实验效果,本文从http://blog.sina.com.cn/网站获取博文。利用Heritrix抓取了来自1200个博客的156420篇博文,并利用HtmlParser抽取博文结构中的发布时间、标签数、评论数等。且为计算的方便,本文只采用博文在2012/01/05—2012/02/04期间的数据进行计算。经过HtmlParser的数据预处理后,将其导入到数据库中,对限定的一个月中,100名大学生最关注的15个话题(见表1)进行对比实验。

3.2参数估计

3.2.1 d1值

为评估d1在0到1之间变化时对算法性能的影响,利用最关注的前三个话题进行实验。在每个话题返回搜索到的前100个结果中,统计符合被测试大学生兴趣的博文数目,即返回结果的准确度情况,图2是针对话题就业问题的结果。

通过对图2的观察可知,当d1=0.6时,返回结果的准确度达到最大,即此时改进的算法性能达到最好。 实验中第2和第3个话题:住房问题、社会保险通过计算后,同样得到一个结果准确度达到最大时对应的d1值,本文将三个话题最终取得的结果准确度达到最大时所对应的3个d1值的平均值作为d1的最终赋值。

3.2.2 a

在文中,有a,b两个参数需要估计,实验中设两者之和为1,因而只需考虑一个参数的估计即可(实验中考虑a)。为评估a在0到1之间变化时对算法性能的影响,利用最关注的前三个话题进行实验,在每个话题返回搜索到的前100个结果中,统计符合被测试大学生兴趣的博文数目,即返回结果的准确度情况,图3是针对话题就业问题的结果。

通过对图3的观察可知,当a=0.6时,返回结果的准确度达到最大,即此时改进的算法性能达到最好。

实验中第2和第3个话题:住房问题、社会保险通过计算后,同样得到一个结果准确度达到最大时对应的a值,本文将三个话题最终取得的结果准确度达到最大时所对应的3个a值的平均值作为a的最终赋值。

3.3实验结果与讨论

第一个实验,将改进算法与PageRank算法比较,利用提供的数据,对15个被选话题进行测试,在每个话题被搜索到的前100个结果中,统计符合被测试大学生兴趣的博文篇数。

由图4知,PageRank算法的查询结果满意度为45%左右,而改进后的算法可以把结果满意度提高到60%以上,即改进后的算法更加符合大学生的需求。这是因为PageRank算法仅考虑了无权重的链接,而忽略了博文的结构特性和对PageRank算法不足进行的改进。

第二个实验,将改进算法与B2Rank算法比较,利用提供的数据,对15个被选话题进行测试,在每个话题被搜索到的前100个结果中,统计符合被测试大学生要求的博文篇数。

由图5知,B2Rank算法的查询结果满意度为50%以上,性能好于PageRank算法,这是因为B2Rank算法考虑了博主的行为特征。而改进的算法结果满意度在60%以上,又优于B2Rank算法,是因为B2Rank算法仅考虑了博主的行为特征,而忽略了博文中其他的结构影响因子。经过实验对算法进行测试和分析,表明本文提出的方法,相较之其他博文排序算法,极大地提高了排序结果的满意度。

然而,这两个实验结果也都与所选的关键词及调查人群的情况有关,今后将在不同背景的人群中收集数据,以进行更全面的验证。

4结语

与传统的网页不同,博文有其固有的结构特征,因此传统的PageRank网页排序策略不能直接应用在博文排序中。本文提出一种基于多特征融合博文排序算法。特别提出对PageRank算法应用在博文排序中的两个不足:主题漂移;轻视新博文、偏向旧博文改进的量化描述。通过用户人工评价的实验结果,可知,本算法的性能要优于其他的博文排序算法。在以后的工作中,我们将把垃圾链接、垃圾评论等的过滤作为研究的重点。

参考文献

[1]Adar E.Implicit Structure and the Dynamic of Blogspace[C]//Proc.of the Workshop on the Weblogging Ecosystem.New York,USA:[s.n.],2004.

[2]Wu Y,Tseng B.Important Weblog Identification and Hot Story Summa-rization[C]//Proc.of the AAAI Spring Symposium on ComputationalApproaches to Analysing Weblogs.AAAI Press,2006.

[3]Song Xiaodan.Identifying Opinion leaders in the Blogsphere[C]//Proc.of ACM.Lisboa,Portugal,2007.

[4]Nakajima S.Discovering Important Bloggers Based on AnalyzingWeblog Threads[C]//Proc.of the 2nd Annual Workshop on theWeblogging Ecosystem:Aggregation,Analysis and Dynamics.[S.1.]:IEEE Press,2005.

[5]杨宇航,赵铁军,郑德权,等.基于链接分析的重要Blog信息源发现[J].中文信息学报,2007,21(5):68-72.

[6]卢刚.一种基于多特征融合的博客文章排序算法[J].计算机工程,2009,35(2):47-49.

[7]韩丽,岑松祥,马建,等.基于博主之间社会关系的博客排序算法[J].计算机工程,2010,36(5):52-53.

[8]Fujimura K.The Eigenrumor Alogrithm for Ranking Blogs[C]//Proc.of the Workshop on the Weblogging Ecosystem.New york,USA:[S.1.]:I-EEE Press,2005.

[9]Kritikopoulos A.BlogRank:Ranking Weblogs Based on Connectivityand Similarity Features[C]//Proc.of the 2nd International Workshopon Advanced Architectures and Algorithms for Internet Delivery andApplication.[S.1.]:IEEE Press,2006.

多特征联合 篇6

随着互联网技术的快速发展和信息的日益膨胀, 不仅当今的互联网充斥着大量的垃圾信息, 而且Web网页已经不再像以往的网页内容简洁、风格简单。网页里面加入了很多元素比如显示样式, 脚本和大量的广告等等噪声信息。如何从众多的垃圾信息中找到有用信息?如何在网页中准确并完整地找到主题信息所在的位置?成为当今研究的热点课题。

Web网页正文信息提取领域, 已经有大量的研究工作和许多比较成熟的方法, 要求抽取的网页数据源来自于同一网站或者网页结构相似的主要有基于网页模板的方法[1,2,3], 基于DOM树结构及其它延伸的方法[4,5], 很多研究者还把这两种方法相结合进行信息抽取, 比如RoadRunner系统[6];抽取的网页数据源不局限于同一网站的主要有基于视觉特征的方法[7,8], 基于统计理论的方法[9,10]等。在实际应用中可根据面向数据源的不同选取不同的方法, 并且很多方法都取得了不错的实验结果。

基于统计理论的方法中, 用网页正文特征来确定正文信息位置的方法主要有:Song等人[11]利用正文信息常见的三个特征 (即:标点符号, 非超链文本和超链文本) , 将这些特征转化为统计信息值, 以此确定正文信息的位置;周等人[12]延续了Song的方法并在后续处理过程中做了改进, 提出SCF方法进一步提高了抽取的效果, 更好地适应了风格多样的网页;李连霞等人[13]总结了网页的多个特征, 利用统计概率的方法确定正文信息的位置。

在实际应用中现今的基于统计理论的方法有其局限性, 随着网页风格的多样化, 抽取准确率有所降低, 通用性不强。本文旨在开发一个面向实际应用的、针对不同类型网页的正文信息提取及其结构化的系统, 该系统是“基于人机共建智慧平台的语义智能搜索引擎”项目中的一个子系统 (辅助扩展搜索引擎的后台知识库, 以及前台用户搜索时及时反馈结构化的网页正文信息提高用户体验) , 该系统尽可能适用于不同风格类型网页和任意网站。抽取结果的高准确率以及通用性是设计网页正文信息抽取算法的难点。作者以百度百科、互动百科以及各知名导航网站里面的网址为基础不断往外延伸共爬取了五亿多个URL, 下载了三千多万的网页, 以此为实验数据源研究具有较高准确率、通用性较强的网页正文信息抽取方法。为了满足网页风格的多样性和算法本身的通用性, 提出了一个基于多特征的网页信息抽取方法, 即WIEHF (Webpages Information Extraction based on Heterogeneous Features) 方法。

1 WIEHF方法

1.1 基本概念

现今主流网站网页的设计思想都是按照块进行设计的, 把某个模块的内容放到一个块中, 而WIEHF方法的思想也按照网页设计的习惯, 先对网页进行分块, 然后再对每个块进行正文识别, 算出最可能包含正文信息的块并提取出正文信息。在网页设计中常用的能进行分块的标签有

标签 (后面称为容器标签) 等。以下给出容器标签等相关概念的定义。

定义1标签里面能嵌套其他标签和正文信息的标签称为容器标签。

定义2单正文体网页是指网页正文信息集中在一个容器标签中。

定义3多正文体网页是指网页正文信息分布在多个容器标签中。

1.2 多特征的描述

对大量网页的分析发现, 网页主要分为单正文体网页和多正文体网页。

单正文体网页的正文特征主要是文本集中在一个容器标签中, 里面包含很多标点符号, 文本里面具有对标题描述的语言, 而且较多数其他容器标签而言更靠近标题标签。

多正文体网页的正文特征主要是文本分布在多个容器标签, 而且根据网页设计的视觉习惯, 这些容器标签的显示风格极有可能是一样的, 里面可能也包含很多标点符号, 文本里面也具有对标题的少量描述语言, 靠近标题标签。

综上对不同类型网页正文特征的分析和描述, 网页正文所具有的多个特征包括:正文文本数量、正文标点符号、正文超链接文本和非超链接文本的关系、正文对标题的描述性语言、正文离标题的远近以及正文信息显示的样式和位置。

融合这些网页正文特征而提出的WIEHF方法是先将html文档转换成DOM树, 然后计算每个容器标签的正文支持度;同时伴随着计算过程中和计算后的一些处理, 详见1.3节中算法步骤具体描述。

本文通过Jsoup.jar第三方jar包是实现对网页DOM树的构建, 该jar包实现的功能是先对网页的缺省标签进行修复, 然后解析html文档以html标签为根节点遍历所有的标签建立DOM树, 如图1所示。

在遍历DOM树时, 通过对各个容器标签进行唯一性的标注来实现每个容器标签位置路径的唯一性, 比如通过对图1的DOM树标注以后得到结果如图2所示。

我们可以得到每个容器标签惟一的路径分别为html/body/table[1]、…、html/body/div[n]、html/body/div[n]/div[1], 以及title标签的路径html/head/title。

计算每个容器标签的正文支持度 (SD) , 它的计算思想是将正文特征分为三类, 第一类是正文离标题的远近, 借此算出距离支持度 (DSD) ;第二类是正文对标题的描述性语言, 借此算出标题支持度 (TSD) ;第三类是正文文本数量、正文标点符号、正文超链接文本和非超链接文本的关系, 借此算出一般支持度 (PSD) 。然后利用这些支持度算出总的正文支持度即可确定最有可能是正文的容器标签, 计算方法如下:

其中, SD为正文支持度, DSD为距离支持度, TSD为标题支持度, PSD为一般支持度。

DSD的计算思想是:距离标题标签越近的容器标签就越有可能支持它是包含正文的容器标签。具体做法是将所有容器标签和title标签映射到一维坐标系中, 在计算距离支持度时假设title为坐标系上的原点, 容器标签可用式 (2) 进行映射和转换成坐标系上的点, 即可算出距离支持度。

其中, rdi为容器标签路径上的序号, q是大于0的一个整型常数, 在实验过程中发现q=10比较合理, 比如:如图1的某个容器标签路径html/body/div[1]/div[1], rd1=1, rd2=1, 则DSD=1/ (1×100+1×10-1) =1/1.1。

TSD的计算思想是:容器标签中包含标题的实体词越多就越有可能支持它是包含正文的容器标签, 具体做法是先将标题分词 (本文采用的分词系统是西南交通大学耶宝智慧中文分词、词性标注和实体标注一体化系统http://www.yebol.com.cn) , 提取出里面的实体词, 然后统计在所有容器标签中总的出现次数, 选取出现次数最多的两个词 (First Word和SecondWord) , 用式 (3) 求得标题支持度。

其中, FW为First Word在容器标签中出现的次数, SW为SecondWord在容器标签中出现的次数, α和β是两个常数, 并且α<β, 为了平衡算出的正文支持度和考虑到这两个词的重要性程度, 实验中它们的取值是α=0.5, β=1。

PSD的设计思想是:每个网页里面都具有普遍特征, 即标点符号超、链接文本、非超链接文本。通过下面的计算方法, 建立起它们之间的关系并算出其对所在容器标签的支持度, 具体公式如下:

其中, NC为非链接文本的字数, HC为链接的文本的字数, FP为标点符号支持度, p为标点符号个数。标点符号越少是正文的可能性就越小, 所以就减小其对自己是正文的信息支持。

由于在1.3节中会涉及到路径距离的计算, 所以在此先介绍它的相关概念和计算方法。

定义4路径距离是指容器标签之间距离远近的一种描述。

其中, juli (i, j) 是容器标签i和容器标签j之间的路径距离, len (i) 是根节点到容器标签i所经过的节点个数, len (j) 是根节点到容器标签j所经过的节点个数, pre (i, j) 是到容器标签i和到容器标签j所经历的相同节点个数。比如:容器标签i的路径为html/body/div[1]/div[2]/div[2]和容器标签j的路径为html/body/div[1]/div[2]/div[3], 此时len (i) =5, 说明从根节点到标签i时要经过5个节点才能到;同样可算len (j) =5, pre (i, j) =4, 最后可算出juli (i, j) =1。又比如:若有标签路径html/body/div[1]/div[1]/div[1]/div[0]和html/body/div[1]/div[1]/div[2]/div[1]的路径距离为3。

1.3 算法步骤

WIEHF方法的具体处理步骤描述如下:

输入:某个网页的源代码

输出:抽取信息的结果集

步骤:

1) 清除script、meta、style等噪声标签, 保存title标题标签和子标题标签。

2) 遍历网页DOM树, 将容器标签依次抽取出并以key-value的形式保存, 其中key为标签的路径, value为容器标签包含的内容。以容器标签为单位, 用式 (4) 计算PSD。

3) 对title标签和各级子标题标签进行分词, 统计出现次数最多的两个词 (First Word和Second Word) 。用式 (3) 计算出每个容器标签的TSD值。

4) 再次遍历容器标签集合, 用式 (2) 计算每个容器标签的DSD, 并同时用式 (1) 计算出每个容器标签的SD。

5) 利用式 (6) 计算容器标签之间的路径距离。当juli=1时, 比较这两个容器标签的class属性, 若没有则比较他们的style属性及其他属性, 如果属性相同, 则对它们的内容进行合并, 并将它们的SD值进行相加。

6) 选取前七个SD值的容器标签, 选取最大SD值的容器标签, 其文本长度在前七个容器标签文本长度的总长度中占的比例, 与0.5相比, 若大于等于0.5则设路径距离阈值JULI=2, 若小于0.5则设路径距离阈值JULI=4。

7) 计算前七个容器标签到最大SD值的容器标签的路径距离juli, 如果juli≤JULI则将此容器标签加入到最后要返回的集合lastset中。

8) 对lastset里面的元素进行遍历, 若lastset里面的元素只有一个, 则直接返回, 若不是则将对里面的元素挨个进行判断。判断方法如下:如果元素的内容里出现了3个及以上词库 (版权信息的词库) 里面词的并且无标点符号, 则将对该元素直接舍弃。

2 实验验证和结果分析

实验选取5个单正文体类型的网站和5个多正文体类型的网站, 分别是:sina、sohu、tom、pharmnet、chinayy和搜狐人物频道、百度知道、百度贴吧、智联招聘、ubuntu。在这些网站中分别随机选取了200个网页, 实验结果见表1所示。对于结果用提取正文信息的准确率 (P) 和完整率 (R) 进行评价, 它们计算公式如下:

其中, C1表示实验的网页总数, C2表示正确提取正文信息的网页个数, C3表示完整提取正文信息的网页个数。准确率是以网页总数为前提, 完整率是以正确提取正文信息的网页个数为前提。

由于Song等人和周等人也是利用网页正文特征确定正文信息的位置, 和文本的方法属同类, 但在处理方式上有所不同。所以表2中加入他们的实验结果进行对比。

从表2中可以看出, 在单正文体网页和多正文体网页的抽取准确率上较以往的同类方法要高。

图3为对应表2的直观条形图。

在图3中, 可以直观发现本文方法的较高准确率。更多更完善的网页正文特征因素加入到网页信息抽取方法中, 对抽取效果有很大帮助, 对单正文体类型的网页和多正文体类型的网页的抽取结果都有较高的正确率。

3 结语

多特征融合的鲁棒图像匹配 篇7

由于景象匹配中的基准图和实测图通常是在不同时间不同场景拍摄的,两幅图的成像条件(包括传感器类型及姿态、季节和气候情况等)可能不同,造成实时图和基准图之间可能存在灰度差异、清晰度差异、几何畸变及遮挡等。而且目前常用的基于灰度相关的匹配算法和基于特征的匹配方法都有着其各自的缺陷,

单独地应用一种算法或一种特征很难获得鲁棒、实时、精确的匹配结果。针对单一方法的缺陷,本文采用DS证据推理理论,对几种基于灰度相关和特征的图像匹配方法的匹配结果进行融合判断,形成一种速度快、鲁棒性好及可靠性高的融合匹配算法。从而克服单个特征和算法的局限性,实现多特征、多算法优势互补,提高匹配的适应性。

1 D-S证据推理理论

1.1 基本定义

Dempster-Shafter(简称为D-S法)是目前数据融合技术中比较常用的一种方法[1]。该方法通常用来表示对于检测目标的大小、位置以及存在与否进行推断。由各种传感器检测到的信息提取的特征参数构成了该理论中的证据,利用这些证据构造相应的基本概率分布函数,对于所有的命题赋予一个信任度。基本概率分布函数及其相应的分辨框合称为一个证据体。因此,每个传感器就相当于一个证据体。多个传感器数据融合,实质上就是在同一分辨框下利用Dempster合并规则将各个证据体合并成一个新的证据体。产生新证据体的过程就是D-S法数据融合。

定义1: 辨识框架Θ:某事件或问题所能认识到的所有结果的集合。通常是一个非空的有限集合,R是辨识框架幂集2Θ中的一个集类,即表示任何可能的命题集,(Θ,R)称为命题空间。

定义2:设Θ为辨识框架,R为辨识框架幂集2Θ中的一个集类,AΘ的子集,如有集合函数m:R→[0,1]满足下列条件:

(1)m(ϕ)=0;

(2)∑{m(A)|AΘ}=1。

则称m为辨识框架Θ上的基本置信指派函数(Basic Belief Assignment,BBA),也称为基本概率指派函数(Basic Probability Assignment,BPA),任意AΘ,m(A)称A的基本置信指派。m(A)表示证据支持命题A本身发生的程度,而不支持任何A的真子集。条件(1)表明对于空集(空命题)不产生任何置信,条件(2)反映了总的置信度为1。

定义3:设Θ为辨识框架,R是辨识框架幂集2Θ中的一个集类,AΘ的子集,mΘ上的基本置信指派函数,Bel:R→[0,1],且满足:

Bel(A)=∑{m(B)|BA,B≠ϕ}; AΘ (1)

则称Bel为辨识框架Θ上的置信函数(Belief Function),任意AΘ,Bel (A)称A的置信度。

定义4:设Θ为辨识框架,R是辨识框架幂集2Θ中的一个集类,A为Θ的子集,mΘ上的基本置信指派函数,Pl:R→[0,1],且满足:

Pl(A)=∑{m(B)|AB≠ϕ};AΘ (2)

则称Pl为辨识框架Θ上的似真函数(Plausibility Function),任意AΘ,Pl (A)称A的似真度。似真函数Pl (A)表示不反对命题A的程度。

由置信度与似真度可以构成证据不确定区间[Bel (A),Pl(A)],表示证据的不确定程度。减小不确定区间是证据推理的目的之一。

1.2 Dempster组合规则

给定不同证据的置信函数,利用Dempster组合规则就可以计算出一个新的置信函数,该置信函数就可以作为这些证据联合作用下产生的置信函数,但是要注意的是使用Dempster组合规则的前提是证据不是完全冲突的。

定理1:假定辨识框架Θ上,有性质不同的两个证据AB, 其焦元分别为AiBj(i=1,2,…,n; j=1,2,…,m),其指派函数分别为m1和m2,其置信函数分别为Bel1、Bel2,如果

∑{m1(A)m2(B)|AiBj≠ϕ}=0,

其中Ai,BjΘ,则称Bel1与Bel2不能组合。否则,Bel1⊕Bel2可以用Dempster规则组合,其过程如下:

m(A)=1ΚBiCj=Am1(Bi)m2(Cj)(3)

式(3)中A≠ϕ,AΘ,m(ϕ)=0,

Κ=1-BiCj=ϕm1(Bi)m2(Cj)=1-Q(4)

Q=BiCj=ϕm1(Bi)m2(Cj)(5)

Q被称为矛盾因子,表示证据的冲突程度。

2 多特征融合的鲁棒图像匹配

基于改进Hausdorff距离(Hausdorf Distance,HD)[4,5]的图像匹配方法以其对图像灰度及遮挡的不敏感,但该算法抗噪性一般,对旋转变化非常敏感。快速NCC算法[2]是一种基于灰度特征的、实时性好、抗噪声能力强、对光照变化不敏感但受旋转变化影响较大的图像匹配算法。SIFT特征匹配[3]有较好的抗旋转、抗尺度、抗光照能力,但是往往由于孤立点、噪声点以及结构不相关的影响,从而降低了特征匹配精度。针对三种方法的优缺点,可以利用DS理论对各自的匹配结果进行融合,实现图像的二次精确匹配。

2.1 置信指派函数的构造

本文中对于每一个匹配的位置都有两个结果:匹配与非匹配,由此可以构建辨识空间Θ={H1:匹配,H0:非匹配}。

由模式识别的知识可知,两个模式相似,就是说特征差不多。则定义待鉴别位置的特征值与样本特征值的欧式距离:

d=(ti-t¯i)2(6)

式(6)中ti表示鉴别区域的第i个特征值,t¯i表示样本的第i个特征值均值。当鉴别区域与目标样本越相近则d值越小,两者完全相同时d=0。研究表明,从距离函数d到基本置信指派函数的映射,即:R→[0,1]映射是一个非线性映射过程。总的趋势是:待鉴别区域与样本特征值的欧式距离越小,分配给该区域的指派越接近1,反之则指派接近0。因此,需要找到一种函数可以反映这种非线性映射关系。指数函数就是具有这种关系的一种函数,取指数函数作为置信函数:

mi(H1)=exp(-di) (7)

在同样条件下,不同方法匹配结果的信赖程度也应当有所区别,因此在式(7)的基础上加入置信因子w,则置信函数形式变为:

mi(H1)=wiexp(-di) (8)

当对该方法获取结果完全不信任时w=0,完全信任时w=1。

2.2 置信值的实验推导

三种算法的数据分析,置信值可以分以下几种情况赋给。

2.2.1 无高斯、椒盐等噪声、无旋转、无尺度变化、无光照变化、无遮挡

在这种情况下,基于NCC的算法的匹配概率为置信度较高,而基于SIFT和基于边缘特征的LST-HD的匹配都会有误差,所以:

w1=1,w2=0,w3=0。

其中,w1为基于NCC的快速图像匹配算法的加权值,w2基于SIFT特征的图像匹配算法的加权值,w3基于边缘特征的LTS-HD图像匹配算法的加权值。

w1=1,w2=0,w3=0。

其中,w1为基于NCC的快速图像匹配算法的加权值,w2基于SIFT特征的图像匹配算法的加权值,w3基于边缘特征的LTS-HD图象匹配算法的加权值。

2.2.2 有旋转、无光照变化、无高斯、椒盐等噪声、无尺度变化

这种情况下,基于SIFT的算法都基本能匹配上,虽然都有误差,但那是由于SIFT算法不是遍历式的模板匹配,而是全局匹配,因此在确定匹配点位置时,是以那些正确匹配点的行、列最小值,作为匹配点位置,这样还是能接受的。而基于NCC和基于边缘特征的LST-HD的匹配基本配不上,所以:

w1=0,w2=1,w3=0。

其中,w1为基于NCC的快速图像匹配算法的加权值,w2基于SIFT特征的图像匹配算法的加权值,w3基于边缘特征的LTS-HD图象匹配算法的加权值。

2.2.3 无旋转、无高斯、椒盐等噪声,有遮挡

这种情况下,基于边缘特征的LST-HD的算法都能匹配,而且误差较小,但SIFT算法以及NCC算法的匹配精度大幅下降。所以令:

w1=0,w2=1,w3=0。

其中,w1为基于NCC的快速图像匹配算法的加权值,w2基于SIFT特征的图像匹配算法的加权值,w3基于边缘特征的LTS-HD图象匹配算法的加权值。

其实,还有更多的组合情况,这里就没有一一说明了。

4 仿真分析

本文仿真实验在Matlab R2008平台上编程实现,所使用的实验环境为:CPU Inter Core i3-2310M,主频2.10 GHz,内存2 G,操作系统为Windows 7.0旗舰版。实验主要验证了下面所述的六种情况下的融合匹配算法的可靠性,结果如表1所示。

情况一主要是:无高斯、椒盐等噪声、无旋转、无尺度变化、无光照变化;

情况二主要是:有旋转、无高斯、椒盐等噪声、无尺度变化、无光照变化;

情况三主要是:有尺度变化、无高斯、椒盐、光照变化。

从表中数据可知,DS理论完全适合多特征融合的图像匹配。

5 总结

通过对数据融合技术的相关知识进行了深入地研究,并通过三种算法的性能及适应性的分析,采用DS理论对这三种算法的匹配结果的不确定性和冲突进行融合判断,形成了一种速度快、鲁棒性好及可靠性高的融合匹配算法。

参考文献

[1]刘准钆,程咏梅,潘泉.证据冲突下自适应融合目标识别算法.航空学报,2010;31(7):1426—1432

[2] Huttenlocher D P,Klanderman G A,Ruchlidge W J.Comparing im-ages using the Hausdorff distance.IEEE Transactions on PatternAnalysis And Machine Intelligence,1993,15(9):850—863

[3] Dubuisson M P,Jain A K.A modified Hausdorff distance for objectmatching.Proceedings of the 12th International Conference on PatternRecognition,Jerusalem,Israel:1994

[4]孙卜郊,周东华.基于NCC的快速匹配算法.传感器与微系统,2007;26(9):104—106

【多特征联合】推荐阅读:

内科联合07-16

联合方式10-14

联合发送10-16

短效联合10-16

联合指导10-17

联合通讯10-18

联合药物10-19

联合操纵10-21

自由联合10-21

联合监管05-08

上一篇:动感地带论文下一篇:西藏农业