特征表示

2025-01-30

特征表示(精选4篇)

特征表示 篇1

摘要:为了有效描述图像的多角度视觉内容, 提出一种将图像异质局部特征集通过稀疏学习映射为图像全局稀疏表示的新方法。该方法从不同的训练特征集中学习超完备视觉词典, 经过局部稀疏编码、最大值合并、加权联接及归一化等一系列处理步骤融合多种局部特征的互补信息, 最终形成一个高维稀疏向量来描述图像的多角度视觉内容。将其应用于基于内容的图像检索 (CBIR) 任务中, 实验结果表明, 这种基于异质局部特征学习而来的图像全局稀疏表示解决了单一局部特征集描述图像的局限性和高维局部特征集相似性度量时空复杂度高的问题。

关键词:异质局部特征,稀疏学习,视觉词典,基于内容的图像检索

图像特征被广泛应用于图像处理与分析中作为图像的有效表达方式, 其典型应用之一就是基于内容的图像检索 (Content-Based Image Retrieval, CBIR) 。给定查询图像, CBIR直接从图像库中查找与之视觉特征相似的图像, 这种“图找图”式的依据视觉特征相似度给出图像检索结果的方法克服了传统的基于关键字的图像检索技术“字找图”式的不足, 成为当前智能信息检索领域的研究热点[1]。

近年来, 图像局部特征因其良好的可重复性、可分辨性和鲁棒性得了广泛重视和飞速发展, 很多图像局部特征被相继提出 (如SIFT[2], HOG[3]等) , 并用于CBIR等视觉任务中, 弥补了图像全局统计特征 (如颜色、形状、纹理等) 的不足。然而, 图像上所提取的局部特征因其数量较多、维数较高也给大规模图像检索任务带来了新挑战。这种“高维局部特征集”表示图像的方式, 由于进行相似性度量的时间和空间复杂度高而难以适应大规模数据库环境下的图像检索任务, 而图像的全局表示形式 (Holistic Representation) 用一个向量表示一幅图像, 在这方面则有其天然优势, 因为任何两幅图像的相似性直接可用向量之间的距离函数来度量。

为了使图像的表示形式既能像局部特征一样有描述图像细节信息的能力, 又能像全局特征一样简洁明了, 本文提出利用“稀疏学习”的思想, 从训练图像的特征数据中建立超完备视觉词典, 采用局部稀疏编码 (Local Sparse Coding) 和最大值合并 (Max Pooling) 将图像“高维局部特征集”转化为更高维的稀疏特征向量[4], 然后通过直接计算向量相似性得到图像相似性, 并应用于CBIR系统中。另外, 本文不是使用单一局部特征, 而是选取了信息互补的不同局部特征构成异质局部特征, 从而能从多角度描述图像的内容, 在CBIR系统中能得到比单一局部特征更好地检索结果。

1 相关工作

如何从原始“像素级”表示的图像中提取有更强表示能力的图像特征一直是图像分析任务首先要解决的问题, 也一直是计算机视觉和模式识别领域的研究热点。

为了适应大规模图像数据库环境下的应用, 可借助学习机制将提取的图像底层局部特征的集合通过“多对一”映射 (编码) 成为一种全局表达方式, 即用一个向量来表示一幅图像, 以便在图像检索任务中使用通用的相似性度量方法来比较图像的相似性, 迅速返回检索结果。不同于通常所说的颜色、形状、纹理等全局统计特征, 这是一种构造在局部特征基础上的全局特征, 它仍能保留接近于图像底层的细节信息, 可看作是较高一层的特征表示, 这就向着“语义层”特征表示又前进了一步。目前这类特征中比较典型的例子是Bo VW (Bag of Visual Words) [5], S.Lazebnik等人则使用SPM (Spatial Pyramids Matching) [6]方法对其进行了改进, 在一定程度上加入了局部特征的空间分布信息。

另外, 压缩传感和稀疏表达理论近年来在信号处理、模式识别和计算机视觉领域中掀起新一轮热潮, 在人脸识别、场景分类等诸多应用中都取得了较好效果。其中一个核心的概念就是稀疏编码, 最早源自Barlow等人对生物视觉系统研究而提出的有效编码假设[7]。Olshausen和Field则进一步提出了著名的稀疏编码模型[8], 该模型通过基向量 (或基函数) 线性相加表示输入图像, 在最小均方差意义下使重构图像尽可能地与原图像相似, 同时要求表示系数尽量稀疏化。在此基础上, 很多研究者在稀疏编码模型的理论和应用方面做了大量的工作, 取得了丰硕成果, 也提出了许多改进的稀疏编码模型。

对于图像数据, 这些稀疏编码模型大多是从自然图像中“随机”选取若干图像块 (按像素灰度值排列成多维向量) 构成一个训练集合, 加以训练学习后得到基向量和对应图像的稀疏表示 (编码) 。随机采样的子图像块作为样本会给学习过程带来不稳定性 (比如引入背景或非目标区域噪声、对图像尺度、方向、视觉、亮度变化敏感等) , 从而学习到的基向量不一定具有代表性, 并可能存在大量噪声信息冗余。针对以上这些问题, 考虑到目前流行的图像局部特征 (如SIFT等) 本身就是对图像中感兴趣区域 (图像块) 的一种优于“像素级”的多维向量表示形式, 因此, 直接以图像局部特征作为训练样本, 并采用稀疏编码模型学习基向量和图像的稀疏表示, 是特征学习方法研究的新趋势。研究者们最近几年来在这方面做了一些尝试, 并在图像重构、图像分类等应用中取得了较好效果[9,10,11]。

但其训练数据 (局部特征) 大多是在图像上密集采样的结果, 一般都只使用单一的视觉特征。密集采样得到的特征数比基于兴趣点检测得到的特征数要多得多, 而且极易引入背景和非目标区域噪声, 另外单一视觉局部特征一般是精心设计的, 是对图像块某一属性的描述, 如果还能联合其他信息互补的局部特征, 如基于兴趣点检测的特征加上基于局部纹理或形状描述的特征, 则描述能力会更强。

本文正是以此为突破点, 运用稀疏学习的思想, 将SIFT (Scale Invariant Feature Transform) [2]、LBP (Local Binary Patterns) [12]和HOG (Histograms of Oriented Gradients) [3]等3种信息互补的图像局部特征视为异质局部特征进行融合, 最终以一个高维稀疏向量的全局表示形式描述图像多角度的视觉内容, 并将其应用于CBIR任务中。

2 图像异质局部特征的稀疏学习

2.1 局部特征的稀疏学习

图像的局部特征可以看作是对图像某一采样区域特性的向量描述。例如, SIFT特征是基于“团点”检测的, 对图像缩放、旋转、光照变化甚至遮挡和裁剪等均保持着较好的不变性;LBP特征反映了图像上像素点与其近邻像素点灰度值的大小关系, 描述了图像的局部纹理特性;HOG特征则描述了图像内容的局部形状或边缘特性。

图像局部特征稀疏学习的目的, 是利用学习机制将图像底层局部特征的集合通过“多对一”映射 (编码) 成为图像的全局稀疏表示形式, 以便在图像检索任务中使用通用的相似性度量方法来比较图像的相似性。图像局部特征的稀疏学习过程如图1所示。

一方面, 选取图像库中的部分图像作为训练图像, 提取底层局部特征, 通过聚类方法得到初始的超完备视觉词典, 然后利用初始化的视觉词典和训练图像的局部特征, 交替使用词典学习方法和稀疏分解算法, 通过不断的训练学习得到优化的超完备视觉词典和图像库中图像的稀疏特征 (即全局稀疏表示) ;另一方面, 应用系统的输入图像 (如CBIR系统的查询图像) 的局部特征被提取, 并利用训练好的词典对其进行稀疏学习, 得到输入图像的稀疏特征。随后, 这些稀疏特征可被用于各种具体计算机视觉应用中。

记X=[x1, x2, …, xn] (x1∈Ra×1) 为输入矩阵 (每列是一个输入向量) , 表示在d维空间中的一组包含n个局部特征向量的集合, B=[b1, b2, …, bk] (b1∈Ra×1) 为基矩阵 (每列是一个基向量) , 表示由K个基向量构成的视觉词典, S=[s1, s2, …, sn] (s1∈RK×1) 为系数矩阵 (每列是一个系数向量) , 表示利用视觉词典进行稀疏分解 (局部稀疏编码) 得到输入矩阵X的稀疏编码矩阵, 则以上稀疏学习的过程可以表示成下面的优化问题

式中:‖x1-Bsi‖2表示重构误差;si是稀疏性的惩罚函数;λ为规则化参数, 用于权衡重构误差和稀疏约束。该优化问题在S保持不变时是关于B的凸优化问题, 在B保持不变时是关于S的凸优化问题。一般通过交替固定B和S之一的同时优化另一个的方法来优化上述目标函数。

对于学习基矩阵B (即学习视觉词典) , 此时固定S, 该优化问题等价于平方约束最小二乘问题

对于学习系数矩阵S (即局部稀疏编码, 学习局部特征的稀疏编码矩阵) , 此时固定B, 该优化问题等价于L1规则化最小二乘问题

为了将图像用一个向量表示, 对学习到的局部特征的稀疏编码矩阵, 还要进行一个合并操作, 一般采用最大值合并 (Max Pooling) 方法[9]

式中:scj是sc (最终的高维稀疏向量) 的第j行元素;Sj是S的第j行第i列的矩阵元素;n是局部特征向量的数目。最大值合并相当于在对应基向量位置的最强响应, 许多图像分类任务已证实该方法行之有效[4], 故本文也采用最大值合并方法来合并各个稀疏编码, 从而得到整幅图像的稀疏表示。

2.2 异质局部特征的稀疏学习

不同的局部特征, 其设计思路不同, 对图像底层细节信息描述的角度也就不同。这种信息互补的特征组合可视为异质局部特征 (Heterogeneous Local Features) 。本文从众多的图像局部特征中, 选择了如前所述的SIFT (128维) 、LBP (采用P=8, R=1统一模式LBP, 58维) 和HOG (36维) 来构成异质局部特征加以研究。

为了融合图像的异质局部特征, 采用如图2所示的稀疏学习方法。

从图像数据库中选择一部分图像作为训练图像, 分别提取SIFT, LBP, HOG特征组成3个训练特征集, 分别得到3个超完备视觉词典B_sift, B_lbp, B_hog。对于训练好的每一个视觉词典, 利用其对图像的局部特征矩阵进行局部稀疏编码和最大值合并, 分别得到稀疏特征sc_sift, sc_lbp, sc_hog, 最后按照一定的权重进行首尾相连并进行归一化就能得到一个信息融合后的稀疏特征———单位向量sc_slh, 即为该图像的最终全局稀疏表示形式。

这样, 每幅图像仅用一个包含图像多角度局部信息的高维稀疏向量描述。图像相似性可直接用向量相似性来衡量。用这个稀疏特征向量来描述图像的特征, 相比单一特征对图像进行了更全面的描述, 又具备全局特征的形式, 因而这样的特征既具备了较强的图像局部信息描述能力, 又能够适应大规模数据库检索的需求。

3 应用实例:CBIR

将按以上稀疏学习方法得到的图像稀疏表示应用于基于内容的图像检索 (CBIR) 任务中。

3.1 图像库

采用标准图像库Zu Bud[13]。该库包含201栋建筑物的1 005幅图像, 每个建筑物各有5幅图像, 原始分辨率为640×480 (本文实验中将其缩小到320×240以减少数据量) , 是在不同季节和天气条件下从不同视角由两个不同相机拍摄的, 还特别拍摄一些被树木遮挡的图像。采用该库来做图像检索实验能够方便地评估图像特征的性能, 如尺度不变性、方向 (旋转) 不变性、视角不变性、光照不变性以及抗干扰能力等。

3.2 视觉词典学习

为减少计算量, 对每建筑物各取1幅图作为训练图像集, 对这201幅图像提取SIFT, LBP, HOG特征分别组成训练特征集, 通过K-Means聚类得初始化视觉词典, 并按式 (2) 进行词典学习, 分别得到3个具有K (K=1 000) 个基向量的超完备视觉词典。

3.3 图像的稀疏表示

对于学习好的每个视觉词典, 利用其对全部1 005幅图像的局部特征矩阵按式 (3) 和式 (4) 进行局部稀疏编码和最大值合并, 先将每幅图像用一个K维的稀疏向量进行表示;然后, 通过加权联接的方式融合3个稀疏向量, 并进行归一化, 从而形成图像的最终全局稀疏表示, 即3K维的稀疏单位向量。

3.4 图像检索过程和性能评价

为了便于统计结果和评价检索性能, 本文取每幅库图像作为查询图像, 这样图像检索过程简化为, 用两个稀疏单位向量的内积 (夹角余弦) 的来衡量两幅图像的相似度 (内积越大越相似) , 并按相似度从大到小返回指定数量的图像作为检索结果。根据Zu Bud库特点, 指定返回结果图像数T=5, 即等于实际相关图像数, 故本文实验中单次检索的查准率与查全率相同。这里采用平均查准率 (Average Precision, AP) 作为性能评价标准, 即

式中:ni是第幅查询图像检索出的相关图像数目, N=1 005。

3.5 实验结果及分析

表1为按6种不同的加权系数进行稀疏特征融合时图像检索实验的平均查准率。

图3和图4分别是实验中某幅查询图像利用单一SIFT稀疏特征及按0.5∶0.3∶0.2的权值进行异质特征融合后的5-近邻 (5-NN) 检索结果。

由此可见, 在本文设定的实验条件下, 相比单一局部特征, 综合利用异质局部特征进行图像检索, 能够得到更高的查准率, 异质局部特征对图像局部信息具有更全面的描述与区分能力。另外, 每幅图像均由一个高维的稀疏向量来表示, 因而只需要存储该向量中非零系数的值和索引, 且图像间的相似性直接用稀疏向量的距离函数来度量, 明显降低了直接用“局部特征集”表示图像时度量图像相似性的时空复杂度。

4 结论

本文提出了一种将图像的异质局部特征通过稀疏学习映射为图像全局稀疏表示形式的方法, 并将之应用于基于内容的图像检索任务中。文中选取了SIFT, LBP, HOG这3种典型的图像局部特征形成图像异质局部特征, 它们分别描述了图像的兴趣点特性、局部纹理特性和局部形状特性, 加权融合后对图像视觉内容形成了多角度、更全面的描述。

在Zu Bud数据库上进行的图像检索实验验证了该方法的有效性和高效性。实验结果表明:利用图像异质局部特征, 相比于单一局部特征, 能够从多角度更全面地描述图像的视觉内容;对提取的异质局部特征进行稀疏学习, 能得到表征图像本质内容的全局稀疏表示, 即高维稀疏向量, 同时具备了局部特征和全局特征的优势, 在表征图像细节信息的同时, 避免了“局部特征集”相似性匹配的计算瓶颈, 大大减少了时空复杂度, 从而便于适应大规模图像检索的需求。

稀疏表示保持的鉴别特征选择算法 篇2

特征选择[1]用于从高维特征空间中选择特征子集,并保持特征子集的原始物理特性,根据使用类别标签与否,特征选择算法可分为非监督和监督两种,本文主要研究监督特征选择算法。经典的监督特征选择算法包括Relief F[2],Fisher Score[3]以及多簇 特征选择(Multi-Cluster Feature Selection,MCFS)[4]等,它们通过特征和类别标签之间的相关性来度量特征的重要性,但是大多数传统特征选择算法对每个特征的度量是独立进行的[3,5],并且将特征逐个添加至所选特征子空间,这种选择方式的局限性在于特征之间的相关性被忽略[4]。最近,l2,1范数正则化优化已经应用到特征选择算法,此类算法通过对特征选择矩阵进行l2,1范数最小化约束来选择特征[6,7]。

与此同时,稀疏表示作为一种基于部分数据的表示,已经吸引了越来越多的关注,并已广泛应用于模式识别和机器学习领域[8]。稀疏表示方法假设一个超完备字典中样本的稀疏线性组合可以重构一个给定的样本,例如Wright等提出的 基于稀疏 表示的分 类方法[9](Sparse Representation-based Classification,SRC),该方法的优化问题惩罚线性组合系数的l1范数,SRC尝试使用所有训练样本的稀疏线性组合来表示一个给定的测试样本,并且认为稀疏非零表示系数集中在测试样本的同类训练样本上。受到SRC的启发,很多基于稀疏表示的特征抽取算法出现,例如文献[10-11]提出的稀疏表示分类器引导的监督特征抽取算法,该算法旨在减少类内重构残差,并与此同时增加类间重构残差,但二者在目标函数的形式上有所不同,文献[10]采用比值方式文献[11]采用差值方式。与特征选择算法不同,特征抽取将原始特征进行转换从而实现数据降维,特征的原始物理特性发生变化。回顾经典的监督特征选择算法,却不存在与SRC直接关联的,本文提出了一种稀疏表示保持的鉴别特征选择(SRPFS)算法,旨在寻找一种线性映射使得在所选特征子空间中,样本的稀疏类内重构残差足够小并且稀疏类间重构残差足够大,并用于优化提出的l2,1范数最小化的目标函数。

1 基于稀疏表示的分类方法

假设样本集为X = [x1,x2,⋯,xn]∈ Rm × n,类别数为c ,类别标签向量z = [l1,l2,⋯,ln]T,其中ln表示X中第n个样本即xn的所属类,给定一个测试样本y ∈ Rm,然后使

用以训练样本为基础向量的超完备字典表示y ,如下:

假设式(1)的系统是欠定的( m< n ),通过求解如下的优化问题可以得到最稀疏解:

然而,公式(2)中的L0优化问题是NP难题而且非常耗时,最近的研究理论[12,13]表明式(2)也可以通过寻找以下优化问题的解决办法进行求解:

该优化问题可以在多项式时间内通过标准线性规

划算法来解决[14],或者使用一种更高效的算法[15],然后利用式(3)中求解的稀疏表示系数向量 δ 对y进行分类,令 φk:RM→ RM(k = 1,2,⋯,c) 表示一种能够从 δ 中选择出与第k类有关的稀疏表示系数的函数[9],即 φk(δ) ,然

后计算y及其第k类原型之间的残差:

如果rl′(y) = minkrk(y) ,SRC将y分到第l′ 类。

2 稀疏表示保持的鉴别特征选择

2.1问题描述

X中除第i个样本xi后,xi所属类为li剩余n - 1个样

本记为Xi= [x1,⋯,xi - 1,xi + 1,⋯,xn]∈ Rm × {n - 1},通过解决L1

优化问题 得到xi的关于Xi的稀疏表 示系数向 量

δiw定义为xi的稀疏类内表示系数向量,该向量的非零元素与li类训练样本相关;δib定义为xi的稀疏平均类间表示系数向量,该向量的非零元素与c类中除li类的剩余c - 1类训练样本相关,即c - 1类的稀疏平均类间表示系数向量;因此,xi的稀疏类内和类间重构分别表示为:

这里的目标是寻找一种特征选择矩阵U ∈ Rm × m进而选择出m′( m′ < m )个特征,U满足的条件为:元素只有‘0’或‘1’;每行或每列中‘1’的数目不超过1;只有m′ 行或列的元素为‘1’。

通过使用U可以使用特征选择后的类内以及类间训练样本对xi进行重构,即稀疏类内重构UTXiδiw以及稀疏类间重构UTXiδib,稀疏类内类间重构残差采用F-范数进行度量,表示如下:

基于SRC决策规则,希望在所选特征子空间中样本xi尽可能接近其稀疏类内重构并同时尽可能远离其稀疏类间重构,考虑所有样本,SRPFS的目标函数定义如下:

式中:β 是一个权衡参数;1m∈ Rm是一个元素为1的向量,然而式(10)是NP难题,因此将关于U的二元约束放松到l2,1范数最小化约束[6,7],此时目标函数可以重写为:

式中:α 是一个权衡参数;.2,1表示l2,1范数,l2,1正则化

项控制U的大小并同时保证U的行稀疏性(行元素接近于0),使SRPFS为数据表示选择出最具鉴别性的特征。

2.2优化

式(11)的向量形式表示如下:

式中 : Sw= [δ1w′,δ2w′,⋯,δnw′]∈ Rn × n, Sb= [δ1b′,δb2′,⋯,δbn′]∈Rn*n,δiw′以及 δib′分别定义为:

令:

对L(U) 关于U求导,可以得到下式:

t = t + 1 ;

∂L(U)

直到收敛准则满足;输出:U 。

= 2αPU - 2XSw(XT- STwXTU) + 2βXSb(XT- SbTXTU)

∂U

(16)

2.3 L(U) 的凹性研究

式中P是一个对角矩阵,第r (r = 1,2,⋯,m) 个轴元素为Prr= 1 (2U(r,:)2)。为了求解式(12)中的U ,对L(U)关于U求导,然而很难用理论证明L(U) 是凹函数,将∂L(U) ∂U置为0,得到关于U的更新规则:

∂L(U)

对式(16)中的

关于U求导,得到下式:

∂U

∂2L(U)

= 2αP + 2XSwSTwXT- 2βXSbSbTXT

(18)

∂U2

根据凹函数的性质,式(15)中的L(U) 是凹的,当且

U ← (αP + XSwSTwXT- βXSbSbTXT)-1(XSwXT- βXSbXT)

∂2L(U)

仅当式(18)中的

是正定的,令:

∂U2

(17)

G = 2XSwSTwXT- 2βXSbSbTXT

为了得到最优U ,重复上述过程直到收敛标准满足,即|L(Ut)- L(Ut + 1)|< ε ,算法1给出了优化的详细过程描述。

(19)

因此式(18)可以重写为:

∂2L(U)

= 2αP + G

(20)

∂U2

算法1:SRPFS算法

2αP是正定的因为它是一个轴元素为正数的对角矩阵,根据正定矩阵的定义,如果G是正定的很容易证明2αP + G是正定的,然而很难直接证明G的正定性,事实上通过在实验中对参数 β 进行控制来保证G的正定性,β 的取值在实验部分给出。在假设2αP + G是正定的前提下,通过下面的定理证明目标函数在算法1中的迭代过程中的收敛性:

输入:训练数据集X = [x1,x2,⋯,xn]∈ Rm × n,类别标

签向量z = [l1,l2,⋯,ln]T

,权衡参数 α ,β ;

将特征选 择矩阵U初始化为 单位矩阵 即

U0∈{0,1}m*m,迭代次数:t = 1 ;

|

n

通过式(5)计算稀疏表示系数向量 δi|

;

|

i = 1

通过式(13)和式(14)计算Sw以及Sb;重复:更新对角矩阵Pt,即:

定理1:式(12)中的目标函数值在算法1中的迭代过程中单调减小。

1

é

ùúúúú

ê2Ut - 1(1,:)2

证明:很容易证明式(12)就是解决以下的问题:

êêêêë

Pt=

+ αTr[UTPU]

mUin X - UTXSw2

- β X - UTXSb2

1

F

F

2Ut - 1(m,:)2ûú

(21)

通过式(17)更新Ut;

相应地,在第t次迭代中有:

2

2

- βX

- (Ut + 1)TXSb

+ αTr[UTPU] ⇒X

- (Ut + 1)TXSw

Ut + 1= mUin X - UTXSw2F

- β X - UTXSb2

+

F

F

F2

2

αTréë(Ut + 1)TPtUt + 1ùûX

- (Ut)TXSw

- βX- (Ut)TXSb

+ αTré(Ut)TPtUtù

F

F

ë

û

即:

utr+ 122

utr222utr2

2

2

2

2

X

- (Ut + 1)TXSw

- βX

- (Ut + 1)TXSb

- βX- (Ut)TXSb

X- (Ut)TXSw

+ α∑

+ α∑

F

F

F

æ

F

2utr2

r

r

utr+ 122

ö÷÷ø

2

2

+ α∑utr+ 12- αçç∑utr+ 12-∑r r r

X

- (Ut + 1)TXSw

- (Ut + 1)TXSb

- βX

F

F

2utr2

è

utr222utr2

æ

ö÷÷ø

2

2

- βX- (Ut)TXSb

+ α∑utr2- αçç∑utr2-∑r r r

X

- (Ut)TXSw

F

F

è

根据[7]中的引理,对于任意非零向量u ,ut∈ Rm,下面的不等式成立:

因此,有以下不等式成立:

即:

utr22

+ α∑utr+ 12X

+ αUt + 12,1X- (Ut)TXSw

它表明式(12)中的目标函数值在算法1中的迭代过程中单调减小。

3 实验

在本节中,通过实验验证算法SRPFS的性能,首先将SRPFS与经典的监督特征选择算法进行比较,然后分析SRPFS的收敛性。

3.1实验设置

4个公共数据集:Wine[16],Breast Cancer Wisconsin(Diagnostic)[16],Connectionist Bench (Sonar,Mines vs.Rocks)[16]以及COIL20[17],Wine,Breast Cancer Wisconsin和Connectionist Bench来自标准UCI库;来自哥伦比亚图像数据库的COIL20包含20个对象,数据集的描述在表1中给出。

将SRPFS与All Features,Fisher Score,MCFS,以及Relief F进行比较,实验中为保证式(20)中G的正定性,β 在4个数据集上分别设置为10-3,10-5,10-3,10-2,使用快速 迭代收缩 阈值算法(Fast Iterative Shrinkage and Thresholding Algorithm ,FISTA)[16]求解式(5),FISTA中的规范 化参数设 置为1,α 的调整范 围为{1,10-1,10-2},对于MCFS以及Relief F邻居样本数设置为5,由于Connectionist Bench和COIL20的特征数大于50,相应的所 选特征数 分别设为 {1,2,⋯,30} ,{1,2,⋯,512} ,即最大值取数据集维度的50%。

3.2分类识别率比较

对于每个数据集,随机选择每类样本集的5种方法在4个数据集上的平均最高识别率(±std)的比较,如表2所示。选择的样本中80%做训练集,剩余样本做测试集,为了证明不同算法的可靠性,将训练集以及测试集的选择过 程重复10次 ,All Features,Fisher Score,MCFS,Relief F以及SRPFS在4个数据集上的平均最高识别率及标准差在表2中给出,可以看出所有的特征选择算法优于All Features,因此,特征选择算法有助于提高识别率,由于SRPFS中保持了样本之间的稀疏相关性,SRPFS从识别率和稳定性两方面的性能明显优于其他方法。

3.3收敛性

在本节中,通过实验证明所提出的迭代算法单调减小目标函数值,直到收敛,图1展示了式(12)中的目标函数值在4个数据集上的收敛曲线图,可以看出目标函数在数次迭代后收敛。

4 结语

在本文中,提出了一种新的监督特征选择算法,称为稀疏表示保持的鉴别特征选择(SRPFS),其目的是选择鉴别性特征子集,使得在所选特征空间中,样本的稀疏类内重构残差和稀疏类间重构残差的差值最小化。通过实验验证SRPFS的性能并与其他4种方法即All Features,Fisher Score,MCFS,以及Relief F在4个公共数据集上进行比较,实验表明SRPFS在识别率以及稳定性方面明显优于其他方法。在未来,考虑将SRPFS的思想应用到非监督特征选择算法研究中,由于不使用样本的类别标签这将是一个更大的挑战。

摘要:稀疏表示作为一种基于部分数据的表示,已经吸引了越来越多的关注,并广泛应用于模式识别和机器学习领域。提出一种新的算法,称为稀疏表示保持的鉴别特征选择(SRPFS),其目的是选择鉴别性特征子集,使得在所选特征子空间中,样本的稀疏类内重构残差和稀疏类间重构残差的差值最小化。与传统算法选择特征的独立性方式不同,该算法以批处理方式选择最具鉴别性的特征,并用于优化提出的l2,1范数最小化的目标函数。在标准UCI数据集和哥伦比亚图像数据库的实验结果表明,该算法在识别性能和稳定性方面优于其他经典特征选择算法。

特征表示 篇3

图像隐写分析是指对获取的图像进行统计分析以判断其是否含有隐藏信息的技术。JPEG图像作为一种最常见的图像,对其进行隐写检测研究十分必要,其通用隐写分析过程主要包括两部分:特征提取和分类器的设计。提取特征是否有效直接关系着后续的检测准确率, 在现存的通用JPEG隐写分析中,检测准确率较高的特征有基于校准的特征[1]、偏序Markov特征[2]、基于Markov过程的特征[3]等。隐写检测分类器的设计包含很多种, 如支持向量机、贝叶斯分类器等,2013年,Zhang等人提出一种基于稀疏表示的隐写检测方法[4],首次将稀疏表示应用于图像隐写检测中,并证明了基于稀疏表示的隐写检测方法具有良好的抗噪性,但是文献[4]中的隐写检测特征是基于单一特征的且运用l1范数来进行稀疏求解,由于单一特征包含的综合分类信息有限,再加上隐写算法的不断改进和提高,因此在检测率和健壮性方面具有局限性。近年来,为了提高隐写检测准确率和隐写特征的通用性,研究者们提出采用一定的手段将多个原始特征结合来进行隐写检测的方法,Manga等称这类结合方法为特征融合[5]。本文在文献[4]的基础上提出一种基于特征融合稀疏表示的JPEG图像隐写分析方法,融合特征时需要考虑特征之间的互补性与相关性,简单的串行不但不会提高准确率而且还会引起“维数灾难”问题。本文选取基于校准的特征[6]和基于Markov过程提取的DCT块内和块间的特征[7],利用PCA对两组特征进行变换,去除特征中的冗余信息,组成隐写检测特征, 基于此融合特征选取稀疏表示来进行隐写分析,使用向量总变差进行稀疏求解。实验表明,本文提案的方法优于现存的单一特征稀疏表示的方法[4],在保持健壮性的同时提高了JPEG隐写分析的准确率。

1 特征提取及特征间相关性与冗余性分析

1.1 基于校准特征的提取

Kodovsky等人在PEV[1]方法的基础上将隐写分析图像特征与校准图像特征串行融合[6],得到548维特征。 方法如下:

(1) 计算DCT系数亮度 部分直方 图矩阵Hl,其中l ∈{-5,⋯,5} ;

(2)计算单个DCT块内直方 图矩阵Hi,j,其中 (i,j)∈{(1,2),(2,1),(3,1),(2,2),(1,3)} ;

(3)计算双直 方图矩阵Gid,j,其中 {i,j = 1,⋯,8,d = -5,⋯,5} ;

(4)对于所有的DCT块,计算总的方差V;

(5)解压JPGE图像,计算块内分块特性Ba,a= 1,2;

(6)计算相邻DCT块系数的 共生矩阵Cs,t,(s,t)∈ [-2,+2]×[-2,+2] ;

(7)计算Markov概率转移特征,求一阶概率转移矩阵在水平、垂直、主对角和副对角4个方向上的均值,记为

(8)组合上述7种特征记为Fr。利用校准技术对隐写分析图像的最外层各裁剪4行4列,再次进行JPEG压缩,对校准图像重新提取、组合以上特征得到校准图像特征记为Fc。

(9) 将{Fr-Fc} 特征称为PEV-274,{Fr,Fc} 特征称为PEV-548。

以上具体的计算公式参见文献 [1] 。

1.2基于Markov块间和块内特征的提取

Chen等人对原来的Markov特征[3]扩展得到486维特征[7],方法如下:

(1)提取JPEG量化系数矩阵。

(2)按水平、垂直、主对角和副对角4个方向对系数矩阵求差,计算相邻JPEG量化系数中满足差值为 {dci- dcj= d} 的组合概率,其中 {dci,dcj∈ -T,⋯,T},T为阈值。

(3)分别对得到的4个差值矩阵计算其一阶转移概率矩阵(Transition Probability Matrix,TPM),其中水平方向公式如下:

分别计算4个方向上的一阶转移概率矩阵,最后得到4 ×(2T + 1)2维块内特征。

(4)将位于各个DCT块中相同位置的DC系数提取,组成DCT系数矩阵,分别求水平和垂直方向的一阶转移概率矩阵,得到2 ×(2T + 1)2维块间特征。

(5)最后取阈值T为4得到486维块内和块间特征,称为Chen-MPB特征。

1.3 两组特征间的互补性和冗余性

从上述的提取特征过程,可以看到Chen-MPB块内特征主要关心的是修改DC系数后对块内局部引起的变化,然而有些隐写算法对局部的扰动并不明显,如F5隐写算法[8]对DC系数为0和1时则重新嵌入,其隐写过程中将产生新的值为0的DC系数,因而此时仅从局部特征进行分析不全面。PEV-548特征中系数直方图、方差、亮度等特征属于全局特征,它与局部特征相比具有统计量范围大的特点,但有些隐藏算法采取一些修补技术来控 制全局特 征的扰动 ,如扰动量 化(Perturbed Quantization,PQ)[9]隐写算法会优先选择小数部分靠近0.5的DCT系数,公式如下:

PQ隐写方法会尽量减小全局变化,但该方法无法保持和修复局部DCT系数变化。

另外,Chen-MPB特征是基于一阶Markov过程提取的,而PEV-548特征是基于校准技术的,因此它们具有不同的特征分布模型,不同的模型下隐写算法对特征具有不同的改变程度,很难做到既要兼顾不同的分布模型,又使得每个模型下的扰动量达到最小[10]。

从上述中可以知道这两种特征具有一定的互补性。但这两组特征之间也存在一定的冗余性,这主要是因为各个特征在提取时有类似之处,例如:PEV-548特征中的Markov特征就包含了Chen-MPB特征中DCT块内一阶TPM的计算,即它取各个方向的一阶TPM的均值并校准作为特征;另一方面,各类特征内部中各维特征之间也存在着相关性,图1为特征内部之间各维之间的相关性矩阵。

图1中黑点代表各维特征之间具有相关性。从图1中可以看出(a)、(b)、(c)这三组特征除了对角线外各维特征之间还存在着较大的相关性。因此,在融合特征时需要采用一定的方法去除冗余特征,主成分分析(Prin-cipal Component Analysis,PCA)是一种有效的线性变化方法,它可以有效消除变量之间的线性相关性,从而去除冗余信息[10],本文选用PCA方法来进行特征的融合。

2 稀疏表示

稀疏表示是指在一个合适的基或者字典上,用只含有少量非零元素的稀疏来描述原始的信号,它简化了信息处理的求解过程,同时通过这些少量的非零值,还可以用非线性的最优化方法来重构原始信号。稀疏表示可以追溯到20世纪90年代,1993年S.Mallat等人第一次介绍匹配追踪算法(Matching Pursuit,MP)[11],从那时起,超完备稀疏表示成为信号处理领域的热点。

图2描述了稀 疏表示模 型 ,其中D =[d1,d2,…,dn] ,D ∈ Rm × n为一个超完备字典,其包含n单原子。对于任意信号y ∈ Rm × 1可以由这些单原子来线性表示,向量x ∈ Rn × 1为信号y的稀疏表示系数。

对于每个信号y ,由式( 3 )可以得到稀疏 0的线性重构系数。

然而,式(3)是一个NP问题,想要解决它非常难。 所以,为了确保稀疏,式(3)可以转换为式(4):

这是一个l1范数问题,从而可以利用基追踪法[12]来求解。数学上对范数定义如下:若x =(x,x,⋯,xn)T,则12p范数定义为:

因此l1范数可以写成如下形式:

由式(6)可知,l1范数等价于求解一个向量的长度, 因此有可能造成两个向量差异比较大,同时它们的l1范数却非常接近,这样就会造成错误的结果,如图3所示。本文选用向量总变差模型(Total Variation,TV)来代替l1范数进行稀疏表示,向量总变差模型最早由Rudin等人引入[13],其对细节的描述能力很强,形式如下:

其中Dh,ijx和Dv,ijx分别为水平和垂直方向的偏导数。从式(7)可以看出二维处理模式比l1范数求解更加复杂,从统计的角度来看,直接对一维信号向量进行总变差运算同样能达到较好的效果,其变化形式如下:

从式(8)可以看出变形的向量总变差运算复杂度与l1范数求解同级,于是将求解最小l1范数问题转化为下式:

本文使用式(9)来进行稀疏求解,从而利用稀疏表示来进行隐写检测。图3是对最小l1范数及向量总变差方法对信号的表述情况的简单举例。

图3(a)中x1与x2的l1范数相同但是两个向量的反差很大(可以从向量总变差上来反映),这说明l1范数的求解误差是存在的。图3(b)中两个相似的信号l1范数相同,向量总变差也相同,这说明向量总变差对信号的测量比l1范数有更好的效果。

3 本文提案的隐写检测方法

本文所选的隐写检测特征是由Chen-MPB特征和PEV -548特征组成的,由于这两组特征之间具有互补性,因而组合这两组特征将会包含更加丰富的分类信息,理论上融合的特征隐写检测准确率比单一特征隐写检测的准确率要高;另外在第1节中还提到这两组特征间具有冗余性,本文采用PCA来消除两组特征之间的冗余性,从而形成融合的特征,即本文方法的特征。分类器选用基于向量总变差模型的稀疏表示来进行分类。具体的隐写检测步骤如下:

(1)特征提取:对训练集图像和测试集图像分别用Kodovsky、Chen等人中的方法提取特征[6,7],得到PEV-548和Chen-MPB等特征集;

(2)特征融合 以及超完 备字典生 成 :将提取的PEV - 548特征与Chen - MPB特征组合 成特征集F= { f1,f2,…,fr},r为组合特征维数,S ={S1,S2,…,Sn},n为训练集样本数,S为训练集合,将特征进行归一化处理,并保存各维特征的均值u,标准差s,后续检测时需要对测试样本进行归一化处理,利用PCA选择特征中累积方差比例达到总方差99%以上的m维,保存PCA过程中的变换矩阵c-matrix,以及PCA处理过的训练样本集S, 其中S为稀疏表示中的超完备字典。

(3)稀疏求解:对于测试集Y与超完备字典S,利用步骤2中生成的均值u 、标准差s对测试集Y进行归一化处理,对于每个测试样本y ,利用公式(8)求出y的稀疏表示 。

( 4 )计算残差:其中每一维对应着超完备字典S中的一个向量,分别提出每一类Yi所对应的,其余n - k维设置为,由超完备字典S分别重构出与检测图像y之间的残差。

(5)确定y的类别 :利用决策 函数 :identify(y)= arg min Dyi决定y是否是隐写图像。

4 实验及结果分析

4.1 实验参数和条件

本文选取的图像源为BOWS图像库(在10 000幅中随机选取4 500幅)。为排除压缩时质量因子对隐写检测的影响,将4 500幅图像全部压缩成质量因子为85的JPEG图像。随机选取其中的3 000幅图像,分别利用Jstep[14]、nsf5(基于F5上的改进)[15]和PQ[9]等隐写工具在嵌入率为0.25 bpc(bit per coefficient,bpc即每嵌入1比特信息需要修改0.25个DCT系数),0.50 bpc,0.75 bpc的情况下分别得到3 000幅JPEG隐写图像,称为阳性集;剩余的1 500幅JPEG图像为未嵌入隐藏信息的图像,称为阴性集。

4.2 基于融合特征与单一特征的隐写检测准确率的比较

在基于nsf5隐写方法嵌入率为0.25 bpc情况下,分别对单一PEV-548特征、单一Chen-MPB特征、PCA融合特征在不同的维数下进行测试,统计融合特征与单一特征在不同的维数下隐写检测的准确率。JPEG图像1 500对, 其中隐写图像1 500幅,原始图像1 500幅。交叉测试, 每次训练集为1 000对,测试集为500对,结果为两次实验的平均值。图4为融合特征与单一特征在不同维度下隐写检测的准确率。

从图4可以看出基于PCA融合后的特征,在一定的维度下其隐写检测准确率趋于平稳,且比单一特征的隐写检测准确率要高,这说明两组特征之间具有一定的互补性;另外经过PCA降维在300维、400维时其隐写检测准确率与无PCA处理(1 034维)的隐写检测准确率相比仅差0.1%左右,这表明两组特征之间有较强的冗余性。

4.3 本文方法与文献[4]隐写检测方法实验结果对比

表1为文献[4]中基于PEV-274特征l1稀疏表示隐写检测方法(简称l1方法)和本文提案的隐写检测方法的准确率比较,其中经PCA处理的融合特征的维数为350维。

%

5 结语

本文将特征融合与稀疏表示结合来进行JPEG图像的隐写检测,选取2组具有一定互补性的JPEG通用隐写分析特征,并利用PCA去除特征的冗余成分得到融合特征,实验表明在不同维度下基于PCA融合的特征比单一的PEV-548特征的隐写检测准确率提高约2%。 另外,基于融合特征利用向量总变差模型进行稀疏表示的方法对nsf5等强隐写方法,相比采用单一校准特征、 利用l1范数稀疏表示方法[4],在准确率上能提高约2%; 对于Jstep经典隐写算法,本文提案的方法在隐写检测准确率上提高了约4%。

摘要:提出一种新的JPEG图像隐写分析方法,即基于特征融合的稀疏表示隐写分析方法。首先介绍所选特征的提取方法并分析所选特征之间的互补性与冗余性,然后利用主成分分析方法将所选特征降维进行融合,最后在此特征上利用向量总变差进行稀疏求解,用稀疏表示进行隐写检测。理论分析和实验表明该方法比单一特征的稀疏表示具有更高的识别率。

特征表示 篇4

关键词:核函数,特征提取,低秩表示,映射函数,LBP

0 引言

人脸识别一直是近年来计算机视觉领域中的重要研究方向,被用于门禁、生物入侵、安防等实际应用环境中。然而,人脸识别仍然是一个具有挑战的问题,例如遮挡、伪装、光照变化等噪声对人脸图片的影响会导致后续识别效果下降。从几十年前至今,众多学者在人脸识别技术的发展中对这些问题进行了研究,提出了许多针对这些问题的富有建设性的算法。

原始的局部二值模式(Local Binary Patterns,LBP)算法是由OJALA T等人提出的用于纹理分类的方法[1],它是一个由局部像素比较获得的二进制序列。AHO-NEN T等人将LBP用于人脸识别领域并将其改进为对光照变化具有鲁棒性的方法[2]。在文献[3]中,LBP通常用来处理人脸识别中的光照问题。实验表明,经过LBP处理后的图片比原始图片在识别时具有更强的鲁棒性。近年来,Liu Guangcan等人提出了低秩表示的算法[4](Low-Rank Representation,LRR),该算法可以对子空间进行分类。LRR的目的是寻找一个字典中所有向量表示一个基于候选线性组合的最低秩表示。基于局部特征对处理人脸图片时的鲁棒性和低秩表示分类的框架,结合近年来被广泛用于克服提取特征和分类时线性方法的极限的核方法,本文提出了一种基于局部特征与核低秩表示的人脸识别算法。

1 相关知识

1.1 低秩表示

Liu Guangcan等人[4]提出了对子空间结构进行分析的低秩表示算法(LRR),该方法也可以用于对线性子空间的数据进行无监督分类。如果给定一个适当的字典,LRR可以学习到所有观测向量通过字典原子的所有可能线性组合表示中的最低秩表示[5]。秩最小化的问题可以通过下式求解:

其中X是一个测试数据矩阵,X的每一列是都一个测试对象。A是一个字典,Z是字典A对X的一个低秩表示。式(1)中求秩最小的问题可以通过求核范数来代替,则式(1)可改写为:

当数据有噪声干扰时,LRR的优化模型定义如下:

其中A·Z是低秩部分,E是与X相关的误差(或噪声)部分,||E||2,1是适应于不同遮挡模型的误差项,EF2适用于小的高斯噪声,||E||1适用于随机遮挡,λ>0是低秩和误差两部分的平衡因子。已经有许多学者提出了低秩恢复问题的解法,例如迭代阈值法[6]、加速近端梯度法[7]、增广拉格朗日法[8](Augmented Lagrange Multiplier,ALM)。其中ALM方法有着更快的速度和更高的准确度,本文采用ALM方法来处理低秩问题。

1.2 核函数

核函数是一项众所周知的应用于机器学习中的技术,如SVM、KPCA、KFDA算法[9]中都应用了核函数。通过核函数可以将原始的特征空间通过非线性映射转换到一个高维的核特征空间,并且在高维空间将问题转换为线性问题解决[10]。例如多项式核k(x,y)=(〈x+y〉+c)d和高斯核k(x,y)=exp(-γ||x-y||2)都是常见的核函数,其中d和γ是核函数的参数。

2 基于局部特征与核低秩表示的人脸识别算法(LKLRR)

2.1 局部特征提取

LBP是用于描述局部纹理算子,通过比较围绕像素的计算值的特征表征的二进制序列,然后将该序列转化为十进制数来表示该点的特征[1]。过多的二进制模式会给计算带来不便,OJALA T采用了一种新的“等价模式”来解决这一问题,同时该算法也提高了LBP的统计特性并对LBP算子的模式种类进行降维。OJALA T的“等价模式”表示如下:当从0→1或从1→0相应的循环LBP二进制数跳两次时,对应二进制模式LBP被称为等价类模式,另一种类型便为混合模式。改进后的二进制模式类型降低的同时也不会使任何信息丢失。这使得特征向量的维数更少,并能消弱高频噪声的滋扰。

2.2 基于局部特征与核低秩表示

假设一个经过LBP特征提取后的样本通过一个非线性映射φ从原始的特征空间Rm映射到高维特征空间F,φ:Rm→F,α→φ(α),β→φ(β)。φA=[φ(α1),φ(α2),…,φ(αn)]和φB=[φ(β1),φ(β2),…,φ(βk)]分别表示由所有训练样本和测试样本所组成的矩阵通过非线性映射φ转换到高维特征空间,其中φA∈RD×n,φB∈RD×p,D>>m,D就是上述高维空间F。通过式(4)可以将测试样本图片在核特征空间F中通过训练样本图片线性表示。

因此,在核空间中的低秩表示问题可以通过式(5)来表示:

其中Z为训练样本矩阵在高维核特征空间对测试样本矩阵最低秩表示。其中φA和φB都未知,从而式(5)无法直接求解。将样本特征空间F中进行降维处理,也就是样本图片从F空间映射到其低维子空间中,假设P∈RD×d是F中的变换矩阵,求解式(5)可通过式(6)来实现:

其中映射矩阵P是与图片相关的矩阵,通过应用KPCA中的核降维方法,映射矩阵中的向量是空间F中与图片线性相关的向量,表示如下式:

其中Pj为P∈[P1,P1,…,Pd]=RD×d中的第j个向量,γj=[γj,1,γj,2,…,γj,n]T是与第j个变换向量相关的伪变换向量。令Γ=[γ1,γ2,…,γd]是伪变换矩阵,则变换矩阵P可以通过下式表示:

将式(8)带入式(6),则有:

其中核矩阵φATφB∈Rn×p和φATφA∈Rn×n由相应的核函数计算得出。对于样本α和β,则有φATφB=k(α,β),φATφA=k(α,α),其中k(:,:)表示一个核函数。令A=φATφA,B=φATφB,则式(1)的约束表达式可以通过式(5)来代替,则优化问题转为下式:

考虑到噪声对样本的影响,将式(10)转化为如下更加鲁棒的优化模型:

其中E表示高维空间中的相关误差。λ>0表示两部分的平衡因子。其中转换矩阵通过应用KPCA中降维获得变换矩阵的方法计算得出,伪变换向量γj可以通过求解特征值的方法计算:

将归一化后的特征向量γj进行排序,选择最大的前d个特征值λj,j=1,2,3,…d所对应的特征向量则可获得伪转换矩阵Γ。将其代入优化后的模型,则可通过求解低秩表示的问题来进行后续的分类判别。

具体的算法步骤如下:

(1)输入:i类训练样本矩阵A∈Rm×n,k个测试样本矩阵B∈Rm×k;

(2)分别对训练样本和测试样本进行LBP特征提取后进行核变换得到训练样本的LBP核矩阵φA和测试样本的LBP核矩阵φB;

(3)将样本通过映射函数φ进行处理,随后获得高维特征空间中的训练和测试样本的特征矩阵;

(4)通过特征值和特征向量的方法求解伪变换矩阵后对高维特征矩阵进行降维;

(5)对降维后的测试和训练特征矩阵通过式(11)进行低秩表示获得系数矩阵Z;

(6)通过下式计算每个样本与每类样本之间的残差:

其中l=1,2,…,k;j=1,2,…,i。

(7)输出:class(β1)=argminrj(βl)。

3 实验结果及分析

本部分将本文提出的LKLRR与SRC、CRC和LRR等算法分别在AR、Extended Yale B、FERET等人脸库进行了光照、表情及遮挡变化实验对比。实验表明,本文提出的基于局部特征与核低秩表示的人脸识别算法的识别率比其他几种方法的识别率要高,而针对有遮挡和伪装的人脸图片提出的基于局部特征与核低秩表示的人脸识别算法的识别率也有更强的鲁棒性和识别率。

3.1 Extended Yale B数据库光照变化

Extended Yale B人脸库由38个人的2 414幅正面人脸组成,其中每人大约有64幅图像,来自64种实验光照条件。图1为该人脸库中部分人脸图片。本部分实验随机地选择每人32幅图片作为训练样本集,其余的32幅人脸图片作为测试样本集。每幅图片都调整为96×84。表1给出了不同方法在该人脸库中的识别率。

由表1可以看出,图片进行LBP特征提取后,通过低秩表示进行分类的方法对于人脸图片的识别率增加,增加了核函数的低秩表示,表现出更加优越的识别性能。

3.2 AR数据库光照及表情变化

在AR人脸数据库中选择50名男性和50名女性构成一个人脸数据库,提取每人14幅人脸图片,包括人脸图像的表情和光照变化,其中7幅作为训练样本,其余的作为测试集。图像尺寸统一调整为83×60。表2显示多种算法在该人脸库上的比较。由表2可看出,本文的算法相比其他算法识别率明显提高。

3.3 FERET数据库姿态偏转

FERET数据库中包含了200个人,每人7幅总共1 400幅表情、光照以及不同尺度下的姿态变化人脸图片。图2为实验中某个目标的图像,从左到右分别为标准、表情变化、光照变化、偏转-25°、偏转-15°、偏转+15°、偏转+25°的人脸图像。采用前3幅人脸图片作为训练集,其余4个偏转角度不同的图片分别作为4个测试集。所有的图片均裁剪为80×80。表3为FERET数据库中姿态偏转尺度不同的情况下多种算法的识别率比较。表3可以明显反映出提出的LKLRR算法相较于其他集中算法识别率有着显著的优势,尤其是在测试集姿态偏转尺度较大时(+25°和-25°)明显提高。

3.4 伪装实验

本部分采用了AR人脸库进行实验,其中每人选取7幅人脸图片进行训练,3幅墨镜遮挡、3幅围巾遮挡的人脸图片进行测试,同样将每幅图片的大小调整为83×60,表4是各个方法分别对于墨镜遮挡和围巾遮挡的人脸识别率比较,从表中可以看出本文的方法对于伪装的人脸图像的识别率较其他方法有很大的提高。

4 总结

针对人脸图片的遮挡、伪装、光照及表情变化等问题,本文提出基于局部特征与核低秩表示的人脸识别算法。首先将样本通过描述局部特征的LBP算子进行特征提取,加强了图像的局部细节特征。随后将特征转换到高维的特征空间后进行核低秩表示来进行后续的分类识别。实验表明,本文的LKLRR算法在处理遮挡、伪装以及光照变化等问题时的鲁棒性更强,识别率更高。

参考文献

[1]OJALA T,HARWOOD I.A comparative study of texture measures with classification based on feature distributions[J].Pattern Recognition,1996,29(1):51-59.

[2]AHONEN T,HADID A,PIETIKAINEN M.Face recognition with local binary patterns[C].Lecture Notes in Computer Science,2004,3021:469-481.

[3]Yuan Xiaotong,Liu Xiaobai,Yan Shuicheng.Visual classification with multitask joint sparse representation[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2010,21(10):3493-3500.

[4]Liu Guangcan,Lin Zhouchen,Yan Shuicheng,et al.Robust recovery of subspace structures by low-rank representation[J].IEEE Transactions on Software Engineering,2012,35(1):171-184.

[5]ZHANG Y,JIANG Z,DAVIS L S.Learning Structured lowrank representations for image classification[C].Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,2013:676-683.

[6]DAUBECHIES I,DEFRISE M,MOL C D.An iterative thresholding algorithm for linear inverse problems with a sparsity constraint[J].Communications on Pure&Applied Mathematics,2003,57(11):1413-1457.

[7]BECK A,TEBOULLE M.A fast iterative shrinkage-thresholding algorithm for linear inverse problems[J].Siam Journal on Imaging Sciences,2009,2(1):183-202.

[8]BERTSEKAS D P.Constrained optimization and Lagrange multiplier methods[M].Athena Scientific,1996.

[9]SCHOLKOPF B,SMOLA A,MULLER K.Nonlinear component analysis as a kernel eigenvalue problem[C].Neu.Img.2006:1299-1319.

上一篇:煤矿安全科技下一篇:高校资源转化经济发展论文