压缩算法优化

2024-10-24

压缩算法优化(精选7篇)

压缩算法优化 篇1

1 概述

层次深度图 (Layered Depth Images, LDIs) 是由SHADE J等人在[1]中首次提出来的一种新型的表示和绘制复杂模型的工具。当使用2D深度纹理队列来表示模型的LDIs, 如果模型比较复杂或者顶点数目较多的时候, 存储空间将变得很大, 所以不得不考虑如何减少存纹理队列的储量。试图通过降低LDIs的深度复杂度来减少LDIs的空间消耗。据观察不通视线方向所产生的层次深度是不同的, 进而所占的纹理总单元数目也不同, 所以可以把以上问题转化为一种寻找最佳视线方向的优化问题并利用粒子群优化算法 (Particle Swarm Optimization, PSO) 寻找一个能使纹理存储空间达到最小的视线方向。因为模型一般可以用相同颜色的像元表示, 所以再结合传统图像压缩算法如行程长度编码、LZW自适应字典算法等来压缩深度图队列可以达到减少存储空间的目的。

2 粒子群优化算法

粒子群优化 (Particle Swarm Optimization, PSO) 最早是由心理学研究人员Kennedy博士和计算智能研究人员Eberhart博士于1995年提出的[3], 它是源于对鸟群觅食过程中的迁徙和群居的模拟。PSO是一种基于群体的优化工具, 同时也是一种基于迭代的优化工具。系统初始化为一组随机解, 通过迭代搜寻最优值, 粒子 (潜在的解) 在解空间追随最优的粒子进行搜索。在PSO中, 采用信息共享机制, 它有着简单容易实现同时又有深刻的智能背景的特点[4]。PSO算法一般是采用下面的公式对粒子进行操作的。

其中粒子的标号i=1, 2, …, m;k为迭代代数;学习因子c1, c2是两个正常数, 一般取值为2;r1, r2是均匀分布于[0, 1]之间的两个随机数。为了控制粒子在合理的区域内, 需要指定Vmax和Xmax来限制。公式 (1) 主要通过三部分来计算粒子i新速度:粒子i前一时刻的速度;粒子i当前位置与自己最好位置之间的距离和粒子i当前位置与群体最好位置之间的距离。粒子i通过公式 (2) 计算新位置的坐标[5]。

3 核心算法

通过观察我们发现使得层次深度达到最小的视线方向不唯一, 但每个视线方向上所产生的有效纹元 (纹理像素) 数目是不同的, 如图1。在LDIs中每层纹元的数目之和越小那么存储空间也越小, 所以减少纹理的存储空间的问题最终可以转化为找到最佳的视线方向满足最小有效纹元之和。

在[6]中Matthias等人设计了一种计算LDI最佳视线视点计算方法 (简称ODP) 。该算法首先以模型中心为原点, 建立一个半径为R的球体, 然后从经度和纬度方向把球体平均分割为N个片段。每个片段就是视点的一个位置, 算法通过访问球体上的每个位置计算ds和cs, 最后为他们排序来找到最优相机位置, 算法精度跟经度维度线的间隔选取相关, 复杂度为O (n2) 。这是一个比较鲁棒的算法, 在此基础上我们设计了一种利用粒子群优化算法求解最佳相机位置和保证最小存储的智能算法。也假设在模型所在的物体坐标系下视点是在以模型中心为原点有一个半径为R的球体上, 如图3, 视点在球表面坐标为, 其中其中sh、sv分别为经度和纬度单位距离。算法中每个粒子P的速度和位置由经度坐标和纬度坐标确定粒子飞行的距离单位可根据需要的精度设定。

最优解在球面的位置X也就是相机位置我们令每层深度图LDIk (k=1, …, n) 是大小为W*H的网格。IDIk所在平面总是以向量O ODP的方向为法向量。如果采用的是透视投影深度图, 那么视线是以视点ODP为起点, 以线段{ODP, O}为中心, 并经过深度图每个纹元IDIkij的一组发散视线, 而每层的有效纹元为模型的透视投影所在纹元。适应度函数为所有图层的有效纹元总数。

4 试验与讨论

测试平台是Windows XP, PIV 2.2CPU, 显卡NVIDIA Ge Force 9500 GT 512MB显存, 1G RAM。测试对象三角面片为20.4k, 如图1。设最小位移角度为1度, 初始种群数为30和100个。表1是算法的效率对比。通过这两个实验结果表明PSOO算法比[6]中的传统算法ODP能更快速的找到最佳方向和计算最小存储空间。

5 结论

提出了一种基于PSO的层次深度图的存储空间优化算法 (PSOO) 。通过把层次深度图用2D纹理队列存储, 并把最小存储计算问题转化为在视线空间内的最优化问题, 利用粒子群优化算法寻找最优方向使有效纹元总数最小来减少消耗的系统空间。

参考文献

[1]SHADE J., GORTLER S., WEI HE L., SZELISKI R.:Layered Depth Images[C].In SIG-GRAPH'98, ACM, pp.231-242.

[2]NVIDIA:NVIDIA OpenGL Extension Speci-fications for the GeForce8Series Architecture (G8x) [R], November2006.

[3]KENNEDY, J.and EBERHAERTt, R.Parti-cle Swarm Optimization[C], IEEE International Conference on Neural Networks (Perth, Aus-tralia) , Piscataway, NJ, IV:1942-1948, 1995.

[4]KRINK T, VESTERTROM J S, RIGET J.Particle Swarm Optimization with spatial parti-cle extension[C].The IEEE Congress on Evo-lutionary Computation, Honolulu, Hawaii, USA, 2002.

[5]周驰, 高海兵, 高亮等.粒子群优化算法[J].计算机应用研究, 2003, 21 (12) :5-11.

[6]MATTHIAS TRAPP JURGEN DOLLER.Effi-cient Representation of Layered Depth Images for Real-time Volumetric Tests[M].EG UK Theory and Practice of Computer Graphics (2008) .

压缩算法优化 篇2

关键词:压缩感知,图像重构,正交匹配追踪 (St OMP)

奈奎斯特 (Nyqusit) 采样定理[1]要求在带限数据采样过程中, 采样率必须大于最高频率的两倍。在该理论指导下, 数据信息的获取、存储、处理和传输等技术的实现即成为当今科学技术领域进一步向前迈步的重要技术瓶颈之一。具体来说, 主要表现在如下两个方面: (1) 高采样率的数据采集导致了较高成本。 (2) 在某些应用中[2,3], 奈奎斯特采样定理支配的高采样率导致了采样样本过多。显而易见, 这种基于奈奎斯特 (Nyqusit) 采样定理为基础的技术造成了大量资源的浪费。

2006年, 由美国科学院院士D.Donoho、E.Candes同华裔科学家T.Tao等研究学者提出了一种全新的数据采样理论——“压缩感知” (Compressive Sensing, 简写为“CS”) 。该理论表明, 当信号数据是可压缩的, 可以通过采取极少数量的信号投影值加以实现信号的近似重构, 可以极大程度的降低了数据采集的成本。

1 测量矩阵的设定

在“CS”理论中, 测量矩阵Ф的设定十分重要。Ф的合理性直接决定数据重构的质量, 当测量数目达到临界时, 合理的测量矩阵就可以确保数据的准确恢复。

高斯测量矩阵的缺点是矩阵内元素所需存储空间大, 但优点在于它几乎与任何稀疏信号都不相关, 因而需要的测量次数最少。

2 压缩感知算法的优化

本文对分段正交匹配追踪 (St OMP) 算法进行二次优化, 改善了原算法的部分缺陷, 使其在计算时间上略有改进。

优化后的St OMP算法如下:

步骤1:初始化最大迭代步长maxstep, 求解的最大迭代误差e, s=1, 然后求得迭代误差的第一位非零数字记作n;

步骤2:对小波稀疏矩阵y进行随机测量, 得:

步骤5:结合一个最近子集, 合并最新的两次坐标索引, 并对Is集合进行一致化处理, 得Is:

步骤6:求解线性方程组:求得:

步骤7:计算残差:

3 仿真实验结果

仿真实验采用Symmlet5为正交小波基做小波变换, 采用国际标准测试图像Lena.bmp作为测试图像, 对不同高频子带采用不同的采样率, 利用分段正交匹配追踪 (St OMP) 算法对采样后的图像数据进行重构。分别求得峰值信噪比PSNR、图像熵、灰度平均值, 观察实验数据, 比对算法的性能, 得到仿真实验结论。

在采样率f1分别为0.1、0.05、0.01时, 对Lena512x512图像重构效果如下图所示。

Lena512重构后图像PSNR、图像熵、灰度平均值的数据比对如下表所示。

4 结论

选用不同的采样率, 经优化后的St OMP算法重构后的图像均保持较好, 有着较好的视觉效果, 随着采样率f的下降, PSNR值和图像熵值逐渐减少, 灰度平均值保持在一个数值上下, 这表明我们可以用较少的采样数据重构质量较好的图像。

参考文献

[1]李晓陆.带通采样定理在降低功耗问题中的实际应用[J].桂林电子工业学院学报, 2004, 24 (05) :36-38.

[2]崔庆林, 蒋和全.高速A/D转换器动态参数的计算机辅助测试[J].微电子学, 2004, 34 (05) :505-509.

数字影像无损压缩算法研究 篇3

随着计算机技术、通讯技术和生物医学工程技术等相关技术的高速发展, 通过对医学影像进行数字化处理, 进行计算机智能化处理, 将使依据医学影像进行的诊断放弃传统的肉眼观察和主观判断, 并可依据同一影像进行多种疾病的诊断和多科疾病的诊断。在应用计算机技术后, 医学影像将从形态图像向功能图像转变, 对医学影像数据库和特征库的内容进行提取分析, 将可以帮助医生进行科学的诊断, 提高诊断的科学性、客观性和准确性。

应用DICOM3标准和网络通讯协议标准TCP/IP可以方便地实现对直接具有数字化接口的影像设备的成像数据的提取;小波分析 (Wavelet Analysis) 在时域和频域同时具有良好的局部化性质, 而且由于对图像信号的高频成分采用转件精细的时域或频域取样补偿, 从而可以聚焦到对象的任何细节, 这一特点在医学影像分析中将得到较好的应用。

1总体方案设计

ACR和NEMA联合组成委员会在1993年发布的医学数字成像与通信 (Digital Imaging and Communication in Medicine, DICOM) 标准3.0, 是医学影像设备间联网的专用数字接口, 是进行网络通信时应满足的标准协议, 是一组具有DICOM兼容性的设备所共同遵循的协议。在DICOM标准中, 医学图像包含了许多如图像获取设备对图像的分析、医生的报告及患者情况等信息, 这种信息与图像的结合方便了图像的检索、图像的分析和诊断。医学影像处理的总体结构如图1所示。

1.1符合DICOM标准中间件实现方案

DICOM3消息交换的网络支持对应于ISO/OSI定义的网络传输中的会话层、表示层及联接控制服务单元, 这部分底层 (传输控制层、网络层) 的信息交换定义为通用的网络传输协议。在设计实现中将采用智能Agent中间件技术。当设备采集影像数据后, Agent中间件自动将数据传送到医学影像数据库中, 减少不必要操作的处理, 并能保证数据传输的一致性和同步性。

1.2压缩存储中间件实现方案

影像图片大约需要8~15 MHz的存储空间, 为了缩小存储成本和便于网络传输, 必须对图像进行压缩。现阶段常用的压缩存储方案有4种:① 基于JPEG标准下的无损压缩算法JPEG-LS, 这是DICOM标准支持的一种成熟的无损压缩算法;② 基于整数小波变换的单帧图像无损压缩算法, 它利用了医学图像象素之间存在高度的相关性和整数小波的特性;③ 基于三维整数小波的序列图像无损压缩算法, 对整个序列进行无损压缩, 可以有效地提高图像的压缩率;④ 利用JPEG2000标准支持ROI (Region Of Interest 感兴趣区域) 编码的特性, 对图像的ROI进行无损压缩编码, 对次要信息区域 (如背景) 采用高压缩比的有损压缩方法。

本文在综合分析以上4种方案的基础上, 提出了基于适形离散小波变换 (SA-DWT) [1]与整数小波变换相结合的影像无损压缩算法。并应用该方案构件了智能Agent中间件。

1.3检索诊断中间件实现方案

在应用存储的数字化医学影像和影像特征进行诊断时, 需要完成大量的检索和比对处理, 为了减少网络流量, 提高检索速度, 应用了基于小波模极大值及多尺度不变矩相结合的检索算法, 并建立了算法实现的中间件, 运行效果明显, 能够较好地完成影像的检索和诊断作用。

2无损压缩算法研究

无损图像压缩是指解压缩后的图像与原来图像完全相同, 没有任何信息的损失。医学图像是医学诊断和疾病治疗的重要根据, 在临床上具有重要的应用价值。确保医学影像压缩后的高保真度是医学图像压缩首要考虑的因素。现在医学图像常采用无损压缩, 因为它能够精确地还原图像。但是无损图像压缩的缺点是压缩比低, 仅为2~4;而有损图像压缩的压缩比可高达50, 甚至更高。所以将这2种压缩法方法在保证使用要求的基础上结合起来, 在获取高的压缩质量的前提下提高压缩比。本文提出的基于SA-DWT与整数小波变换相结合的压缩算法, 就是应用SA-DWT算法确定感兴趣区域, 对该区域进行无损压缩, 其他区域进行有损压缩, 大大提高了压缩效率, 并不损失影像的医学作用。

2.1SA-DWT算法

传统的二维小波变换都是针对矩形区域进行的, 得到的变换系数个数一般会大于原始区域像素点个数, 而且由于填充, 变换后区域的边界会出现钝化, 所以限制了任意形状区域的编码效率。

现代的患者同一部位的医学影像可以应用到相关的不同的多个诊断过程中, 因此, 整幅影像中可能存在多个特征区域, 而每个区域的形状都不是规则的图形, 不适合采用传统的二维小波变换。本文采用了Li等提出的适形离散小波变换 (SA-DWT) , 该变换可以用于对任意形状的图像对象进行变换, 因此适合与对医学影像中的感兴趣区域进行编码。测试结果表明:

① 变换域的变换系数同像素域的相同;

② 只要采用的L阶小波滤波器具有完全重构特征, 并且下采样的位置已知, 就存在一个唯一的反变换, 可用于完全重构原始的影像;

③ 长度自适应的小波变换保留了分段采样点的位置, 不会产生超出边界的系数。

由于对奇数长度图像信号的剩余采样点进行了缩放, 因此这种任意长度的小波变换得到的低通系数具有相同的尺度, 这就避免了边界处小波系数的突变。

2.2提升算法原理

由Sweldens等提出来的提升方案 (Lift Scheme) 是构造紧支集双正交小波的一种新方法, 被称为“第二代小波”[2], 也叫做整数小波变换。该方法可以将整数映射到整数, 可以实现由SA-DWT算法分割的不同区域内影像的无损压缩。

对于原始信号sj, 经小波分解成为低频信号sj-1和高频细节信号dj-1两部分。有提升方法构成的小波变换包括:分裂 (Split) 、预测 (Predict) 和更新 (Update) 3个步骤。

2.2.1 分裂

此过程是将原始信号sj分裂成2个互不相交的子集sj-1和dj-1, 通常是将这个信号序列分解成偶数序列和奇数序列, 即

split (sj) = (evenj-1, oddj-1) = (sj-1, dj-1) 。

2.2.2 预测

针对数据间的相关性, 可用sj-1去预测dj-1, 故可以采用一个与数据集结构无关的预测算子P, 使得dj-1=p (sj-1) , 这样就可以用子数据集sj-1代替原始数据集sj。若再用子集dj-1与预测值p (sj-1) 之间的差值去代替dj-1, 则此差值反映了二者的逼近程度。如果预测是合理的, 则差值所包含的信息就比原始子集dj-1包含的信息要少得多。预测表达式为:

d^j-1=oddj-1-p (evenj-1) =dj-1-p (sj-1)

将数据集合分成偶数集合和奇数集合后, 最简单的一个预测算子就是用相邻2个偶数的均值来作为它们之间的奇数的预测值, 即

p (sj-1) =s (j, 2k+sj, 2k+2) /2。

由此可得预测表达式为:

d^j-1, k=dj-1, k-p (sj-1) =sj, 2k+1- (sj, 2k+sj, 2k+2/2)

2.2.3 更新

经过上述2个步骤后, 所产生的系数系数子集sj-1的某些整体性质 (如均值) 并不和原始数据中的性质一致, 因此需要采用更新过程。其目的是通过算子U产生一个更好的子数据集合s^j-1, 使之保持与原始数据集一致的特征。s^j-1定义如下:

s^j-1=evenj-1+U (d^j-1) =sj-1+U (d^j-1)

具体的更新计算的过程为:

s^j-1, k=sj, 2k+ (d^j-1+d^j-1, k-1)

对于数据子集s^j-1重复进行上述相同的3个步骤, 即将s^j-1分解成s^j-2dj-2, 经过n次分解后, 原始数据sj的小波表示为:

{s^j-n, d^j-n, d^j-n+1, , d^j-2d^j-1}

式中, s^j-n代表了信号的低频部分;{d^j-n, d^j-n+1, , d^j-2, d^j-1}代表了信号的高频部分。

重构数据时的提升为:

sj-1=s^j-1-U (d^j-1) dj-1, l=dj-1, l (1) +a-1 (sj-1, l-2-sj-1, l-1) sj=Μerge (sj-1, dj-1)

2.3整数小波变换

Sweldens已经证明在提升的基础上可以进行整数集到整数集的小波变换。一个整数集合通过小波变换得到的仍然是整数集合。在进行影像压缩编码处理过程中, 不需要对变换后的系数进行量化, 因此可以实现影像的无损压缩。

在进行影像的无损压缩时, 主要采用了S变换和S+P变换。针对影像的特点并结合Haar变换的整型表示方法, 提出如下形式:

S变换之后, 在低通系数sj-1, l的基础上进行线性预测, 以产生新的高通系数dj-1, l, 这就是S+P变换。

2.4实验与分析

在验证算法中, 主要选取了3组MR图像 (256*256*16 bits, 每组30幅) 和2组CT图像 (512*512*16 bits, 每组30幅) , 分别采用了本文提出的算法进行压缩处理, 同时用预测整数小波变换 (简称:PIWT) 、整数小波变换 (IWT) 和差分脉冲编码调制 (DPCM) 等算法对这5组序列影像进行压缩编码, 得到平均压缩率如表1所示。对其中的数据进行分析可知:本算法的压缩率分别比PIWT算法、IWT算法和DPCM算法平均提高81.15%、100.73%和67.61%。表1中的二维算法的压缩率是序列图像中个图像压缩率的平均值。

应用SA-DWT变换可以方便地找到影像中的多个感兴趣区域, 应用整型小波变换对影像象素本身灰度值进行变换, 且保持了变换前后的整数的一致性, 可以实现对感兴趣区域的无损压缩。

在进行若干次提升变换后, 再利用哈夫曼编码对变换后的系数进行编码, 将较好地去除像素间的相关性, 极大地减低了原始图像的信息量。

3结论语

DICOM标准可以方便地将医学影像处理的数据传到计算机中进行处理, HL7标准可以提高医院不同应用软件间的通信能力。根据多媒体技术和关系数据库理论, 建立医学影像数据库。在构建影像数据库和影响特征库时, 为了减少数据存储量, 提高影像传输速率, 而不影响影像的诊断效果的基础上, 本文提出了基于适形离散小波变换 (SA-DWT) 与整数小波变换相结合的影像无损压缩算法, 并构建了该算法的中间件, 在实际的验证测试中, 该算法可以较好地完成影像的压缩存储, 效果良好。

下一步的研究工作将针对目前影像压缩存储算法和影像检索的算法进行深入研究和比较, 进一步发展各种医学影像内容分析的理论和技术, 深入研究能够充分表示医学图像内容的各种特征, 进一步发展系统架构、性能评价、相似性度量方法、人机交互方式、高维度检索和智能诊断等技术。

参考文献

[1]CINKLER K.Very Low Bit-rate Wavelet Video Coding[J].IEEE Journal on Selected Areas in Communication, 1998, 16 (1) :4-11.

基于数据压缩算法的研究 篇4

随着信息技术和计算机技术的飞速发展, 人们面对的数据越来越多, 在数据储存和传输的过程中, 数据压缩[1]的地位越来越重要。一般来说, 数据压缩可以按压缩的失真度分为有损压缩和无损压缩[2]。有损压缩顾名思义就是把使用压缩技术后的数据进行解码还原, 得到的数据与之前的数据不是完全一样, 却不会使人们对原始资料引起错误的理解。有损压缩一般应用在压缩后的数据不一定要和原始数据完全一致的场合。无损压缩就是指把压缩后的数据进行解码还原, 得到的数据与原始数据一模一样, 没有改变。目前流行的无损压缩编码有哈夫曼编码、LZW编码、算术编码、行程编码等。

目前, 数字化和网络化正在给我们的生活带来翻天覆地的变化, 图像的数字化也将成为一个必然的趋势。占据我们大量存储空间和传输带宽的图像, 如果采用数字化处理, 会使得图像数据有如下优点: (1) 数字化处理后的图像容易储存而且方便处理, 不再是一块难嚼的鸡肋, 能够满足人们的各种需求; (2) 数字化处理后的图像在传输过程中容易传输且快速; (3) 数字化处理后的图像与原始图像一样高分辨率, 优质量; (4) 数字化处理后的图像更增强了稳定性和传输过程中的抗干扰能力。但是, 通常数字化后的图像仍然面临着对海量数据的存储与传送问题。所以, 在计算机的存储空间和信道有限的条件下, 怎样高质量、高效率地对数字化后的图像进行可靠压缩成为计算机技术的热门研究领域。

Lempel-Ziv-Welch (LZW) 编码就是一种主要用于图像数据压缩的算法。这种算法对一些简单平滑的图像和一些噪声小的数据具有比较高的压缩比, 而且本算法有比较快的压缩和解压缩速度。本文主要介绍了LZW算法, 并给出了一个编码实例, 通过实验结果可以证明这是一种有效的数据压缩方法。

二、LZW算法

LZW算法是在数据压缩经典算法LZ77和LZ78二者的基础上改进而成的, 由Terry Welch于1984年提出[3,4]。

LZW算法在开始压缩之前, 字典中只有单个字符和编码的串表。开始压缩时, 读入字符串, 按一定的顺序与字典中已包含的字串进行匹配, 如果能够匹配成功, 则将匹配好的字符串对应编码输出;如果不能进一步匹配, 则将导致匹配失败的字符与之前的字符串合并在一起, 加入串表并给以相应编码。

LZW算法的串表具有前缀性[5], 即表中任何一个字符串的前缀字符也在串表中。也就是说, 如果由某个字符串P和某个单字符C所组成的字符串PC在表中, 则P也在表中。C叫作前级串P的扩展字符。

LZW算法与LZ78算法有着相似的编码和解码过程。这两种算法的主要区别在于进行编码时, 因为在压缩时, 字典中已经包含有每个单字符及其编码的串表, 所以在LZW算法的码字中省略了LZ78算法的码字中关于未匹配字符这项, 只是含有已经匹配成功的字符串的索引值, 由此来降低LZW算法的码字的长度以便提高数据压缩比;解码时, 由于表中需要的未匹配字符要在解压缩下一个输入码字后才可以获得, 因此建表的过程相对于压缩时要推迟一步。

三、LZW算法实例

本文使用VC来编译代码和制作界面。

在压缩开始时, 首先要对存放字符串的hash表、结束标志、清除标志、输入/输出缓冲的位置进行初始化。必须使hash表不是空值, 从0开始记输出缓冲位。需要定义前缀字符串Old和当前读入字符Pixel。如果Old+Pixel字符串存在hash串表当中, 就从中取出该字符串的索引编号Index。

部分代码可表示为:

如果Old+Pixel字符串不在hash串表当中, 就把Old+Pixel字符串添加到String Table编码表。

部分代码可表示为:

进行压缩完成后要清除hash表。在数据解码过程中, hash串表能依据原始字典和Index再次生成。

数据的解压缩过程其实是压缩的逆过程。首先还是必须对字符串表、清除标志、结束标志和输入/输出进行初始化。需要定义前缀字符串Old和当前读入字符Pixel (当前输入的经压缩后的字符) 。如果Code既不是清除标志也不是结束标志时, 算法进行数据解码工作。

部分代码可表示为:

进行解码完成后, 要清空m_pStrBegin指针, 即清空指向String Table表的指针。

下面我们采用一个示例图像, 使用本文的LZW算法来进行压缩。原始图像zuoye如图1所示, 是一个大小为486 Byte, 宽度和高度均为12像素的彩色图像。本文用VC做的界面图, 选择zuoye为压缩文件后, 单击编码按钮就可进行压缩操作。压缩结果如图2所示。

图2压缩结果图

从图2可知, 原文件大小为486字节, 利用LZW算法进行压缩后为132字节, 压缩率为27%。

四、结论

通过实验结果可以看出, 本文提出的算法是一种有效的无损数据压缩算法。许多学者一直在对LZW及其派生算法加以不断地改进和完善, 使之成为了当今数据压缩的主流算法。

参考文献

[1]David Salomon.吴乐南, 等.数据压缩原理与应用 (第二版) [M].北京:电子工业出版社, 2007.

[2]侯阳.数据压缩技术及C语言实例[M].北京:学苑出版社, 2005.

[3]张凤林, 刘思峰.一个改进的LZW数据压缩算法[J].小型微机计算机系统, 2010, 27 (10) .

[4]林小竹, 籍俊伟.一种改进的LZW压缩算法[J].计算机工程, 2009, 31 (14) .

基于压缩传感理论的重构算法研究 篇5

奈奎斯特采样定理指出,为了能重构出原始信号,带限信号的采样频率必须不小于信号最高频率的两倍[1]。然而随着信号带宽逐渐加宽,提高采样率所带来的硬件成本是非常昂贵的[2],这无疑给相应的硬件设备带来了极大的挑战,因而使得宽带信号的处理变得日益困难[3]。

在传统的信号处理过程中,以图像信号为例,首先通过采样取得完整的信号样本,采样过程须满足采样定理;再将信号在某个域(例如频域、小波域等)内进行变换,使信号稀疏化,而后只存储变换后小部分较大的值,最后解码出原始信号。信号处理之后丢弃了大部分采样所得的数据,实现了数据压缩,但不影响最终结果的重建[4]。

2004年D.Donoho[5]、T.Tao[6]及E.Candes[7]等人提出了一种新型的信息处理理论,即压缩传感[8,9](Compressed Sampling,CS)或称为Compressed Sensing、Compressive Sensing,它开启了信号采样的新革命。

与采样定理的区别在于,压缩传感理论表明只要信号通过某种变换后可以稀疏表示,就能以较低的频率进行全局性采样,该采样频率可以远小于采样定理所要求的标准,从而获得少量的全局信号观测值,再通过重建算法将初始信号从测量值中解码出来。

压缩传感理论(下文简称为CS理论)主要包括信号的稀疏表示、非线性编码测量以及重建算法3个部分[10]。

CS理论虽然目前处于研究的初始阶段,但发展迅速,已经发展了多种形式,例如Bayesian CS理论、1-BIT CS理论、无限维CS理论、分布CS理论、变形CS理论等,已成为学术界的研究热点。

由于目前国内对该领域的研究尚处于起步阶段,本研究将对压缩传感理论进行详细介绍,对其中所涉及的关键技术进行综述和整理。笔者在总结现有常用重构算法的基础上,介绍最小均方差线性估计(MMSE)算法,该算法在低采样率下重构效果较好,且适用于工程实际,本研究通过图像的仿真重构突出MMSE算法的优越性及其在实践领域的应用潜力。

1 信号稀疏表示

假如信号中只有极少数非零元素,则该信号是稀疏的。时域信号大都具有非稀疏性,然而通过一些变换则可变得稀疏。

对于离散信号x(n),n∈[1,2,⋯,n],它可以用N×1维的基向量 来线性表示。假设这些基向量都是正交的,则信号x可表示为:

式中:x,s—N×1矩阵;ψ—N×N矩阵;sk=x,ψk=ψTkx。

如果信号x通过变换域ψ的作用后,变换向量中只有K个非零元素sk时,但大部分情况下该条件难以严格满足,因此也可以是具有K个远大于零的系数,此时信号是可压缩的,就可以称s为信号x的K稀疏表示,ψ为信号x的稀疏变换基。

压缩传感理论的先决条件是信号必须经过某种变换后可以稀疏表示。信号的稀疏表示就是将信号作用到某变换域内,大部分的转换系数都较小,此时变换矢量是稀疏的,因此它可以被视为初始信号的简明表示[11]形式。

常用的变换域有快速傅立叶变换(FFT)、离散余弦变换(DCT)、离散小波变换(DWT)[12]、Gabor变换[13]Curvelet变换[14]以及冗余字典[15,16]等。

2 编码测量

CS不是直接测量初始信号,而是测量信号与一个非相关的系统(下文将该系统简称为测量矩阵)作用之后的信号,每一个测量值是所有样本信号的线性组合,因此每个测量值包括了所有采样信号的信息。为此它可看作是全局采样,而奈奎斯特则可看作是局部采样。

因此,压缩传感理论可综合理解为:在某变换基ψ=[ψ1,ψ2,⋯,ψN]上具有K稀疏的信号x∈RN,通过它在另一不相关基Φ=(Φ1T,Φ2T,⋯,ΦMT)上的M(K

获得近似或精确重构,即为:

式中:y—M×1测量向量;Φ—M×N测量矩阵;x—N×1矩阵;Θ—传感矩阵,Θ=Φψ。

压缩传感理论的理论模型如图1所示。

由上述表达可知,y的维数小于x的维数,有无穷个解,因此很难重构出初始信号。但由于s是K稀疏的,且K

为了能重构出原始信号x,测量次数必须达到M=O(K ln(N)),而且传感矩阵也一定要满足受限等距特性(RIP)准则[17,18],但RIP准则计算复杂度相对较高,常用其等价条件,即稀疏变换基不应与测量矩阵相关。

实际应用中稀疏矩阵会因信号的改变而不同,所以希望找到能普遍适用的测量矩阵,能与任意稀疏基都不相关。对一维信号的重构,往往选用高斯矩阵和伯努利矩阵等;对二维信号则常选用随机分布矩阵、Hadamard矩阵以及部分傅立叶变换矩阵等。

3 重构算法

重构算法是CS理论的核心,重构算法的主要内容是从M维的测量向量y中重构出稀疏度为K的信号x。

通过求解式(2)的逆命题,可以求得稀疏系数s=ψTx,理论证明信号重构问题与最小l0范数具有等价性,因此重构问题可转化下式:

式中:||∙||0—l0范数,数学意义是计算信号非零元素的个数。

但上述优化问题是NP-hard问题,理论证明,当测量矩阵满足RIP准则时,l0优化问题与l1优化问题具有等价性,从而将NP-hard问题变为数值上容易处理的优化问题,那么式(3)即转化为l1最小范数下的最优化问题:

最小l1范数优化问题是一个线性规划的凸优化问题,典型的算法代表是基追踪(BP)算法。

本研究整理了相关算法,特别是重构算法中的贪婪算法,该算法目前具有代表性和较高的使用频率。

贪婪算法经常不断发展和完善,已有多种变形,主要包括匹配追踪(MP[19])、正交匹配追踪(OMP[20])、正则化的正交匹配追踪(ROMP[21])、压缩采样匹配追踪(Co Sa MP)以及逐步正交匹配追踪(STOMP[22])等。

本研究详细介绍了贪婪算法的数学原理,并介绍了MMSE算法,该算法在低采样率下能实现较高质量的重构,以下即为算法的详细介绍。

3.1 匹配追踪

匹配追踪(Matching pursuit,MP)算法主要是从y=Φx中重构出最稀疏的x。算法主要是从测量矩阵Φ中,选取出与信号y最为匹配的列向量,也可以称之为原子,来建立一个稀疏逼近,再求出信号的残差;通过若干次迭代,依次不断选取出与对应信号残差相匹配的原子,构建原子组合,那么信号y就能够由所选取原子的线性组合,与最终的残差之和来表示。假如残差在误差范围之内,那么信号y就可以简化为由所选原子的线性组合来简洁表示。

3.2 正交匹配追踪

MP算法是对信号在选定的原子上进行投影,它是不正交的,需要经过多次迭代,算法方能收敛,因此结果不是最优的。

而正交匹配追踪算法(OMP)则有效地解决了这个问题,该算法采用了相同的原子选择准则,区别在于残差的更新方式有所不同。OMP在每次迭代之后,对所有已选择原子进行正交化,使残差与所有已选择原子所生成的子空间正交。经过正交化处理原子被选定以后,在后续的迭代中将再也不能被选取,通过对已选取的原子集合逐步进行正交化处理,因此缩小了迭代的次数,确保了迭代的最优性。

3.3 正则化正交匹配追踪算法

Needell等人为了解决OMP算法中满足RIP准则但有时仍无法精确重构的问题,适时地推出了正则正交匹配追踪算法(Regularized orthogonal matching pursuit,ROMP),该算法对所有稀疏信号和满足RIP准则的测量矩阵都能实现精确地重建。

与OMP的区别在于,该算法先采用相干性,选取出多个符合条件的原子作为候选集合;然后根据正则化原理从候选原子集合选定出符合条件的原子集合,然后纳入支持集,快速实现原子的有效选择。

ROMP算法需要先对信号的稀疏度进行估计,然后才能重建原始信号。但实验表明,对稀疏度的估计要求较高,如稀疏度估计过大,则重建质量较差,不能达到精确重构的效果;如稀疏估计太小,则可能经过几次迭代后仍不能达到停止条件。

3.4 最小均方差线性估计

为了使 最小,现有的CS方法通过直接法得到x的初始解 ,其中 。而分块CS算法由最小均方差线性估计(MMSE)求出初始解 ,其中 表示第i个重建图像块的向量形式,逆可压缩测量矩阵ΦB=Rxx(ΦB)T(ΦBRxx(ΦB)T)-1,其中Rxx表示输入信号的自相关函数,它采用AR的相关系数为0.95的模型来近似。由于ΦB的尺度较小,MMSE算法易于实现[23]。

4 仿真结果对比

为了说明上述算法的重构效果,本研究采用大小为256×256的Boat图像进行重构实验。算法中采用小波基作为稀疏变换基,利用高斯随机矩阵作为测量矩阵,Boat的原始图像如图2所示。

Boat图像在采样率为10%时MP、OMP、ROMP以及MMSE算法的重建效果如图3所示。由图3可见,在采样率相同的情况下,MMSE算法进行图像重构的效果明显优于MP、OMP和ROMP算法,三者要在采样率为60%时才能达到该重构效果。

随着采样率的提高,各算法重构质量都有明显提高,但MMSE算法的重构效果始终明显优于MP、OMP、ROMP算法。当采样率为10%,后3种算法效果较差,重建后无法重构原始图像,但MMSE算法重建图像质量依然较高,仍然可以重建原始图像,显示了很大的优越性。

笔者研究发现MMSE算法模型与实物重构模型类似,有着较好的应用潜力,目前国内压缩传感理论大都停留在理论研究阶段,鲜有涉及硬件系统开发应用,如能设计出一套与实物重构模型相匹配的硬件系统,MMSE算法将在实践中体现出低采样率下重构质量较高的优势,将是实践领域的另一突破。

5 结束语

本研究主要阐述了压缩传感理论,并深入研究了重建算法中使用频率较高且具代表性的MP、OMP、ROMP算法,对其原理进行了较为详细的论述,与此同时对性能稳定、重构质量较好的最小均方差线性估计(MMSE)方法也进行了介绍。笔者通过各算法对二维图像进行了仿真重构,突出了MMSE算法在低采样率下重构质量较好的特点,并指出其在实践中有着较好的应用潜力。

压缩传感理论引起了信号处理领域的重大改变,它丰富了信息获取理论,而且对其他学科产生了很好的启迪和借鉴作用,有着良好的应用前景,但如何将其应用于工程实践则是另一个严峻的机遇和挑战。

摘要:针对国内压缩传感理论(CS)尚处于起步以及理论研究阶段,为深入阐述该理论及对其实践应用性进行探索,将压缩传感理论从信号的稀疏表示、编码测量以及重构算法3个方面展开了较为详细的论述,并深入地阐述了重构算法中具有代表性的匹配追踪、正交匹配追踪、正则化正交匹配追踪算法。并进一步介绍了最小均方差线性估计(MMSE)算法,通过与常用重构算法的仿真对比,突出了MMSE算法在低采样率下的优越性。研究结果表明,该算法在实践中具有较好的应用潜力。

基于FFS的压缩感知算法研究 篇6

近年来,有一些学者利用压缩感知理论开展了频谱检测的研究取得了较大的成就。压缩感知(Compressed Sensing,CS)提供了一种利用低维观测数据有效感知并重构稀疏信号的新方法[1,2,3]。压缩感知理论与传统奈奎斯特采样定理不同,只要信号是可压缩的或在某个变换域是稀疏的,即信号中仅含有少数几个能量大的频率点,就可利用一个与变换基不相关的观测矩阵将变换所得高维信号投影到一个低维空间上,然后通过求解一个高度非线性的优化问题,就能从这些少量的投影中以高概率重构出原信号。在该理论框架下,采样速率不取决于信号的带宽,而由信息在信号中的结构和内容决定[4]。

重构算法主要分为四类: 贪婪追踪算法、凸松弛法、统计优化算法和组合算法[5]。贪婪追踪算法是通过每次迭代时选择一个局部最优解来逐步逼近原始信号。典型的算法有匹配追踪(Matching pursuit,MP)、正交匹配追踪[6](Orthogonal matching pursuit,OMP) 等。贪婪追踪算法因发展成熟、存在多种改进算法且信号重构速度较快, 而受到广泛关注。但是, 算法的重要条件稀疏度K在实际应用中难以获取。凸松弛法通过将非凸问题转化为凸问题求解, 以找到信号的逼近, 是针对范式模最小化而提出的线性规划方法[7]。如基追踪(Basis pursuit,BP)、梯度投影稀疏重建法(Gradient projection for sparse reconstruction,GPSR) 等。凸松弛法最大的优点是给出了最强的稀疏恢复的保证, 当测量矩阵满足一定的条件,它能精确重建所有的稀疏信号,同时所需的观测次数较少。而其最大的缺点在于计算负担很重, 重建速度慢, 对于大尺度的重建问题实现困难。统计优化算法主要包括贝叶斯统计框架下的稀疏重建算法[8]和基于训练集合学习的统计优化方法两大类。该算法的核心思想是分析输入信号的主成分或者其独立成分, 再利用典型信号的训练集以学习的方法来找出最优的线性投影集合。统计优化算法能在精确和非精确测量条件下给出精确重建信号的保证, 但所需要的测量次数较凸松弛法多。组合算法针对信号进行高度的结构化采样, 要求信号的采样支持通过分组测试快速重建。组合算法主要包括快速傅里叶采样(Fast Fourier Sampling,FFS)、链追踪(Chaining pursuit,CP) 以及HHSP追踪(Heavy hitters on steroids pursuit, HHSP) 等。组合算法所需要的观测次数较凸松弛法少,重建速度也较快,在测量次数一定的条件下, 能以高概率获得任何可压缩信号的重建。

本文给出了FFS算法的详细步骤, 对FFS算法进行了分析及实现, 讨论了算法的运算量, 对信号的重构进行了仿真验证, 并与快速傅里叶变换(Fast Fourier Transform,FFT) 的运算量进行了对比分析。

2 FFS模型框架

假设信号x[t] 是一个长度为N, 可仅用m个数字频率表示的时间离散信号, 且满足m<<N。则信号x[t] 可表示为:

其中,ω1,…,ωm为待识别的未知频率,α1,…,αm为对应频率的系数。

从概念上看, 识别信号最简单的方法是执行一个N点的离散傅里叶变换, 直接找到m个非零频率和相应的系数。虽然通过FFT可快速地计算离散傅里叶变换,但当信号只有较少频率时, 需大量计算零频率的值。而FFS算法可实现对稀疏信号的快速采样, 它从信号中采样少数相关随机样点, 并有效地处理采样点, 以此逼近离散傅里叶变换的结果, 能显著提高运算效率, 降低运算时间[9]。FFS算法主要步骤如图1 所示。

FFS算法的主要步骤为: 频率分离、比特测试和系数估计。在一次迭代完成时, 算法挑选大系数的频率进入集合, 通过迭代构建了一个逼近原信号x的重构信号y,y可表示为频率/ 系数集合 Λ={(ωk,αk),k=1,2,…,K}。重构长度k的选择至关重要, 它将影响迭代次数及算法的运算复杂度[10]。

3 FFS算法分析及实现

3.1 频率分离

频率分离步骤输入的残差信号为:

其中,x[t] 为原信号,ν[t] 为已估计的信号, 在初始化时设 ν[t]=0。

频率分离输出的信号是分解为K份的信号组{x0[t],x1[t],…,xk-1[t]},其中任一元素的长度都为N,xk[t]可能携带一个特征频率值, 也可能不携带特征频率值。

频率分离的主要处理过程为: 随机频谱置换、子带分解滤波器组和还原置换, 如图2 所示。

FFS算法的重要创新是采用了随机频谱置换处理,使得信号频谱中聚集在一起的幅度值较大的频率点彼此分离, 然后可通过带通滤波器进行频谱分析。

令t → σt(mod N), 残差信号s[t] 可表示为s[σt(mod N)], 其中,σ 为范围{1,3,5,…,N-1} 内的随机数。若两个数字除 ±1 外没有共同的因数, 则称其为互质数。由于N是2 的若干次方, 对N而言互质数即为奇数。给定一个奇数 σ, 再通过欧几里德除法算法可提供另一个数 σ-1, 称 σ-1为 σ 逆乘法, 且满足 σ·σ-1=1(mod N)。由于信号时域的扩展会产生频率的置换, 该过程即可表示为:

由于一个给定的频率不可能映射到频谱的相同部分,故能保证分解所得信号组的任一元素至多仅含一个特征频率值。

子带滤波器是由一组带宽均为2π/K的带通滤波器组成。滤波器组的目的是将输入信号的频谱分为K份,使得每份携带至多一个特征频谱, 从而达到分离特征频谱的目的。

3.2 比特测试

比特测试部分的目的是建立特征频率值的集合。主要处理过程为: 奇偶滤波器滤波、随机采样、能量比较、比特标定、形成特征频率集合, 如图3 所示。

偶滤波器表达式为:

奇滤波器表达式为:

其中,b=0:log2(N/2)。

偶滤波器偶滤波器使得偶频率通过, 而将奇频率置零。奇滤波器则使得奇频率通过, 并将偶频率置零。若E0是一个偶滤波器输出的随机采样点, 而E1是一个奇滤波器输出的随机采样点, 且满足|E1| ≥ |E0|,则将此位标记为1, 反之为零[11]。若取值为1, 则将ωk← ωk+2b。当遍历完所有取值时, 即得到特征频率集合。

3.3 系数估计

系数估计是获得相应特征频谱的系数值, 包括解调信号、随机频谱置换、滤波器滤波、复原置换和随机采样估计五个过程, 如图4 所示。

第一步用特征频率集合解调信号, 其中 ωk为特征频率集合中的任一值。该处理的目的是将任一特征频率值搬移到零频。第二步对该信号进行随机频谱置换, 该过程的目的是固定零点频率, 且疏远其它特征频率。第三步将上述输出信号通过低通滤波器获取零点频率。最后通过复原置换和随机采样, 估计该点的系数 αk。αk的表达式为:

4 算法运算量分析

FFT算法的运算量为O(Nlog2N), 当信号长度N较大时,FFT的运算量也较大。可见, 当输入信号为稀疏信号时, 若用FFT进行处理, 会造成计算量很大的浪费。

而FFS算法运算量不依赖于信号长度N, 只需要对信号中的m个特征频率做处理, 运算量能显著地降低。令重构信号与原信号的误差为 ε、失败概率为 δ, 当执行成功概率为1-δ 时,FFS可返回一个逼近原信号的重构信号y, 且误差边界条件为:

其中,xopt是重构信号y对原始信号的最佳逼近。

当时m ≤ N,FFS算法采集远小于信号长度的样点数, 即采样点集合是建立在随机选择的基础上, 而不是依赖于信号本身的特性或者算法处理的过程。并且FFS算法对运行时间和存储空间的需求正比于输出的频率数目K, 而不是输入信号的长度N。

当受到噪声干扰时, 可通过计算重构信号的信噪比来进行分析。假设输入信号x加上了一个正交噪声矢量v, 则信噪比为:

显然减小误差值和失败概率可以提高FFS算法的执行成功率,但会增加额外的信号采样点,加大运算时间[12]。FFS算法的运算复杂度为:

其中,poly(·) 表示一个多项式,M为信号能量的边界值。

5 算法仿真及性能分析

在本文仿真实验中, 利用C实现FFS和FFT, 选择当前最快的FFTW3.2.2 作为FFT算法。所有实验都在Linux系统平台下进行, 硬件配置为: 英特尔Core i3-2100@3.10GHz双核处理器、1.5G内存、500G硬盘。

假设信号为单频信号, 即信号的频率数m=1, 且频率为9994Hz, 信号长度N=65536, 重构长度K=128, 每次迭代选取的频率数为16, 信噪比SNR=-15d B, 迭代次数为5 次。

FFS算法估计信号的频谱图如图5 所示。其中(a)为原始信号的频谱;(b) 为FFS算法执行一次迭代的估计频谱, 由于噪声的影响, 每次估计的结果包含了随机噪声的幅值, 为了增强算法的鲁棒性, 每次迭代选取的频率数设为16;(c) 为FFS算法最终的估计结果, 它是从5 次迭代结果中选取频率系数最大的m个作为最终的估计结果。

不同重构长度K时,FFS算法成功概率如图6 所示。可以看出频率精确重构的概率随着信噪比的增加而增大。当信噪比一定而重构长度不同时, 频率精确重构的概率随着K的增长而增大。当信噪比为-12d B时, 重构长度K=128 即能精确重构; 而当信噪比仅为-16d B时, 重构长度需256 才能实现精确重构。

设输入信号的长度N取217~226, 测试信号为随机生成的20 个频率的叠加信号, 即m=20, 并且每个非零频率的幅度均设为1。不考虑噪声的影响,FFS算法与FFT的运算时间对比如图7 所示。可见,FFT运算量受信号长度的影响较大, 随着信号长度的增加而较快增长。FFS算法的运算量不依赖于信号长度, 而与重构长度K有关,K越大, 运行时间越长。当信号长度大于221时,FFS在运算速度上较FFT有明显的优势, 运行时间远远低于FFT。因此,FFS算法特别适宜在雷达、医学图像等大信号处理中应用。

6 结束语

综上所述, 本文给出了FFS算法的主要步骤, 详细阐述了算法原理, 分析了算法的运算量, 对信号的重构进行了仿真验证, 并与FFT进行了运算量的对比分析。仿真结果表明,FFS算法具有较好的重构精度, 并且信号长度的剧烈增加对运算量的影响较小, 在大信号处理时运行时间远远低于FFT。

摘要:传统的频谱感知方式因其自身的局限性而难以满足处理速率的更高要求。压缩感知的优势在于前端传感器采样数据量远远小于传统采样方法所获的数据量,从而有效提高频谱感知的速度。本文给出了一种新颖的压缩感知算法——快速傅里叶采样算法,该算法能采集较少的点数,较快地重构信号。算法分为频率分离、比特测试和系数估计三个主要步骤。文中对FFS算法进行了详细分析及实现,给出了仿真信`号重构结果 ,并将该算法的运算量与快速傅里叶变换进行了对比分析。仿真结果表明,该算法具有较好的重构精度,并且信号长度的剧烈增加对运算量的影响较小,在大信号处理时运行时间远远低于FFT。

关键词:快速傅里叶采样,压缩感知,认知无线电,频谱感知

参考文献

[1]HAYKIN S.Cognitive radio:brain-empowered wireless communications[J].IEEE Journal on Selected Area in Communication,2005,23(2):201-220.

[2]CANDES E,WAKIN M.An introduction to com pressive sampling[J].IEEE Signal Processing Magazine,2008,25(2):21-30.

[3]DONOHO D L.Compressive sensing[J].IEEE Transactions on Information Theory,2006,52(4):1289-1306.

[4]石光明,刘丹华,高大化等.压缩感知理论及其研究进展[J].电子学报,2009,37(5):1070-1081.

[5]焦李成,杨淑媛,刘芳等.压缩感知回顾与展望[J].电子学报,2011,39(7):1651-1662.

[6]TROPP J A,GIBERT A C.Signal recovery from random measurements via orthogonal matching pursuit[J].IEEE Transactions on Information Theory,2007,53(12):4655-4666.

[7]CANDES E,Tao T.Decoding by linear program ming[J].IEEE Transactions on Information Theory,2005,51(12):4203-4215.

[8]JI SHIHAO,XUE YA,CARIN LAWEENCE.Bay esian compressive sensing[J].IEEE Transaction on Signal Processing,2008,56(6):2346-2356.

[9]Gilbert A C,Strauss M J,Tropp J A.A Tutorial on Fast Fourier Sampling[J].IEEE Signal Processing Magazine,2008,25(2):57-66.

[10]TACHWAL Y.Cognitive radio solution for IEEE802.22[D].The University of Oklahoma,2010.

[11]BAILEY J,IWEN MA,SPENCER CV.On the design of Deterministic matrices for fast recovery of four ier compressible functions[J].SIAM Journal on Matrix Analysis and Applic-ations,2012,33(1):263-289.

基于压缩感知的实时目标追踪算法 篇7

基于压缩感知的实时目标追踪算法是建立在粒子滤波框架上的一种新颖的算法[1],能巧妙解决目标遮挡、外观变化等噪声干扰,得到快速准确的追踪效果。

2009年Xue Mei等人首次提出了将压缩感知融合到粒子滤波框架的ℓ1tracker算法[2],利用了凸松弛算法进行稀疏重建,但该算法较高的计算复杂度导致实时性差。2011年Hanxi Li等人提出了OMP tracker算法,其追踪速度为ℓ1tracker的几百倍[3]。尽管如此,OMP tracker的追踪速度平均也只有10 f/s,追踪速度亟待提高。

1 ℓ1 tracker与OMP tracker

基于压缩感知的实时目标追踪算法是一种基于模板的算法[4],目前具有代表性的算法有ℓ1tracker和OMP tracker两种,其核心思想是求解候选目标si在模板空间的稀疏近似解xi,如式(1)。

其中,A是模板集组成的模板空间;si代表第i个候选目标;ns代表采样粒子数。

最佳候选目标si其对应的解xi一定是最稀疏的[5,6],即具有最稀疏近似解或具有最小投影误差的候选目标就是待追踪的真实目标。

2 小波域数据降维与St-OMP算法

基于压缩感知的目标追踪算法效率低的一个重要原因是需要处理的数据量较大,为尽量减少冗余,本文首先将式(1)进行小波域转化,再利用采样矩阵对小波域数据进行降维压缩,如式(2)所示,表示候选目标si的小波域信号,表示小波域模板。

根据压缩感知理论,满足有限等距准则的随机采样矩阵可以用来压缩数据量[7]。本文采用变密度采样矩阵对小波域信息进行数据压缩,该采样矩阵H由公式(3)生成[8]。

式中:M×N是图像块的尺寸;pH(m,n)代表(m,n)位置处取1的概率;σH是调节采样率的参数;aH可设3.5,其值在区间[2.5,4.5]之间时对重建效果影响不大[9]。

加入变密度采样矩阵H后,稀疏重建问题表示为:

除了降低数据维度,改进压缩感知重建算法的执行效率也是提高目标追踪速度的一个重要方法。本文采用了在OMP算法上发展出来的St-OMP算法,与OMP算法最大的区别在于每一步匹配追踪时选择多个最佳原子,而不是单个最佳原子,由此减少匹配次数,加速了算法[10]。

3 实现框架

为验证本文所提算法的性能,为该算法设计一个实现框架如图1所示。初始化阶段,追踪目标周围随机均匀生成nT=10个尺寸为12×15(像素)的目标模板,并将其投影到小波域进行数据压缩,频域采样率设定为30.5%。在采样阶段,根据前一时刻确定的追踪目标位置均匀生成当前时刻采样数为ns=600的候选目标,并投影到小波域。

4 实验结果及分析

通过5段视频序列来测试该算法的性能,如图2所示,每一帧追踪到的目标用红色平行四边形框出。视频“Car4”中的追踪目标是汽车,从图2(a)排中可以看出,在光照条件变化时,该追踪算法的追踪效果良好。视频是“Singer1”的追踪目标是穿白衣服的女歌手,如图2(b)排所示,视频中光照发生了剧烈的变化、目标尺度也改变了,追踪效果依然良好。“Occlusion1”和“Occlusion2”追踪的目标是人脸,如图2(c),(d)所示,当人脸被严重遮挡时,追踪结果良好。“Deer”追踪的目标是运动迅速的一头鹿的头部,如图2(e)所示,在第54,56帧时追踪目标周围存在跟目标几乎一模一样的鹿,追踪结果并没有受第二头鹿的影响而出现失误。

在追踪速度上,用以上所示5段视频进行测试,本文所提的算法在保证追踪准确度的基础上大大提高了追踪速度,如表1所示,平均追踪速度达到了29 f/s,是OMP tracker算法的1倍。

摘要:提出了一种高效的基于压缩感知的实时目标追踪算法,该算法将空域数据转换到小波域,然后利用变密度采样矩阵对小波域数据进行压缩,从而极大地降低了数据量。在稀疏重建上,将St-OMP算法代替OMP算法以提高稀疏重建的速度。在多种具有挑战性的视频序列上进行实验,结果表明该算法提高了追踪准确度和速度。

关键词:压缩感知,实时目标追踪,贪婪算法,稀疏重建

参考文献

[1]郭岩松,杨爱萍,侯正信,等.压缩感知目标跟踪[J].计算机工程与应用,2011,47(32):4-7.

[2]XUE Mei,LING Hai-bin.Robust visual tracking using L1 minimization[C]//2009 IEEE 12th International Conference on Computer Vision.[S.l.]:IEEE,2009:1436-1443.

[3]LI Han-xi,SHEN Chun-hua,SHI Qin-feng.Real-time visual tracking using compressive sensing[C]//International Conference on Computer Vision.[S.l.]:IEEE,2011:1305-1303.

[4]柴继贵.WSN中一种基于压缩感知的目标定位算法[J].计算机工程,2013,39(3):77-86.

[5]朱秋平,颜佳,张虎,等.基于压缩感知的多特征实时跟踪[J].光学精密工程,2013,21(2):437-443.

[6]DONOHO D.Compressed sensing[J].IEEE Transactions On Information Theory,2006,52(4):1289-1306.

[7]ROMBERG J.Imaging via compressive sampling[J].IEEE Signal Processing Magazine,2008,11:14-20.

[8]KRAGNWE F,WARD R.Stable and robust sampling strategies for compressive imaging[J].IEEE transactions on Image Processing,2014,23:612-622.

[9]RAVISHANKAR S,BRESLER Y.MR image reconstruction from highly undersampled K-space data by dictionary learning[J].IEEE Transactions on Medical Imaging,2011,30:1028-1041.

上一篇:行政违法行为下一篇:三管高压旋喷灌浆