视觉适应

2024-11-09

视觉适应(通用4篇)

视觉适应 篇1

摘要:本文面向轴承行业的自动化生产, 实现一种基于机器视觉的自适应轴承方向检测算法, 通过主动搜索寻找最佳阈值实现图像最佳分割, 并依据轴承尺度参数快速定位轴承中心, 利用统计特征判定轴承方向。本文算法效率很高, 可以避免人工误判。

关键词:机器视觉,自适应分割,轴承方向检测,特征统计

引言

轴承检测在轴承质量控制中非常重要, 目前, 我国轴承行业制造技术水平低、行业集中度较低, 离轴承强国的标准相距甚远, 行业矛盾突出, 缺少核心技术自主知识产权, 产品结构不尽合理[1]。

考虑到现有接触式的轴承检测技术很难充分满足工业检测需求, 而基于图像的机器视觉检测方法具有非接触、实时可靠, 成本低、自动化程度高的优势, 能为该问题的解决提供了良好的替代方案和解决思路。近年来, 部分工业视觉技术被应用到轴承制造行业[2,3,4], 如测量, 计数等。本项目采用自适应分割算法, 定位轴承中心, 利用统计的特征快速计算轴承的正反方向, 减少了人工误判。

一、算法框架

一般地, 算法包括以下步骤, 下面分别介绍:

1. 图像采集:利用工业相机采集图像。2.图像预处理:利用图像处理防范去除采集到的图像中的噪音、高光或者是进行适当的亮度调节, 便于后续图像的处理和识别。3.自适应分割:自动搜索最佳的分割阈值, 避免环境光影响和机器振动导致的图像采集的不稳定的情况, 实现目标区域的最佳分割。4.轴承定位:利用区域标记算法, 查找最佳的区域, 依据轴承中心区域的面积和长宽等比约束等的约束条件, 定位轴承的中心以及半径区域。5.轴环边缘点检测:在步骤4的基础上, 确定轴环的边缘点, 构成封闭环。6.轴承方向统计、判定:逐个计算边缘点与轴承中心距离[1], 并建立一个列表。统计该列表的变化规律, 如距离增加次数, 与距离减少的次数的比较, 如果距离增加次数大于距离减小次数, 则为正方向 (顺时针) , 反之为反方向 (逆时针) 。

二、核心算法

在算法框架中, 自适应分割、轴承定位和特征判定非常重要, 下面分别介绍[2]。

2.1自适应分割。图像分割是目标识别的前提条件, 图像分割质量的优劣、区域界限定位的精度直接影响后续的区域描述以及图像的分析和理解, 是图像处理、分析、理解中极其重要的技术环节。基于区域的阈值的分割方法是一种应用十分广泛的图像分割技术。所谓阈值分割方法的实质是利用图像的灰度直方图信息, 按照灰度级, 对像素集合进行一个划分, 得到的每个子集形成一个与现实景物相对应的区域, 各个区域内部具有一致的属性, 而相邻区域布局有这种一致属性。这样的划分可以通过从灰度级出发选取一个或多个阈值来实现。它不仅可以极大地压缩数据量, 而且也大大简化了分析和处理步骤。

目前广泛采用的图像分割算法是最大类间方差法 (大律法) , 由日本学者大津于1979年提出, 按图像的灰度特性, 将图像分成背景和目标两部分。背景和目标之间的类间方差越大, 说明构成图像的两部分的差别越大, 当部分目标错分为背景或部分背景错分为目标都会导致两部分差别变小。因此, 使类间方差最大的分割意味着错分概率最小[3]。

考虑到工业现场的各种干扰, 单阈值难以保证图像的有效分割, 为此, 拟采用一种渐近的阈值分割法来保证图像的有效分割, 并利用已知的条件如存在轴承区域作为分割信息反馈, 来寻找最佳的分割阈值。图1显示了算法流程, 先依据大律法获取图像的初始阈值, 判断该阈值适合合理, 如果合理则分割成功, 否则继续调整阈值[4]。

1. 阈值微调:从当前阈值开始, 轮流增加/减少阈值间隔。

2. 上下限判断:

判断调整后的阈值, 是否同时超出了上下阈值的范围, 如果超出则表明分割失败, 否则继续进行阈值分割。

3. 阈值分割:

依据当前阈值进行图像分割, 并确定中心区域是否满足轴承的约束条件, 如长宽比和范围等。实验表明, 上述方法, 可显著提高阈值判断的准确性, 为后续的轴承定位与计数提供有效支撑。选择大律算法做为分割的初始阈值, 可有效减少循环次数。

2.2轴环定位。在确定轴承中心之后, 需要确定轴环区域, 根据预先设定的尺寸参数来分割轴环区域。在定位圆心之后, 确定轴环区域。只需要通过给定的半径R1和R2就可以抽取该区域。在这里, 分割该区域主要有2个因素:一是该区域与中心的灰度阈值可能不同, 中心区域的自适应分割阈值不一定符合该区域。二是过渡曝光的轴环区域可能与其它区域相连, 不便于分割, 通过单独抽取, 就可以在形态方面避免不便分割的弊端。轴环区域的阈值选择可以类似上述的自适应分割算法。

2.3基于统计的特征判定轴承方向的方法。在通过二值化和轴承的尺寸约束等约束条件, 确定轴承中心和半径区域后, 计算轴承内圈的边缘点, 使之构成一个封闭环, 再逐个计算边缘点与轴承中心的距离, 并建立一个列表, 通过统计的方法, 统计改列表的变化规律, 假设有列表建立如下:

则, 如果记1表示距离轴承中心的距离增大, 记0表示距离轴承中心的距离减小或不变, 如果距离增大的次数大于距离减小的次数, 则为正方向, 反之则为反方向。则, 上述列表的距离增大的次数为:1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 共6次;而距离减小的次数为:0, 0, 0, 1, 0, 1, 0, 0, 0, 0, 共2次。因为6>2, 则为正方向。

为了避免误差, 可以要求“距离增大的次数-距离减小的次数>阈值 (例如25) ”, 才可以判定轴承的方向为正方向, 反之也亦然。

依据边缘到中心的距离变化并进行概率统计, 考虑是边缘的全局而非局部特征, 更加准确, 对于零件边缘的一些毛刺或外部干扰不敏感。

三、结果与分析

通过一系列图像测试分析, 如图2所示, 均可以满足系统实时性检测的需求。

自适应分割算法, 用最大方差自动取阈值法选取出来的阈值非常理想, 对各种情况的表现都较为良好。虽然它在很多情况下都不是最佳的分割, 但是分割质量都是有一定的保障, 可以说是最稳定的分割。另外, 根据图像的灰度统计特性自动设定阈值, 使得对所需图像的分割次数减少, 从而减少处理时间, 提高了系统的实时性。

利用统计的特征分析判定轴承的方向, 通过分析轴承内圈边缘点距离轴承中心点的距离的规律, 判定轴承的方向, 该检测方法普通却巧妙, 快捷、便利地便可以确定轴承的方向。算法原理比较简单, 没有进行复杂的边缘定位和拟合, 策略简单有效。

四、总结

机器视觉检测方法具有非接触、无损伤、自动化等优势, 是未来发展趋势。本项目面向轴承行业的自动化生产和检测, 实现了一种基于区域的自适应轴承方向判定的检测方法, 通过阈值的主动搜索寻找最阈值范围, 实现图像的区域划分, 快速定位轴承中心, 并依据已知的轴承尺度信息, 对轴环区域进行二次有效分割, 通过形态学或尺寸阈值的适当控制区域标记, 并通过统计的特征来分析轴承的正反方向, 实现轴承方向的判定。

实验表明, 该算法完全可以满足工业环境实时检测的需求, 而且与同类的算法相比, 由于采用的自适应策略, 对光源的要求相对比较低, 提高了算法的鲁棒性。

参考文献

[1]中国轴承工业协会.轴承行业“十二五”发展规划[M], 2010.

[2]王晓洁, 郑晓东.机器视觉在轴承检测中的应用[J].机器与液压, 2008, 36 (10) :276-278.

[3]陈跃飞, 王恒迪, 邓四二.机器视觉检测技术中轴承的定位算法[J].BEARING, 2010 (4) :54-56.

[4]汪传民, 叶邦彦, 黄先德, 等.基于计算机视觉的轴承外径检测系统的研究[J].工业自动化, 2006, 22 (5-1) :205-207.

视觉适应 篇2

视觉目标跟踪算法的任务就是在各帧中持续区分出目标区域和背景区域。因此, 可以将目标跟踪问题视为一个“目标/背景”二值分类问题。然而, 在光照变化、目标形变和遮挡等复杂场景下, 基于单个视觉特征的分类器难以做到足够鲁棒。显然, 如果能够根据场景的变化, 自适应地融合多种视觉特征, 将可以有效利用各种特征的互补性, 在场景变化时获得更强的鲁棒性。多特征融合的跟踪方法已经成为目前研究的主流方向:Perez等[1]提出了一种组合颜色、运动及声音等特征的粒子滤波跟踪方法;Tiresch等[2]提出了一种基于多特征自组织的跟踪方法;王永忠[3]等提出了自适应融合颜色和纹理特征的Meanshift跟踪方法。

但是, 用于跟踪的各种不同的视觉特征并不独立, 往往存在较强的相关性。融合多个完全一致或错分区域基本近似的特征不会对分类性能有任何的帮助, 有时甚至会使融合结果距离真相越来越远。特别是当分类器数目较少时, 分类器差异性对分类器组合的准确性的影响就更加明显[4]。目前, 关于多分类器差异性度量准则, 以及基于差异性度量的分类器优化组合方法的研究被给予广泛的重视[4,5,6,7,8]。如何综合考虑特征的分类性能以及特征的差异性, 获得更优的特征选择和组合方式, 以提高算法在复杂场景下的鲁棒性, 仍然是有待深入研究的问题。

1 基于置信图融合的跟踪算法框架

本文从如何有效组合多个置信图的角度来研究目标跟踪中的多特征融合问题。目标跟踪问题可以视为一个“目标/背景”二值分类问题, 置信图以灰度等级的形式表示候选区域中每个像素对目标的置信度, 即某个特征或某组特征对“目标/背景”分类问题的判定结果。

基于置信图的Meanshift跟踪方法近期被许多研究者采用。置信图将各个像素对目标的置信度以灰度等级的形式表示, 为异类特征提供了一个进行对比、选择和融合的统一平台, 同时, 基于灰度图的跟踪也降低了算法复杂度。Collins等[9]提出了一种在线特征选择机制, 利用目标RGB颜色分量的不同线性组合构造了49种特征, 基于这些特征分别构造置信图, 以置信图的可分性为考核指标, 通过在线选择的方式, 选取区分能力最强的5种特征分别进行Meanshift跟踪。但对选中的5种特征只是进行了简单的平均, 没有加权融合。Yin等[10]改进了Collins的算法, 利用Collins提出的置信图机制, 引入了亮度、梯度方向和运动等多种特征, 并根据各特征的区分能力按不同权重生成融合的相似度图用于Meanshift跟踪, 但依然基于多种特征不相关的假设。Avidan[11]通过集成若干弱分类器得到一个强分类器来进行目标区域分类, 但在确定弱分类器的权值时也没有考虑分类器的相关性。

本文提出的基于置信图自适应融合的跟踪算法如下:首先提取当前帧的多种特征, 生成相应的置信图, 组成置信图集;同时, 以上一帧的置信图集作为学习样本, 以上一帧的目标位置作为评判依据, 学习得到特征权值, 并以之为依据进行当前帧置信图融合;最后利用Meanshift算法在融合的置信图中进行目标定位, 输出跟踪结果并更新特征权值。

2 置信图生成方法

置信图实质上是每个像素的特征值向目标置信度的映射, 可以通过对比目标区域和背景区域中特征值的分布来确定该映射关系。将目标的最小外接矩形h×w作为目标区域, 将目标周围矩形2h×2w的范围内作为背景区域。对于某种给定特征, p (i) 表示该特征在目标区域的归一化直方图, q (i) 表示该特征在背景区域的归一化直方图, 其中1≤i≤2b, 即直方图的等级数。一般而言, 对某个特定的i, p (i) /q (i) 值越大表示该特征取值对目标的置信度越大, 因此, 定义如下置信度函数:

式中, δ为防止分母为0而设置的一个接近于0的正数 (例如0.001) 。L (i) >0表示该特征值隶属于目标区域, L (i) <0表示该特征值隶属于背景区域, L (i) 接近于0表示该特征值在目标和背景区域中的分布没有显著差异。

3 自适应置信图融合

在视觉目标跟踪的实际应用中, 大多情况下都难以获得关于背景和目标的先验知识。特别是对于机动摄像平台, 背景和目标都是动态变化的, 所以需要在跟踪过程中根据特征的区分性实时调整各个特征的权值, 对于分类能力强的特征, 赋予较高的权值, 反之, 则赋予较低的权值。度量特征分类能力的方法很多, 大多基于类内方差最小化、类间方差最大化的思想, 如王永忠等[3]采用的方法, 此外还有扩展方差比 (Augmented Variance Ratio, AVR) 、信息增益 (Information Gain) 和互信息 (Mutual Information) 等[12,13]。在置信图框架下, 特征的区分性表现为置信图与真实分类结果的匹配程度。Collins等[9]提出了差异率 (Variance Ratio) 指标, 并选择差异率最大的5种特征进行跟踪;Yin等[10]继承了Collins的思想, 以归一化处理后的差异率作为置信图的权值。

上述算法均基于各个置信图不相关的假设。而实际应用中, 用于跟踪的各种视觉特征, 不论颜色、形状、纹理、运动还是其他特征, 都是通过对图像灰度进行某种映射变换得来, 往往存在一定程度的相关性, 各个特征 (置信图) 不相关的假设并不一定成立。本文放弃了此假设, 在考虑特征相关性的条件下, 提出了一种最小均方差意义下的融合权值最优化方法, 基本思想如下:对当前帧I抽取F个不同特征, 分别生成相应的置信图{L1, L2, …LF}, 采用线性加权的方式进行置信图融合:

式中, wf为置信图Lf在融合中的权值, 且满足。需要解决的问题就是如何分配权值wf, 使得融合后的置信图L最接近真实的“目标/背景”分布。采用最小均方差意义下的损失函数作为目标函数来求解wf的最优化问题。设候选区域内有N个像素, L (n) 表示融合置信图中某个像素n的取值, T (n) 表示像素n的真实分类。记损失函数LF为:

则损失函数LF可表示为如下二次型,

式中, C为样本离差阵, 满足Cij≥0, 且Cij=Cji。

于是, 损失函数LF最小化问题归结为以为约束条件的二次型极值问题。应用拉格朗日乘数法, 令

式中, , 函数J关于w的梯度:

求得, 带入约束条件, 求解得到。

4 算法实现与实验结果

在上述基于置信图自适应融合的跟踪算法框架的基础上, 下面给出了基于多种颜色特征进行融合跟踪的算法实现。如上所述, 基于置信图机制的算法可以为异类特征提供对比和融合的统一平台, 因此本文的算法框架对特征本身的类型并没有太多约束, 不论颜色、纹理还是运动特征, 只要能够生产相应的置信图, 都可以纳入本文的算法框架, 这里只是基于颜色特征验证算法框架的可行性。

4.1 算法实现

为了便于与相关算法进行对比, 采用与文献[9]相似的特征抽取方法, 以RGB分量的线性组合来构造特征:

由此可生成53种组合, 排除线性相关的组合 (如2R+2G+2B=2 (R+G+B) ) , 以及系数全为0的组合, 得到49种特征, 并将特征值量化到0~255。

基于置信图自适应融合的跟踪算法的基本流程如下:

①在初始帧I0中人工框定目标位置y0, 针对49种特征, 分别计算置信函数, 生成相应的置信图{L1, L2, …L49}, 应用第3节给出的算法分配特征权值, 得到融合的置信图Lobj;

②对于当前帧It, 计算置信图{L1, L2, …L49}, 利用上一帧跟踪过程获得的特征权重, 得到融合的置信图Lcandidate;

③以Lobj为目标模型, 以上一帧跟踪获得的目标位置为起始位置, 在Lcandidate中进行Meanshift跟踪, 得到目标位置估计并输出;

④将视为目标真实位置, 应用上节给出的算法分配特征权值;

⑤t=t+1, 返回步骤②。

4.2 实验结果

4.2.1 实验1

选用PETS2009测试序列中的一幅图像, 以图像中央位置的行人为跟踪对象, 如图1所示。目标处在树影夹缝中的阳光下, 周围区域光照不均匀, 存在人影和树影的干扰。

对虚线框内的所有像素进行分类实验, Collins[9]和Yin[10]的方法与本文方法分类准确率的对比如表1所示。

4.2.2 实验2

采用PETS2009测试数据集中的一段视频进行跟踪实验, 结果如图2所示。图像在视频中的顺序为左上、右上、左下、右下。跟踪过程中存在相似对象干扰、光照逐渐变暗等因素的影响, 但本文的算法一直保持了比较稳定的跟踪。

4.2.3 实验结果分析

通过上述实验可以看出, 由于本文方法采用了全局最优解, 在实验1中对人影部分具有较好的抑制, 分类准确率更高, 也就是说具备了较强的“目标/背景”分类能力。在实验2中, 随着对象干扰和光照逐渐变暗的发生, 算法能够自适应获取并调整各特征的融合权重, 使得有效特征相对无效特征获得更高的权重, 尽可能地保证了跟踪准确性和鲁棒性。

5 结束语

本文提出了一种最小均方差意义下的置信图自适应融合跟踪方法。该方法以置信图为基础, 与以往多特征融合跟踪方法不同的是, 该方法在评价特征分类能力的基础上, 通过适当的数学方法, 兼顾了特征的互补性 (或差异性) , 采用最小均方差原则进行融合, 使得特征组合总的效能达到最优, 取得了较好的跟踪效果。但该方法比现有多特征融合跟踪方法在时间复杂度上有所增加, 后续研究中将考虑进一步改进。

摘要:针对复杂背景下视觉目标跟踪的鲁棒性和准确性问题, 提出了一种最小均方差意义下的置信图自适应融合跟踪方法。将多种视觉特征统一到置信图表示框架下, 并根据各个置信图的分类能力, 以均方差最小为评价准则, 得到了融合的置信图并用于跟踪。方法兼顾了特征的分类能力及多特征之间的互补性, 有效实现了多种视觉特征的融合。实验结果表明, 相对于现有方法, 能够获得更好的鲁棒性和更高的准确度。

视觉适应 篇3

随着Internet与数字媒体的迅速普及以及多媒体信息处理技术的快速发展,人们开始更广泛地经由互联网进行数字作品的传播、编辑和复制。这给人们的生活带来极大的方便,然而,同时也使得攻击者可以较容易地分发、复制,甚至随意篡改非授权的数字作品。于是,在某些场合,人们需要对数字作品的真实性与完整性进行验证,如用于刑事侦察的法庭证据照片、电子商务领域的电子票据、医学图像和军事遥感图像等[1,2]。一些通常的无意操作(比特传输与存储错误、滤波、图像增强、图像压缩等)或有意的、恶意的攻击(如剪切、涂改等)都会造成媒体数据发生改变,影响多媒体数据的正常使用与认证。近年来,半脆弱水印技术作为一种有效的图像认证方法受到了广泛的关注。该类算法对通常的内容保持操作(偶然攻击)具有一定的鲁棒性,但对一些内容改变操作(恶意攻击)是脆弱的[3]。Lu等[4]基于索引约束矢量量化提出一种半脆弱图像水印算法,水印嵌入在压缩比特流中,算法对JPEG压缩、矢量量化压缩等攻击具有较好的鲁棒性。Chamlawi等利用整数小波变换提出一种的半脆弱水印算法[5],通过将图像摘要嵌入到小波域近似子带以实现原图像近似恢复,算法对轻微的JPEG压缩是鲁棒的,且能准确定位图像篡改。Ishihara等[6]通过对小波域子带进行量化以嵌入水印,利用加权投票思想提取水印信息,提高了算法对偶然攻击的鲁棒性。Seng等通过将原图像缩略版本嵌入到载体小波域水平、细节子带而实现一种可近似恢复原图像的半脆弱水印算法[7],算法对高质量JPEG压缩、轻微噪声等具有一定的鲁棒性,同时对其他攻击操作是脆弱的。以上算法[4,5,6,7]没能考虑到载体图像视觉感知特性,所生成隐秘图像视觉质量欠佳。Ko等[8]在利用小波域纹理、亮度等特性的基础上,提出一种小波域半脆弱水印算法。算法通过自适应量化修改小波细节子带系数以嵌入水印,实验表明算法具有一定的篡改检测能力。王向阳等提出一种基于图像内容的自适应半脆弱水印算法[9]。该算法首先结合梯度分割阈值选取策略自适应提取图像内容特征以生成水印信息,然后利用载体图像邻域特性自适应确定量化步长,并通过量化调制小波系数嵌入水印。仿真实验证明,该算法具有较好的篡改检测与定位能力,同时能通常的攻击操作具有较强的抗攻击能力。Lin等[10]利用DCT域中低频信息生成图像特征,然后通过自适应量化将图像特征嵌入到DCT域高频系数中,水印提取无须原图像参与,算法能较好地检测与定位恶意攻击。Kao与Chang[11]提出一种小波域半脆弱水印算法,该方案利用载体图像低频系数生成Zernike矩特征与Sobel边缘特征,并通过奇偶量化将其嵌入到图像小波域细节子带中频系数中,算法对内容保持操作是鲁棒的同时能准确检测、定位恶意篡改。这些半脆弱水印算法[8,9,10,11]虽然考虑到载体图像特性对水印嵌入的影响,但对图像视觉特性的挖掘还不够,其水印透明性还有待进一步提高。

为实现半脆弱水印算法透明性、鲁棒性、脆弱性的优化平衡,本文通过充分利用图像亮度、纹理感知特性,设计一种图像空域视觉感知因子计算方法,进而结合优化像素调整(Optimal Pixel Adjustment Process)技术,提出一种图像空域自适应半脆弱水印算法。

1 视觉感知因子计算

为增强水印透明性,提高隐秘图像视觉质量,达到半脆弱水印算法鲁棒性(对偶然攻击)、脆弱性(对恶意攻击)、透明性的综合平衡,就应充分利用人类视觉感知特性[12]。本文通过利用图像亮度、纹理感知特性,以计算各像素视觉感知因子。

1)人眼对图像平滑区噪声敏感而对纹理区噪声相对不敏感[13]。由于图像纹理丰富区具有大的熵值,而图像平滑区则有小的熵值,于是可用图像熵值H(i,j)(表示以图像像素I(i,j)为中心的图像块的熵值)来刻画图像像素I(i,j)的纹理复杂度。对于给定的(2l+1)×(2l+1)大小的滤波窗口(其中1≤l≤5),当窗口中每个像素都有相同的出现概率时,熵值取得最大值Hmax。

用Hmax对熵值进行归一化得到像素I(i,j)的纹理特性因子:

2)人眼对不同亮度具有不同的敏感性,通常对中等灰度最为敏感,而对低灰度和高灰度的敏感性呈非线性下降[14]。对此,可用式(3)描述像素I(i,j)的亮度敏感性。

其中x(i,j)为像素I(i,j)对应的像素值。

综合考虑以上人类视觉感知特性分析,可用式(4)来确定图像各像素I(i,j)的视觉敏感性。

其中i=0,1,…,m-1,j=0,1,…,n-1,而m×n为图像I的大小。且τ(i,j)值越大表示容许更大的改变量。

2 自适应半脆弱水印算法

为获得更好的隐藏效果,增强水印算法透明性,本文算法在充分考虑图像视觉感知特性的基础上,计算出图像视觉感知因子,然后利用视觉感知因子导出图像各像素用于水印嵌入的比特深度。最后采用自适应LSB替换方法嵌入水印信息。具体水印嵌入比特位置示意图如图1所示。

2.1 水印嵌入

算法由图像高r位(1≤r≤7)MSBs(Most Significant Bits)比特信息计算出水印嵌入比特位,采用自适应LSB替换方法实现半脆弱水印嵌入,基本原理如图2所示,具体嵌入算法描述如下:

输入:原图像I,二值水印图像W(大小为m1×n1),用于视觉感知计算的高位比特数r。

输出:含水印图像Iw

步骤1)提取图像I的高r位,得到残差图像Ir。

步骤2)利用式(4)可导出式(5),由残差图像Ir计算出各像素水印嵌入比特位k(i,j):

其中:函数round()、max()、min()分别表示求四舍五入、最大值与最小值,且有0≤k(i,j)≤7-r。

步骤3)为增强算法鲁棒性与安全性,根据用户密钥key,利用混沌映射将水印信号W进行扩频与混沌调制[15],得待嵌入水印信号W*(扩频后水印信号与载体图像维数大小一致,即大小为m×n)。

步骤4)采用LSB替换方法直接用水印比特替换像素I(i,j)的第k(i,j)位比特。

步骤5)重复步骤4)直到全部水印信息嵌入完毕,即得到嵌入水印后图像Iw。

2.2 优化像素调整

为进一步减少水印嵌入前后两图像之差,提高含水印图像视觉质量,对含水印图像Iw进行像素调整。记像素Iw(i,j)第k(i,j)位比特为b1,其对应水印比特为b2,具体优化调整策略如下式所示:

于是Ip即为像素调整后含水印图像像素。

2.3 水印提取

水印提取过程与嵌入过程类似。水印提取与图像认证详细过程描述如下:

输入:待认证图像I',用于视觉感知计算的高位比特数r。

输出:恢复水印W'。

步骤1)抽取待认证图像I'的高r位,得到残差图像I r′。

步骤2)利用式(5)由残差图像I r′计算出各像素水印嵌入比特位k(i,j)(注意:水印嵌入在各像素LSBs位,而未改变图像高r位比特,故水印嵌入前后计算出的各像素水印嵌入比特位k(i,j)相同)。

步骤3)直接提取图像各像素I(i,j)的第k(i,j)位比特获得恢复水印信号W″={w″(i,j)|w″(i,j)∈{0,1}},i=0,1,…,m-1;j=0,1,…,n-1。

步骤4)使用与水印嵌入端用户相同的密钥key,将恢复水印信号W″映射成1维序列,经混沌解调制、解扩展再映射为2维序列,即得到恢复水印图像W'。

2.4 图像认证与篡改检测

若恢复水印信号W″与待嵌入水印信号W*完全一致,则认为测试图像通过认证;否则图像遭受了一定攻击操作,是不可信的。

对于遭受攻击的图像,可通过水印差图像E中的像素分布情况来判别所经历的攻击类型(偶然攻击或恶意攻击),其中差图像E可由式(7)计算。

在水印差图像E中,白色区域(像素值为1)表示检测错误区域,而黑色区域(像素值为0)对应水印提取正确的区域。实际上,当遭受偶然攻击时,大多数提取错误的水印比特分散地分布在差图像中;而遭受恶意攻击的区域中白色像素(错误检测像素)较为集中。对于一个错误检测像素,若其所在8邻域中至少还存在一个相邻的错误检测像素,则认为该像素处于篡改区域,不妨称该像素为篡改像素。记ρ、μ分别为水印水印差图像中错误检测像素和篡改像素比例,即有

则可定义如下图像认证规则:

1)如果ρ=0,表示图像未被修改;

2)如果ρ>0,且μ

3)如果ρ>0,且μ≥T,则认为图像经受了恶意攻击。

其中阈值T取值范围为(0.5,1),对于非认证图像(经受到恶意攻击),可以通过对水印差图像实施数学形态学处理,去除噪声干扰,得到一个紧凑的篡改区域,从而实现篡改定位,具体细节可参见Bartollini F等人提出方法[16]。

3 实验结果与性能分析

实验中,以大小为256×256的灰度图像为原始图像,水印图像为一大小为64×64的二值图像,位扩展比ex=16,取各像素高3位(r=3)构成残差图像用于计算各像素水印嵌入比特位,滤波窗口大小为3×3,即式(1)中l=1。以Barbara图像为例,图3给出了一个水印嵌入示例。含水印图像视觉效果较好,人眼觉察不出水印嵌入前后两图像差异,水印透明性较好。

3.1 透明性

针对一些常见的灰度测试图像,表1列出了相应的含水印图像峰值信噪比PNSR值。针对不同类型图像,OPAP前后PSNR均值分别高达35.722 1 d B和39.315 0 d B,表明算法对不同类型图像均具有好的鲁棒性。同时也说明了本文OPAP优化像素调整策略的有效性。

实际上,可进一步从理论上分析本文算法的透明性。记δ1(i,j)、δ2(i,j)分别为像素调整前后的隐藏差,即δ1(i,j)=Iw(i,j)-I(i,j),δ2(i,j)=Ip(i,j)-I(i,j)。由式(9)知,可由以下三种情况计算δ1(i,j)、δ2(i,j)的值。

情形1:像素Iw(i,j)第k(i,j)位比特为b1,与对应水印比特为b2相等,即b1=b2。此时有,δ2(i,j)=δ1(i,j)=0。

情形2:b1=1,b2=0。则有,δ1(i,j)=-2k(i,j)。经像素调整后有,-2k(i,j)+1≤δ2(i,j)≤-1,可认为δ2(i,j)在此区间上服从均匀分布。

情形3:b1=0,b2=1。此时有,δ1(i,j)=2k(i,j)。经像素调整后有,1≤δ2(i,j)≤2k(i,j)-1,且δ2(i,j)在此区间上服从均匀分布。

由于水印信号可认为是均匀分布的,故可近似认为情形1、2、3出现的概率分别为0.5、0.25、0.25。于是像素调整前后均方差的期望MSE1、MSE2分别为

由以上分析知,像素调整前后,隐藏图像峰值信噪比期望值分别为

当水印嵌入比特位k(i,j)在(0,7-r)上服从均匀分布时,有E(k(i,j))=(7-r)/2。于是对不同的r取值,由式(11)、式(12)可获得本文算法隐秘图像的PSNR期望值,结果如表2所示,这进一步从理论上说明了算法优良的透明性。

为进一步评估算法性能,将本文算法与Ko[8]和Kao[11]等方案进行了对比实验。以Barbara图像为例,图4显示了不同方法的隐秘图像PSNR值。总的来说,Ko与Kao等方案[8,11]相比,在不同水印像素百分比下,本文算法所生成隐秘图像PSNR值平均高出约2.90 d B,说明本文算法具有更好的透明性。

3.2 攻击分类

在保证较高的透明性的同时,实验中对不同类型攻击进行了测试,实验结果如表3所示。对表3中所给攻击操作,若已知除质量因子高于70的JPEG压缩、浓度小于5%的椒盐噪声、浓度不大于5%的椒盐噪声、浓度不大于0.5%的高斯白噪声与3×3中值滤波为偶然攻击外,其余均为恶意攻击。实验中对120幅不同类型测试图像分别做了如表3所示攻击测试。

当阈值T取值0.8时,其恶意攻击误判率(虚警率)为129/1 440=8.96%,漏警率为13/1 440=0.90%,正确率判别率为1 298/1 440=90.14%。从表3中可以看出,对于给定的阈值T(T=0.8),本文算法能较好地将图像所遭受的攻击区分为偶然攻击与恶意攻击两类。

3.3 对偶然攻击的鲁棒性

同时进行了广泛实验以测试算法对于遭受偶然攻击的鲁棒性。以Barbara图像为例,采用归一化相关值NC为评价准则,表4给出了算法对偶然攻击的鲁棒性测试结果。可以看出本文算法对通常的内容保持信号处理操作具有一定的鲁棒性。其中NC值由下式给出:

其中⊕表示异或运算。

3.4 对恶意攻击的篡改定位

实验中对多种篡改攻击进行了篡改检测、定位测试。图5以随机涂改攻击为例,如图5(a)所示,给出了算法检测定位结果。其中图5(b)为隐藏差图像(恢复水印与原始水印图像之差),图5(c)为本文算法篡改检测与定位效果图。从图5(c)可以发现,对于发生严重破坏的图像部分,通过对隐藏差图像(图5(b))实施一组数学形态学操作[16],本文算法能在篡改检测图中形成一个较为紧凑的白色区域。这表明算法对恶意攻击操作具有较好的篡改定位能力。

结束语

本文通过考虑图像亮度、纹理特性,设计了一种用于水印嵌入的图像视觉感知因子计算方法,进而提出一种图像自适应半脆弱水印方案。算法通过自适应LSB替换方法嵌入水印,一个有效的优化像素调整过程进一步提高了水印透明性。理论分析与实验表明算法较好地实现了透明性、鲁棒性与脆弱性之间的综合平衡。算法能有效区分偶然攻击与恶意攻击,对偶然攻击有一定的鲁棒性的同时对恶意攻击较为敏感。由于充分挖掘了载体图像视觉感知特性,本文算法显示出比同类算法更高的透明性。今后将进一步研究压缩域(如JPEG)视觉感知模型,设计更为实用的压缩域图像认证算法。

摘要:在充分考虑图像视觉感知特性的基础上,提出一种图像自适应半脆弱水印算法。首先利用图像亮度、纹理特性确定水印嵌入比特深度;然后采用自适应LSB替换方法嵌入水印信息,水印嵌入强度依赖于载体图像特征;最后应用优化像素调整进一步提高水印透明性。实验结果表明,算法对偶然攻击有一定的鲁棒性而对恶意攻击比较敏感,且能有效识别图像攻击类型。此外,理论分析与仿真实验均说明本文算法比同类算法具有更高的透明性,其隐秘图像PSNR值要高约2.90dB。

视觉适应 篇4

视觉追踪在计算机视觉领域一直是一个重要的课题, 尤其对于监测应用、车辆导航和人机界面研究。比如有人在文献[1-4]中已经提出了很多追踪方法, 但仍然是一个具有挑战性的问题, 由于像局部遮挡, 光照变化, 姿势变化, 背景混乱和视角变化等因素的影响。在本文中, 基于结构局部稀疏表达模型和自适应模板更新策略提出了一种有效的跟踪算法。

1 系统流程图

在此介绍基于自适应结构局部稀疏外观模型法的视觉跟踪, 以下是基于Matlab的系统流程。

2 局部结构稀疏外观模型

给出一组目标模板视频图像序列T=[T1, T2, …, Tn], 在目标区域对一组重叠的局部图像块抽样。利用这些局部块作为词典来给在可能的候选区域局部块编码, 即D=[d1, d2, …, d (n×N) ]∈Rd× (n×N) , 其中d是图像块向量的尺度, n是目标模板的数量, N是在目标区域局部块的数量。矩阵D中的每一列都是从矩阵T中矢量化的局部图像块中通过詛1归一化方法获取的。每个局部块代表固定目标对象的一部分, 因此所有的局部块就能表达目标的完整结构, 由于局部块是从许多模板收集的, 所以这个词典收集了不同模板的共同点并能表达他们的各种形式。对于一个候选目标区域, 可以表示成Y=[y1, y2, …, yN]∈Rd×N。如图2所示。

假设具有稀疏性的情况下, 在目标区域的局部块都能够表示为只有几个基本数组元素的线性组合, 通过求解此公式:

这里yi指的是第i个量化的局部图像块, bi∈R (n) N是局部块相应的稀疏编码, bi≥0意思是bi所有的元素非负。记B=[b1, b2, …, bN], 表示一个候选区域的稀疏代码矩阵。每个局部块的稀疏系数都被分成若干段, 根据每个向量元素对应的模板, 即biT=[bi (1) T, bi (2) T, …, bi (n) T], 其中bi (k) ∈RN表示系数向量bi的K阶分块。对这些分段系数加权, 获得第i个局部块向量Vi,

这里向量Vi对应第i个局部块, C是一个标准术语。然后在候选区确定位置的每个局部块都可以用在不同模板位置的局部块表示。采取的平方矩阵V的对角线元素作为混合特征值, 即:

其中f是混合特征值的向量, 对齐的跟踪结果也便于使用增量子空间训练方法进行码本更新。在集中遍历这些局部块之后, 异常值的影响降低了并且结构信息扔被保存在表达数据中以此更好地定位目标。

3 模板更新

在目标跟踪方法中, 生成累积概率序列:

根据均匀分布定理产生一个在单位区间[0, 1]的随机数r。通过选取哪一本部分的随机数, 可以选择被更换的模板。这能使旧模板缓慢地更新和新模板的快速更新, 从而减小漂移的问题。

利用稀疏表达和子空间学习方法给更新的模板建模。这种增量式法不但可以适应外观改变, 而且也可以保护收集到的目标物体的相同视角的共同信息。目标估计可以通过主成分分析的基向量的线性组合建模和在文献[4]中使用的琐碎模板法。

其中:p表示观测向量矩阵, 矩阵U由特征向量组成, q是特征向量系数矩阵, e表示在p被损坏或遮挡的矩阵中的像素。由于遮挡和噪声引起的误差是任意的并且稀疏的, 用詛1正规化最小二乘法解决此问题。

其中:H=[U I], c=[q e]T, λ是正则化参数。琐碎模板系数被应用到解决噪声或遮挡问题和避免太多的遮挡块被更新到模板集。然后重建的图像被用于更新将被替换的模板。这个过程可以看作是引入稀疏子空间表达方法。

4 目标跟踪

本文使用的目标跟踪算法是在贝叶斯定理框架下实现的。给出目标观察数据集z1:t=[z1, …, zt]到第t帧, 目标状态变量xt可以由最大的后验概率估计计算

在xti表示第i个序列状态。后面的概率p (xti|z1:t) 可以通过贝叶斯定理递归,

其中p (xt|xt-1) 表示动态模型和p (zt|xt) 指的是观测模型。动态模板p (xt|xt-1) 描述连续帧之间的目标状态的时间相关性。把六参数仿射转换模型运用到给连续两帧之间的目标模板进行建模。状态转换作为p (zt|xt-1) =N (xt;xt-1, Σ) , Σ是对角协方差矩阵, 它的元素是仿射参数各个方差。

观察模型p (zt|xt) 表示zt观察在状态xt的可能性。它对于稳健的跟踪起着重要的作用。在此方法中, 观测模型由

在等式的右边表示候选区域和基于混合特征f目标之间的相似性。随着模板的逐渐更新, 观察模型能够适应目标的外观改变。

5 实验设计

该算法在MATLAB软件中实现。詛1最小化问题可以用文献[5]中的SPAMS package方法来解决, 在所有的实验中正规化常数的λ被设置为0.01, 对于每一个视频序列, 目标对象的位置在第一帧需要手动标记。文献[6]增量视觉跟踪 (IVT) 方法, 文献[7]基于片段 (fragtrack) 跟踪方法, 文献[8]詛1指数法, 文献[9]多实例学习 (MIL) 跟踪器法。实验结果表明, 本文的跟踪方法比其他的方法更好。

6 总结

本文所提出的方法利用跟踪目标的空间和局部信息通过使用队列池方法遍历空间布局的局部块。这有助于更准确地定位目标, 在被遮挡时更可靠。但有时会出现误差, 导致跟踪出错, 所以本系统的跟踪算法也有待改进。

摘要:本文基于MATLAB软件, 通过利用局部结构稀疏外观模型的方法和一种新颖的队列池方法 , 利用跟踪目标的空间和局部信息实现目标跟踪。通过遍历所有图像局部块获得的相似性, 不但能够准确定位目标而且处理了遮挡问题。此外, 也使用了结合增量子空间学习和稀疏表达方法的模板更新策略, 此策略可使模板实时更新, 稳定性好。

关键词:MATLAB,局部模型,队列池方法,稀疏表示,目标跟踪

参考文献

[1]姜明新, 王洪玉, 刘晓凯.基于多相机的多目标跟踪算法[J].自动化学报, 2012, 38 (4) :497-506.

[2]姜明新, 王洪玉, 等.基于ML和L2范数的视频目标跟踪算法[J].电子学报, 2013, 41 (11) :2307-2313.

[3]姜明新, 王洪玉.基于多层定位的多目标跟踪算法[J].大连理工大学学报, 2012, 52 (5) :767-771.

[4]姜明新, 王洪玉.基于特征分组的在线目标跟踪算法[J].大连理工大学学报, 2013, 53 (5) :755-759.

[5]B.Liu, L.Yang, J.Huang, P.Meer, L.Gong, and C.A.Kulikowski.Robust and fast collaborative tracking with two stage sparse optimization[C]//ECCV.2010.

[6]J.Mairal, F.Bach, J.Ponce, and G.Sapiro.Online learning for matrix factorization and sparse coding[J].Journal of Machine Learning Research, 2010, 11:19-60.

[7]D.Ross, J.Lim, R.-S.Lin, and M.-H.Yang.Incremental learning for robust visual tracking[J].IJCV, 2008, 77 (1) :125-141.

【视觉适应】推荐阅读:

视觉方案10-16

视觉环境10-16

视觉选择05-08

视觉语境05-13

听觉视觉05-21

视觉风格06-01

视觉广告06-03

视觉元素06-23

视觉能力06-25

视觉引导07-09

上一篇:中国外资下一篇:疲劳破坏论文