区域目标识别

2024-07-20

区域目标识别(精选8篇)

区域目标识别 篇1

0 引言

近年来, 随着国外先进战机的不断更新, 在我国近海、边境区域活动频繁, 为此, 我军防空力量不但要具备复杂电磁环境的抗扰手段, 而且要具备尽早发现、快速识别等多种能力, 这对防空力量的合理使用提出了更高的要求[1,2,3]。如何对这些目标能快速发现和识别, 进而掌握敌方任务企图成了防空领域的关键问题。

沿海小区域指沿海预警中心为圆心, 半径50~200km范围, 研制沿海小区域联合目标识别系统, 从合理利用情报源头入手, 整合区域对空雷达、电子对抗、民航飞行、对海雷达资源, 快速发现和识别目标, 增强防空能力, 解决基层部队情报融合的难题。

1 目标识别流程和关联算法

1.1 目标识别流程

探测传感器和信息处理单元可以获取下述信息:

(1) 对空雷达装备获取的是区域内空中雷达目标, 目标位置、高度、速度、航向及机型架数等;

(2) 电抗装备获取的信息有目标方位线、载频、重频、脉宽、变频方式及调制方式等;

(3) 民航飞行情报可提供区域国内、国际民航的飞行计划信息, 包括起降机场、起飞时间、二次代码、飞行高度及航空公司等;

(4) 对海雷达可获取区域内水面敌、我舰艇的活动情况, 包括舰艇的目标位置、航速等。

当出现重点目标时, 情报协同印证和目标识别的处理流程如图1。电子侦察给出目标指示后, 雷达重点搜索发现目标, 雷达情报与民航飞行计划关联, 可初步判断目标的属性。如目标非民航, 雷达情报与电子对抗情报关联, 可判断目标的机型等信息, 结合周边舰船的活动情况, 比对知识库, 判断目标是否为舰载机。

下面, 分析对空雷达情报和电子对抗情报关联的算法。

1.2 雷达航迹和电子对抗 (EMS) 侦察情报关联

ESM数据的特点是数据中目标辐射电磁参数 (属性) 的精度比较高, 在ESM属性数据和雷达航迹进行关联时, 如果仅仅使用方位角进行关联, 其关联成功率和正确率比较低。因为方位从传感器方向看来就是一条射线, 考虑到ESM设备的角度误差, 方位角实际上给出的是以传感器所在位置为中心的一个扇形区域, 且径向距离越大, 扫过的扇形面积就会越大。即使在目标密度不大的情况下, 也可能有多个目标落入该区域, 沿海地区的国内、国际航班和敌方目标很可能产生错关联情况。

雷达与ESM设备的关联, 属于异类传感器的关联, 实质是模糊识别的问题, 在借鉴已有成果的基础上, 系统可采用最大似然法, 并配合信息二次关联方法来达到雷达航迹与ESM信息的关联融合。位置信息误差大, 毕竟可信度高于其他信息, 所以先通过最大似然法取出可能关联的航迹集合, 并使用信息二次关联选择出最优关联航迹。[4]

(1) 最大似然法

假定ESM航迹与n个雷达目标航迹互联的先验概率相等, 则最大似然分类准则也就是最小分类错误概率准则;假定ESM方位测量误差服从独立、零均值和恒定方差的高斯分布, ESM航迹共有m个方位测量值, 则ESM航迹与第j雷达航迹关联的似然函数为

其中:θet (i) 为ESM航迹在ti时刻测得的辐射源方位值;θjt (i) 为第j个雷达航迹在ti时刻的真方位状态值;σe2为ESM方位测量误差方差。若令

使似然Λj最大, 等价与使dj最小, 因此, 在样本容量相等的情况下可以将dj作为ESM与雷达航迹关联的判别函数。若选择j*∈1{, 2, 3, …, n}, 使得

且设置门限T, 则当dj>T时, 认为ESM航迹与所有雷达无关联;否则认为ESM航迹与第j*个雷达关联。

在实际过程中, 目标方位状态的真值θjt (i) 是不知道的, 在此情况下, 应根据雷达对第j个目标的观测得到关于目标在ti时刻的方位状态估计。

取集合 中的最小值在实际应用中显然是不合理的, 在民航中敌机混淆的情况也很多见, 采用信息二次关联的方法。设定门限K, 形成条件为dj>K的新集合 , 供信息二次关联使用。

(2) 信息二次关联

首先在集合 中排除不合理雷达航迹, 排除已确认目标参数的雷达航迹。如判明目标为民航, 排除距离大于电子侦察设备探测范围的目标, 排除航向和方位线夹角不合理的目标, 机载雷达安装在机头并向前方扇面释放电磁波。所以当飞机航向和方位线夹角大于90°时, 可排除关联可能。

再根据测量得到的辐射源属性包括重频、载频、脉宽等属性参数, 还有变频方式、调制方式等, 计算综合属性相似度, 采用单个属性相似度加权方法。

设R1为有源雷达当前探测到的数据, R2为已与雷达目标航迹p关联的辐射源属性数据, 则单个属性a的属性相似度为

综合属性相似度为

其中a1, a2, …, am为辐射源的m个参数, 在集合 取sim (p) 的最小值, 应为较可信的关联结果。

该算法的主要步骤为, 查找ESM方位线扇面内所有航迹点, 计算属性相似度。如果扇面内只有一个雷达航迹, 则可直接关联;如果有多个雷达航迹, 排除不合理航迹后, 取属性相似度最大的关联。[3]

该算法的局限性是二次关联方法中雷达航迹辐射源数据较难得到, 只能通过已关联辐射源属性信息获得, 但通过排除多次关联的积累, 也可达到较好的效果。

1.3 其他情报关联方法

(1) 对空雷达情报与民航飞行情报关联

可采用二次代码信息比对, 目标点和起飞机场分析, 目标飞行高度和计划高度比对等手段, 判别雷达情报与飞行情报是否关联。[6]

二次代码是国际通用的飞机回传代码, 比对对空雷达询问的二次代码信息和飞行情报中计划的二次代码信息是否一致, 基本可以判断目标是否为同一架次。

对于雷达掌控范围机场起飞的飞机, 可以根据飞机的首点发现时间和飞行计划的起飞时间对比, 首点发现位置和机场位置比对, 距离、时间差小于门限值, 可以判断目标为同一架次。

对处于平飞阶段的飞机, 比对飞机高度和计划飞行高度, 可以作为关联的一个依据。

(2) 对空雷达情报与对海雷达情报关联

对空雷达设备发现空中目标, 对海雷达设备发现海面船只, 两者关联可判断空中目标是否为舰船起飞的飞机。主要条件有, 目标船只可起飞舰载机, 目标机型为知识库中舰载机类型, 目标发现首点在舰载机周围一定距离门限内, 目标飞行历史航迹符合知识库中的该机型活动轨迹和活动区域。

2 系统实现设想

实现沿海小区域联合目标识别系统设想如下:

(1) 建立主系统和分系统

可在陆、海、空基层部队探测传感器级别建立主系统和分系统, 用来引接该传感器的情报信息, 分别建立对空雷达主系统、电抗情报分系统、民航飞行分系统和对海雷达分系统, 各系统引接本单位传感器或民用航空通报的情报信息。

(2) 网络化信息互通

各系统间采用网络连接, 通过内部约定实现各类情报信息传递。系统信息示意如图2。

(3) 应用举例

举例说明发现识别舰载机过程。某海域系统执勤中, 对空雷达发现海面某高度某公里处有不明目标, 向其他分系统询问;对海雷达在海岸线某公里处发现大型船只编队, 民航飞行通报在该区域的国际航班, 排除不明目标为国际航班可能;同时电抗装备发现某信号, 可判断出飞机型号。根据这些信息, 雷达主系统进行多源情报的关联分析和识别, 雷达和电抗情报、民航飞行情报关联后, 结合船只活动情况, 可判断目标为某母舰起飞的某舰载机。

3 系统实验室仿真和分析

在实验室模拟一整套沿海小区域联合空情预警系统, 模拟传感器包括一部对空雷达、一部电子对抗侦测设备、一部对海雷达。信息处理系统包括一套对空雷达主系统、一套电子对抗分系统、一套民航飞行处理分系统及一套对海雷达分系统。各系统接收兵器上报的情报并解析显示, 以约定格式上报给雷达信息接收系统, 统一在对空雷达主系统关联。

设置雷达探测的系统误差为 (0.5°, 1 000m) , 随机误差 (0.5°, 500m) , 雷达基点误差为 (500, 500m) , 电子对抗侦测设备探测角度误差为5°, 对海雷达探测系统误差为 (2°, 1 000m) 。

模拟100批敌方飞机和100批国内国际航班, 目标飞行时间20min, 设定不同的航线, 具有不同的起降机场、任务企图、机型, 飞行高度和RCS不同, 模拟3次不同的想定后统计结果如表1所示。

%

4 系统优势

(1) 反应快、识别准

传感器级的多种情报联合探测, 预先通过电子侦察掌握敌方动态情况, 引导雷达进行重点方位搜索, 在有准备情况下能快速捕获目标, 通过电子对抗情报分析敌方具体装备, 能较准确地分析和判断目标性质。

(2) 提高探测能力

多兵种、军民联合探测, 对空雷达、电子对抗、民航飞行和对海雷达实现共享后, 形成了多种手段相结合, 覆盖高、中、低空的立体探测能力, 将大大提高区域预警和目标识别能力。

(3) 情报种类齐全

陆、海、空部队协作, 军民信息结合, 对空雷达、电子对抗、民航飞行和对海雷达提供信息齐全。

5 结束语

沿海小区域联合目标识别系统可部署在杂海空情区域, 联合周边的基层陆、海、空部队和民航系统, 引接对空雷达、电抗情报、飞行情报和对海雷达情报。各情报要素相结合, 首先共同发现目标, 并进一步确认目标属性、机型、任务企图、国家等信息, 通报友邻部队, 做到快速目标识别、信息共享。该系统可缩短情报查证时间, 提高协同能力, 在传感器级实现协同印证, 大大提高了沿海小区域目标识别、空情预警能力, 符合未来小规模信息化作战的趋势。

参考文献

[1]周荫清, 洪信镇.多传感器信息融合技术[J].遥测遥控, 1996, 17 (1) :16-22.

[2]何友, 王国宏, 陆大, 等.多传感器信息融合及应用[M].北京:电子工业出版社, 2007.

[3]王晓岭.数据融合系统中航迹关联和属性融合的研究[D].西安:西安电子科技大学, 2006.

[4]郭宗祥, 杨鸿铨.模糊信息处理基础[M].成都:成都电讯工程学院出版社, 1989.

[5]卢业华, 周国辉, 陈朝晖.一种雷达目标正确识别的概率模型[J].电子信息对抗技术, 2011, 26 (02) :70-73.

[6]李德智, 祝利, 王倩.雷达对抗目标信号特征研究[J].舰船电子工程, 2010, 30 (04) :28-32, 75.

区域目标识别 篇2

基于轨迹特征的预警系统目标识别

文章针对弹道导弹预警系统目标识别任务的特点,通过分析弹道导弹和卫星目标间的运动特性差异,给出了预警雷达基于最小矢径这一特征区分弹道导弹和卫星的流程,并分析了弹道导弹射程、雷达测量精度、观测时间、采样间隔等因素对此流程的影响.仿真结果表明:利用最小矢径实现弹道导弹和卫星的.区分是可行的,而且此法对雷达测量精度要求不是特别高.

作 者:董洪乐 曹敏 黎湘 胡杰民 Dong Hongle Cao Min Li Xiang Hu Jiemin 作者单位:国防科技大学空间电子信息技术研究所,长沙,410073刊 名:空间电子技术英文刊名:SPACE ELECTRONIC TECHNOLOGY年,卷(期):5(3)分类号:V4关键词:预警雷达 最小矢径 弹道导弹 卫星

区域目标识别 篇3

关键词:键盘识别,同态增晰,区域生长,最近邻算法,图像样本库,质量检查

0 引言

随着电子行业与制造业的快速发展,智能设备也在不断进驻生产车间,在降低企业人力成本与提高制造质量的同时,也为推进物联网、大数据建设做好了基础准备[1,2,3]。当前,推进设备具有人眼、人脑功能,已成为当今电子工业发展趋势。由于智能化设备的需求增大,其计算机外设键盘作为程序指令的主要输入端,其社会需求增大,产量一直居高不下[4]。而键盘表面数字字符的完整性,直接影响到智能设备的高效使用。因此,为了确保键盘制造的质量,保证键盘上的数字字符完整,需要对键盘的制造过程进行实时识别与检查。而以往主要是依靠人工识别,存在成本高、主观性强、效率低等不足。而将图像处理与模式识别等技术嵌入智能设备,则可以有效解决上述问题。

对此,诸多研究人员开发了一系列的数字识别技术,如耿庆田针对现有车牌识别方法中车牌二值化和车牌字符识别效率不高的问题[5],提出一种基于分形维数和隐马尔科夫特征的车牌识别算法,基于分形维数进行车牌的二值化处理,利用隐马尔科夫特征办法进行字符特征提取,然后利用多重分类器进行字符识别,实验结果显示算法具有很高的识别精度。戴静等人提出了基于交点特征和径向基函数神经网络的数字识别方法[6],利用交点特征对数字进行特征提取,获取水平特征分量与垂直特征分量,再将水平特征向量与垂直特征向量组合成数字的交点特征向量,然后利用径向基函数神经网络学习不同模式类别中的学习样本,学习过程完成后,利用此网络对样本进行识别。

虽然上述技术能够完成字符识别,但也存在不足:二值化处理数字图像,当采集到的原始图像较为模糊时,无法准确分割出数字;而BP神经网络训练学习数据,结构复杂,计算量大,没有很好的实时性,不适用于现场设备。

对此,本文以改善图像清晰度、提高分割精度、减少算法计算量为目的,提出了一种基于同态增晰与区域生长的键盘数字按键识别与检查技术。最后测试了本文算法的准确度。

1 本文键盘目标识别算法

在实际环境中,键盘由运动平台传送到工业相机下取像,再提交到由工控上位机数字按键视觉检查软件处理。但是,由于平台不平或车间光照不均影响,导致采集到的图像通常是模糊的,严重影响后续数字分割与识别。对此,本文引入同态增晰算法处理模糊图像,获取清晰图像。与此同时,为了精确分割键盘图像,考虑到背景颜色单一,本文嵌入全局特征,并耦合局部细节,定义了新的生长停止条件,继而改进了区域生长算法;提取出键盘图像字符后,采用NNA机器学习算法,将字符区域平均分成16份,提取区域周长、面积、形状度特征,构成特征矩阵,建立样本学习库,完成数字识别。具体算法流程如图1所示。

1.1 基于同态增晰的图像复原

在实际工程作业环境中,往往不可避免的存在光照条件不均匀、载物平台不稳定的问题,导致采集的图像画质模糊、细节不清楚,从而无法分辨目标与背景,如图2所示,键盘图像模糊,尤其是按键上数字细节难以辨认。故需要对其完成复原。在外界条件不佳时,图像灰度动态范围大,而按键目标的灰度范围小,若采用普通灰度线性变换扩展灰度级,虽提高目标反差,但扩大了动态范围,而如果压缩灰度级,虽减少动态范围,但损失了图像细节,所以采用普通灰度线性变换无法解决照度不均与图像细节的矛盾。

本文引入同态系统解决上述问题,它是服从广义叠加原理的各类非线性系统,既可使图像灰度动态范围压缩,又可使感兴趣的目标区域灰度级扩展,从而使图像清晰[7,8]。用f(x,y)代表图像,i(x,y)代表照明函数,r(x,y)代表反射函数,则有:

即灰度由照射量与反射量组成,反射量体现图像细节、纹理与边缘,当其在空间域快速变化时,其频谱落在高频区域;而照射量在空间域变化缓慢,其频谱落在低频区域。故本文利用傅里叶变换[9]将两者分开,然后再进一步同态处理。

首先利用对数运算在空间域对照明函数与反射函数完成分离:

然后通过傅里叶变换将照明函数与反射函数在频率域分开:

为了简化公式,设Z(u,v)代替FFT[z(x,y)],I(u,v)代替FFT[In(i(x,y))],R(u,v)代替FFT[In(r(x,y))],则式(2)可变为:

选择同态滤波特性H(u,v),原则是衰减I(u,v)以压缩照明量的变化范围,增强R(u,v)以提高反射量细节的对比度。故同态滤波的输出为:

完成同态滤波后,采用傅里叶逆变换将滤波后的照明函数与反射函数在频率域分开:

随后,在空间域对照明函数与反射函数进行指数运算还原:

最后将两个新函数相乘得到增晰图像:

最终完成同态增晰处理的图像见图3。由图3可知,按键数字图像细节清晰,达到了清晰化处理的目的。

部分关键代码如下:

1.2 基于区域生长的图像分割识别

完成同态增晰处理后,获取清晰的图像,接着需要把按键数字区域分割出来。区域生长法是一种串行区域分割算法,其基本思想是将具有相似性质如灰度、纹理、颜色的像素集合成区域,即感兴趣目标区域,由于图像背景灰度分布较为均衡,此情况下选用区域生长法分割,其效果较理想[10]。但是区域生长法的缺点是计算量大,而计算量由生长停止条件决定,使其分割效果不佳,存在杂质,如图4所示。对比,本文引入全局特征信息,并兼顾局部细节,改进区域生成的停止条件。具体步骤如下:

(1)由于按键数字白色与背景黑色分明,故选用图像中局部极大值作为种子像素,并采用生长准则对每个区域中的每个像素进行计算。

(2)反复执行步骤(1)时,需要指定停止条件。普通情况下采用灰度、纹理、彩色这些局部特征,但这些特征并没有考虑生长的历史,为了增加区域生长的能力,本文加入全局特征(尺寸与形状),以此改进生长停止条件,从而兼顾了全局与局部信息特征。这样不但减少了不必要的计算量,又提高了分割的准确性,不会出现过生长的现象,如图5所示。

本文引入的全局特征是周长、面积、形状度:

式中:A为生长区域内所有像素数之和,即该区域面积,f(x,y)为该区域内某像素;Z为生长区域边缘所有像素数之和,即该区域周长,l(x,y)为该区域边缘上某像素;X为生长区域形状度,即区域面积A与区域最小外接矩形面积之商。

在生长过程中,实时计算以上特征向量(面积、周长、形状因子),并与标准向量比较,在保证每个元素都小于等于标准元素的前提下,继续生长;否则,停止生长,此过程即生长停止条件判定过程:

其中,(A,Z,X)为实时计算的特征向量(面积、周长、形状因子);std为标准向量;grow为生长停止与否判断符,若该值为1时,继续生长;为0时,停止生长。

可见本文综合考虑了局部与全局特征,很好地定义了停止条件,分割效果较理想。

部分关键代码如下:

1.3 基于NNA算法的数字识别

完成数字字符分割,得到了字符区域,并将字符区域平均分成16个区域,每个区域按照式(11)~式(13)提取周长、面积、形状度构成一个4×4的三维特征矩阵。基于这样的特征数据基础,本文引入NNA学习算法[11],取一定数量典型数字字符图像,建立样本特征库,即每个数字字符对应一个三维特征矩阵标准,在后续待识别字符,同样提取出三维特征矩阵,与库中标准对比,取矩阵距离最近的标准为识别结果。NNA是平均最近邻分析,优势是构造简单,运算量小,特别是相比于神经网络[12]。其步骤为:

(1)测量每个要素的质心与其最近邻要素的质心位置之间的距离;

(2)计算所有这些最近邻距离的平均值;最近邻比率通过观测的平均距离除以期望的平均距离计算得出[10]。

(3)完成建立样本库标准,依照最近邻原则,对待识别数字与样本库对比,以最接近的字符为评判结果,相似计算准则为:

式中:di代表测试特征;dj为标准特征;Wdi,Wdj分别代表测试特征向量值,标准特征向量值;Sim为最近邻距离;i为待评判对象序号,j为评判标准序号;M为样本范围。

部分关键代码如下:

2 实验与讨论

为了直观体现本文算法的数字按键增晰、分割、识别效果,在VS2008平台上基于C++语言编程实现。部分关键实验参数如下:周长标准值为150,面积标准为450,形状度标准为0.85。同时,为了体现所提技术的先进性,将当前字符识别性能较好的算法视为对照组:文献[5]与文献[6]。

取一张成像模糊的键盘数字按键图像,如图6所示。利用所提算法与对照组技术对其处理识别,结果如图7~图13所示。

由图可知,本文算法利用同态增晰先消除了模糊度影响,见图7,然后利用改进停止条件的区域生长分割,精确分割出数字目标,并且不带杂质干扰,见图8;最后基于样本库标准与最近邻判断准则,对分割出的数字图像进行特征提取与识别,得到对数字目标的识别结果,完成按键不良检查,检查出了漏安装的不良,如图10所示,按钮9、1位置漏安置。

而对照组分割不准确、识别失败,见图11与图13,对照组未检查出1位置,并且由于分割不准,把非数字按钮判为数字按钮,最终再误判为数字按钮漏安装不良。原因是对照组算法没有考虑成像模糊对数字分割与识别的影响,使其分割不准确,进而识别失误。

为了比较三种算法(本文算法与对照组文献[5]、文献[6])的识别准确性,先挑选了600张图像,根据模糊程度由低到高分为6个等级,各取100张,分别用本文算法与对照组算法进行处理,然后统计识别率,结果如图14所示。

由图14可知,由于本文先进行了同态增晰处理,并联合了区域生成算法与NNA识别,使得本文技术的识别准确率始终高于对照组;而对照组单纯采用阈值分割二值化或者神经网络分类识别,忽略了外界条件影响,受模糊程度影响较大,故识别率低于本文算法。

然后再验证三种算法的稳定性。随机挑选600张图像,分别由本文算法和对照组算法处理,并实时统计识别率。如图15所示,本文算法具有较强稳定性,在识别率始终高于对照组的前提下,识别率波动程度远远小于对照组。

3 结论

为了解决当前键盘表面字符目标检测过程中存在成像模糊、分割不准确以及识别率低等问题,本文算法使用同态增晰缩小整体灰度范围、扩大感兴趣区域灰度级,达到图像清晰化目的。基于局部耦合全局特征停止生长,改进了区域生长算法,实现字符准确分割。最后引入NNA机器学习,以低计算量为成本建立数字字符识别模式。实验结果表明:在图像模糊的情况下,本文算法仍具有较高的识别准确率。

参考文献

[1]孙成.基于智能设备的嵌入式数据库安全性研究[D].长春:吉林大学,2015:7-23.

[2]韩威,陈渝,刘迎莉,等.一种适用于智能设备的多重操作系统架构[J].计算机工程与科学,2014,36(5):804-808.

[3]刘要华,朱珍民,叶剑.协同人机交互机制的研究与设计[J].计算机工程与设计,2014,35(2):726-730.

[4]YOUSAF M H,HABIB H A.Virtual keyboard:real-time finger joints tracking for keystroke detection and recognition[J].Arabian journal for science and engineering,2013,39(2):923-934.

[5]耿庆田,赵宏伟.基于分形维数和隐马尔科夫特征的车牌识别[J].光学精密工程,2013,21(12):3198-3204.

[6]戴静,胡钊政,白建川.一种基于交点特征的印刷体数字识别方法[J].电视技术,2014,38(13):28-30.

[7]MADHAV B T P,PARDHASARADHI P,MANEPALLI R K N R,et al.Homomorphic filtering textural analysis technique to reduce multiplicative noise in the 11Oba nano-doped liquid crystalline compounds[J].Phase transitions,2015,88(7):735-744.

[8]GÖRGEL P,SERTBAS A,UCAN O N.Mammographical mass detection and classification using local seed region growingspherical wavelet transform(LSRG-SWT)hybrid scheme[J].Computers in biology and medicine,2013,43(6):765-774.

[9]WANG Xiangyang,WANG Chunpeng,YANG Hongying,et al.A robust blind color image watermarking in quaternion Fourier transform domain[J].Journal of systems&software,2013,86(2):255-277.

[10]BAI Cuixia,JIANG Gangyi,YU Mei,et al.A micro-image fusion algorithm based on region growing[J].Journal of electronics(China),2013,30(1):91-96.

[11]赵璐璐,耿国华,李康,等.基于SURF和快速近似最近邻搜索的图像匹配算法[J].计算机应用研究,2013,30(3):921-923.

区域创新系统发展阶段识别研究 篇4

关键词:区域创新系统,发展阶段,识别模型

区域创新系统是国家创新系统的重要组成部分, 是区域经济和科技发展的基础。在区域创新系统发展的不同阶段, 教育、文化、科技资金和政府对创新系统所起的作用各不相同, 因此, 归纳区域创新系统变化特征性, 准确识别区域创新系统所处的发展阶段, 对于区域创新系统未来的战略勾画与政策选择具有重要意义。

一、区域创新系统发展阶段分析

根据地区区域创新系统的变化历程可以看出, 区域创新系统的发展过程基本可以划分为三个阶段, 并依据每一个阶段的主要特征, 将它们称为起步阶段、成长阶段和成熟阶段。这三个阶段的主要特征是地区的技术创新方式:由使用引进技术起步经改进引进技术, 最后到自主创造技术转变的过程, 即技术进步方式从依附于外部到完全自立的过程。

1、区域创新系统起步阶段。

区域创新系统起步阶段是指技术创新以生产中引入别国或其他地区的生产技术为技术创新的基本方式。引进技术包括硬技术和软技术。技术创新理论认为, 对技术输出方来说, 自己的技术被输入方使用属于技术转移和扩散;但对技术输入方来说, 由于在生产中引入了新的生产要素、新的生产方法和引进技术生产出新产品, 使用新技术仍然属于技术创新。处于区域创新系统起步阶段的地区, 区域内的生产系统不是没有研制能力就是研制水平较低, 其技术水平提高的基本做法是引进先进技术, 自行研制活动较少, 且大部分集中在区域内优势产业或特殊行业。

2、区域创新系统成长阶段。

区域创新系统成长阶段是指技术创新表现在吸收引进技术的同时具有改进技术的能力。此时, 引进技术仍然是提高技术水平的主要方式, 但是, 由于通过使用引进技术己掌握了区域外的技术和方法, 能根据当地的市场需要和生产系统要求来改进生产技术, 增强产品的性能和质量。当然, 这种渐进创新与发达国家和地区的渐进创新有所不同。处于区域创新系统成长阶段的区域所具有的改进能力是在消化区域外光进技术的基础上形成的, 是技术学习的成果。

3、区域创新系统成熟阶段。

区域创新系统成熟阶段是指区域创新系统拥有一流的产品和工艺设计能力, 具有雄厚的技术系统, 甚至还具备强大的科学系统。在区域创新系统成熟阶段, 区域的技术创新能力表现在, 技术系统通过研发能够源源不断地为生产系统提供新技术。部分学者的研究结果表明, 处于区域创新系统成熟阶段的国家和地区的R&D/GNP强度大约在2%左右。

二、区域创新系统发展阶段识别模型

区域创新系统各个发展阶段的资源投入重点和产出改进方向有很大差异。因此, 区域创新系统发展阶段的识别成为解决区域创新系统资源配置效率提高的前提条件。

笔者将使用逐步判别分析方法, 建立区域创新系统的阶段识别模型, 以便从定量角度研究区域创新系统的变化过程和特征, 进而判别区域创新系统所处的阶段, 为之后的研究和制定驱动区域创新系统发展的政策建议确定立足点。

(一) 区域创新系统发展阶段识别模型的选择

本文所使用的逐步判别分析方法是在多组判别分析基础上发展起来的一种方法, 判别准则为贝叶斯判别函数, 变量的筛选采用“有进有出”的算法, 变量按其是否重要逐步引入, 原引入的变量也可能由于其后新变量的引入使之失去重要性而被剔除, 每步的引入或剔除变量, 都作相应的统计检验, 使最后的贝叶斯判别函数仅保留重要变量。

1、附加信息检验。

附加信息检验是逐步判别法的理论基础。设有m个母体, 从m个母体中分别抽取n1, n2, ……, nm, 个样本, 每个样本有p个判别变量, 即为:

其中 , 为l组中第j个变量的均值, 为第j个变量的总均值, , 为l组第k个样本的第j个变量。

则W= (wij) 为组内离差矩阵, T= (tij) 为总的离差矩阵。

为了对m个母体建立判别函数, 需要检验:

H0:μ1=μ2=…=μm

其中, μ1=μ2=…=μm为各母体的数学期望值, 当H0被接受时, 说明区分这个母体是无意义的, 在此基础上建立的判别函数的效果不好。当H0被拒绝时, 说明这m个母体是可以区分的, 建立的判别函数也是有意义的。对于这一问题的检验, 可使用维尔克斯 (Wilks) Λ统计量:

并且, 统计量 服从F ( (m-1) , n- (p-1) -m) 分布。用它来检验在给定前p-1个指标的条件下, 增加第p个指标是否提供附加信息。

2、变量的引入和剔除。

引入变量和剔除变量都需要使用附加信息检验进行统计检验。假设计算了l步, 已选入l个变量, l+1步引入了一个新变量xr, 则需检验增加新入选的第l+1个变量后能否提供附加信息, 即检验新变量xr的判别能力。由附加信息检验准则可以得到引入变量xr的检验统计量:

其中, 。Flr服从分布F (ml, n-l-m) 。

在未选入的变量中, 选择使Vr达到最小的变量xr, 当Fr>F (m-l, n-l-m) 时, 认为变量xr提供了附加信息, 变量xr入选。

对于已入选的l个变量, 需要考虑新变量入选后对其重要性有无较大影响, 应及时剔除不能提供附加信息的变量, 剔除的检验方法与引入的方法相同。如果某一变量xr (1≤r≤m) , 使得Vr在已入选的变量中具有最大值, 并且满足:Flr≤F (m-l, n- (l-1) -m) , 则认为变量xr不能提供附加信息, 将它从判别式中剔除。

3、判别函数及判别规则。

假设最终引入了l个变量, 并得到最终变换矩阵 (wij (l) ) , 则第k组的判别函数为:

其中:qk=nk/n

判别函数建立以后, 即可对任一样本X= (x1, x2, Λ, xp) 进行判别。将X代入各组的判别函数计算得到判别函数值f1, f2, Λ, fm, 若

则样本X判属第g组。

4、判别函数的检验。

为了检验引入判别函数的l个变量区分m个组的能力, 可采用Bartlett给出的x2分布的近似式:

其中, V为Wilks统计量:

(二) 区域创新系统发展阶段判别模型的建立

1、判别集合以及指标集的确定。

根据上述对区域创新系统发展特征的分析, 确定类别集合为:G={G1, G2, G3}, G1为起步阶段、G2为成长阶段, G3为成熟阶段。

本章同样根据科学性与数据可获得性的原则, 选择R&D投入 (ERD) 、R&D人员数量 (R D T) 、科学家与工程师数量 (SCE) 、科技活动人员数量 (STP) 、专利申请量 (APP) 、专利授权量 (APU) 、发明专利数量 (AIP) 、技术合同签订数量 (ACT) 、EI、SCI、ISTP收录的科技论文数量 (PAP) 九项指标作为判别变量集合。并在建立判别模型时, 使用北京、上海、广东和浙江四个区域的数据。虽然在经济发展水平、社会经济背景等方面存在着很大的差异, 但这些区域的创新系统进程基本上都始于二十世纪八十年代末、九十年代初。

本文数据来源于1988年到2005年的各地区年鉴和《中国统计年鉴》。

2、区域创新系统发展阶段判别模型的构建。

本文利用1988年至2005年北京、上海、广东和浙江四个区域的九项指标数据。依据部分学者的分析结果, 将1988年、1989年、1990年的4个区域的12个样本作为区域创新系统起步阶段的输入数据, 将1991年、1992年、1993年、1994年、1995年、1996年、1997年、1998年4个区域的32个样本作为区域创新系统成长阶段的输入数据, 将1999年、2000年、2001年、2002年、2003年、2004年、2005年4个国家的28个样本作为区域创新系统成熟阶段的输入数据, 可以建立区域创新系统发展阶段的判别模型。经计算, 其结果如下:

(1) 判别函数的公式:

设x1、x2、x3、x4、x5分别表示R&D投入 (ERD) 、R&D人员数量 (RDT) 、发明专利数量 (A I P) 、技术合同签订数量 (ACT) 、EI、SCI、ISTP收录的科技论文数量 (PAP) , f1、f2、f3分别为区域创新系统的起步阶段、成长阶段、成熟阶段三个类别的判别函数, 将表1的判别系数代入判别函数之中, 则区域创新系统阶段判别函数的公式如下:

(2) 判别分值。将各样本数据代入判别函数, 可以计算出判别分值, 见表2。

3、判别分析模型的检验。

入选指标判别能力的检验。

逐步判别分析过程的运行结果显示:V=0.032

使用Bartlette的x2分布近似式, 计算的检验值为:

其自由度为l (m-1) =5 (3-1) =10, 它近似地服从于分布

查x2分布表有:x20.005 (10) =25.2, x2>x20.005 (10) , 说明由变量所构成的判别函数显著, 即本章所选择的变量体系具有区分区域创新系统三个阶段的能力。

三、吉林省区域创新系统发展阶段的模式识别

(一) 判别分值的计算

依据各年吉林省统计年鉴, 可以计算出吉林省各年度的判别分值, 如图1所示。

(二) 模型结果分析

首先从模型结果可以看出, 虽然向区域创新系统阶段逐步判别模型中输入了九项指标, 但模型的输出结果表明其中只有五项指标对判别结果有显著影响。这五项指标分别为:R&D投入 (ERD) 、R&D人员数量 (RDT) 、发明专利数量 (AIP) 、技术合同签订数量 (ACT) 、EI、SCI、ISTP收录的科技论文数量 (PAP) 对区域创新系统各阶段的划分具有显著作用。

其次, 判别分析一般使用非标准化数据作为输入, 本文分别使用发达地区的72个样本的指标数据和标准化数据建立了逐步判别模型, 两个模型的判别结果是完全一致的。但是由于对数据进行了标准化处理之后, 各指标具有相同的量纲, 因而在各类别判别函数中, 判别系数是各指标的重要程度的一种反映。依判别规则, 判别系数越大, 说明该指标对判别结果的影响越大。

以区域创新系统起步阶段为例, 使用标准化数据得到的区域创新系统起步阶段的判别函数为:f 1=-1 8 5.4 7 5+4 5.5883x1+0.01949x2+92.7078x3+0.0862x4+14.2834x5从判别系数可以看出, 对于区域创新系统起步阶段影响较大的指标依次为:发明专利数量 (AIP) 、R&D投入 (ERD) 、技术合同签订数量 (ACT) 、E I、S C I、I S T P收录的科技论文数量 (P A P) 、R&D人员数量 (R D T) 。

再次, 从表3和图1中可以看出, 区域创新系统起步阶段的判别分值呈现逐渐下降的趋势, 区域创新系统成熟阶段的判别分值呈现逐渐上升的趋势。在区域创新系统起步阶段, f1与f2的差值逐渐缩小, 直至到成长阶段f2开始大于f1, 并在以后各阶段f2与f1的差值逐渐扩大。在区域创新系统的成长阶段, f2与f3的差值逐渐缩小, 直至到成熟阶段f3开始大于f2。可见, 在某一阶段的发展过程中, 本类判别值与下一类判别值之间的差距呈逐渐缩小的趋势, 各阶段判别分值的变化反映了区域创新系统逐步变化的过程。

最后, 根据实证研究的结果, 吉林省区域创新系统处于起步阶段, 区域创新系统的发展应遵循起步阶段的发展规律。表4显示:起步阶段和成长阶段的判别分值的差距呈现逐年缩小的趋势, 说明吉林省区域创新系统正在不断向前发展, 逐渐从起步阶段向成长阶段迈进。

参考文献

[1]、Liu Shun-zhong, Guan Jian-cheng. The evalu-ation on the innovating performance of Regional Innovation System[J]. Chinese Journal of Manage-ment Science, 2002, 10 (1) :75-78

[2]、Research Team on Science and Technology development, The report of the Science and Tech-nology development of China (2000) [R]. Peking:Social Science Press, 2000

[3]、Guan Jian-cheng, He Ying. The performance of Chinese regional system evaluation based on data envelopmenta nalysis[J].S tudiesi nS cienceo fS cience, 2005, 23 (2) :265-272

[4]、Li Guangjin.Evaluating relatively efficiency input-output DEA[J]. Journal of Management Sciences in China , 2001, 4 (2) :199 —218. (inC hinese)

[5]、Nasierowski.W, Arcelus F.J., On the ef-ficiency of national innovation systems[J], Socio-Economic Planning Sciences, 2003, vol (37) :215234

[6]、Dong Li-ya. The concerned problem and the situation of the indictors of Science and Technology in China[J], Science and Technology Management Research, 2001, 10 (1) :34-39

复杂型腔加工区域的自动识别 篇5

型腔加工问题是数控编程中的常见问题。目前,大多数CAM软件在定义型腔加工区域时,多采用交互选取的方式。这种方式的最大优点在于其灵活性,用户可以任意地指定整个型腔或部分型腔,对于简单型腔比较适用。但这种方式在处理岛屿众多、嵌套关系复杂的型腔时,则存在明显的弊端,主要弊端有:①操作繁琐,增加了数控编程人员的负担。若型腔由大量的面片拼接而成,且存在复杂的嵌套关系,则定义型腔加工区域的过程显得非常复杂。②大大增加了出错的可能性。交互选取型腔时,十分容易发生漏面的情况,如果发生这种情况,势必会导致刀轨的异常。

为了弥补上述定义复杂型腔加工区域的不足,依托实际项目,本文提出了一种简单有效的加工区域识别方法。该方法能自动识别复杂型腔的加工区域,无需用户直接参与,简化了操作,提高了型腔加工数控编程的效率。最后,通过仿真验证了该方法的正确性。

1 算法描述

型腔加工一般采用Z-level法,即分层切削法,它根据分层切削深度依次用垂直于刀轴的平面去截曲面型腔,在每一层上规划刀轨。对每层的加工区域则一般采用行切或环切的方法进行填充[1]。该过程主要由以下几个步骤构成:①截平面和设计模型求交,计算初始轮廓环;②构建加工区域;③构建轨迹元素(常用的轨迹元素有轨迹环和轨迹行);④连接轨迹元素。本文所阐述的内容主要是其中的第2个步骤。从图1可以看出,加工区域的识别是后续步骤的基础,该步骤将直接关乎到后续步骤能否顺利进行。

目前,出于对轨迹生成效率的考虑,型腔模型一般采用网格模型或Z-map模型表示[2],因而,采用Z-Level法截取的交线可看作是简单多边形的集合,这些简单多边形在本文中被称为初始轮廓环集合{L0,L1,…,Ln}。本文以图2所示的初始轮廓环集为例阐述整个方法。该算法的基本思想是:首先,按环的嵌套关系,将初始轮廓环组织成轮廓环树;然后,根据轮廓环节点在轮廓环树中的深度确定材料去除区域;进而,对材料去除区域的边界作偏置,从而获得加工区域。

构建轮廓环树是该方法的难点,因为获取的初始轮廓环是从几何角度描述的,环与环之间没有任何的联系。为了建立这种联系,该方法首先构建了环关系矩阵,然后通过将环关系矩阵变形为环亲属关系表后比对血缘关系的方式,完成了轮廓环树的构建。该方法的算法流程如图3所示。

1.1构建环关系矩阵

环关系矩阵的构建是建立在获得环与环的关系的基础上的,在得出环与环之间的关系后,即可将结果组织成图4所示的环关系矩阵。

环关系矩阵构建子算法名为BuildRelationMatrix({Li}),流程如图5所示。输入为平面轮廓环集{L0,L1,…,Ln}。

输出为环关系矩阵Mrel。

在上述算法中涉及的环的关系判断问题,可以参考文献[1]所述的方法,这种方法能判断在内、包含、相交、分离、比邻等多种位置关系,但这种方法是基于平面布尔运算的,计算量较大。本文方法采用了一种较为简单的环判别子算法,该算法只能判别图6所示的3种位置关系,但对于求交正确的轮廓环而言,也只可能出现这3种情况。该子算法的基本思想是:分别获得环LiLj最右边的顶点Vright_iVright_j,令Vray-f ire为Vright_iVright_j中靠左的点。然后自Vray-f ire引出一条射线与非Vray-f ire所在环求交,交点数如果是偶数,则为图7a所示的分离关系;交点数如果为奇数,则为图7b和图7c所示的在内和包含关系。但有3种特殊情况需要处理:①共有射线穿过点的两边在射线的两侧,如图7d所示,在此种情况下,交点数加1;②共有射线穿过点的两边在射线的同侧,如图7e所示,在此种情况下,交点数不变;③一边与射线共线,如图7f所示,此种情况可以把共线边看作是以无穷小的角度逼近射线的边,因此这种情况可以看作是射线与边相交的情况,交点数应加1。该子程序的描述如下:

EvaluateLoopsRelation(Li,Lj)

1:ViLi的顶点,VjLj的顶点。

2:Vright_i←maxi∈{1,2,…,n}(x_value(Vi)),Vright_j←maxj∈{1,2,…,n}(x_value(Vj)),Vray-f ire←min(x_value(Vright_i),x_value(Vright_j))。

3:获取从Vray-f ire沿X轴方向射出的射线的选中集S。射线选中集中的元素可能是边,也可能是点。

4:交点数int_count←0,射线射出环Lray_f ire←Vray-f ire所在环。

5:While(S中下一个元素En存在)

6: Then If (En是边)

7: int_count++。

8: Else En是顶点

9: Then判断共享该顶点的两条边与射线的关系。

10: If (两边在射线的两旁或有一边与射线平行)

11: Then int_count++。

12:If(int_count是偶数)

13: Then LiLj为分离关系。

14:Else If (Lray_f ire是Li)

15: Then LiLj内。

16: Else Li包含Lj

经过上述子算法处理后,图4所示的环关系矩阵就建立起来了。

1.2构建环亲属关系表

为了使后续算法更为方便地引用环间关系,本方法将环关系矩阵转化为如图8所示的环亲属关系表。

1.3构建轮廓环树

在环亲属关系表确定后,就可以通过比对环的血缘关系来构建轮廓环树,该子算法的流程如图9所示。环轮廓环树构建子算法名为ConstructTree(Lcur)。输入为根节点Lroot。输出为轮廓环树T

该子算法中要用到查找根节点的子程序。查找根节点的过程实际上是寻找最外层轮廓环的过程。在环亲属关系表中,如果一个环没有父环,那么这个环就是树的根节点,即轮廓环的最外层环。值得注意的是,上述子算法只描述了一棵树的构建过程,但在实际中可能找到多个根节点,即能生成多棵轮廓环树,轮廓环树就组成了轮廓环森林,轮廓环森林完整地描述了整个截面层轮廓环的信息。本文实例经过上述子算法后就形成了图10所示的轮廓环森林。

1.4构建材料去除区域

在轮廓环树中,如果把节点深度为奇数的节点作为外边界,把它的子节点作为内边界,那么这些环能界定出一个区域,这个区域称为材料去除区域,如图11所示。构建材料去除区域的子算法名为CreateTreeInitialRegion(Lcur)。输入为轮廓环树根节点Lroot。输出为材料去除区域集S。算法描述如下:

1:If(Lcur的节点深度为奇数)

2:Then构建材料去除区域R,添加RS中。其中R的外环为Lcur,R的内环为Lcur的子节点环集Ssons。

3: For i←0 to Lcur的子节点的个数。

4: Lson←Lcur的第i个子节点。

5: CreateTreeInitialRegion(Lson)。递归该过程,从而完成所有材料去除区域的建立。

经过上述子算法后,本文实例共形成了R1~R8这8个材料去除区域。

1.5构建加工区域

加工区域为最终的轨迹填充区域,一般采用将材料去除区域偏置间隔σ(σ为刀具半径与加工余量之和)的方法,即材料去除区域的外环向内偏置σ,内环向外偏置σ。该子算法涉及的环的等距偏置问题和平面区域的布尔运算问题可以参考文献[3,4]的方法,平面区域的布尔运算问题可以参考文献[5,6]所述的方法。加工区域构建子算法名为CreateMillingRegion(R)。输入为材料去除区域R。输出为加工区域集S。该子算法的具体步骤如下:

1:获取材料去除区域R的外环Lexternel和内环集Sinternel。

2:计算偏置外环集Soff_externel。将Lexternel向内偏置σ,可能出现偏置环断裂为多个环的情形。

3:For i← 0 to Sinternel的内环的个数。

4:偏置Sinternel中第i个内环。添加结果到偏置内环集Soff_internel。

5:S←BooleanSubtract(Soff_externel,Soff_internel)。平面布尔减运算计算加工区域集

经过该子算法后本文实例就形成了图12所示的MR1~MR8这8个加工区域。

2 实验

该加工区域识别方法已经在WindowsXP、CPU 1.84GHz、内存1GB的系统环境下,使用ACIS+Hoops开发平台实现。下面通过两个实例,说明本方法的有效性。

实例1 自制零件加工区域识别实验。为了验证算法的有效性,自制了图13a所示的包含多岛屿和复杂嵌套关系的型腔。图13中的截面轮廓由是Z=23.0mm的截面截得。用本方法计算出的加工区域如图13b所示,图中深色区域即为自动识别出的加工区域。图13c所示的是采用 Zig-zag行切轨迹填充加工区域的结果。

实例2 遥控器前盖模具加工区域识别实验。为了体现该方法的实用性,该方法采用了图14所示的遥控器模具, 图中的初始轮廓采Z=20.84mm的截面截得。用该方法计算出的加工区域如图14b所示,图中深色区域即为自动识别出的加工区域。图14c所示的是采用环切轨迹填充加工区域的结果。

实验结果如表1所示,实验结果表明该方法能有效地识别型腔的加工区域,为后续轨迹生成步骤创造了条件。

3 结束语

针对交互式定义型腔的不足,本文提出了一种型腔加工区域自动识别方法,该方法能有效解决采用Z-Level法加工型腔时加工区域的定义问题。该方法简单实用,避免了交互定义型腔的不足,简化了用户操作,提高了数控编程效率。该方法不仅能用于型腔加工,也可应用于快速成形等领域,有广泛的适用性。

参考文献

[1]安鲁陵.基于ACIS几何平台的CAD/CAM软件开发的关键计算研究[D].南京:南京航空航天大学,2001.

[2]Park S C,Choi B K.Boundary Extraction Algorithm for Cutting Area Detection[J].Computer-aided Design,2001,33(8):571-579.

[3]Held M,Lucacs G,Andor L.Pocket Machining Based on Contour-Parallel Tool Paths Generated by Means of Proximity Maps[J].Computer-aided Design,1994,26(3):189-203.

[4]Choi B K,Park S C.A Pair-wise Offset Algorithm for2DPoint-sequence Curve[J].Computer-aided Design,1999,31(12):735-745.

[5]钱晓峰,安鲁陵.二维图形的集合运算算法研究[J].南京航空航天大学学报,2001,33(1):371-40.

区域目标识别 篇6

1 目标区域提取

基于视觉的食物识别系统中,需要通过摄像头获取食物图像,但在拍摄的食物图像中,食物并不会完全填满整幅图像,存在部分非目标区域。因此,首先需要对图像中的食物区域进行提取,使识别更加有效。为快速提取食物区域,采用区域边缘投影的方法提取目标区域。如图1(a)所示,该图像存在部分非目标区域。一般情况下,摄像头拍摄的食物,如肉、菜、米饭等存在较多的纹理,且容具多为圆形或方形,食物区域一般包含在纹理区域的最小外接圆内。因此,设定包含较多边缘信息的圆形区域为食物区域。

首先,输入一幅大小为350×320的彩色图像I,如图1(a)所示,通过灰度化和Canny边缘检测,获取其边缘图像,如图1(b)所示。然后,分别对边缘图像进行竖直方向和水平方向投影[3],得到如图1(c)和图1(d)所示的投影波形图,图中虚线为获取食物区域的阈值,X1和X2分别为候选食物区域最小横坐标和最大横坐标;Y1和Y2分别为候选食物区域最小纵坐标和最大纵坐标。食物区域竖直投影阈值为Trv,水平投影阈值为T〗rh

其中,sum(·)是求矩阵每一列的和的函数;median(·)是求向量的中值的函数。

由波形图可知,在[X1,X2]和[Y1,Y2]范围内,边缘投影值相对较高,因此,目标区域主要集中在该范围内。最后,为获取最终的目标区域,如式(4)所示,以[Cx,Cy]为原点,Rr为半径获取图像的圆形区域。如图1(e)所示,为获取的最终的食物区域Iroi。

2 食物种类识别

根据食物识别系统的实际需求,可选择每幅图像中食物种类的个数。本文算法主要针对每张图像中只有一类食物和每张图像中有3类食物。由于HSV颜色空间和Lab颜色空间受亮度影响较小,更符合人类视觉特点,各个分量相对独立,且易于彩色分割[4,5],因此,本文基于Lab颜色空间对食物进行聚类分割,再利用基于HSV颜色空间中的H、S和V分量的区域特征识别食物的种类。

(1)对食物区域聚类分割。将如图1(e)所示的目标区域彩色图像Iroi的RGB颜色空间转化到Lab颜色空间,如图2(a)所示,再提取Lab颜色空间中的a和b分量Iab。然后,设置聚类个数n,采用K-means[6]算法对a和b分量聚类分割,将目标区域分割成n类区域,得到聚类分割图像,如图2(b)所示。为获取各个子区域的颜色信息,按各个聚类的子区域的标记结果,依次得到RGB空间下的子区域

其中,为分类后的子类区域的RGB图像;

(2)统计各个子区域的颜色特征。为获取各个子区域有效的颜色特征,首先将子区域的彩色图像∑i进行灰度转换,并通过自适应阈值方式,将子区域的灰度图像二值化,得到子区域二值图像B∑i。同时,该过程可滤除基于Lab颜色空间忽略亮度信息聚类产生的干扰。图2(c)为子区域的彩色图像,图2(d)为二值化图像,由图可看出,该过程滤除了图2(c)中部分暗绿色、褐色等颜色区域的干扰。

然后,充分利用HSV颜色空间受亮度影响小、便于物体分割等特点,将子区域∑i的RGB颜色空间图像转化为HSV颜色空间图像,并根据二值化结果,获取子区域中的待识别的食物区域[7]。

最后,获取每个子区域的自身特征,包括HSV颜色空间中的H、S和V分量比例,子区域面积等,记为

其中,Ai为∑i中待识别食物区域的面积;Hi、Si和Vi分别为∑i中待识别食物区域H、S、V分量的比例;

(3)子区域食物类别识别。主要针对肉类、素菜和米饭3大类食物进行识别,这3类食物具有不同的颜色特征,如图3所示,分别统计了20幅不同的肉类、素菜和米饭区域图像的H、S、V分量的比例,图3(a)、图3(b)和图3(c)分别为H、S和V分量的比例波形图,实线代表肉类,虚线代表素菜,点画线代表米饭。图中各类食物的Hi、Si和Vi具有明显差异。图3(a)中,肉类食物的Hi明显低于素菜;图3(b)中,米饭的Si明显低于肉类和素菜;图3(c)中,米饭的Vi值普遍较大,其均值明显高于肉类和素菜,且肉类和素菜Vi值均在0.9以下。因此,可以通过每类区域自身特征进行食物种类的识别[8]。

则食物类别识别准则如下:素菜判别规则

米饭判别规则

肉类判别规则

经过大量的实验及统计,各参数取值为:λ1=0.13,λ3=0.125;μ1=0.2,μ2=μ3=0.275;ν1=0.8,ν2=0.65,ν3=0.85。

下面以图1(a)所示的食物图像为例,对其中的食物类别按照上述判别规则进行识别,得到如图4所示识别结果,图4的顶部文字为识别的该类区域食物的种类。

3 实验与分析

为验证本文算法的性能,选取30幅多类食物图像和30幅单类食物图像构成图像库,并将图像大小设置为350×320。其中,多类食物图像中每幅图像包含3类食物;单类食物图像中有10幅米饭图像,10幅肉类图像,10幅素菜图像。由于一般食物类别识别系统是在较为固定的环境中,因此,在对食物类别的识别时,摄像头拍摄环境较为稳定,待识别的食物图像受到外界干扰较小。

本文的实验是基于Windows 7的64 bit系统、Matlab2014(a)软件平台下进行的算法测试。针对单类食物图像的识别进行实验时,聚类个数选取n=1或n=2。对30幅单类食物图像进行实验,如图5所示,第1行为食物原图,第2行为n=1时识别的结果,第3行为n=2时识别的结果。图5(a)、图5(b)和图5(c)分别为识别的米饭、肉类、素菜图像的结果。由图5可看出,在不同容具中,n=1和n=2都可以正确识别出食物类别,但n=2时,食物区域提取及类别更加精确。针对多类食物图像,取n=3~7对30幅图像进行实验。部分实验结果如图6所示,第1行、第2行和第3行图像分别为n=3、5、7的实验结果。由图6可知,该算法可以准确识别食物种类,但当n=5时,食物的分割及子区域所含食物的类别更加准确。

为更充分的分析算法的性能,对算法进行了准确率和运行时间的统计,分别统计了不同容具中的单类食物和多类食物图像取不同聚类值时的准确率、平均运行时间、最大运行时间、最小运行时间,统计结果如表1所示。通过对比可知,对于单类食物图像,虽然n=1的运行时间<n=2的运行时间,但n=2时的准确率及分割效果相对较好,且两者时间相差较小,均可以满足实际系统对算法速度的要求。因此,针对单类食物识别时,取n=2效果较好。对于3类食物图像,随着n值的增加,运行时间也相应的快速增长,但在n=5和n=7时,算法的准确率相当,因此,充分考虑算法的速度和准确率,针对3类食物识别时,取n=5可以得到较好的效果。

为证明本文算法的适用性,在选取的60幅数据库中,增加了如图7所示的不同拍摄角度及不同容器中的食物图像。针对不同类型的图像进行识别实验,图7所示的不同类型的食物图像均识别正确,其结果表明:算法受到图像的拍摄角度、容器的形状及颜色影响较小。

4 结束语

本文利用Lab和HSV颜色空间的特点,通过统计区域颜色特征,提出了一种食物类别识别的有效算法。复杂度低,通过大量实验测试,算法的识别效率及准确率较高,可适用于不同类型的容具,通用性较好,该算法在食物识别系统中有较高的使用价值。但该算法也存在部分不足,需要深入研究及改进。如图8(a)所示,算法在分割时仍不能较好地将食物容器分离出去,但对识别结果的影响较小;且算法在分割及识别时,会受到图像非目标区域的干扰,如图8(b)所示,在非目标区域也存在较多的纹理,无法准确提取目标区域。此外,针对自选餐厅自助结账的饭、菜和肉类食物识别的应用系统是以后研究的重点。

摘要:针对自选餐厅结账中人工计价的效率问题,文中提出了一种基于颜色特征的食物类别识别算法。该算法通过边缘投影提取目标区域,再基于Lab颜色模型对食物图像聚类分割,利用HSV颜色模型获取各类子区域的颜色特征,并基于区域颜色识别食物的种类。分别针对1类和3类食物的各30幅图像进行了仿真实验和统计分析。结果表明,算法识别准确率可达95.6%,识别速度最快只需0.119 s。

关键词:食物识别,颜色特征,目标区域,食物种类

参考文献

[1]李龙龙,庞达,王新欣.一种食物识别方法、装置及系统,中国:201410464419.2[P].2014-09-12.

[2]厦门美图之家科技有限公司.一种基于图像的食物信息提供方法,中国:201410273492.1[P].2014-06-18.

[3]李勇,丁伟利.基于暗原色的农机具视觉导航线提取算法[J].光学学报,2015,35(2):221-228.

[4]曹秀燕.基于单幅图像的三维空间关系推理研究[D].秦皇岛:燕山大学,2013.

[5]丁伟利,李勇,高晓阳,等.一种基于新型标签识别的购物导航系统[J].光电工程,2015,42(1):51-57.

[7]孙维禄,赵敏.彩色图像中射流轨迹提取算法的研究[J].电子科技,2011,24(3):27-30,37.

基于目标跟踪的群聚行为识别 篇7

关于群体行为识别的研究方法主要有3类: (1) 基于目标的方法。该类方法将群体考虑成由单个目标组成, 群体行为的识别就是在单个目标检测、跟踪的基础上进行识别, 这种方法适用于背景环境较为简单、目标之间没有严重的遮挡的情况。比如, 国内采用的目标提取、多人跟踪方法, 可在简单的场景中同时跟踪十几人, 从而判断是否存在异常情况。 (2) 从整个监控场景的角度分析, 提取场景中特别的信息特征。通常提取的特征有纹理、梯度和光流特征。目前, 国外采用较多的是建立模型的方法, Andrade等人从视频中提取出光流作为特征信息, 并采用基于隐马尔科夫模型 (HMM) 的检测方法检测群体中的紧急或异常事件;Rahmal等人采用纹理作为特征, 建立了异常行为模型, 可识别群体异常行为。 (3) 将上述2种方式结合起来, 既可分析整个监控场景, 又能跟踪单个目标。在该方法中, 可提取纹理光流等特征, 并建立群体异常行为模型, 适用于环境较为复杂的场景, 对外界环境的要求不高, 但是从实际应用的角度看, 其算法过于复杂, 不利于实现。基于目标跟踪的方法, 对视频中的每个个体都有较好的跟踪和状态记录, 既可以判断单个目标的行为, 也可以识别多个目标间的群体行为, 且基于目标识别算法, 相比于现有的视频监控平台而言更容易实现。因此, 本文主要提出了一种基于目标跟踪的群聚行为识别算法。

1 运动目标的跟踪

人体行为分析是指对视频序列中的运动人体进行检测、跟踪、理解和识别其行为。整个处理步骤如图1所示。目标检测、目标跟踪是实现行为理解和识别的基础, 也是需首先研究的任务。

1.1 多传感融合思路的目标跟踪

常用的目标跟踪算法有帧差法、Kalman滤波、模板匹配法和Mean Shift跟踪算法等, 大体上可分为基于运动分析的方法和基于图像匹配的方法。基于运动分析的方法计算速度较快, 但当背景环境较复杂且稳定性较差时, 容易出现跟丢目标的现象;基于图像匹配的方法在目标有平移时可获得较好的处理效果, 对图像噪声和光照变化有一定的鲁棒性。

本文通过结合运动分析与图像匹配方法, 提出了一种多传感融合思路的目标跟踪算法。模板匹配与Cam Shift结合可简洁、快速地跟踪目标, Cam Shift的每一帧可不断调整搜索窗口的大小, 模板匹配的模板大小也会随之改变, 从而增强了匹配的可靠性。同时, Kalman滤波可实现目标位置的预测, 可解决目标运动过快、有少许遮挡引起的问题。主要跟踪步骤如下。

第一步, 确定要跟踪的目标。确定跟踪目标在当前帧中的位置坐标 (n Center X, n Center Y) 、跟踪目标的大小 (n Half Width, n Half Height) 和初始化搜索模板的宽度和高度 (m_Template W, m_Template H) 。

第二步, 初始化模板匹配的模板、Cam Shift跟踪的色彩概率分布图和滤波器。

第三步, 根据前一帧得出的运动目标的位置和大小, 在稍大范围内使用帧差法计算一个新目标的位置, 可用矩形框 (m_Diff Rect) 表示。

第四步, 采用模板匹配跟踪算法, 搜索当前帧中与参考模板最匹配的图像区域的位置 (n Center X1, n Center Y1) ;根据跟踪目标在最近15帧内的运动轨迹信息, 运用Kalman滤波器预测出目标在当前帧中可能出现的位置 (n Center X2, n Center Y2) ;采用Cam Shift颜色跟踪法, 根据前一帧确定的目标窗口的大小和色彩概率分布图, 找出目标在当前帧中的位置 (n Center X3, n Center Y3) 和调整后的窗口大小 (n Half Width, n Half Height) 。

第五步, 计算模板匹配、Kalman滤波和Cam Shift跟踪预测出的运动目标中心位置与帧差法计算出的运动目标中心位置的偏移 (ddist1, ddist2, ddist3) , 剔除与帧差法检测结果相差较大的结果。

第六步, 针对每一种特征得到的目标位置结果, 计算中心目标区域及其周边背景区域的概率分布图像直方图, 根据中心直方图和周边直方图的差异计算每种特征在确定目标位置时所占的权重;实现跟踪过程中的自适应调整权重;使用加权等方法融合步第四步中的位置坐标, 得到当前帧目标跟踪的结果 (n Center X, n Center Y) 。

第七步, 如果Camshift跟踪有效, 则使用Cam Shift跟踪窗口的大小, 并作为新目标的大小, 否则, 以帧差法得到的结果作为新目标的大小。

第八步, 更新跟踪目标的大小、模板匹配的模板和目标区域的颜色概率分布图, 并不断重复第三步至第六步, 以实现运动目标的跟踪。整个流程如图2所示。

1.2 多目标跟踪

采用多线程的方法可实现多目标的跟踪, 每个目标的档案会被记录在目标池中。多目标跟踪流程如图3所示。

视频帧中的每一个前景区域都包含了其中心位置的坐标、长度、宽度、面积和轮廓等数据信息, 可使用最邻近法对帧与帧之间的数据进行数据关联。在目标池中查找中心位置与目标数据n中心位置最接近的一个目标, 如果目标数据n与目标池中所有的位置坐标距离都超过了固定阈值, 则判断该前景区域为一个新目标, 进而在目标池中为该目标建立目标档案, 包括目标位置、目标大小、匹配模板、颜色概率图和最后活跃时间等数据, 并更新目标池。否则, 将使用多传感融合算法对该目标进行跟踪, 跟踪结束后更新目标池。在每一帧结束时, 对整个目标池进行遍历, 查找并删除长时间没有活跃的目标数据后, 开始下一帧的目标跟踪。

图4为对视频中的2个人同时跟踪的效果, 依次为视频中的第170帧、179帧、184帧和190帧, 实现了同时对2个目标的跟踪, 跟踪效果较好。

2 群聚行为的识别

2.1 轨迹拟合

多传感融合目标跟踪方法可以得到目标在每一时刻的位置信息, 连接这些位置坐标可得到目标的运动轨迹。原始运动轨迹是不平滑的, 且不能用一个合理的数学公式表达, 这就需要拟合当前的轨迹, 使其变得平滑, 并能用一定的规律描述。本文中采用二次B样条拟合目标的运动轨迹。

B样条曲线是分段定义的, 可定义1个m+1段n次的参数曲线, 顶点为Pi (i=0, 1, 2……, m+n) 。则:

式 (1) 中:Pi, n (t) 为第i段n次B样条曲线段 (i=0, 1, 2……, m) , Bk, n (t) 为n次B样条基函数, 也称为B样条分段混合函数。

本文为了简化计算复杂程度、提高效率, 使用二次B样条拟合目标轨迹。在二次B样条曲线中, n=2, k=0, 1, 2, 分段表达式为:

采用多特征融合目标跟踪技术, 对视频中出现的多个相互靠近、没有遮挡的人进行跟踪, 得到每个人的运动轨迹 (Cen X[i], Cen Y[i]) ;将目标的轨迹分段, 从当前最新的目标位置开始, 每次向前选取40帧的一段轨迹值拟合为一条曲线, 拟合出的目标运动轨迹结果如图5所示。在图5中, (a) 中的红色曲线为原始轨迹, (b) 和 (c) 中的绿色曲线为经过二次B样条拟合的轨迹。

2.2 轨迹预测

分段二次B样条曲线是一条抛物线, 由m个顶点定义的二次B样条曲线, 实质上是m-2段抛物线 (相邻3点定义) 的连接, 并在接点处达到一阶连续。

基于二次B样条曲线具有的几何性质, 实验中采用了距离当前位置最近的分段二次B样条抛物线模拟目标当前的运动趋势, 以达到预测目标将来的运动轨迹的目的。图6为分别对该段视频中2个目标的跟踪和轨迹预测, 其中, 绿色曲线为前一段时间内目标的移动轨迹;蓝色曲线为使用分段二次B样条抛物线拟合得到的目标预测轨迹。

2.3 目标运动方向的分布特性

在发生群聚事件时, 虽然多个目标的运动方向杂乱无章, 但是, 有向一个共同方向运动的趋势, 即运动区域趋于集中。统计目标的预测轨迹在图像中的分布特性, 可实现目标是否有集中运动趋势的检测。主要步骤如下。

第一步, 将整个图像按照一定的大小均匀划分为多个小块。如果整个视频图像的大小为320×240像素, 划分出的每个小区域大小为20×20像素, 则会产生16×12个小块, 并为每个小块设置一个聚集程度系数Ci, j。

第二步, 在一帧图像中, 统计目标预测轨迹经过各个小块的次数, 有目标地预测轨迹经过某个小块时, 便进行了1次累加, 累加和越高的, 则说明有多个目标将来到达该区域的可能性越大。在此情况下, 可判断在某一帧中是否有多个目标朝一个方向集中运动的趋势, 累加和最高的小块是最可能发生聚集的位置。

第三步, 使用Ostu算法, 对所有小块的累加和进行阈值分割, 并在每一帧中自适应调节找到1个合适的分割阈值Tc。

第四步, 将阈值Tc与每个小块的累加和对比。如果某个小块 (i, j) 的累加和大于阈值Tc, 则表示此小区块是可能发生聚集的位置, 聚集程度系数Ci, j递增;当连续Tf帧某一个小区块都是可能发生聚集的位置, 即聚集程度系数Ci, j≥Tf时, 判断可能会发生群聚事件, 并发出警告。整个实验流程如图7所示。

3 实验结果

该实验中选择的视频是在校园环境中自行拍摄的群聚行为, 视频中目标之间的遮挡不是很严重, 可以实现多目标跟踪。图8为对多目标进行跟踪、轨迹拟合和轨迹预测的结果, 目标的预测轨迹随机分布在各个小块中。

图9为对群聚事件检测得到的结果, 每一行的第一幅图为对目标轨迹进行拟合和预测得到的结果;第二幅图为统计该帧中预测轨迹在图像中分布特性的效果图, 图中像素值越高、图像越亮的小块表示目标轨迹经过此处的次数越多, 此小块发生聚集的可能性也越高。

第267帧、295帧和306帧时图像的第11行9列连续25帧以上累加和超过了阈值, 即C11, 9>25, 判断为已发生群聚事件;第276帧、286帧时第10行第9列和第11行第9列中各有1个小块被标记为白色, 表示正在发生群聚事件。

4 结束语

本文针对日常生活中常出现的群聚事件, 提出了基于目标跟踪的群聚事件识别方法。该方法在场景中运动目标数较少时, 能准确识别群聚事件。然而, 对于背景环境较为复杂且目标过多的情况, 还需要进一步优化目标跟踪算法和识别算法, 这些将在后续的工作中进一步展开。

参考文献

[1]N.Haering, P.Venetianer, A.Lipton.The evolution of video surveillance:an overview[J].Machine Vision and Applications, 2008 (19) :5.

[2]钟徳华, 夏翠艳, 宋启敏, 等.多目标跟踪算法的研究与应用[J].计算机测量与控制, 2008, 16 (2) :846-848.

[3]高峰, 雷志勇, 易娟.基于模板匹配的目标跟踪技术[J].计算机应用, 2008 (10) :34-36.

[4]谢之宇, 蒋晓瑜.基于多线索融合的目标跟踪算法研究[J].计算机技术与发展, 2011, 21 (3) :125-131.

区域目标识别 篇8

基于视觉的手势识别由于受限于当前计算机视觉技术发展现状,对手势的精确识别、减小光照条件以及其他因素的干扰是一个难点,而在复杂背景下对手势进行一个精确的描述则更加困难,目前存在的难点主要包括以下几个方面[1]:

(1)对复杂背景下的手势进行精确的分割。复杂的背景包括光照的变化、类似的颜色以及多手势出现等,都会对正确手势分割产生一定的干扰。干扰严重时,甚至会导致分割失败。

(2)要使手势能更多样化,需要有双手同时识别跟踪,这需要在Camshift算法上加以改进,实现多目标跟踪,Camshift算法是基于HSV颜色空间[2],而人手颜色是一样的,在两手同时进入时一定会出现混淆无法辨别,加之人脸、胳膊的肤色和手是一样的,在这些肤色同时进入时Camshift无法定位精准,甚至出现跟踪错误,所以要基于肤色来实现Camshift是不行的。

文中给出一种基于Camshift多目标手势识别,前提是要求两只手戴不同颜色的普通手套加以区分实现两手同时识别。优点是能实现两只手同时识别,不容易和肤色例如胳膊和人脸发生混淆,普通手套不像带有传感器的手套价格昂贵、携带不便,这是基于视觉的手势识别,具有视觉识别的优点,也能达到良好的跟踪和定位效果。

1 手势识别关键技术及流程

基于视觉手势识别的一般流程,如图1所示,首先,定义两只手套的颜色,系统通过USB摄像机获取视频图像,系统检测到具有这两种颜色或其中一种进入时,则把手势从图像中分割出来,然后选择合适的手势模型进行分析,最后对手势进行识别。

2 手区域分割

2.1 常用的色彩模型

为有效地将人手区域从整个图像中分割出来,需要建立一个合适的手势模型,这个手势模型要适合需要的颜色模型,而且在光照变换不强的时候也能起到一定的兼容性,在进行手势分割前,有必要了解一下色彩空间,常用的色彩空间有[3]:

(1)RGB颜色模型。人眼所见的各种色彩是因为光线有不同波长所造成的,人眼对其中3种波长的感受最强烈,只要适当调整这3种光的强度,就可以让人感受到几乎所有的颜色,这3种颜色称为光的三原色。

(2)HSV颜色模型。HSV色彩空间是根据色彩的3个基本属性:色相、饱和度和亮度确定颜色的一种方法。色相H是色彩的基本属性,就是平常所说的颜色名称,如红色、黄色等,取0°~360°的数值。饱和度S是指色彩的纯度,越高色彩纯度色彩越醇,低则逐渐变灰,取0~100%的数值。明度V也叫“亮度”,取0~100%。

2.2 颜色模型转换

由于RGB色彩空间对光照亮度变化比较敏感,为减少光照亮度变化对跟踪效果的影响,系统采用的Camshift算法要求将图像由RGB色彩空间转换为HSV色彩空间后进行处理,RGB转换到HSV的算法如下:

max=max(R,G,B)

min=min(R,G,B)

if R=max,H=(G-B)/(max-min)

if G=max,H=2+(B-R)/(max-min)

if B=max,H=4+(R-G)/(max-min)

H=H×60

if H < 0,H=H+360

V=max(R,G,B)

S=(max-min)/max。

2.3 Camshift算法及实现多目标跟踪

Camshift算法流程图如图2所示。

文中系统通过进行一些改动实现了Camshift两手同时跟踪,首先预先定义手套颜色模板目标1和目标2,然后分别将两种颜色模板转换为HSV颜色空间下,根据颜色模板H分量分别计算概率分布,概率分布即为对应某一段颜色区域目标模板中的个数。同样,将原图像转换成HSV颜色空间,根据目标模板颜色概率,分布直方图和原图像的H分量计算图像方向投影图,将图像参考目标1颜色转换为二值化图像。

根据图像方向投影图,以及给定的搜索终止条件、初始搜索框,将整个图像设为搜索区域,对二值化图像进行Camshitf搜索目标,搜索到目标后保存目标图像坐标,并在图像中将目标图像画出来;同样对目标2进行上面处理,得到目标2的图像坐标,并将目标2在图像中画出来,在图7中,右手为搜索到的目标1的区域,左手为搜索到的目标2的区域。这样就完成了一次搜索目标的整个过程,在以后的搜索过程中只需要采用第一次计算得到的目标模板概率分布即可,而初始搜索框分别采用上一次Camshift得到的两个框即可,跟踪结果如图3所示。

3 手势识别及实现PC机鼠标控制

系统采用双手势识别,采用比较简单的手势实现对鼠标的控制,鼠标的操作有移动、左击、右击、双击,这里采用手的握拳和松开,左手握拳控制鼠标左击事件,右手握拳表示鼠标右击事件、双手握拳表示鼠标进行一次双击事件、两手都松开表示鼠标没有点击事件。由于本系统要实现的是对鼠标的控制操作,不需要太多的手势,只需要识别每只手两种手势即可,但为尽少出现鼠标误操作,对于手势识别准确率有很高的要求,本系统采用的是对两个手势区域进行分析,分析区域的形状特征。

根据Camshift跟踪两手区域坐标实时控制鼠标移动,将两个区域的坐标的平均值作为鼠标移动的坐标位置,调用::SetCursorPos(_x,_y)函数控制鼠标,根据手势区域形状判断手势,手在松开和握拳时手势区域的宽高比是不一样的,手在松开时高与宽的比值要比手势在握拳时宽高比要大得多,定义一个宽高比的阈值,当其中一个区域的宽高比值大于这个阈值时,定义该区域的手势为松开手势,当其中一个区域手势的宽高比小于这个阈值时,定义该区域的手势为握拳手势;通过调用函数mouse_event()实现对鼠标的控制。能过对实验室的多名同学在不同光照条件下进行多次实验测试,结果如图8~图11所示,图像左上角显示字符是识别结果,表1为手势识别率。

在测试过程中,发现测试结果仍受光线影响较大,在光线充足时识别率较高,光线较差的条件下识别效果较差。

4 结束语

文中提出了一种基于Camshift的多目标跟踪以及简单的手势识别控制鼠标操作,优点是实现的双手识别,采用视觉识别技术应便捷,同时由于是两手戴有不同颜色的普通手套,不会和人的肤色发生混淆,手套颜色可以多样化以尽可能减小干扰,普通手套价格便宜,识别手势方法直观,准确率高;缺点是仍需戴手套,手势类型不够多样化,但对于控制鼠标实现简单的人机交互是可以满足的。

参考文献

[1]朱继玉.基于单目视觉的静态手势交互技术研究[D].北京:中国科学院软件研究所,2006.

[2]吴晓娟,翟海亭,王磊,等.一种改进的Camshiff手势跟踪算法[J].山东大学学报:工学版,2004(6):120-124.

[3]李玉山.数字视觉视频技术[M].西安:西安电子科技大学出版社,2006.

[4]刘寅,滕晓龙,刘重庆.复杂背景下基于傅立叶描述的手势识别[J].计算机仿真,2005(12):169-172.

上一篇:达芬奇数字平台下一篇:采集和传输