自适应测试

2024-10-07

自适应测试(共12篇)

自适应测试 篇1

摘要:本文根据生产中实际案例, 在DFT设计的基础之上, 为Intel公司65nm NOR闪存芯片的一种特殊失效模式设计了一种独特的测试方法, 同时提出了测试参数根据产品本征特性自适应调节的概念。

关键词:测试,DFT,自适应,测试效率及有效性

测试的目的, 即检出无法满足规定的质量或可靠性指标的缺陷产品 (Defect) 。但测试也会造成错判——将缺陷产品判为通过 (Under-kill) 或将非缺陷产品判为不通过 (Over-kill) 。通常使用Under-kill DPM (即每百万成品中Under-kill产品的数量) 和Over-kill rate (Over-kill产品占所有测试产品的比率) 来衡量错判率。研究测试方法的目标, 就是在最短的测试时间内, 达到Under-kill DPM和Over-kill rate最低。

本文的工作, 是针对Intel公司65nm NOR闪存芯片的一种特殊失效模式 (fail mode) 而设计的的测试方法, 同时提出了测试参数自适应调节的创新概念。

1 失效模式简介

所谓闪存 (Flash Memory) , 就是一种能够在掉电模式下长时间保持数据的半导体存储芯片, 其基本存储单元 (cell) 是由一种阈值电压 (Vt) 可变的MOS管构成的[1~2];若干cell按一定结构排列构成一个块 (block) , 所有block组成整个存储阵列 (Array) 。

在Intel 65nm NOR Flash生产中, 我们遇到一种只有当block数据在1/0混合pattern下才会发生的读 (Read) 错误, 且错误集中在32根相邻的Row上。

Intel公司设计了一种称为Mgn的Test Mode[3], 能通过产品的Vpp pad直接测出指定cell的实际Vt值。在pure 1的pattern下, 测出block中所有cell的Vt值, 发现Read错误的32根row具有相对较低的Vt (图1) 。

由此可得:当pure 1 pattern下Mgn测得相邻3 2 r o wV t相对较低时, 同样的32row会发生Read错误。我们的测试方法就是利用此失效特性设计的。

2 传统测试方法Tail Analysis

此方法实质就是对每个产品重复我们之前所作的失效分析工作。具体步骤如下。

(1) 设置Vtlw (确保多数正常cell的Vt>Vtlw) 。当测试的block存在Vt

Tail Analysis具有较低的错判率, 但是生产中的测试仪器是多个端口 (每个端口对应一件产品) 共享逻辑运算资源, 而使用Tail Analysis, 每个端口需独享逻辑资源。

在Tail Analysis的基础上, 我们充分结合仪器和产品的特性提出一种新的测试方法。

3 自适应测试参数调节方法

3.1 检出潜在失效Block

检出存在Vt

3.2 组内采样Mgn测试

对失效产品pure1 pattern Vt分布作进一步分析可得, 没相邻32row中各个row之间的Vt基本差不多 (图2) 。

因此, 每组32row只需采样一根row, 测试时间缩短为1/32。

3.3 组间比较

记录每组i中VtΔq, 则判产品失效。

3.4 Vtlw自适应调节

个体产品内Vtlw调节:根据半导体产品特性, 一个Flash内各block的Vt分布比较接近。因此, 当单件产品内连续有N个block存在cell VtΔq时, 测试程序将Vtlw自动调低ΔVtlw。但测试下一产品时, 依然调回最初的Vtlw。

批次产品内Vtlw调节:晶元生产时一个批次内所有产品的本征特性相对比较接近。据此, 当一个批次内连续有M个产品需要调节Vtlw时, 测试程序将Vtlw自动调低ΔV'tlw, 并沿用新的Vtlw-ΔV'tlw至该批次所有待测产品。

Vtlw自适应调节能更准确的检出潜在失效block, 节省了测试资源。

在使用了新的测试方法后, 我们的整体测试时间缩短为Tail Analysis的~1/800, 而Over-kill rate则仅为~0.01%, 同时Under-kill DPM近乎为0。

4 结语

本文提出的自适应测试参数调节的理念, 改变了由测试说明书固定参数设置的传统做法, 而是充分考虑到半导体器件本征特性随工艺过程改变, 且个体内和批次内产品本征特性趋同的特点。该方法所涉及的Flash存储芯片及测试仪器皆为业界通用器件和设备, 因此这种自适应方法具有广泛的普适性, 可根据各产品Test Mode设计应用于不同类型产品的测试。

参考文献

[1]David A.Hodges, Horace G.Jackson, Resve A.Saleh.Analysis and Design ofDigital Intergrated Circuites--In DeepSubmicron Technology.

[2]存储器的存储原理, 2008, 10, 10.中国IC网 (www.ic37.com) .

[3]郭炜, 郭筝, 谢憬.SOC设计方法与实现.

自适应测试 篇2

在八周的自适应控制学习中,我了解了自适应控制的基本概念和定义,自适应控制的原理和数学模型以及发展状况。其中,老师重点给我们讲了李亚普诺夫稳定理论设计MRAC系统和MIT方案,波波夫超稳定理论设计MRAC系统和MIT方案和自校正控制系统。虽然这些理论知识掌握的不是很牢固,理解的也不够透彻,但是这为我以后的学习和实践奠定了一定的基础。

自适应控制的定义:(1)不论外界发生巨大变化或系统产生不确定性,控制系统能自行调整参数或产生控制作用,使系统仍能按某一性能指标运行在最佳状态的一种控制方法。(2)采用自动方法改变或影响控制参数,以改善控制系统性能的控制。

自适应控制的基本思想是:在控制系统的运行过程中,系统本身不断的测量被控系统的状态、性能和参数,从而“认识”或“掌握”系统当前的运行指标并与期望的指标相比较,进而做出决策,来改变控制器的结构、参数或根据自适应规律来改变控制作用,以保证系统运行在某种意义下的最优或次优状态。

按这种思想建立起来的控制系统就称为自适应控制系统。自适应控制是主动去适应这些系统或环境的变化,而其他控制方法是被动地、以不变应万变地靠系统本身设计时所考虑的稳定裕度或鲁棒性克服或降低这些变化所带来的对系统稳定性和性能指标的影响。好的自适应控制方法能在一定程度上适应被控系统的参数大范围的变化,使控制系统不仅能稳定运行,而且保持某种意义下的最优或接近最优。

自适应控制也是一种基于模型的方法,与基于完全模型的控制方法相比,它关于模型和扰动的先验知识比较少,自适应控制策略可以在运行过程中不断提取有关模型的信息,自动地使模型逐渐完善。

李亚普诺夫稳定理论设计MRAC系统和MIT方案的学习中,如果要设计一个关于李雅普诺夫函数的MRAC系统。首先构造出系统的李亚普诺夫函数,然后用李雅普诺夫稳定性理论的设计方法,能够成功地设计稳定的模型参考自适应系统。在这一章的学习中,理解李亚普诺夫稳定性理论和构造系统的李亚普诺夫函数是重点。

超稳定性概念是波波夫于六十年代初研究非线性系统绝对稳定性时发展起来的。当时,波波夫对某种类型的非线性系统的渐近稳定性问题,提出了一个具有充分条件的频率判据,对研究的这类非线性系统的稳定性提供了比较实用的方法。波波夫所研究的这类非线性系统,是由线性时不变部分与非线性无记忆元件相串联而构成的反馈系统。波波夫超稳定性理论来设计模型参考自适应系统,它可以给出一族自适应规律,并且有一整套设计理论。因此,有利于学习掌握这种自适应控制的设计方法和结合实际系统灵活选择适当的自适应控制规律。

自校正控制系统又称为参数自适应系统,它源于随机调节问题,该系统有两个环路,一个环路由参数可调的调节器和被控系统所组成,称为内环,它类似于通常的反馈控制系统;另一个环路由递推参数估计器与调节器参数计算环节所组成,称为外环。自校正控制系统与其它自适应控制系统的区别为其有一显性进行系统辨识和控制器参数计算(或设计)的环节这一显著特征。自校正控制的思想是将在线参数估计与调节器的设计有机的结合在一起。自适应控制常常兼有随机性、非线性和时变等特征,内部机理也相当复杂,所以分析这类系统十分困难。目前,已被广泛研究的理论课题有稳定性、收敛性和鲁棒性等,但取得的成果与人们所期望的还相差甚远。

在传统的控制理论与控制工程中,当对象是线性定常、并且完全已知的时候,才能进行分析和控制器设计。无论是采用频域方法还是状态空间方法对象一定是已知的。这类方法称为基于完全模型的方法。在模型能够精确的描述实际对象时,基于完全模型的控制方法可以进行各种分析、综合,并得到可靠、精确和满意的控制效果。因此,在控制工程中,要成功设计一个良好的控制系统,不论是通常的反馈控制系统或是最优控制系统,都需要掌握好被控系统的数学模型。

然而,有一些实际被控系统的数学模型是很难事先通过机理建模或离线系统辨识来确知的,或者它们的数学模型的某些参数或结构是处于变化之中的。对于这些事先难以确定数学模型的系统,通过事先鉴定好控制器参数的常规控制难以应付。

面对这些系统特性未知或经常处于变化之中而无法完全事先确定的情况,如何设计一个满意的控制系统,使得能主动适应这些特性未知或变化的情况,这就是自适应控制所要解决的问题。

自适应控制技术在20世纪80年代即开始向产品过渡,在我国得到了较好的推广应用,取得了很大的经济效益。且理论研究也有一些开创性的成果。但总的来说推广应用还很有限,主要是由于其通用性和开放性严重不足。

虽然现已能设计出安全、有效、稳定、快速且现场操作比较简单的自适应控制系统,但今后较长一段时期内,相对简单实用的反馈、反馈加前馈或其他一些成熟的控制技术仍将继续占据实际应用的主流。

自适应控制理论必须有新的突破,才能在工程应用中对PID控制等传统方法取得显著的优势,结合人工智能技术,尤其是神经网络技术与模糊理论,或许是最终实现这一远景的可能途径。

数据有增加 图表自适应 篇3

如需利用柱形图展示员工的工作业绩,当员工人数增加或减少时,柱形图的个数实现自动进行相应的变化,即增加或减少(图1)。在一般操作中,实例中柱形图的数值系列的数据源是由手动选取的B2:B9,水平(分类)轴标签的数据源也是手动选取的A2:A9,这些数据源都是固定不变的。要想实现上述效果,需要将这两个数据源更改为可变的表达式。

用Excel 2013打开数据表,点击“公式→定义名称”,在弹出窗口的名称处输入“分类轴”,引用位置处输入“=OFFSET($A$2,,,COUNTA($A:$A)-1,1)”;以同样的方式再定义一个名称为“数值轴”的名称,引用位置处输入“=OFFSET($B$2,,,COUNTA($A:$A)-1,1)”(图2)。

数据源名称定义完成后,就该修改柱形图的两个数据源了。

右击柱形图,选择“选择数据”,在弹出的窗口中点击“图例项(系列)”下的“编辑”按钮,在弹出的窗口系列值处输入“Sheet1!数值轴”( Sheet1这要根据数据表的名称而定);点击“水平(分类)轴标签”下的“编辑”按钮,在弹出的窗口中输入“=Sheet1!分类轴”(图3)。

计算机自适应测试研究进展 篇4

1 计算机自适应系统的优点

1.1 使评测过程具有灵活性

由于计算机自适应系统出题时, 是根据应试者的自身掌握的知识水平进行试卷的生成, 这就可以做到题目都是应试这能力范围之内的, 有效的避免了被应试者在考试过程中, 因为题目难度不在自己能力范围之内, 而导致答题节奏不稳, 情绪上产生较大波动影响其他题目的发挥。因为是根据应试者本身水平出题, 可以更大程度上帮助测试方了解应试者的综合水平, 在测试过程中具有相应的灵活性。

1.2 提高了测试结果的精确度

由于传统的出题方式, 并不能很好的区分题目的难易程度, 因为出题者对题目都是掌握的, 所以对题目的难易程度很难作出准确的判断, 并且调整其在试卷中的比例。这就导致了对应试者自身能力测量的一个不准确性。计算机自适应系统可以根据应试者自身水平调整难易程度, 这样无论应试者的成绩如何, 都能对其能力有一个准确的判断。是测试结果具有较高的精确度。

1.3 避免作弊情况

由于计算机自适应系统是随机出题, 考生在考试时也是随机抽题, 所以可以有效的避免, 应试者在考试过程中作弊的情况。由于应试者抽到相同试卷的概率很低, 是考场内交头接耳作弊的情况也得到了抑制。

2 计算机自适应系统的发展过程

计算机自适应系统的前身是“比内测试”, 这一种测试模式是根据被测试者的年龄来为其选择专门相对的题库, 如果被测试者完成这一题库的测试, 将会对其进行难度更大的测试, 这一个过程就是一个人工版本的子算计自适应系统。后来经过教育学家的不断研究, 并且对比内测试进行不断地分析, 终于发明了以回答问题的错误率作为标准来评判应试者水平的测试方法。

随着计算机水平的发展, 美国科学家罗德首次提出了计算机自适应系统的概念。这个观念已经提出就意味着试卷考试时代的结束。并且因其具有很多传统测试模式所不具备的优点, 迅速的得到了社会各界的认可。

经过不断地对计算机自适应系统的发展和完善, 已经从单一的了解应试者的能力演变成了一个对应试者综合能力以及各项能力指标进行评判的过程。

3 计算机自适应系统的使用现状

3.1 在国外的使用情况

目前计算机自适应系统在国外尤其是欧美国家得到了极其广泛的应用, 而且应用的范围非常广。教育测试、职业测评、人事管理等方面全都采用了计算机自适应系统用, 甚至在认证测评和职业测评中也应用了计算机自适应系统。

3.2 在国内的使用情况

由于计算机自适应系统进入我国的时间较晚, 所以我国目前对其应用的范围不如欧美国家广。我国主要研究计算机自适应系统的专家基本都在英语四六级考试委员会。目前我国对计算机自适应系统的重视程度很高, 已经将计算机自适应系统应用到了汉语水平测试当中, 随着出题的更加合理化和灵活性, 已经受到了很多业内的认可, 被应用到更广的范围只是时间问题。

3.3 在高校中的发展情况

目前计算机自适应系统在高校的发展中也取得了不小的成就, 我国部分大专院校, 对学生进行计算机能力水平测试时, 都是采用计算机自适应系统, 根据被测试者的综合水平进行出题。

4 选题策略的研究

4.1 提取法

在以前的题目区分方式上加以改进, 将题目分为两类, 即普通和难度较大两类, 如果应试者完成了较简单的一类题目, 此时才会给其提供难度较大的题目, 这样即可以避免能力不够者无法完成较难的题目, 也可以节省出题的时间和题库资源。

4.2 抽样法

抽样法是一种节约题库资源的方法, 具体抽样的过程是, 先从题库中抽取一小部分题目, 在从这一小部分中随机抽取一道难度较大的题目, 然后在从题库中抽取除这一小部分题目之外的题目, 这样可以给题目做出一种随机的组合, 可以减少题目的曝光率, 并且可以全面利用题库中所有的资源。

4.3 分离法

在出题过程中, 有些代表性较高的题目, 出现的几率过高, 导致了这些题目的曝光。如果将题目的管理过程与题目的选择过程独立的区分开来, 这样使得二者之间尽量减少联系。这样可以平衡题库中题目的曝光率, 使得部分题目曝光率过高的现象得到控制。

5 结论

计算机自适应系统的目标是建立最好的、最全面的评测方案。对被测者进行综合的、准确的评估, 达到一个人才选拔目的。这种将计算机科学技术与现实考试相结合的评测方案, 对我国的人才选拔和人才水平评估起到了至关重要的作用。对我国的教育和人才培养的发展具有划时代的重大意义。人才作为一个国家发展进步的根本动力, 其选拔制度必须是先进的、科学的, 只有将计算机自适应系统应用到我国社会的更多领域当中去, 才能做到更科学的、准确的人才选拔和培养, 才能为我国的现代化社会主义建设把好人才选拔这一大关。

参考文献

[1]路鹏.计算机自适应测试若干关键技术研究[D].东北师范大学, 2012.

[2]李俊杰.基于技能空间的计算机自适应测试的研究[D].湖南大学, 2011.

[3]王鹏.基于项目反应理论的自适应测试选题策略研究[D].沈阳师范大学, 2013.

自适应算术编码的FPGA实现 篇5

在利用FPGA实现自适应算术编码的过程中,首先遇到的问题就是将浮点运算转化为定点运算,即将[0,1]区间的一个小数映射为一个便于硬件实现的定点数。考虑到硬件实现的简便性,本文中将[0,1]之间的浮点数与[0,256]之间的定点数对应。相应的对应关系如表2所示。

表2浮点与定点之间的关系

浮点00.20.50.71定点051128179256

编码器在实现编码的整个过程中按照耦合弱、聚合强的原则分为四个模块:修改码表、计算确定区间、并行编码、串行输出。四个模块相对独立,通过输入、输出信号使其构成一个整体。系统的顶层结构如图2所示。

3.2码表的设计及修改

自适应算术编码器可以在许多场合中得到应用。本文实现的自适应算术编码器应用在采用6符号对小波变换系数进行零树编码的小波域视频编码中[3],因此设计的码表中含有六个符号。这样根据自适应算术编码的基本原理,将区间分成六个子区间,整个区间含水量有七个分割点。所以码表可以用七个8位寄存器表示。初始时设定等概率,这时七个寄存器可以顺序地存储0到6这七个数,即每个子区间的数值为1。随着符号不断地输入,自适应地修改码表,并且在修改码表的过程中时刻要保持寄存器中的数值是递增的。

修改码表时,首先判断输入符号,确定其所在区间,同时为后续模块输出该子区间的两个端点值l_count和h_count以及码表的最后一个端点值scale,然后进行码表的修改:将当前符号所在区间之后的所有端点值都加1,即当前区间及后面所有子我间的h_count=h_count+1,这样即完成了码表的修改。在数值不断累加过程中,寄存器中的数值为255时,需要对每一个寄存器中的值都取半,并同时对相邻的两个寄存器中的值进行比较,时刻保持数值是递值的。这样,处理前后的概率十分接近,对压缩比影响不大。

修改码表模块在输出h_count、l_count和scale之后,后面的计算子区间的模块即可进行计算;而修改码表模块在输出h_count、l_count和scale之后,亦可进行码表的修改。因此,这两个操作可以采用并行处理的方法实现,极大地节省了所用的时钟周期,相应地提高了速度,达到了优化的目的。表3给出了输入符号为3(对应于寄存器2与寄存器3之间的区间)时码表的修改过程。

表3码表修改前后对照表

寄存器0123456修改前04345677112233修改后04345778113234修改前023545657234255修改后011272829117127

3.3区间计算及确定

初始时符号所在的总区间为high=0xff,low=0(high和low分别表示已编码的符号序列所在子区间的上下界)。随着符号的不断输入,high和low的值也不断地减小,用以表示输入符号序列所对应的子区间。通过如下的公式可确定输入符号的区间:

计算时,最耗资源的是乘法器和除法器。本方案中乘法器采用参数化模块lpm中的lpm_mult生成。而除法器则自动编写。虽然占用的时钟周期较多,但与使用lpm相比,这样做可以大大地提高工作频率,从总体上提高性能。

3.4并行编码

在区间计算过程中,high和low总是有限值,不可能无限制地划分下去。为了能够实现连续的编码,通过对high和low的处理,可以实现利用有限长的寄存器表示无限精度的区间,即在不断修改high和low的过程中输出high和low中相同的高端位,形成输出码流。详细过程如下:

在区间确定之后,将low和high按位比较,若首位相同,则输出首位二进制码,产生输出码流,同时把low和high左移,low末位补0,high末位补1。循环比较输出,直到首位不同为止。如:

high=00110110

low=00100111

输出码流为001,而high和low的结果为:

high=10110111

low=00111000

通过这种连续地处理便可生成符号序列的自适应算术编码结束。但随着待编码符号序列的不断输入,可能会出现high和low十分接近,并且high和low的首位没有相同位的情况,如:

high=10000000

low=01111111

称这种现象为产生了下溢。产生下溢后,后面的编码都失去了意义,此时需要特殊处理。

对于下溢的处理方法为:保留首位,同时删除紧接在首位后的high中连续的0和low中连续的1,并且保证对high和low删除的位数相同,若连续0和连续1的位数不同,则取其较小者;然后high和low左移相同的位数,同时high的低位补1,low的低位补0。表4给出了下溢处理前后high和low值。

表4下溢处理前后对照表

下溢处理前下溢处理后下溢个数high10001000110001113low0111011100111000

经过处理后,扩大了区间,使得后面的编码可以顺利地进行。

在考虑了下溢的编码输出中,下溢作为输出码流的一部分,使得解码时能对下溢进行同样的处理,达到编解码的一致。但是下溢产生后并不马上输出,只记下下溢的个数,下溢则是在下一个符号编码时进行输出的。在下一个符号编码时,如果high和low比较后高端有相同位则输出下溢,即在第一个输出后紧接着插入首位的反,插入首则反的个数为前面产生下溢的个数,然后输出相同的次高位及以后相同的各位。这样处理既保留了下溢的信息又使得输出码流不偏离编码符号所在的子区间,使得解码时很容易处理。但是如此high和low比较后没有相同输出则不输出下溢,而是把两次产生的下溢的个数进行累加,再输入下一个符号,直到high和low有相同首位才输出下溢。

例如:在一个符号编码计算后得到的high=11010010和low=11001101,而前一个符号编码产生的下溢为1个,比较后输出为1010,同时记录下产生的下溢2个,如表5所示。

表5含有下溢的编码输出

highlow下溢输出编码输出前110100101100110111010编码输出后11011111001000002

3.5串行输出

并行编码后产生的码流存储在并行数据中,但在大多的情况下只有两、三个输出,甚至没有输出,若采用并行输出,就会产生极大的浪费。为了充分利用资源,在并行编码之后进行并/串转换,使其一位一位地输出,并且这个输出过程与下一个符号编码的过程并行完成,因此并不占用多余的时钟周期。

在编码过程中,当一个符号编码结束后,触发reload信号,通知此次编码结束,进行下一次编码,读取输入的符号。同时需判断输入是否合法,如果是合法的输入,就进行编码;否则停止编码,否则停止编码,处于等待状态,直到复位信号ret置1,重新初始化、编码。

图3

4仿真结果

本文算法采用VHDL硬件描述语言实现,并在ALTERA公司的MAX+plusⅡ软件上编译仿真。市府采用全局同步时钟,避免了毛剌的产生,保证了信号的稳定性。编码的仿真结果如图书3所示。

其中,rst、clk、c为输入信号,rst为模块中各寄存器的初始化信号,clk为时钟同步信号,而c则为输入的编码信号;out_flag、out_bit、reload、end_code、为输出信号,out_flag和out_bit分别为输出标志位和输出位(若out_falg=1,则此时out_bit为有效输出;否则out_bit输出无效),reload为一个符号编码结束)下一个符号输入的标志位,end_code为编码结束的标志(若end_code=0,则继续编码,否则编码结束)。

在进行性能仿真时[4],采用的器件是FLEX1K系列的EP1K30TC144-1器件,其最大工作频率为40MHz,消耗1533个LC,平均编码时间为20个时钟周期。一个符号的编码时间不到500ns,对于QCIF格式的图像完全可以满足每秒钟实时编码30帧图像的要求。

自适应测试 篇6

关键词:高速网络;负载均衡;负载均衡技术;网络处理

中图分类号:TP393文献标识码:A文章编号:1009-3044(2007)15-30729-02

Implementation of self-adapting Load Balance Technique of High-speed Network

ZHENG Zhi-xian1, CHEN Hua1,2, XU Rong-sheng3

(1. Fujian Communication Technology College, Fuzhou 350007, China; 2. Fuzhou University, Fuzhou 350002, China; 3. Network Security Lab, Institute of High Energy Physics, CAS, Beijing 100049, China)

Abstract:Gbit network developes andits scale and speed have brought a new challenge to network processing .The difficulty of processing technology for High-speed network is how to make processing speed match network speed.The load balance technique can solve it.The present researches all base on the NP, and the hardware requirement are higher.The thesis puts forward a software solution to achieve load balance for network processing.And it is proved that the solution is well done .

Key words:High-speed network; load balance; load balance technique; network processing

1 引言

Gbit网络的出现,其规模和速度都给网络处理带来了新的挑战,如何实现在高速链路中的处理能力也成为了当前各种网络处理系统讨论的焦点。一种观点认为高速网中的网络处理是不实际的,因为当前的技术很难实现处理速度与网络速度的匹配,丢包的问题势必造成很高的错误;另一种观点是利用多个处理器并行工作,将网络流量分成单个处理器能处理的多个部分,以实现高速网络中的网络处理。由此可见,研究网络流的负载均衡技术在现实中具有重要的意义。目前在网络中负载均衡技术应用较多是网络处理器(NP)[1,2]。这些应用需要从硬件上改造网络处理能力,下面提出一个软件方案,在现有的条件基础上实现大规模网络的负载均衡。

2 技术背景

2.1 负载均衡技术

负载均衡技术[4]通过一些工具实时地分析数据包,掌握网络中的数据流量状况,把任务合理均衡地分配出去,用多个设备共同完成任务,从而以较低成本消除网络瓶颈,提高网络的灵活性和可靠性。负载均衡技术面临的问题有3方面:负载状况的定义、如何获取网络数据以及获取后如何处理的问题。而如何处理实际上就是选择合适的负载均衡算法,它能保证设备协同完成任务,消除或避免现有的网络负载不均、数据流量拥挤和响应时间长的瓶颈。

2.2 负载均衡

将负载均衡技术应用在网络处理系统中,是为了解决高速网的网络速度与处理速度不匹配的问题,将从网络中均衡地捕获的数据包再分配给各处理节点进行处理。所以负载均衡技术满足以下条件将更有利于实现网络分析处理:

(1)属于同一IP的所有数据包应由同一个捕获节点完成。

(2)同一类型的数据包,即使用同一协议的数据包集中在一起以便共同处理。

(3)可扩展性和容错性。随网络中的流量发生变化,捕获节点负载分配不均或崩溃时,负载均衡技术都能针对具体情况进行响应,调整数据捕获节点之间的负载,使之重新达到均衡,并且使对其余数据分析处理器的影响降低到最小。

如何在多个数据捕获器之间分配流量是关键问题。其分配方法,在分流节点按照控制节点根据当前情况定义的策略向各捕获节点分配任务,通过调整对应于捕获节点的这些策略来保证每个数据捕获节点的负载均衡。

3 流量分配策略

网络处理第一步就是捕获所有网络流。通常情况下,数据捕获器直接连接到主要入口和路由出口处。它就像sniffer软件那样捕获经过路由器的IP包。分离网络数据流是常用的解决方式。我们可以采用好几种策略。本节给出动态流量分配思想:选择一种或多种被检测网段内主要的服务类型的流量单独对其进行处理,其余类型的流量合并为一类,并且每一种类型的流量都按照一定的流量分配算法分配到各个网络捕获节点,其结构图如图1所示。

图1 动态流量分配结构

3.1 动态负载均衡策略

分离网络数据流是负载均衡常用的解决方式。我们可以采用以下几种策略。

3.1.1 以IP段来分类

每个单位网络都有它们自己的IP段。比如,某单位的IP段是137.138.1.1至137.138.2.254。因此,如果有3个DC,我们就能以以下的方式自动地捕获数据包:

DC1 ------------- 137.138.1.1

DC2 ------------- 137.138.1.2

DC3 ------------- 137.138.1.3

DC1 ------------- 137.138.1.4

……

DC2 ------------- 137.138.2.254

3.1.2 以流入或流出来分类

由于网络捕获器通常直接连接到机构的中心交换机或路由器上,多数IP包很自然地被分成2类,即流入包和流出包。因此很容易设置一部分网络捕获器捕获流入包而另一部分捕获流出包。

3.1.3 以协议来分类

TCP/IP协议模型中,TCP层有两个协议:TCP和UDP。所以我们可以分配一部分网络捕获器只处理TCP包而另一部分只处理UDP数据。网络捕获器的数量取决于网络数据流和网络捕获器的硬件性能。

一般情况下仅使用其中的一种是不能均衡DC的负载。比如,一些企业流入流量比流出流量大得多,而大部分网络服务提供商则流出流量比流入流量大得多。而且不同类型的流量比率也不全是一样的。流量状况经常发生变化。因此为了在捕获器间更好地均衡负载,最好是三种策略的组合。

有很多方式组合这些负载方法。这些方式组合很大程度上取决于开发者的环境需要。每个DC分配的IP范围有静态分配和动态分配两种选择。一般后者比前者更适合网络处理应用。下面我们提出实现动态负载均衡网络流的过程。

3.2 动态负载均衡实现

每个捕获器上有个配置文件,指明本机捕获的IP段和所覆盖的协议。捕获器从中央管理器获取其配置文件。每个捕获器有个运行中的daemon来检查自己的状态,如CPU、内存和网络使用情况,然后把结果送给每个机器。中央管理器检查捕获器的状态,然后给每台机器做最新的配置。它把所有的捕获器看成一个整体,并定期地刷新。如果一个捕获器崩溃了,中央管理器不能接收到该机器的状态,那么就把崩溃机器负责的负载均衡到其他捕获器上。如果一个新的捕获器加入,中央管理器将被告知然后为每个捕获器创建配置文件。这样移走或增加捕获器变得更容易、更安全。

3.2.1 捕获器的综合负载指数

每个捕获器上都有一个daemon定期发送综合负载情况。daemon从本机/proc/目录里获取各种基本负载信息。该程序将本机上的CPU Load、登录会话数、内存用度等进行综合计算,再传给中央管理器。

/proc/loadavg:CPU平均负载

/proc/meminfo:内存使用情况

/proc/stat:swap使用情况

/proc/net/dev:网络流量情况

……

然后,根据一定的综合负载算法得出本机的综合负载指数GLI。下面介绍综合负载算法。

3.2.2 综合负载算法

本机负载指标主要记录各种负载信息,如当前CPU负载CPULOAD、当前内存利用情况MEMORY、当前磁盘交换分区使用情况SWAP、当前网卡负载NICLOAD。

综合负载可以通过以下公式计算出:

GLI=R1*CPULOAD+R2*MEM+R3*SWAP+R4* NICLOAD,其中∑Ri=1。

若当前的系数Ri不能很好地反映应用的负载,系统管理员可以对系数不断地修正调整,直到找到贴近当前应用的一组系数。

另外,关于发送负载信息时间间隔的设置,虽然很短的间隔可以跟确切地反映各个节点的负载并及时作出调整,但是很频繁地查询(如1秒钟几次)会给节点带来一定的负载。所以,这里要有个折衷,我们一般建议将时间间隔设置在5至20秒之间。

我们依据上述算法思想做了一个评估实验,测试了大量配置相同的机器的运行情况,得出每个机器上的CPU、内存、交换空间、进程数等,然后估算出各个参量值的权重系数{0.4,0.3,0.1,0.2}:

表1各种负载系数

于是得出综合负载指数为:

GLI=R1*CPULOAD+R2*MEM+R3*SWAP+R4* NICLOAD,其中∑Ri=1。

3.3 中央管理器

将要处理的网络IP数列出,同时根据协议类别形成多个任务。中央管理器接收到各个捕获器的综合负载指数,根据其负载能力分配任务。在系统运行过程中,流量发生变化,则需要对各种流量对应的捕获器作调整,并将任务重新同步发送到各捕获器上。每个捕获器上的配置如下:

task.conf文件

seize

{ host ipaddr;

protocol pro;

int port; };

……

4 数据捕获的设计

BPF包捕获技术提供了基于内核的过滤和缓冲,在高速高负载网络中可获得较好的性能。每个捕获器的网络数据捕获基于libpcap。libpcap作为一个通用可移植的包捕获API函数库,提供了对BPF的内在支持,为底层网络监听提供一个可移植框架。BPF改进了过滤方式,使用基于寄存器的过滤求值程序, 同时还使用了一种简单的缓冲策略, BPF的性能大幅度得提高。BPF过滤器和缓冲器是经过优化的,用户可用BIOCSBLEN ioct1()增加缓冲区长度。

每个捕获器将读入其配置文件,通过libpcap的Pcap_setfilter来设置过滤器,完成给它分配的捕获任务。在实现上,为提高捕获速度,技术上做以下改进:引入“零拷贝”技术[3]。

传统的Libpcap采用BPF方式来实现对网络数据的采集,从网卡抓包到应用程序获取数据包要经历3次拷贝:网卡到内核缓冲区;内核中复制一份,一份交给正常的应用程序,另一份交给抓包程序;内核到应用层的拷贝。这三次拷贝中主要是后两次所消耗的资源比较大,影响系统的整体性能。引入零拷贝技术,取消后两次拷贝操作,让应用程序直接访问网卡复制到内核缓冲区的数据包,实现CPU的零参与,彻底消除CPU在这方面的负载。

零拷贝技术首先利用DMA方式将网络数据包直接传递到系统内核预先分配的地址空间中,避免CPU的参与;同时将系统内核中存储数据包的内存区域映射到网络数据获取的应用程序空间,以对这块内存进行访问,从而减少了系统内核向用户空间的内存拷贝,同时减少了系统调用的开销。

5 性能测试

3台捕获机与中央管理机均为PC机,操作系统为RedHat 7.3,处理器为P4 2.0GHz,内存为256MBDDR,硬盘为40GB,千兆以太网卡;使用用IXIA网络测试仪发送ip段为192.168.10.1~192.168.10.10的网络数据,数据丢包率低于0.01%。

6 结束语

这种软件负载均衡技术是实现高速网络环境下网络处理的有效途径之一。该方式具有高可用性,高扩展性,使得网络处理系统能更好地适应网络带宽不断增加的趋势。因而进一步研究有很强的应用前景。该技术可以实现基于网络层的数据转发和负载均衡调度。在此基础上进行改进可以实现千兆带宽的网络入侵检测、千兆带宽的网络取证等网络处理。

参考文献:

[1] 陈宇,薛鹏,翟伟斌,刘宝旭,许榕生.基于IXP2400开发NIDS负载均衡器的研究[J].计算机工程,2007,33(1):104-105,127.

[2] 郑爱蓉,施恩,杨彬,陈宇,许榕生.基于IXP2400千兆防火墙包分类算法的设计与实现[J].计算机应用研究,2005,22(9):237-239.

[3] 杨武,方滨兴,云晓春,等.基于骨干网的并行集群入侵检测系统[J].哈尔滨工业大学学报,2004,36(3):274-275.

[4] 负载均衡技术:http://publish.it168.com/cword/2876.shtml.

自适应测试 篇7

工程装备是我军武器装备的重要组成部分, 担负着战场建设和作战工程保障任务。工程装备的故障主要产生于液压系统, 液压系统的状态性能的好坏, 直接影响到整机的性能[1]。目前, 液压系统故障检测主要利用故障诊断的方法, 较少从测试性设计方面考虑液压系统故障检测。

测试选择是测试性设计的一个重要内容, 其目的在于减少测试点设置, 以尽可能小的测试代价满足系统故障检测率和故障隔离率要求。传统液压系统故障诊断和检测的测试点布置没有进行合理的选择, 从而导致重复测试, 故障检测不全, 测试资源浪费等问题。本文在分析液压系统故障的基础上, 利用自适应遗传算法对液压系统测试选择问题进行求解, 为工程装备液压系统测试性设计提供了良好的方案。

1 测试选择的数学描述[2]

为描述各级系统故障和测试的对应关系, 采用故障——测试关系矩阵进行描述。设系统的待检测和隔离的故障集合为F={fi}, i=1, 2, …, m, 即系统待测试的故障有m个;能够对故障进行测试的测试集合为T={tj}, j=1, 2, …, n, 即可采用的测试一共有n个。则系统对应的故障和测试关系矩阵表示为:

在该矩阵中, 元素作aij为布尔变量, 当测试ti可测得故障fj的信息时, 对应的元素aij=1, 否则aij=0。矩阵的行向量Fi=[ai1, ai2, …ain]表示第i个故障的测试信息, 列向量Tj=[t1j, t2j, …, tmj]T表示第j个测试所能测试到所有故障的信息。

2 建立转向液压系统故障测试矩阵

2.1 某型工程装备液压转向系统

转向液压系统是工程装备液压系统重要组成部分, 主要由执行元件:液压缸 (2个) , 控制调节元件:溢流阀 (5个) 、单向阀 (1个) 、换向阀 (1个) , 动力原件:液压泵 (2个) , 辅助装置:滤油器 (1个) 4个部分组成 (图1) 。该系统具有一般液压系统具有的4个部分, 以该系统为对象进行测试点的选择方研究不失一般性。

2.2 液压系统测试点

对系统进行故障模式及影响分析, 该系统存在的主要故障有13个。在分析系统故障的基础上, 对系统进行测试点的初步布置。依据测试点布置的原则, 在所有故障单元的进出口均布置测试点。该系统共布置了14个测试点。根据测试点所测信号的不同, 分别测试油液温度、液位高度、油液污染度、压力、流量、振动、噪声等参数。故障属性和对应的测试如表1所示。

根据表1可得到该液压系统的故障测试矩阵如下:

3 自适应遗传算法对测试选择问题的求解

1) 编码:

采用二进制编码, 每个二进制数字代表一个测试, 因此, 编码的长度为备选测试集中测试的个数。

2) 生成初始群体:

群体规模过小, 算法相应的进化代数就多, 且易陷入局部最优解;群体规模过大, 提高了算法的收敛速度, 但是算法运行时间开销较大。群体规模一般取50~200[3]。

3) 交叉率和变异率:

遗传算法的交叉算子提供了全局搜索能力, 变异算子则提供了局部搜索能力, 其收敛性主要取决于这两个算子。因此, 交叉概率pc和变异概率pm是影响遗传算法收敛速度的关键参数。在标准遗传算法中, 交叉概率pc和变异概率pm为定值。若pc过小, 则搜索过程缓慢, 甚至停止不前;若pc过大, 则可能破坏遗传模式;变异概率pm过大, 可能导致成为随机搜索;过小, 则不容易产生新的个体结构。因此, 针对个体的不同适应度值, 采用自适应遗传算法[4], 对交叉算子和变异算进行改进:

式中:pc——交叉概率;

pc_max——最大交叉概率;

pc_min——最小交叉概率;

pm——变异概率;

pm_max——最大变异概率;

pm_min——最小变异概率;

fmax——种群个体的最大适应度;

favg——种群平均适应度值;

f ′——在要交叉的两个个体中较大的适应度值;

f——要变异的个体适应度值。

将交叉算子和变异算子作以上改进后, 优良个体的保存概率增大, 提高了进化的稳定性。

4) 个体适应度。

合适的适应度函数是算法的关键, 在故障检测率和故障隔离率尽可能满足要求的情况下, 最优测试集应使测试费用最小。因此, 适应度函数是测试费用的减函数, 故障检测率和故障隔离率的增函数, 将适应度函数定为[5,6]:

式中:Ci——第i个测试的测试费用;

Ts——某一测试集;

γ*FD, γ*I——系统要求的故障检测率和故障隔离率;

γFD, γFI——所选测试集的故障检测率和故障隔离率;

λ——奖励因素, 当满足系统测试性要求时给予奖励。

5) 问题求解

考虑该选择的规模较小, 选取参数为:初始群体个数M=20, 最大进化代数G=50, 交叉概率最大值为0.9, 最小为0.4, 变异概率最大为0.08, 最小为0.01, λ取值为1。系统设计要求测试性指标:γ*FD=0.95, γ*FI=0.95。为减化运算, 假设各个测试的测试费用相等, 均设为1。经编程运行后, 搜索得最优测试集Ts={T1, T2, T3, T4, T6, T7, T9, T10, T12, T13, T14}, 适应度值f=3.0459, 测试性指标γFD=100%, γFI=100%。历代适应度变化曲线如图2所示, 该算法在第8代找到最优解。测试选择的规模越大, 越能体现算法的优越性。

4 结论

通过对工程机械转向液压系统的故障分析, 建立了故障——测试矩阵, 利用改进的遗传算法——自适应遗传算法有效解决了该液压系统的测试选择问题。该方法为液压系统测试点的选择和布置提供了一种解决方法, 有很好的应用前景。

摘要:以某型工程装备转向液压系统为对象, 在系统故障分析的基础上, 建立故障测试矩阵, 并利用改进后的遗传算法———自适应遗传算法有效解决了该液压系统测试点选择问题。为其他液压系统测试性设计过中测试点的布置选择提供了借鉴, 有较高的实用价值。

关键词:工程装备,测试性设计,测试选择,自适应遗传算法

参考文献

[1]刘雪霞.某型工程装备液压系统检测与诊断技术研究[D].南京:解放军理工大学工程兵工程学院, 2008 (1) .

[2]田仲, 石君友.系统测试性设计分析与验证[M].北京:北京航空航天大学出版社, 2003.

[3]黄友锐.智能优化算法及其应用[M].北京:国防工业出版社, 2008.

[4]王小平, 曹立明著.遗传算法[M].西安:西安交通大学出版社, 2002.

[5]苏永定, 钱彦岭, 邱静.基于启发式搜索策略的测试选择问题研究[J].中国测试技术, 2005, 31 (5) :46-48, 78.

自适应测试 篇8

平时测验在语法课教学中起着重要的作用。通过测验, 教师可对教学实施过程监督, 得出形成性评价, 提高课程考核信度。平时测验还可对教学组织进行诊断、总结、导向。

目前, 语法课主要采用纸笔测验 (Paper and Pencil Testing, PPT) 。该测验面向试题, 在这种考试中, 所有被试作答同一试卷。对于每个考生而言, 只有一部分题目与自己真正能力相匹配, 其余的题目要么偏难, 要么偏易, 因此测验结果的准确性受到怀疑。总体而言, 纸笔测验的落后之处主要表现为:不能提供被试更具体的知识掌握情况;考查的项目较多;考试时间必须同定;数据分析不方便;不同测验的结果没有可比性;阅卷费时;测验结果公布不及时等。

因此, 有必要改进语法课的测试方式, 使得测试过程更科学、高效、结果更可信。本文将着重论述自适应测试方法在英语专业语法课平时测验中的应用。

二、自适应测试简介

计算机自适应测验 (Computer Adaptive Testing, 简称CAT) 是面向被试的, 它的基本思想是“因人施测”, 使不同水平被试都能接受一组跟自己特质水平相适应的试题。“所谓‘自适应’就是测验本身要自动地适应被试的具体情况, 在被试作答过程中及时根据作答资料估出被试的可能水平, 并针对这一水平迅速决策, 从大型题库中调取难度恰当、性能优良的题目继续施测。直到施测的题目足够多, 测验信息量累计和达到指定值为止” (秦川, 2008) 。计算机自适应测验的实施必须解决四个问题:1) 题库建设;2) 选题策略;3) 参数估计;4) 测验终止规则 (Howard Wainer, 2000) 。

与以往纸笔测验相比, 自适应测验具有以下优点:第一, 效率高。自适应测验对每个被试可用比常规测验少的试题而获得与之相比更佳的测验效果。在自适应测验中, 高水平和低水平的被试接受与自己水平相当的测验题目, 没有无效试题, 每道试题都是高效的。第二, 效度、信度高。自适应测验提供题目参数的同时, 提供了每一个被试在完成题目时的特质水平。这就使题目参数与被试的特质水平有效地联系起来, 从而使测验具有较高的信度和效度。第三, 测试步调灵活。在自适应考试中, 每个被试的考试长度可能都不一样, 对于每一道题目, 被试都有充分的思考时间, 而不会存在因答题时间不够而产生的测量误差。

三、CAT在语法教学中的应用

1. 确定教学重点

英语专业语法课教学工作量大、课时短。以我校英语专业语法课教学为例, 48课时内要完成《新编英语语法教程》 (章振邦, 2009) 所涵盖的40个单元的教学任务。有鉴于此, 教师在组织教学时, 有必要先对学生的语法知识掌握情况进行摸底了解, 以便确定课堂教学重点。单元前测可以诊断学生的“症候”所在, 为“因材施教”做好准备;单元后测则能检验课堂教学效果, 供师生及时调整教学重点。

在确定教学重点时, 计算机自适应测试较之传统的纸笔测试具有更大的优越性。首先, 通过题库设计, 自适应测试可以准确反映出哪些知识点对学生而言较易、哪些较难。而纸笔测试只能提供被试的最终成绩, 对班级整体对知识点的掌握情况无法提供更为详细的信息。其次, 较之纸笔测试, 自适应测试效率更高, 能迅速统计出被试得分及失分趋势, 帮助教师及时作出判断。比如, 动词的时和体 (tense and aspect) 一直被认为是语法教学的重点, 但经过诊断测试, 我们发现学生对动词时、体的规则掌握扎实, 但在语言输出中的应用情况不令人满意。因此教材中大篇幅的时、体规则便可简化处理, 而动词时、体的交际应用能力则应强化。

2. 了解个体差异

在教学中, 教师和学生都有同感, 大学语法重复了中学阶段的大部分内容。基础好的学生认为大学语法毫无新意, 而基础差的学生则在专业学习中处处碰壁。因此, 教师在面临一个班级整体时, 必须考虑学生的差异需求, 了解不同的学生对知识点的掌握情况, 以使课堂教学更有针对性, 提高效率。

通过“自适应”题库的选题功能, 自适应测试能对题库提供给不同学生作答的题目进行难易度归类分析, 从而了解他们对同一知识点的掌握情况。比如, 针对对虚拟语气这一知识点的单元测试, 有的学生难度较低的题目统统过关, 而对题库提供给他们的虚拟语气中倒装句的使用, 或者含蓄条件句中的虚拟语气, 或者虚拟语气中时态的交叉使用等则显得力不从心。由此, 计算机自适应测试能够为师生提供更为具体、个性化的反馈信息, 帮助教师更好地了解学生的个体差异, 也可帮助学生了解自己的薄弱环节, 而这一点也是纸笔测试难以实现的。

3. 引导未来教学

自适应测验可以根据学生对知识点掌握的不同情况为被试提供不同的测试项目, 并且能对被试所作答的试题进行快速统计分析, 因此自适应测试的反馈信息比纸笔测试更为详细、高效, 师生可以据此及时准确地了解本单元的教学效果, 对以后的教学重点、教学节奏、教学方法进行相应的调整。

例如, 在完成副词单元的教学任务后, 通过自适应测验, 发现课堂教学中对“副词位置对句子意义的影响”讲解速度较快、不够深入, 导致50%的学生在完成2个此类中等难度的题目后题库就不再为被试提供相同测试点难度更大的测验项目。而在所有被试必答的起始题目中, 一个有关副词位置的测试项目全班正确率也只能达到20%。再比如, “兼有两种形式的副词” (如:right, rightly;close, closely) 原定由学生课下自学, 通过自适应测试, 只有25%左右的被试能顺利通关。基于这些测验结果, 教师及时调整这一单元的教学方式, 保证了教学质量。

四、CAT实施建议

1. 系统设计

CAT系统主要实现用户管理、系统管理和考试管理三大功能。用户管理包括考生注册、考生信息查看、修改、删除;教师和管理员的信息录入、修改、删除、查看。题库管理包括增加试题、删除试题、修改试题、浏览试题、查询试题。考试管理是本系统的核心模块, 主要有考生身份认证、抽题、考生能力估计、控制考试结束等功能。

2. 题库建设

题库不仅提供考试的题目, 而且还提供必要的试题参数, 因此它应该是在严格遵循教育测量理论的基础上建立起来的, 建设优质题库是CAT编制中最基础且工作量最大的工程。一定规模的题库是在语法教学中推行CAT所必不可少的, 能否对学生的测验给出一个准确、公平的评价是判断语法题库设计好坏的标准之一。题库由大量具有必要参数的试题有机组合而来, 每道试题除了本身的内容外, 还要具有表征试题属性的编号、知识点、答案、难度、区分度等多种指标, 试题以一定结构存放在题库中。题库不仅要有足够的总题量, 还必须保证各知识点有足够的题量, 一般建议每个概念至少要包含10各试题, 每一单元课程内容至少要包含50题。

3. 成绩分析

在完成计算机测验后, 教师要及时收集数据, 进行归类分析, 总结规律, 发现问题, 据此对教学工作相应地调整。学生也可根据系统提供给自己的反馈信息找出自己的不足之处, 以便指导以后的学习。

五、结语

根据《高等学校英语专业英语教学大纲》 (2000) 要求, 语法作为一门专业基础必修课, 在掌握语言基础知识、培养学生语言能力方面起着重要作用。但随着近年功能语法和交际教学法的兴起, 外语教学更强调在真实或者模拟真实语境下的语言习得, 而对语言基本规则、结构的重视程度逐渐减弱。不少学校英语专业压缩语法课时。而另一方面, 教师们普遍注意到英语专业高年级学生语法功底并不扎实, 影响到学生口头及书面语言输出能力的培养。在这种情况下, 如何能利用有限课时保质高效地上好语法课成为语法教师所必须解决的一个问题。测试作为教学过程的重要环节之一对教学效果有着巨大影响。而计算机自适应测试方法能很好地克服传统纸笔测试的弊端, 有利于提高语法课堂教学效率、因材施教。为保证自适应测试顺利实施过程, 教师必须熟练掌握CAT软件使用方法, 同时要求有较大规模的语法测试题库支持, 在此基础上进行测验结果分析和信息反馈。

摘要:英语专业语法课面临课时少、教学任务重的矛盾。测验作为教学重要环节之一, 对课堂教学有着多方面的影响。计算机自适应测验发挥其“因人施测”的优势, 有效克服纸笔测验效率低、信度低的弊端, 并有助于确定教学重点, 使教学过程更加个性化。

关键词:自适应测试 (CAT) ,英语专业,语法教学,应用

参考文献

[1]高等学校外语专业教学指导委员会英语组.高等学校英语专业英语教学大纲[M].北京:外语教学与研究出版社, 2000.

[2]章振邦.新编英语语法教程 (第5版) [M].上海:上海外语教育出版社, 2009.

[3]Wainer, H. (Ed.) .Computerized Adaptive Testing:A Primer (2nd Edition) [M].Mahwah, NJ:ELawrence Erlbaum Associates, 2000.

自适应花盆 篇9

现在很多人喜欢在家养一些花花草草, 不过, 这些美丽的生命需要在精心的照顾下才能开放出美丽的花朵。但当你因种种原因而无法按时给花草浇水时, 过不了几天, 这些花草就会因为缺水而枯萎。于是我设计了一个特殊的花盆:在花盆底部放置一个隔板将花盆分隔开, 在底部形成一个储水槽。当主人在家时, 每天浇水时可适量多浇灌一些, 多余的水分会渗过土壤流进事前设计好的储水槽中保存起来。等到主人无法按时给花草浇水, 土壤过分干燥时, 储水槽内的水就会顺着引水装置被干燥的土壤吸收, 从而润湿土壤。花盆的口部有一个有孔封口, 它可以限制植物生长范围, 有了它就可以在最大限度上减少水分蒸发。

点评:作者从实际需要的角度出发, 能够积极地思考生活中的点滴问题, 并通过创意、设想进而解决问题。但在设计中还没有很好地将设想设计出来, 还可以进行一步改进, 以提高其实用性。

自适应混合入侵防御 篇10

关键词:自适应,入侵防御系统,异常分类器,签名过滤系统,指令集随机化

1 引言

由于信息安全与网上信息对抗的需求,使得如何增强计算机系统和网络系统的安全性的研究成为了举世瞩目的焦点[1]。网络防御系统的目标是预先对入侵活动和攻击性网络数据进行拦截,避免其造成损失[2],但一个关键问题是网络防御系统对攻击行为不能自动做出一个可靠的,有针对性的及适应性的反应[3]。当溢出被一些未曾见过的攻击利用时,这个问题将会被放大。网络防御系统通常是由基于网络的IDS(Intrusion Detection System)的和包过滤防火墙组成,由于这些这些系统本身的缺点,使它们难以确定和描述新的攻击并智能化的应对它们。

由于IDS只能被动的检测攻击,而攻击防范往往是留给防火墙的任务。当然成功阻止一次确定的攻击通信需要一个灵活和明确的策略,此外大量的网络流量与签名进行匹配往往需要专业的硬件设备并假设这些签名准确的存在。另外加密流量和隧道流量成了IDS和防火墙共同的问题,因此无论是IDS还是防火墙都无法确定一个数据包在终端主机被进行了怎样的处理,从而导致它们做出错误的决定[4]。

这些阻碍促使我们将安全控制策略的放置更接近终端主机(例如,分布式防火墙)[5]。这种方法对系统安全性的保护不仅有利于企业级网络,而且还包括那些家庭网络用户。这种“纵深防御”表明传统的外围防御(如:防火墙)已被应用到基于主机的防护机制中。本文设计了这样一个系统,它采用混合异常检测及签名检测的方案,自适应地应对新的攻击。

2 自适应混合防御系统关键部件及技术

2.1 混合检测

一般情况下,检测系统仅仅依赖于签名并不能启用防御系统来应对前所未见的攻击行为。另外,基于异常的分类器可以识别新的行为,但往往无法分辨以前所未见的这些行为是“好”还是“坏”。这个盲点通常会导致较高误报率,并要求这些分类器进行过大量的训练。

混合检测系统以入侵防御系统IPS(Intrusion Prevention System)为基础:是一个有自动反应能力来阻止攻击行为的系统。我们的混合系统的核心是一种基于异常的分类器,它结合反馈信息调整其模型并自动生成已知恶意行为的签名。我们的异常检测是基于PayL[6],但也可用于其他分类器[7]。

对于一个混合系统最大的障碍是反馈信息的来源。理想的情况下,它应该是自动化的并且对用户是透明的。例如,对垃圾邮件分类器的反馈可能是用户在自己的电子邮件点击按钮,通知客户端的邮件服务器,以考虑将其归类为垃圾邮件或不适当的电子邮件。这种反馈循环是一个网上监督式学习的实例,它将监督负担分配给了每一个系统用户。我们系统的反馈机制加强了无监督的网上学习。信息来源是基于X86模拟器,STEM[8],即以指令集随机化增强保护系统进程。

2.2 指令集随机化

ISR是创造一个独特的运行环境的过程并以此有效地阻止代码注入式攻击。创建这种环境的目的是在这个指令集执行一些可逆转换。

因为攻击者通过精心设计与所预期的执行环境相匹配,致使攻击者不会轻易改变他的攻击代码,而攻击代码与特殊环境的不匹配致使攻击代码在特殊环境执行无效,从而导致攻击失败。ISR方法以前已被证明在阻止代码注入式攻击上的成功[9,10],这种技术通常与空间地址混合来阻止“跳成libc”攻击。

指令集随机化需要执行环境有能力以终止在运行时随机的或解码的二进制指令流。对于机器代码,这一要求意味着,要么处理器硬件包含解码逻辑,要么该处理器以软件的形式出现。

ISR的实践形式,使我们能捕获注入代码和与它相关的被列为异常的输入。Barrantes等人[11]表明,在一些控制流字节切换(两个或三个指令)到注入代码的过程中,代码注入攻击被保护的二进制文件失败。因此,在程序停止执行时,指令指示器(有很高的几率)表明此代码是恶意代码。我们可以提取这些代码,并传送给我们的过滤器来创建一个新的签名并更新我们的分类器的模型。

3 设计与实现

FLIPS的设计基于两个主要部分:应用程序监管框架和过滤代理。该设计的一个主要目标是保持系统的模块化并可扩展部署在一个主机上。(图1显示了这种设计的高级视图。)受保护的程序可以是一个服务器等待请求或是接收客户端程序的输入,如果被视为恶意的将被过滤代理丢弃。如果监控器检测出被保护的程序出现了错误,这标志过滤器在更新其签名和模型。

过滤代理的主要功能是对输入进行评分和分级并选择性的进行丢弃,代理则是两个主要分类方案的混合。基于特征的过滤器可以对某个请求进行评分和丢弃如果它与已知的恶意数据相匹配,而基于异常的分类器则可以对输入程序进行评分和丢弃如果它超出了正常的模型范围。

应用程序监管框架的主要功能是阻止溢出,修复可能被利用的漏洞,并将溢出信息汇报给过滤器和分类器。监管框架可以包括些基于主机的监控器,由它们提供给代理各种补充的反馈信息。我们的原型实现是基于一种提供与代码注入式攻击有关信息的监控器。

请求从过滤代理通过,如果被认为是恶意的将被丢弃。包过滤防火墙为应用程序提供保护,只允许本地代理实例连接应用程序。应用程序处理这些请求并通过代理传回响应。如果某个输入引起代码注入攻击,监管框架会将注入代码连接到代理,代理将会更新其模型和签名。

3.1 HTTP代理和Pay L

HTTP代理是一个简单的对每个输入请求产生一个新的线程实例的HTTP服务器。在服务程序中,代理调用一系列对H T T P请求的过滤器对象。我们的默认过滤器执行维护三个基于签名的过滤器和一个分类器对象。PayL实现了分级界面以对每个基于异常的H T T P请求给予标记。当代理启动时,它创建一个PayL实例并提供给PayL一个traffc文件样本用以改进。

我们构建了一个HTTP代理(Apache)以保护HTTP服务器免受恶意请求的攻击,代理通过调用三个过滤机制及P a y L来决定如何处理每一个H T T P请求。

过滤器实现的核心是将其划分为两个子程序,checkRequest()程序执行基本过滤和分类工作。它维持4数据结构用以支持过滤功能。第一个为“可疑”输入要求清单(由PayL确定)。这一清单作为一个缓存为匹配以证实的恶意输入提供了良好的反馈机制,但值得注意的是,此清单并不用于删除请求。其余的数据集合形成一个三级过滤结构,在权衡复杂性的同时更加积极的实现过滤。这些清单并不是通过PayL确定而是通过反馈机制产生。第一层的过滤为直接匹配。该过滤器是最实惠的,即使略有质变但它却最有可能阻止恶意请求。第二个过滤器是一个反向查找过滤器,它们的存储请求由PayL的评分来决定。最后,由最长公共子串过滤器来提供昂贵但却是捕获恶意请求的最有效手段。

第二个组件作为代理的反馈机制,它是一个后台线程监听,关注来自于S T E M所包含的恶意二进制代码,此线程仅读取一个字节并检查它们是否与我们先前所熟知的“可疑”输入相匹配(如PayL分类),如果不是,那么该线程将会把检测范围扩大到之前见过的包含那些缓存较小的所有请求。匹配是目前最常用的子算法,如果匹配成功,则该请求将被用在上述筛选数据结构。如果没有,以此恶意字节序列为基础,一个新的请求将被创建并写入过滤器。

我们的监管架构是一个应用级程序库,它提供了一个模拟器在去随机性指令流和底层硬件正常执行的指令流之间自由切换的能力,如图3所示,将要被仿真的代码段将4个特殊标签包裹起来。

此程序为一个使用S T E M标签的实例。

STEM是一个x86模拟器,可以有选择地调用任意的代码段,允许我们在同一进程内部混合仿真及非仿真的执行。模拟器允许我们监测当执行指令时的随机处理错误,撤销由内部代码故障引起的内存变化,并模拟一个从上述调用函数返回的错误,我们的一个主要假设是我们能够在错误和异常集之间建立一个映射,这种错误和异常可能出现在程序的执行以及该程序代码处理的错误集。

3.3 ISR技术

主循环由仿真器读取,解码,执行以及每次撤销一个指令组成,在抓取指令之前每一项是随机发生的,由于x86架构包含可变长度的指令,在指令流翻译出足够的字节是解码成功的关键。否则,可能会产生无效的操作。为了使问题简化,我们假设每个指令的最大长度为(16字节)。16位字XOR'd伴随16位密钥,并复制到缓冲区。获取/解码函数读取缓冲区和提取一个指令。伴随处理指令的准确长度程序计数器是递增的。如果指令在1 5字节或更少的情况下,不必要的去随机将会发生,但这是可变长度指令不可避免的一个副作用。如果注入的代码位于执行路径的任何位置,异或函数会将其转换为一个非法操作码或指令,这样将会访问无效的内存地址。如果在仿真过程中发生异常,S T E M将会通知在指令指示器中的代码服务器,STEM每捕捉1KB的代码将会打开一个简单的TCP套接字代理,然后STEM将模拟一个从函数处返回的错误。

4 模拟实验

我们目的是表明主动防御和签名相结合是有价值的,甚至是一个相当优化的代理执行。我们的评估主要有三个目的:

1.表明该系统能够很好的进行分类。

2.表明该系统可以在端至端间执行。

3.表明该系统具有相对良好的性能。

第一个目标是为PayL计算出完整的ROC曲线。第二个目标是通过一个端对端的实验检验该系统检测攻击的速度。记录过滤器捕捉到的攻击字节,建立适当的过滤规则,并终止下一个此攻击实例。我们像代理发送由同样攻击组成的请求流并测量代理过滤的时间。第三个目标是测量代理服务器处理两种不同H T T P痕迹的额外时间。

Apache2.0.52作为一个简单的修改配置文件的基本生产服务器实例,关闭“KeepAlive”的属性设置,然后,一个简单的awk脚本重建HTTP请求。代理服务器由JAVA编写,与Linux平台下Sun JDK 1.5.0,并在Linux平台下Sun JVM 1.5.0上运行。代理服务器运行在双核至强2.0GHz处理器,1GB内存,操作系统为Fedora Core 3,内核版本2.6.10-1.770 FC3smp。生产服务器平台运行在双核至强2.8 H z处理器,1 G B内存,操作系统为Fedora Core 3,内核版本2.6.10-1.770FC3smp。代理服务器与生产服务器通过一个千兆以太网交换机连接,实验进行前对服务器进行重置,同样数据进行重复进行10次实验。

我们通过运行Apache web服务器和执行微基准测试在一些shell实用程序上,以此来评估STEM的性能。我们选择Apache flood httpd实验工具,以评估和比较非仿真和仿真的Apache版本处理请求的速度。在实验中,我们通过已处理的请求总数来决定测量性能,如表4所示,每秒处理请求的总数是由在一小段时间内所发送、处理的请求推测得到,而并不是意味我们的Apache实体每秒能够承受6000次请求。"emurand"符号表明STEM的(随机仿真)使用。

我们选择了一些常见的公式并测量有S T E M和没有S T E M情况下大负荷工作不同试验类型的性能。如预想中的一样,在仿真大部分应用时会对性能有很大影响。实验表明,仅在仿真潜在易受攻击的代码部分时存在明显超越整个系统仿真性能的情况。

PayL是一个基于内容的异常检测器。为了在FLIPS混合PayL,采用PayL在HTTP上的请求。在网络要求上测试PayL运营的有效性,收集了5MB的HTTP协议。这个数据集合有多种红色代码和其他恶意要求。作为底线标准,可以人工识别恶意入侵。接收机工作特性曲线如图4。

从图中可以看出,关于HTTP的PayL的分类结果比较普通。当所有的红色编码和尼姆达疑问被成功的防御,仍有许多看起来不是异常的入侵的查询,PayL不能辨认。如果P a y L工具来观察整个HTTP请求,包括实体自身,结果将更精确。PayL本身并不能保护服务器,并且需要更多的信息来调整其模型。

5 结束语

传统的入侵检测系统侧重于查明试图攻破计算机系统和网络。现有的入侵检测,无论是基于主机的IDS还是基于网络的IDS,在很大程度上都依赖于网络管理员的能力和直觉,需要人工地调整入侵检测系统。攻击事例和管理员的经验是入侵检测中最为重要的两个方面,IDS的开发与升级需要攻击事例和管理员经验这两方面长时间的原始积累。

我们提出FLIPS入侵防御系统,采用了异常分类组合方式和签名匹配二进制代码块注入攻击,此种混和式检测系统的反馈由STEM来提供,x86模拟器能够将指令集的执行随机化(ISR)。STEM可以识别插入的代码,自动恢复的攻击,并将攻击代码提交给异常和签名分类器。我们已经展示了FLIPS如何发现,制止,修复,并创建一个以前未知的攻击签名。虽然我们只展示了FLIPS对HTTP服务器保护的实现,然而FLIPS的机制也广泛适用于基于主机的入侵防御。

参考文献

[1]孙宇.网络入侵防御系统(IPS)架构设计及关键问题研究[D].天津:天津大学,2005.

[2]刘才铭.基于免疫的多通道入侵防御模型[J].计算机应用研究,2008,2(25):.

[3]R.E.OVERILL.How Re(Pro)active Should an IDSBe?In Proceedings of the 1st International Workshop onRecent Advances in Intrusion Detection(RAID)[C].Septem-ber 1998.

[4]M.HANDLEY,V.PAXSON,and C.KREIBICH.Network Intrusion Detection:Evasion,Tra?c Normalization,and End-to-End Protocol Semantics[C].In Proceedings ofthe USENIX Security Conference,2001.

[5]S.IOANNIDIS,A.D.KEROMYTIS,S.M.BELLOVIN,and J.M.SMITH.Implementing a Distributed Firewall.InProceedings of the 7th ACM International Conference onComputer and Communications Security(CCS)[C],2000,11:190-199.

[6]K.WANG and S.J.STOLFO.Anomalous Payload-based Network Intrusion Detection.In Proceedings of the 7thInternational Symposium on Recent Advances in IntrusionDetection(RAID)[C].,2004,9:203-222.

[7]C.KRUGEL,T.TOTH,and E.KIRDA.Service Spe-cific Anomaly Detection for Network Intrusion Detection.In Proceedings of the ACM Symposium on Applied Com-puting(SAC)[C],2002.

[8]S.SIDIROGLOU,M.E.LOCASTO,S.W.BOYD,andA.D.Keromytis.Building a Reactive Immune System forSoftware Services.In Proceedings of the USENIX AnnualTechnical Conference[C],2005,(6):149-161.

[9]E.G.BAntes,D.H.Ackley,S.Forrest,T.S.Palmer,D.Stefanovic,andD.D.Zovi.Randomized Instruction SetEmulation to Distrupt Binary Code Injection Attacks.InProceedings of the 10th ACM Conference on Computer andCommu-nications Security(CCS)[C],2003,10.

[10]G.S.Kc,A.D.Keromytis,and V.Prevelakis.Coun-tering Code-Injection Attacks With Instruction-SetRandomization.In Proceedings of the 10th ACM Confer-ence on Computer and Communications Security(CCS)[C],2003,10.

自适应测试 篇11

文章介绍了智能天线自适应波束形成技术的基本概念及典型自适应波束形成方法,归纳了自适应波束智能天线的主要结构形式。在此基础上,分析了自适应波束智能天线实现中面临的几个问题,探讨了自适应波束形成技术未来的发展趋势。

关键词:

智能天线;自适应波束形成;算法;空时处理

Abstract:

The basic concept of adaptive beamforming technology for the smart antenna is introduced along with the typical methodology of adaptive beamforming. The main architectures of adaptive beamforming smart antennas are presented. Then problems in realizing the adaptive beamforming smart antennas are analyzed and the development trend of the adaptive beamforming technology in the future is discussed.

Key words:

Smart antenna; Adaptive beamforming; Algorithm; Space-time processing

全球通信业务的迅速发展,使得作为未来个人通信主要手段的无线通信技术受到极大关注。如何有效地消除同信道干扰、多址干扰、码间串扰和多径衰落的影响成为无线通信系统尤其是码分多址无线通信系统中制约系统容量的主要问题。传统的采用均衡的处理方法在信号传输时延较大时难以解决这些问题,而采用时空联合处理的智能天线技术,通过信号时间域和空间域的联合处理可以较好地解决这些问题。

智能天线利用数字信号处理技术,产生空间走向波束,使天线主波束对准用户信号到达方向,旁瓣或零陷点对准干扰信号到达方向,以达到充分高效地利用移动用户的有用信号并抑制或删除干扰信号的目的。应用智能天线的无线通信系统能够降低多址干扰,提高系统的信噪比。

1、 波束形成技术

波束形成的目标是根据系统性能指标,形成对基带信号的最佳组合或者分配。具体地说,其主要任务是补偿无线传播过程中由空间损耗、多径效应等因素引入的信号衰落与失真,同时降低同信道用户间的干扰。波束形成的基本过程是:在建立系统模型的基础上,描述系统中各处的信号,再根据系统性能要求,将信号的组合或分配表述为一个数学问题,寻求其最优解。

1.1 传统的波束形成技术

传统的波束形成器所有的加权有相等的幅度,选择相位使阵列波束指向期望方向θ0。用a0表示期望方向的方向向量,则阵元数是M的阵列加权向量w为:

具有此加权的阵列在期望方向上有单位响应,即处理器的输出功率等于信源功率。这种波束形成器在只存在不相关噪声和无干扰情况下,其输出有最大信噪比(SNR)。对于不相关噪声(即Rn2nI,σ2n为噪声功率,I为单位阵列),波束形成器的输出噪声功率为:

式(2)表明,阵列的输出噪声功率为每一阵元上功率的1/M,上角标H表示共扼转置。这样,具有单位增益的波束形成器在信号方向上衰减了不相关噪声,使输出信噪比等于psM/σn2,ps为期望信号的功率。

1.2 自适应波束形成技术

自适应波束形成算法是根据一定的最优准则导出的,

点:在LS-DRMTA中,不同用户的加权因子估计是以波束形成器端口输出信号与期望用户信号之间误差最小为准则,不会出现不同加权因子收敛于相同的值,因此不需要Gram-Schmidt正交化过程;不需要分类过程;波束形成器输出端口数不受天线阵元数的限制,当系统扩展时,更多的输出端口可以非常容易地添加到波束形成器上,添加的端口使用原有的射频和基带信号变换装置,大大降低系统代价;每次迭代过程的计算简单;通过解扩重扩减少了干扰,可以在更低的信噪比下使用。

(7)基于拉格朗日描述的波束形成算法

这种方法利用了CDMA传输信号中比较大的扩频增益,递归寻求相关矩阵的最大特征值,估计最佳权向量。它有着很好的优越性,即不但能在比较低的信噪比下形成优良波束,并且突破了波束数受天线数限制的传统约束,能够形成大大超过天线数的波束(几乎只取决于扩频增益)。此算法每一步迭代的计算量大约只是3M,比RLS算法还少一个数量级,并且能较快地收敛。

2、自适应波束智能天线的结构

2.1 基于码片级的自适应结构

(1)多个波束解扩-RAKE合并

多个波束解扩-RAKE合并时基于码片级的自适应结构如图1所示,即先进行空域处理,在波束形成中,N个输出形成不重复的N个波束,一个波束图可能包含多个用户。经过匹配滤波(MF)后,进入RAKE合并实现空时处理。从结构上看,这种方法硬件结构较为简洁,但由于是基于码片级的计算,无论自适应算法采用何种自适应权值方法,计算量均较大,算法的优化在该方法中尤为重要。

(2)单个波束解扩-RAKE合并

在单个波束解扩-RAKE合并时基于码片级的自适应结构中,先对各阵元进行波束形成加权处理,然后对几个不相关多径分量进行分别解扩。该结构只进行一次数字波束形成处理,因而系统的复杂度相对于多个波束解扩-RAKE合并方案而言大大降低。

2.2 基于符号级的自适应结构

基于符号级的自适应结构如图2所示,这种结构是先进行匹配滤波,即先进行用户分离,然后波束合成形成针对该用户的波束,实现二维RAKE接收。从结构上分析,基于符号的波束形成方法需要设计数量众多的相关器,硬件结构较为复杂,但该方法是基于符号级的计算,自适应算法的计算量相对较小。

2.3 基于群的自适应结构

基于群的波束形成方法利用已有的基带专用集成电路芯片(ASIC)构建智能天线处理器,实现对扇区的自适应划分。基带ASIC可以采用Qualcomm公司的常规基站调制解调器CSM5200。如图3所示。

基于群的波束形成方法采用基带ASIC(如CSM5200)完成除波束形成之外的大部分工作,需要考虑如何充分利用CSM5200的资源,以及与围绕CSM5200的软硬件功能在实现上的难易程度。显然,该结构受限于所采用CSM5200这类芯片在处理用户容量、处理速度、可靠性、芯片体积等方面的性能。

3、 自适应波束智能天线实现时面临的问题

(1)精确地获得信道参数

信道参数估计是进行空时RAKE接收处理的基础,没有准确的时延参数,自适应波束形成将无从做起。通常时延的估计是在波束形成之前,也就是说时延搜索时无法利用波束抑制波束外的非期望用户,所有激活用户(某扇区内)的信号都将被接收并相互干扰。在无智能天线的基站,所能容纳的同时激活的最多用户数目是确定的,超过该数目,时延搜索将出现困难。配备有智能天线的基站,在未形成波束前,如果不采取其他措施,时延搜索与常规基站没有什么差别,也就是说,所能容纳的最多用户数目与常规基站的相同,显然没有发挥智能天线可以扩大基站容量的作用。因此,在时延搜索上必须采取另外的措施,使得在激活的用户数目超过常规基站时,时延搜索仍能正常进行。

(2)上下行波束形成的统一规划

对于下行链路而言,不同的复用方式可采用不同的解决方法:对于时分双工(TDD)方式,由于上下行链路采用相同的频率,在信道参数在相邻的上下行数据帧中几乎没有变化的情况下,可以直接利用上行估计得到的信道参数,但这只适用于慢速移动的系统;对于频率复用分割(FDD)方式,由于上下行链路的频率间隔一般都大于相关带宽,因此上下行的瞬时信道几乎是不相关的,此时采用反馈信道是最好的方法。显然,上行链路参数估计的好坏,对上下行信道的波束形成都有很大的影响。此外,在上行信道的波束形成时,就要考虑到下行信道波束形成如何进行,以实现上下行信道波束形成的统一优化,使智能天线系统的作用得到最大程度的发挥。

(3)波束形成算法

良好的自适应波束形成算法通常需要很大的运算量以及复杂的结构,目前的硬件性能尚难以达到这样的指标。因此,寻求用较少的运算和简洁的结构实现自适应波束,始终是科技人员努力的目标之一。此外,实现算法中具体参数(初始权值、收敛门限、步长等)的优化也对算法最终结果起着至关重要的作用。

4、 结束语

对于智能天线来说,在研究自适应波束形成新技术同时,还应关注技术的有效性、稳健性以及实用性等内容。从可实现的角度来看,智能天线自适应波束形成今后的研究可能趋向于以下几个方面:

探索有效的数字波束形成技术,着重于突破阵列物理限制的数字多波束形成技术。

研究计算有效、稳健的用户多径参数估计技术,重点在基于辅助导频信号的非盲技术。

根据业务和信道环境的不同,确定不同的自适应算法实现结构以及参数的选取准则。

此外,相对于上行自适应波束形成技术的广泛深入研究,下行链路性能成为提高系统性能的“瓶颈”,因此迫切需要有效的下行自适应波束形成方法。□

参考文献:

[1] Liberti J C, Rapport T S. Smart antenna for wireless communication: IS-95 and third generation CDMA application [R]. Prentice Hall PTR, 1999.

[2] Tsoulos G, Beach M, McGeehan J. Wireless personal communications for the 21st century: European technological advances in adaptive antennas [J]. IEEE Communications Magazine, 35(9), 1997.

[3] Kwark J, Lu I T. Blind adaptive space-time receiving and

transmitting diversities for multiuser DS-CDMA systems [R]. IEEE MILCOM’99, 1999.

[4] Guo Y J. Advanced base station technologies for UTRAN [J]. Electronics & Communication Eng Journal, 12(3), 2000.

[5] Seungwon Choi. A novel adaptive beamforming algorithm for a smart antenna system in a CDMA mobile communication environment [J]. IEEE Trans. VT, 49(2), 2000.

收稿日期:2003-03-12

作者简介:

自适应信号采集系统设计 篇12

在工业控制和智能测量系统中, 一般信号的变化幅度大, 若采用单一的放大增益, 小信号经放大器放大后, 幅值仍然很小, 经A/D变换后, 会影响数据的精密度, 而大信号放大后又有可能超出A/D转换的量程, 因此设计开发增益自动可调的程控增益放大器, 使允许输入的模拟量在很大的范围内动态可调, 方便与微机接口, 已成为现代测控设备的必然要求。

二、自适应信号采集系统的组成

自适应信号采集系统由差动放大电路、共模抑制电路、双端单端转换电路和程控增益放大电路组成, 是一种连续程控调节电路。

差动放大电路由运算放大器Ⅲ、Ⅳ (OP27) 组成, 在差动放大电路和双单转换电路之间增加了共模抑制电路, 以运算放大器Ⅴ (OP27) 为核心构成。

单双转换电路由运算放大器Ⅰ、Ⅱ (OP27) 组成, 它将单端输入信号转换成双端输出信号, 提供较高的共模抑制能力。

衰减器电路由U6 (8位DAC转换器DAC0832) 和运算放大器U 7 (OP27) 组成。

三、自适应信号采集的方法

可自动控制增益放大器可以用D/A转换器和运算放大器实现, 调试容易, 外接元件少, 可以方便地和计算机接口。放大器增益的线性好、精度高, 既可放大又可衰减, 动态范围达100dB以上。

信号通过传感器, 输入到固定增益放大器。因为输入为单端信号, 所以在固定增益放大器的前端, 要接上一个单端变双端转换电路, 此电路由两个同型号运算放大器组成, 一个做同相放大器, 即信号跟随器, 另一个做反相放大器。信号经前级放大后, 增益是不可变的, 手动调节输入或运算放大器的电阻, 既不方便又不精确。所以, 加一个衰减器和控制器, 通过控制器给衰减的反馈信号, 控制衰减器的衰减倍数, 来实现增益的自动控制。衰减器由D/A转换器和一个运算放大器组成, 运算放大器在衰减器中的作用使D/A转换器的输出电流信号变换成电压信号, 方便传输给电压转换器。控制器由A/D转换器、FPGA控制器和电压比较器组成。

四、基于FPGA的控制器简介

FPGA (现场可编程门阵列) 是新型的可编程逻辑器件, 内部含有大量的门阵列, 相应时间端, 可以精确的控制时钟的输出。FPGA的处理数度很块, 完全适合采集速度比较高的场合。更重要的是FPGA采用系统可编程技术, 即使整个数据采集系统已经投入生产, 也可以根据实际情况改变系统的配置和功能, 下载到FPGA芯片中即可完成功能的修改。在本设计中使用的是Altera公司的EP1K30FPGA芯片。

五、FPGA的配置

FPGA正常工作时, 它的配置数据存储在SRAM中, 由于SRAM的易失性, 每次加电时, 配置数据都必须重新下载。FPGA器件由两类配置下在方式:主动配置方式和被动配置方式。主动配置方式由FPGA器件引导配置操作过程, 它控制着外部存储器和初始化过程;而被动配置方式则由外部计算机或控制器控制配置过程。

专用配置器件通常是串行的PROM器件。大容量的PROM器件也提供并行接口, 按可编程次数分为两类:一类是OTP (一次可编程) 器件;另一类是多次可编程的。ALTEAR提供了一系列FPGA专用配置器件, 即EPC型号的存储器。

配置器件的控制信号 (如, Ncs、OE、和DCLK等) 直接与FPGA器件的控制信号相连。所有的器件不需要任何外部智能控制器就可以由配置器进行配置。配置器件的OE和Ncs引脚控制着DATA输出引脚的三态缓存, 并控制地址计数器的使能。当OE位低点平时, 配置器件复位地址计数器, DATA引脚位高电阻。当Ncs置低点平后, 地址计数器和DATA输出均使能。OE再次置低电平时, 不管Ncs处于何种状态, 地址计数器都将复位, DATA引脚置为高电平。

实际应用中, 常常希望能随时更新器件中的内容, 但又不希望再把配置器件从电路板上取下来编程。ALTERA的可重复编程配置器件, 如EPC2就提供了在系统编程的能力。图2为EPC2的编程和配置电路, EPC2本身的编程由JTAG接口来完成, FPGA的配置可既可由ByteBlasterMV配置, 也可用EPC2来配置, 这时, ByteBlasterMV端口的任务是对EPC2进行ISP方式下载。

六、仿真实验

采用Multisim仿真软件, 该软件是一个完整的设计工具系统, 提供了一个非常大的零件数据库, 并提供原理图输入接口、全部的数模Spice仿真功能、VHDL/Verilog设计接口与仿真功能、FPGA/CPLD综合、RF设计能力和后处理功能, 还可以进行从原理图到PCB布线工具包 (的无缝隙数据传输。它提供的单一易用的图形输入接口可以满足设计需求。

在Multisim2001的主窗口中, 建立新文件, 需要对电路窗口的有关选项进行设置, 这样有利于电路图的搭接和打印。电路窗口的设置包括图纸的大小、是否显示栅格、页边缘和标题栏、电路图选项设置和元器件符号设置。

把元器件进行合理的布局以后, 就可以开始连线了。Multisim2001提供两种连线方式:手工连线和自动连线。在本仿真过程中, 选择用手动连线。本仿真过程中, 使用了函数信号发生器、示波器。

经仿真软件的仿真, 结果符合设想的要求, 但是在实际应用过程中, 因为外界干扰条件的存在, 所以还得考虑采用上面介绍的抗干扰方法。

七、结论

本文提出的这种设计方案理论上分析和仿真结果表明:该系统能够通过FPGA控制衰减器来完成对输入信号的放大, 提高系统的精度, 实现可自动调节放大倍数。促进系统性能的改善和提高, 具有较高的应用价值。

摘要:本设计应用现场可编程门阵列 (FPGA) 控制实现对放大器增益进行预置和自适应控制, 全面提高了采集数据的精度和检测信号的动态范围, 提高了系统的可靠性。

关键词:自适应,运算放大器,FPGA,仿真

参考文献

[1]谢自美:电子线路设计[M].武汉, 华中科技大学出版社, 2000.6

上一篇:小学体育训练下一篇:企业基因