数字校准系统

2024-10-16

数字校准系统(通用7篇)

数字校准系统 篇1

摘要:基于自动校准的数字仪表自动校准系统是专门为现场校验数字仪表而设计开发的一款便携式设备系统。该系统应用高精度采样技术, 并结合最新数字信号处理方法, 为现场校验数字仪表提供了一套方便高效的解决方案。本文主要对基于自动校准的数字仪表自动校准系统的构成以及系统的功能进行分析说明。

关键词:数字仪表,自动校准,现场校验

一、基于自动校准的数字仪表自动校准系统的基本构成

一个基于自动校准的数字仪表自动校准系统, 一般由四部分组成:第一是微机或微处理器, 它是整个系统的核心;第二是被控制的测量仪器或设备, 称为可程控仪器;第三是接口;第四是软件。其中, 基于自动校准的数字仪表自动校准系统结构如图1所示。

1. 微机 (或微处理器)

这是整个系统的核心。在软件控制下, 微机控制够个自动校准系统正常运转, 并对测量数据进行某种方式的处理, 如计算、变换、数据处理、误差分析等;最后将测量结果通过打印机、显示器、磁盘磁卡或电表、数码显示等方式输出。

2. 可程控仪器或设备

在自动测试过程中, 测量仪器或设备的工作, 如测量功能、工作频段、输出电平、量程等的选择和调节都是由微机所发控制指令的控制下完成的。这种能接受程序控制并据之改变内部电路工作状态, 以及完成特定任务的测量仪器称为仪器的可程序控制, 简称可程控, 或称程控仪器。显然程控仪器是组成自动校准系统的基本部分。

3. 接口

一个自动校准系统中, 各仪器和设备之间的接口的总体称为该自动校准系统的接口系统。显然, 接口系统是自动校准系统达到自动测试目的, 使自动校准系统各仪器和设备之间进行有效通信的重要环节。接口的主要任务是在下列方面提供仪器与计算机连接需要的兼容:一是机械兼容, 对接口的最简单的要求是提供机械兼容, 就是要有适当的连接器和它们之间的连线;二是电磁兼容, 就是使计算机和探器之间有适配的电器特性即在逻辑电平方面要相符合;三是数据兼容, 一旦接口已使计算机和仪器实现了机械和电器兼备它们就能通过数据线交换电信号信息, 但需要某种格式翻译, 有种种编程能力的计算机通常能执行这种功能, 考虑到速度, 往往把这个任务交给接口完成。

4. 软件

软件技术是整个系统的核心技术。常用的开发软件有Lab VIEW、Lab Windows CVI、VEE等等。这些软件已相当完善, 而且还在升级、提高。以Lab VIEW为例, 这是基于图形化编程语言G的开发环境, 用于如GPIB、VXI、PXI、PCI仪器及数据采集卡等硬件的系统构成, 而且, 具有很强的分析处理能力。Lab View软件的结构组成如图2所示。编程设计图形化软件模块用于提供图形化编程环境, 通过调用控件、库函数原码模块进行仪器面板设计和数据分析处理;仪器驱动程序提供用户接口开发工具标准软件模块。

二、基于自动校准的数字仪表自动校准系统的基本功能

1. 信号采集与控制功能

数字仪表自动校准系统是由计算机和仪器硬件组成的硬件平台, 实现对信号的采集、测量/转换与控制的。硬件平台由两部分组成:一是计算机可以是笔记本计算机、PC机或工作站;二是仪器硬件:可以是插入式数据采集板 (含信号调理电路、A/D转换器、数字I/O、定时器、D/A转换器等) , 或者是带标准总线接口的仪器, 如GPIB仪器、VXI仪器、RS-232仪器等) 。

2. 数据分析处理功能

数字仪表自动校准系统充分利用了计算机的存储、运算功能, 并通过软件实现对输入信号数据的分析处理。处理内容包括进行数字信号处理数字滤波统计处理、数值计算与分析等。数字仪表自动校准系统比传统的以微处理器为核心的智能仪器有更强大的数据分析处理功能。

3. 测量结果的表达

数字仪表自动校准系统充分利用计算机资源如内存、显示器等, 对测量结果数据的表达与输出有多种方式, 这也是传统仪器远不能及的。例如, 数字仪表自动校准系统可以实现:通过总线网络进行数据传输;通过磁盘、光盘硬拷贝输出;通过文件存于硬盘内存中;计算机屏幕显示。

三、结束语

一般数字仪表在使用前都要进行刻度校准。在使用中, 随着仪表温度升高, 数字仪表元件的参数往往会发生变化, 还有诸如电网干扰、噪声等因素的影响, 原来校准好的状态会受到破坏, 导致前后测量的数据不一致。基于自动校准的数字仪表自动校准系统不仅可以自动校准, 还可以在测量过程中定期校准。这样测量的一致性条件校好, 减小了误差。同时对可节约人力、物力, 提高工作效率, 发挥了非常重要的作用。

参考文献

[1]刘洋.浅析数字仪表自动校准系统的构成[J].自动化与仪表, 2012 (13) .

[2]杨秀英.数字仪表自动校准系统的使用方法分析[J].天津电力技术, 2009 (12) .

[3]王胜利.电能表现场校验技巧说明[J].黑龙江电力, 2010 (12) .

[4]邵文艳.浅析数字仪表自动校准系统在数字仪表校验中的应用[J].民营科技, 201 (213) .

数字校准系统 篇2

通常我们希望智能仪表的输出与输入量之间具有线性关系, 但是实际中许多测量仪表, 传感器自身的输入、输出特性总是存在不同程度的非线性。因此寻求合适的测量与计算方法, 是决定智能仪表测量精度高低的关键。同时在智能仪表的模拟量输入部分, 虽然每块信号输入板的电路一样,但由于元件参数误差, 在相同的输入信号经过不同的AD模块板转换出来的码值是不一致的, 因此需要对每台智能仪表的每一路输入、DA输出分别进行标定, 将标定后得到的参数存入表内的非易失性存储器中。仪表按照各自的标定参数进行正确的数据运算, 从而保证测量和变送输出的准确性和精确性。

本文将计算机技术、计量技术和自动控制技术结合到一起,应用到各种不同类型的智能仪表上,能对智能仪表的设定值、测量值、误差值进行自动校准。采用本文的智能自动校准的系统,能克服标定过程中的人为因素影响,统一标准,能最大限度的保证测量精度,可操作性强,方便生产。下面对系统实现自动数值分析分段拟合多项式和自动完成校准的方法进行阐述。

1、最小二乘法曲线拟合数值线性化处理

在对给出的数据 (Xk, Yk) (k=0, 1, 2,…, n) 作拟合曲线时,一般总是希望使各数据与拟合曲线的偏差的平方和最小,这样就能使拟合曲线更接近于真实函数。这个原理就称为最小二乘原理[1]。

根据"最小二乘原理"的算法, 本系统实现了由软件可根据精度要求,自动推导被测参量和输出量的近似分段线性表达式, 来拟和多阶方程。以K型热电偶为例, 数值分析大致过程如下:利用原函数精确计算公式

在一定温度范围内定步长均匀取点, 得到一组数据 (t1, E1) (t2, E2) … (tn, En) , 利用这组数据求出分段线性拟合函数T=K×E+B。其中K, B系数为计算机自动推导得出。例如K型热电偶量程为0~1372℃,按步长0.1℃取点,根据精度1‰要求,设置允许误差0.9℃,自动推导满足要求的分段,同时列出所需系数和误差参数(见表1)。分段拟合公式的系数作为常数存入智能仪表的ROM内, 智能仪表在进行温度测量时, 先根据测量热电偶的电势E数值的大小, 找到合适的拟合段, 从存储器ROM中取出该段拟合公式的系数, 通过计算及相应的数据处理得到实际测量的温度值。实际应用中验证了此数值分析方法的可行性和正确性。

2、自动校准系统的实现

2.1 智能表自动校准原理

智能仪表的共同特点是都带微处理器、存贮器, 从而使其功能多样化。智能仪表的这些功能是通过对智能仪表内部的存储器写入各种指令来实现的, 即通过智能仪表在调校时的"组态" (Configuration) 来完成。

自动校准系统[2]能在校准过程中,充分利用计算机的数据储存、运算及处理的能力,能自动准确的控制信号源输出标准信号给智能仪表的输入端,并且自动完成对测试原始数据的读取、误差判定、计算等工作,自动设定校准参数。

2.2 自动校准系统的硬件设备

计算机:实现通讯管理,系统自动控制等功能。

标准信号源:能够通过串口接受计算机控制,产生有效输出标准信号。该信号源输出信号必须满足国家测量仪表精度要求。本系统中,信号源采用杭州美控自动化技术有限公司多功能过程校验仪(MX825)。通过PC机控制高精度标准信号源输出端,可输出多种信号(各种热电偶、热电阻、标准电压/标准电流信号等)。

智能数字待检仪表:各种型号的智能数字控制仪表,采用先进的微处理器进行智能控制, 适用于温度、湿度、压力、液位、流量、速度等多种物理量检测信号的显示及控制。

自动信号切换板:本系统中,采用自主设计开发的自动信号切换板。标准信号源输出的信号通过转换板直接与要校对的智能数字仪表各对应输入接口,这样自动信号切换板的微控制器接受来自PC机232端口的指令,进行通道切换,使标准信号输出给待检智能数值仪表。采用最新无跳线技术, 具备多种准信号源输出与待校对应智能数字仪表输入端之间的轻松自动切换。

2.3 自动校准系统的软件实现

自动校准系统采用模块化设计,Delphi软件编程[3]。通过对不同模块的调用,可以方便、灵活的实现设计目标。软件中主要包括以下模块:

系统管理模块:该模块主要处理与待检选项有关的"设备连接、信号输出、进程控制、异常终止"等操作。计算机通过该模块管理,调整和控制整个自动标定过程。

通讯处理模块:该模块主要处理计算机与各设备间的数据通讯。通过对不同设备的通讯独立管理,允许通过不同的接口与不同的设备建立数据通讯。

数据处理模块:该模块把所有获得的数据保存在软件的数据结构中, 同时自动完成对测试数据的读取、误差判定、计算等工作。

进度控制及记录模块:按照校准要求,显示校准进度,同时记录相关数据,形成标准文档。

软件流程图及系统主界面:(如图1, 图2)

3 结束语

对于该自动标定系统,它可以实现以下几个目标:

(1)标定准确。对于该仪表标定出来的模拟信号或者是数字信号输入, 仪表显示转换后的输出结果与标准分度表查询结果相比校,完全满足仪表所要求1‰的测量精度。

(2)实现自动校准功能。该校准系统打破了传统的人工手动的进行仪表标定,解决了以往在数字智能仪表在校准过程中自动化程度低、数据处理时间长和易出错等问题, 利用软件编程, 通过自动化测试、数据采集和自动化分析来保障校准进度和数据的可信度。在系统运行过程中,使复杂烦琐的原始数据记录和处理变得非常容易, 解决了人工标定时的繁琐与单调。同时该系统操作简单、功能强大, 完全符合技术要求,大大提高了工作效率。

在生产实践中应用表明, 它具有快速方便、简单易用、精确稳定等特点, 满足了仪表生产的需要。

摘要:针对智能数字仪表测量的准确性和精确性及生产过程中标定的问题, 本文结合计算机技术、计量技术和自动控制技术, 对校准系统实现自动数值分析分段拟合多项式和自动完成校准的方法进行了阐述。

关键词:计算机,智能数字仪表,自动校准, RS232

参考文献

[1].徐士良.数值分析与算法.机械工业出版社.2003.

[2].计算机的测量和自动化应用方案文集.美国国家仪器有限公司, 2003

数字校准系统 篇3

信号模拟是构建接近实战的复杂电磁信号环境,检验与考核信息对抗装备对于这种复杂多变环境以及各种技术体制作战对象适应能力的重要技术手段[1]。

传统基于模拟调制方式的信号模拟技术在应对信号样式、波形复杂多变和信号带宽越来越宽等需求方面,遇到了极大的挑战。特别是几百MHz,甚至高达1 GHz以上瞬时带宽的信号模拟,只有应用宽带数字矢量调制技术才能满足信号模拟瞬时带宽的拓展需要,同时简化信号模拟的上变频通道设计[2]。

虽然利用宽带数字矢量调制技术实现了信号模拟的瞬时带宽成倍拓展,但是由于器件本身非理想特性带来的固有失配,必然会在实际设计中引起数字矢量调制通道的镜频抑制[3,4]和本振抑制等指标严重恶化,如果不进行校准和补偿,调制变频输出的信号就根本无法满足信号模拟的应用要求。因此,针对宽带数字矢量调制通道的失配影响进行了深入分析,并给出了校准和补偿方法。

1 数字矢量调制失配分析及建模

模拟产生信号时,利用宽带数字矢量调制技术实现信号瞬时带宽的拓展和上变频,基本原理就是将基带信号与相位正交的两路本振信号进行混频,采用正交对消原理消除无用边带信号,达到单边带调制目的,突出的优点是不需要中频放大、滤波和变频[5],宽带数字矢量调制的基本原理如图1所示。

图中:I(t),Q(t)为信号模拟的基带信号;fI(t)与fQ(t)为相互正交的两路本振信号。理想情况下,信号的上变频输出为:

S(t)=Ι(t)fΙ(t)+Q(t)fQ(t)(1)

在实际的信号模拟系统中,由于器件特性的非理想特性,数字矢量调制的I,Q通道必然存在固有的直流偏置以及正交调制支路不平衡等影响因素。

假定I通道的直流偏差为DI;Q通道的直流偏差为DQ,同时将I,Q通道幅度误差归一化为β,由此产生附加的相位误差假定为φ[6],则在考虑失配影响因素后,数字矢量调制通道的实际输出信号可表示为:

S(t)=Ι1(t)cos(ωct)+Q1(t)sin(ωct)(2)

式中:I1(t),Q1(t)为:

{Ι1(t)=Ι(t)+DΙ+β[Q(t)+DQ]sinφQ1(t)=β[Q(t)+DQ]cosφ(3)

从上述数字矢量调制的模型分析可知,考虑I,Q通道的幅度、相位误差和直流配置等不平衡因素后,输入I1(t)和Q1(t)使得整个通道的调制变频不再正交,导致通道的镜频和边带抑制性能严重下降,本振泄露大[7]。因此模拟产生的信号,无法使接收系统正常识别和分选,只有通过数字校正的方法,建立数字矢量调制通道的预失真校准模型,并对整个通道的幅度相位误差和直流偏置进行补偿,才能使最终模拟产生的信号质量满足实际应用的需求。

2 数字矢量调制通道校准与补偿

模拟产生信号时,宽带数字矢量调制通道校准、补偿的基本思路是:在不同输入信号条件下,对数字矢量调制上变频通道的输出信号进行功率测量[8],求解式(3)中I,Q通道调制输出信号模型的各项参数,目标是使I1(t)和Q1(t)正交化,从而建立I1(t)和Q1(t)输入的预失真校准补偿网络,以达到校准整个数字矢量调制通道失配产生的误差,提高信号输出质量的目的。

假设实际的信号模拟系统中,整个数字矢量调制通道增益为G,经过数字矢量调制上变频后输出信号的平均功率可表示为:

Ρn=G2E[S2(t)]=G21Τ0ΤS2(t)dt(4)

把式(3)代入式(4),可得:

Ρn=x1μΙ+x2μQ+x3σΙ2+x4σQ2+x5rΙQ+x6(5)

式中:μI=E[I(t)],μQ=E[Q(t)],σΙ2=E[I2(t)],

σ2Q=E[Q2(t)],rIQ=E[I(t)Q(t)],

x1=G2(DI+βDQsin φ),

x2=G2(β2DQ+βDIsin φ),

x3=G2/2,x4=G2β2/2,x5=G2βsin φ,

x6=G2(DΙ2+β2DQ2+2βDIDQsin φ)/2。

分别在以下六种数字矢量调制上变频通道输入信号的条件下,进行数字矢量调制上变频通道输出信号功率电平Pn的测量[9,10],可以逐次求解出式(5)的G,DI,DQ,βφ五个未知参数。

(1) I(t)=Q(t)=0;

(2) I(t)=Acos(ωct),Q(t)=0;

(3) I(t)=0,Q(t)=Acos(ωct);

(4) I(t)=Q(t)=Acos(ωct);

(5) I(t)=1;Q(t)=0;

(6) I(t)=0;Q(t)=1。

如果上述六种输入条件下上变频通道输出信号的功率测量值用P1~P6表示,则可以求解得到:

G=2(Ρ2-Ρ1)A;β=2(Ρ3-Ρ1)AG;

φ=arcsin4Ρ4-4Ρ1-(1+β2)A2G22A2βG2;

DΙ=Μ-sinφ(Ν-Μsinφ)cos2φ;DQ=Ν-Μsinφβcos2φ

其中:Μ=Ρ5-Ρ1G2-1/2;Ν=Ρ6-Ρ1βG2-β/2

根据求解的G,DI,DQ,βφ参数,可进一步推导数字矢量调制通道的预失真校准补偿模型。首先将式(3)表示为矩阵形式:

[Ι1(t)Q1(t)]=[1βsinφ0βcosφ]{[Ι(t)Q(t)]+[DΙDQ]}(6)

在实际的信号模拟系统中,只要数字矢量调制通道中幅度、相位的不平衡未恶化到使通道的输出信号自激,则βcos φ≠0,矩阵[1βsinφ0βcosφ]可逆,所以数字矢量调制通道的失配引起的输入信号I1(t)和Q1(t)可以进行正交化,对式(3)进行预失真校准补偿的算法是收敛的。

假设实际信号模拟系统中,数字矢量调制通道校准补偿后的理想基带输入为I(t)和Q(t),则对实际基带输入信号求逆正交化的结果可表示为:

[Ι(t)Q(t)]=[1-tanφ01/βcosφ][Ι1(t)Q1(t)]-[DΙDQ]

因此,实际的信号模拟系统中,数字矢量调制上变频通道的预失真校准补偿模型如图2所示。

3 校准补偿模型的仿真结果

在实际的信号模拟系统中,假设数字矢量调制通道的本振频率为3 GHz;通道增益G=1,同时假设模拟信号的基带输入为单载频信号;基带频率ω分别为50 MHz和400 MHz。利用前节阐述的多次功率测量法对未校准的数字矢量调制通道输出进行预估,可以求解整个数字矢量调制通道校准补偿模型的全部未知参数,如表1所示。

根据表1计算出的模型参数,利用图2给出的数字矢量调制上变频通道的校准补偿模型进行上述给定条件的信号模拟仿真分析,得到的具体结果如下:

当信号模拟数字矢量调制上变频通道的输入信号频率为50 MHz时,通道校准补偿前后的输出信号频谱如图3所示。

当信号模拟数字矢量调制上变频通道的输入信号频率为400 MHz时,通道校准补偿前后的输出信号频谱如图4所示。

从图3和图4的输出信号频谱仿真波形分析,数字矢量调制通道校正前后输出信号的镜频信号与本振泄漏功率电平对比,如表2所示。

从表2的对比结果可知,通过对数字矢量调制通道输出信号进行多次的功率电平测量,使得单载频基带输入信号经过推导出的预失真校准模型的校准和补偿,输出信号的镜频抑制和本振抑制指标改善了50 dB以上。同时,对于宽频带的基带输入信号,只需要按照一定的频率间隔,逐点进行校准就可以达到相同的校准效果。

4 结 语

深入分析了宽带数字矢量调制通道不平衡因素对信号模拟系统中上变频输出信号的镜频和本振抑制指标的恶化影响,建立了宽带数字矢量调制通道的预失真校准补偿模型。

通过对调制通道输出信号进行多次功率测量的方法,实现了预失真校准补偿模型的参数求解。仿真结果表明,校准补偿后输出信号的镜频和本振抑制高达50 dB以上,信号瞬时带宽由于正交调制也可以成倍拓展,使得模拟产生的信号带宽和质量均达到了接收系统分选、识别的应用要求。

参考文献

[1]于红旗.雷达信号仿真及实现方法[J].电子对抗技术,2003,18(5):27-29.

[2]杨朝斌,张勋.宽带数字调制器设计实现[J].无线通信技术,2007,16(2):49-51.

[3]魏连成.具有镜频抑制功能的混频电路设计[J].国外电子测量技术,2007,26(6):23-25.

[4]杨志国,彭世蕤.用Hilbert变换法实现数字正交相检的镜频分析[J].武汉理工大学学报:交通科学与工程版,2004,28(2):208-210.

[5]曹鹏,费元春.直接正交上变频的边带与本振泄漏分析及优化设计[J].兵工学报,2004,25(6):78-81.

[6]王绍丹.一种DVB系统数字中频发射机的计算机仿真测量方法[J].中国有线电视,2008(9):944-951.

[7]高剑.数字校正在角误差测量中的应用[J].火控雷达技术,2006,35(4):34-36.

[8]Churchill F E.The Correction of I and Q Errors in aCoherent Processor[J].IEEE Trans.on Aerospace andElectronic Systems,1981,AES-17(1):131-137.

[9]王茂海,谢开,徐正山,等.一种实用的幅值和功率测量新算法[J].电力系统自动化,2007,31(16):66-69.

数字校准系统 篇4

在现有工艺水平下,由于受电容失配、系统失调以及噪声等因素的限制,采用电荷再分配结构的SAR ADC能够达到的最高精度被限制在12位左右[2]。因此,高精度ADC设计必须依靠校准技术。一般校准技术有两类:模拟校准技术是在模拟领域把相关的量调整到正常数值或者利用激光对芯片元件进行修正,但这种技术成本高,且容易受到封装时机械应力的影响;还有一种数字校准技术,通过把电路中失配误差等影响在数字领域描述,然后在数字领域对输出代码进行调整,而不关心模拟领域的物理量数值[3]。数字校准是现行校准技术的主流。

提出一种基于二进制加权电容阵列DAC的数字校准算法,用一个低精度的DAC表示各个待校准电容的失配误差值,然后在AD转换过程中,将相应的误差电压加载到电容阵列中,实现对电容网络的校准。

1 SAR ADC内核原理

SAR ADC的基本结构由比较器、DAC、SAR逻辑控制电路组成,如图1所示。

基本工作过程:首先模拟输入Vin被采样保持,送入比较器的一端,N位SAR寄存器的初始值为中间值(即100……00),DAC将该值转换为对应模拟量VDAC=VREF/2(VREF是ADC的基准电压)。比较器开始比较Vin与VDAC的大小。若Vin>VDAC,则比较器输出1,SAR寄存器的最高位保持,次高位预置为1;反之,比较器输出0,SAR寄存器的最高位为0,次高位预置为1,ADC进行下一次比较。这样反复逐次比较直到SAR寄存器的最低位,寄存器中保存的N位数字量就是ADC的转换结果。

2 数字校准算法

数字校准算法的基本思想是在ADC正常使用前,先计算电容失配等的一些非线性误差,把误差相应地在数字领域用校准码形式描述,并在正常工作过程中把这些校准码加载到电路中进行误差校准,从而达到校准失配的目的。校准码的产生和使用有不同的算法[4,5],本文设计了一种从低位到高位电容依次校准的思想。

2.1 校准码产生的算法原理说明

本设计中采用对称的分段电容结构,如图2。对称差分结构使得比较器输入负载相等,消除比较器的共模噪声,提高信噪比;分段电容阵列采用高位与低位通过过渡电容耦合的结构,保证了MSB的高精度以及LSB的单调性。N(N=M+K)位的SAR ADC由左右侧差分结构的高M位DAC以及左侧低K位的DAC构成,右侧低K位则用于校准电容阵列的失配误差。

产生校准码的工作过程中,设置两种电容阵列工作状态:准1工作状态下接入一组电容,并将左右侧电容阵列的输出与比较器的输入端断开(比较器两端输入均为0),同时电容阵列输出端接共模电平VCM;准2工作状态下接入另一组电容,输出接比较器两端的输入端进行比较。通过两种工作时序的切换,根据电荷守恒以及电荷重分配原理,待校准电容之间的失配误差可以通过右侧低K位的校准电容阵列表示出来。

下面以高位电容为例,分析校准码产生原理细节。图3为在两个不同的工作状态下左侧电容阵列的等效模型。

图3中,CLN表示左侧电容阵列中除了C1、C2电容外的所有电容之和,C1表示已经校准的所有电容之和,C2表示目前待校准的电容,且C1、C2为相邻的两组电容,设CT表示左侧电容阵列总电容值,即有CLN+C1+C2=CT。VL端接入比较器的一个输入端,根据准1、准2两种工作状态下的电荷守恒原理,则有:

得到准2工作状态下左侧电容阵列输入到比较器的电压值:

图4为在两个不同的工作状态下右侧电容阵列的等效模型。其中Clt表示右侧低位电容总和,CB表示过渡耦合电容,CV表示右侧低K位接入VREF的总电容,Cht表示右侧高位电容总和,CT表示右侧电容阵列总电容值。左右侧电容阵列高位始终保持着差分的结构。根据准1、准2两个工作状态下的电荷守恒则可得到:

根据(2)、(3)两式,有:

式(4)中,C1是已校准电容,且C2与C1之间有相互联系的权重关系,而C2与C1之间的失配误差可以通过CV描述出来。CV的值对应右侧低K位电容阵列的开关二进制值,即将电容失配误差的影响通过数字域描述出来,并在正常转换过程中,将这些误差通过相应的处理后加载在电路中,实现校准误差的效果。

2.2 SAR ADC校准算法的实现

假设单位电容的失配误差为△,通过对应位电容数量的加和,可以近似模拟高位电容误差的统计分布情况。当每位电容的统计误差与其对应的权重(2n)乘积超过单位权值时,需要考虑对此位进行校准。

现假设需要校准的最低位电容CL1为左侧低K位电容阵列中的某电容。将CL1低一位的电容C0视为基准电容值,高位电容则需要依次校准为2i×C0,以达到相互匹配的关系。首先需要用右侧低位校准电容阵列表示出基准电容C0的大小。在准1工作状态,左右侧电容阵列均不接入电容,输出接共模电平。准2工作状态,左侧电容阵列接入C0,同时右侧低位校准电容阵列接入可变的Cv0电容,观察比较器的输出,当比较器输出发生跳变时,有:

其中A、A′分别表示左右侧电容阵列中,低位电容等效到高位的等效因子。

接下来,可对CL1进行校准。在准1工作状态,左侧电容阵列接入电容C0。准2工作状态,左侧电容阵列接入需要校准的CL1电容,同时右侧低位校准电容阵列接入可变的Cv1电容,当比较器输出发生跳变时,有:

令:

则有:

加入校准码Calib[1]后,CL1在电路中等效作用与2×C0在电路中的作用是一样的,即校准了CL1于C0之间的匹配关系。

依上述方法可以得到:

Calib集合保存的是对应位电容的校准码值,在正常的SAR ADC模数转化过程中,加载到右侧低位的校准电容阵列中,与对应待校准电容的共同作用下,起到校准电容失配误差的效果。

3 系统行为级仿真及结果分析

设置单位电容的失配误差为0.5%,建立带有统计分布失配误差的14 bit电容阵列模型。由于本次的系统行为级仿真是为了验证校准算法的正确性及有效性,因此,设计比较器为理想的比较器,可以实现无限精度的比较。

系统级仿真内容包括采用码密度直方图方式仿真微分非线性(DNL)和积分非线性(INL)等常规静态参数,并采用FFT法进行频谱分析,仿真信噪比、信噪失真比和有效位数等动态参数[6]。

进行静态参数仿真时,满足0.3LSB精度、95%置信度,仿真点数设置为220个。

对于ADC的频谱分析,设置采样频率fs为200 k Hz,采样点数为N为8 192个点,采样的周期数M为129个。

SAR ADC在未进行数字校准时,由于电容之间的失配误差导致ADC非线性,引起频谱的失真,在频谱图上表现出明显的谐波,造成信噪比以及有效位数都比较低。从仿真结果(见图5、图6)可以看出信号噪声失真比SNDR为72.9 d B,有效位数仅为11.82 bit。静态参数INL、DNL分别为2.86 LSB、5.01 LSB,说明存在严重的失码。

在相同采样频率及输入信号的情况下,对SAR ADC进行数字校准。从仿真结果可以看出(见图7、图8),校准后,ADC的非线性有了明显改善,SNDR有明显的提高,为85.1 d B,有效位数为13.85 bit,接近理想的转换位数。静态参数INL、DNL分别为0.25 LSB、0.26 LSB。

本文详细介绍了一种基于二进制加权电容阵列SAR ADC的数字校准算法。该算法通过利用两种不同工作状态下电容阵列电荷守恒以及电荷重分配原理,实现由低位到高位依次校准电容的目的,大大改善了整体SAR ADC由电容失配引起的非线性。通过对实际14 bit SAR ADC系统级的仿真可以看到,在加入校准算法后,ADC的信噪比以及有效位数得到明显的提高,非线性失真很大程度上得到了抑制,即验证了本校准算法的正确性和有效性,为高精度SAR ADC的设计提供了有效而且易于实现的数字校准算法。

参考文献

[1]魏智.解析逐次逼近ADC[J].国外电子元器件,2003(2):72-74.

[2]周文婷,李章全.SAR A/D转换器中电容失配问题的分析[J].微电子学,2007,37(2):199-203.

[3]戴澜,周玉梅,胡晓宇,等.一种流水线ADC数字校准算法实现[J].半导体学报,2008,29(5):993-997.

[4]LEE H S.Self-calibration technique for A/D converters[J].IEEE Transactions on Circuits and Systems,1983,30(3):188-190.

[5]乔高帅,戴庆元,孙磊,等.基于16位SAR模数转换器的误差校准方法[J].微纳电子技术,2009,46(10):636-639.

数字校准系统 篇5

一般显示器的色域覆盖率主要取决于显像三基色的色度坐标在色度图中构成的基色三角形面积,三角形色域称为常规色域,它所能重显的彩色只能在这个三角形之内,三角形之外的颜色不可能被重显。为追求更完美的色彩重显,国际标准组织研究制定了比常规色域更宽的色域标准。Pointer色域是实测的“物体真实表面色色域”,《未来电视和图像系统的国际统一色度和相关特性》建议书ITU-R BT.1361[1,2]将Pointer色域作为目标色域,ITU BT.709和我国GY/T 155-2000中的扩展色域部分均采用了ITU-R BT.1361。此外,国际电工委员会也制定了IEC 61966-2-4《多媒体系统和设备—彩色测量与管理2-4:彩色管理—面向视频应用的扩展色域YCC彩色空间—xvYCC》标准[3]。同时,近年来出现的发光二极管(LED)显示器、数字光学处理投影显示器、采用LED做背光源的液晶显示器等能够重显比常规色域更宽的色域。

为构建三维色域图,需对被测样机进行多个色块的色坐标测量。由于这些色块不只是常规色域测试所采用的R,G,B基色,而是具有不同色调、亮度(明度)和色饱和度的色块,为保障测试结果的准确性,需对使用的亮色度计进行校准,得到多个色块的修正值。本文首先介绍了数字电视显示器的亮色度计校准方法,然后介绍了宽色域测量多个色块的校准方法。

1 光谱亮度计校准方法

使用光谱亮度计测量电视显示器的方法如图1所示。

用X,Y,Z表示1931 CIE-XYZ色品图中任意色光的三刺激值,若被测电视显示器发出的彩色光具有光谱功率分布ϕ(λ),则该彩色光的三刺激值分别为[4]

式中:是CIE标准观察者光谱三刺激值。由X,Y,Z再进行归一化处理,就可以求出任意色光的色度坐标x,y,z为

由式(1)可以看出,光谱亮度计的测量值与被测电视显示器发出的彩色光的光谱功率分布ϕ(λ)有关,因此,对用于测量电视机显示器的光谱亮度计进行校准时,除了用标准光源进行校准,还应进一步通过利用与被测样机相似光谱形状的标准光源进行校准。根据显示器发光原理不同,电视发出彩色光的光谱功率分布不同,电视显示器相对光谱功率分布如图2所示。

采用CCFL背光、LED背光的LCD与CRT的相对光谱功率分布有明显不同的特征。虽然3种谱线都呈线状,但LED背光的光谱功率峰值在450 nm附近,CRT的峰值在625 nm附近,而CCFL背光的光谱功率峰值在550 nm附近,在610 nm附近也有较高的谱线。这说明不同发光器件的显示器发出彩色光的光谱功率分布不同。而且由图2可以看出,A光源光谱呈连续分布,无线谱特性,与电视显示器的相对光谱功率分布差异很大,因此,除了采用国际通用的A光源对测量电视机显示器的光谱亮度计进行校准,还应该使用与被测样机光谱接近的标准屏,减小由于光谱分布不同所引入的不确定度,如图3所示。

选取光谱功率分布稳定的显示器作为标准显示屏,采用标准测量仪器对标准屏的量值进行标定,然后用待校准的光谱亮度计对标准显示屏进行测量,测量结果与标准显示屏的准确值进行比较,得出修正值。该校准方法通过标准屏完成量值传递。

2 宽色域测量的色块校准方法

为构建精确的三维色域图,需对大量具有不同色调、亮度(明度)和色饱和度的色块进行测量。为保证测量结果的准确性,需要对使用的光谱亮度计进行校准,得到该仪器测量这些色块的修正值。光谱亮度计的校准通过采用标准光谱亮度计传递量值来实现,该校准方法需保证标准光谱亮度计测量电视显示器这种光谱分布的样机能够得到正确结果,这需要通过修正光谱亮度计的光谱响应度来实现。通常采用标准A光源对测光仪器的光谱响应度进行可见波长范围内逐个波长段的标定。这就引发一个思考,如前面所述,校准时所用的光源光谱应与被校准光谱亮度计所测的样机光谱一致,采用标准A光源校准的标准光谱亮度计测量光谱完全不同并具有一定线光谱特征的电视显示器,得到的测量值是否是准确的?通过计算证明,理论上进行仪器的光谱响应度修正时,各个波长段的修正值与采用的标准光源光谱谱形无关。证明如下:

1)图4为校准光谱图,假设用测光仪器对准A光源进行测量,则测量后测光仪器得到B光谱,然而正常应该得到A光谱,所以需要对B光谱响应度进行修正使其得到C光谱。

设光谱响应度的修正系数为a1(λ),则

2)假设用另一F光源对同一测光仪器校准,则有光谱图如图5所示。

设光谱响应度的修正系数为a2(λ),则

由于探测器的光谱响应度是单位光(辐射)量产生的电流(电压)量[5],该参数是仪器固有参数,与其输入激励无关,因此有则有

将式(3)和式(4)代入式(5),则

推出a1(λ)=a2(λ),即上述2种校准方法在波长λ处的修正值相等。

理论上不同光谱类型的标准光源对测光仪器的光谱响应度进行修正都能够得到相同的修正值。标准A光源光谱为连续光谱,无典型的特征谱线,通过精确控制光源电压和电流,保持其光谱辐射功率分布稳定,因此通常采用标准A光源进行光谱响应度校准。校准后的测光仪器测试其他光谱的光源时能够得出准确结果。

按照上述方法完成标准光谱亮度计光谱响应度修正后,进行测量色块的光谱亮度计校准,如图6所示。首先,采用中国计量科学研究院的标准光谱亮度计对样机显示出的色块进行测量,得到准确值A,然后在被测屏的相同测量面积内用被校准设备对色块进行测量,得到测量值B,则测量结果的修正值是A和B的差值。

3 小结

测量电视显示器使用的光谱亮度计应采用光谱与被测样机接近的光源进行校准。理论上不同光谱类型的标准光源对测光仪器的光谱响应度进行修正都能够得到相同的修正值。三维色域的色块测量可采用光谱响应度经修正后的标准光谱亮度计进行校准。

摘要:数字电视显示器的宽色域技术是显示领域的发展方向。近年来,宽色域显示器件和显示方式有长足进步,以发光二极管为背光源的液晶显示器等已商品化。采用三维色域测量方法,可以比传统测量方法更加准确地衡量产品的色域。提出了利用显示器宽色域色块校准方法,解决三维色域测量的准确性问题。

关键词:宽色域,校准,色域覆盖率

参考文献

[1]徐岩,李彦,安永成,等.宽色域视频标准ITU-R BT.1361与IEC61966-2-4的分析和比较[J].电视技术,2009,33(3):92-94.

[2]李彦,徐岩,李桂苓.宽色域HDTV信号兼容传输方案研究[J].电视技术,2009,33(12):45-48.

[3]温娜,徐岩.面向视频应用的扩展色域YCC彩色空间——xvYCC标准简介[J].电视技术,2010,34(1):88-90.

[4]国家广播电视产品质量监督检验中心.数字电视与平板电视中的色度学[M].北京:人民邮电出版社,2010.

数字校准系统 篇6

1 整体设计思路

GPIB接口是HP公司于20世纪60年代末、70年代初开发的实用仪器接口系统。其对测试仪器的控制很方便, 并且具有较高的传输速度, 因此GPIB目前仍然是仪器控制中最常见的选择。

设计语言选择VB。VB是微软公司开发的包含协助开发环境的事件驱动编程语言, 拥有图形用户界面 (GUI) 和快速应用程序的开发 (RAD) 系统, 可以轻易的使用ADO连接数据库, 与Access数据库有很好的兼容性, 可以方便的进行移植和升级。

基于GPIB接口数字示波器的自动校准软件主要实现数字示波器所有校准项目 (包括直流增益测量, 频带宽度, 上升时间等) 的全自动化测试, 能自动完成测试数据运算、数据存储功能, 能够生成原始记录和证书/报告, 此外还包含了校准信息管理和查询功能。该自动校准软件的研制将在保证测试数据量值准确可靠的同时, 极大缩短校准的时间, 提高效率, 为科研工作解放出更多人力资源。

1.1 系统主体构架

系统主要包括输入/输出功能模块、校准测量功能模块、数据库编辑模块等。各个模块依附于主程序, 实现从人机交互界面自由调用各个功能模块, 同时协调模块之间的分工和时序问题。

由于不同厂家生产的不同型号数字示波器, 其控制指令也各不相同, 所以自动校准软件的需要在“输入/输出模块”中录入被校示波器的基本信息。“数据库编辑模块”完成接收、建立和保存被校示波器信息功能。数字示波器的型号将决定校准软件调用的“校准测试模块”。在完成设备校准、误差计算以及不确定度分析后, 将最终量值送达“数据库编辑模块”, 并建立存储表以存储校准数据和测试信息。最后由“输入/输出模块”连接后台数据库, 生成校准原始记录以及用户需要的证书/报表等资料。

1.2 程控过程

以VB作为语言环境, Access数据库存储数据, 进行整个程序控制。可以将校准过程分为三步:

第一步:被校数字示波器信息录入。

手动设置示波器校准仪以及被校数字示波器的GPIB地址后, 通过命令完成对GPIB通讯卡地址的初始化和对通讯端口的清除, 并指出数据库的路径、名称。在信息录入界面录入被校示波器信息, 如图1。校准软件依据“仪器型号”调用型号匹配的测量模块, 将命令送达被校示波器和示波器校准仪, 同时将被校示波器信息保存在数据库。此时, 自动校准准备就绪, 点击“确定”, 进入测试界面。

相关VB代码段如下:

第二步:自动校准过程。

测量界面将被校数字示波器所有校准项目罗列出来, 用户可以选择对所有校准项目进行校准, 也可以自主选择所需的校准项目。校准项目确定后, 依次开始校准。此时, 示波器校准仪输出标准波形信号, 被校示波器接收到信号且稳定后, 将示波器校准仪的标准值和被叫示波器的实测值传回给计算机, 计算机将此项校准数据放入数据库的存储表中, 然后弹出对话框, 由用户确认是否进行下一项校准。待选定的校准项目全部完成校准后, 计算机将后台数据库中的校准数据进行误差计算, 并与之前设定的参数指标相比对, 得出被校示波器最终的校准结论。

自动校准是该校准软件的关键部分, 包括直流增益精度, 阻抗, 上升时间, 频带宽度, 水平时间精度等在内的校准项目, 校准方法参考按照《JJF 1057-1998数字存储示波器校准规范》进行, 并且给出测量不确定度分析。

第三步:文件自动生成。

自动校准软件通过访问后台数据库, 将校准数据在WORD上重新排版生成原始记录、证书/报告。为了使生成的校准原始记录整洁美观, 先将预置的空白原始记录表格放入“格式文件夹”中, 当全部校准完成之后, 调用数据库中的各个表中, 将校准数据写入对应原始记录的空白处。

相关代码如下:

2 程控校准过程的实现

现以FLUKE 5820A作为示波器校准仪, 泰克公司3000系列示波器作为被校对象, 采用读取法对直流增益进行校准, 来具体说明该自动校准软件的程控校准过程。

由于不同型号示波器最大最小灵敏度档位不同, 所以在信息录入界面时选择泰克公司3000系列示波器后开始进行校准。设置示波器校准仪和被校示波器的GPIB地址后, 由计算机向示波器校准仪和被校示波器发出控制指令, 控制示波器校准仪的输出以及被校示波器的灵敏度, 其后选定校准项目。

首先设置被校示波器灵敏度为2m V/div, 示波器校准仪输出直流电压为6m V以及-6m V作为标准值, 记做U+与U-, 即在被校示波器屏幕中轴线正负3格时的电压值, 从被校示波器上读取相应电压值作为测量值, 记做Ur+与Ur-, 存入后台数据库中。

直流精度校准界面如图2所示, 校准时软件在后台数据库完成校准数据的采集和处理工作, 从而保证整个界面简洁干净, 也提高了校准效率。

相关代码如下:

该档位灵敏度校准完毕后选择下一档位灵敏度, 待第二个档位灵敏度校准完成后, 将Ur+与Ur-存入后台数据库该项目的表中。相关代码如下:

所有档位灵敏度的直流电压校准完毕后, 调用格式文件夹中的空白原始记录, 将测量值依次填入原始记录, 生成新的校准原始记录。直流电压测量原始记录如表1所示。

再根据如下公式计算直流增益G:

例如以上图数据为例CH1通道2m V/div档的直流增益为:

直流增益误差ΔGr为:

数字示波器的校准项目主要包括直流增益, 频带宽度, 输入阻抗, 上升时间以及扫描时间系数等。每项的校准方法和标称值都不一样, 所以需要将不同项目存入不同的表格中, 最后生成包含了所有校准项目的被校示波器原始记录、证书/报告。

3 结论

本文简单介绍了基于GPIB总线的数字示波器自动校准程序, 举例说明了校准过程。不难看出在数字示波器实际校准过程中, 程序代替手工操作, 在最大程度上消减了繁琐的仪器重复设置、读值的时间, 取值更加合理, 计算更加准确, 极大的提高了工作效率, 减小了人工操作和读数对校准数据和校准结论的影响。

参考文献

[1]自动测试及接口技术[M].北京:机械工业出版社, 2005.

[2]Visual Basic程序设计[M].北京:清华大学出版社, 2004.

数字校准系统 篇7

飞机载荷校准系统是一套大型的测试设备。该系统由控制子系统、数采子系统和液压子系统等组成。其中包括20通道自动协调加载系统、512通道数据采集系统、200升/分液压源各一套及液压作动器20套。各部分通过电缆和油管连接成一个整体。

该套设备主要用于:飞机结构零部件及整机的载荷校准试验、静力试验;刚度测量 (位移传感器测量变形) ;温度测量 (结构件的环境温度飞机结构零部件的疲劳试验) 。

由于该设备属专用测试设备, 测量参数跨越电学、热力学等专业, 且其体积庞大, 无法搬运到实验室, 而且数采子系统 (以下简称MGCPLUS系统) 的精度直接影响着整套系统的运行, 目前又没有相应的校准方法, 通过对其原理的分析研究, 提出了以下校准方法。

2 MGCPLUS系统简介

本系统的测试通道包括472路应变、24路电压、8路Pt电阻、8路热电偶。各类测试通道的技术指标分别为:

应变测试通道:ML801 (放大器) +AP815 (连接适配器) 的精度为±0.2%;

电压量测试通道:ML801 (放大器) +AP801 (连接适配器) 的精度为±0.05%;

Pt电阻温度通道:ML801 (放大器) +AP835 (连接适配器) 的精度为±0.05%;

热电偶温度通道:ML801 (放大器) +AP809 (连接适配器) 的精度为±0.05%。

注:Pt电阻温度通道和热电偶温度通道的校准在本文中不考虑。

3 校准原理及步骤

3.1 校准原理

3.1.1 校准所用设备

a) 标准模拟应变量校准器;

b) 直流电压源或多功能校准器。

3.1.2 校准原理示意图

采用直接测量法, 设备连接如图1所示。分别由标准模拟应变量校准器和直流电压源或多功能校准器提供标准的应变和电压信号输入到应变测试通道和电压量测试通道, 由采集器MGCPLUS采集记录校准数据, 并对数据进行处理和分析, 得出该通道的相应测量点的不确定度。

3.2 校准步骤

3.2.1 应变测试通道的校准

a) 按图1将MGCplus采集器与标准模拟应变量校准器采用全桥连接, 而且尽可能采用六线连接, 再与采集控制计算机正确连接, 通电预热1小时;

b) 依据通道的测试量程及用户的要求选取如下校准点0με、100με、200με、500με、1000με、2000με、5000με;

c) 由标准模拟应变量校准器分别输出以上应变量到某一通道, 采集器MGCPLUS采集记录实测数据。逐一对所有应变测试通道进行校准, 并分别记录实测数据;

d) 交换标准模拟应变量校准器的A、C两端, 完成反向校准。

3.2.2 电压测试通道的校准

a) 按图1将MGCplus采集器与直流标准源或多功能校准器以及采集控制计算机正确连接, 通电预热1小时。

b) 依据通道的测试量程及用户的要求均匀选取如下校准点0V、2V、4V、6V、8 V、10 V。

c) 由多功能校准器分别输出以上电压信号到某一通道, 采集器MGCPLUS采集记录实测数据。逐一对所有电压测试通道进行校准, 并分别记录实测数据。

d) 将直流电压标准源 (或多功能校准器) 的输出设置反向, 完成反向校准。

4 测量不确定度的评定

4.1 以应变量测试为例, 首先构造其数学模型:

应变量测试通道的数学模型为

式中:

△ε—应变量的测量误差, με;

εx—MGCPLUS数采子系统的示值, με;

ε0—标准应变量校准器的输出值, με。

4.2 测量不确定度的评定

a) 读数重复性引入的测量不确定度分量

选取一校准点1000με为评定点, 对其进行7次测量, 求出7次测量结果的平均值。

用贝塞尔公式计算其实验标准偏差:

由于校准结果为单次测量结果, 因此由读数重复性引入的测量不确定度分量为

b) 标准模拟应变量校准器的不准确引入的测量不确定度分量

标准模拟应变量校准器在1000με的允许误差极限为±0.05%读数, 则区间半宽度为a=0.5με, 一般取均匀分布, , 则:

c) MGCplus系统面板指示表的分辨力引入的测量不确定度分量

MGCplus系统面板指示表在1000με时的分辨力为0.001με, 其区间半宽度为a=0.001με/2=0.0005με, 取均匀分布, , 则:

d) 当时的环境条件满足测试需求, 故环境条件引入的测量不确定度分量可忽略不计。

以上各分量独立且互不相关, 则应变量测试通道在1000με时的合成标准不确定度为:

扩展不确定度 (k=2) :

应变量校准结果的表达:

电压测试通道的不确定度分析可参考应变测试通道的不确定度分析。

5 校准时应注意的问题

a) 校准所用设备的准确度至少应为被校准参数准确度的1/3;

b) 检测应变参数时, 组桥类型最好为全桥;

c) 对应变量采集通道进行校准时, 应变电桥激励电压的测试反馈补偿很重要, 因此校准试验或测试应变试验中尽可能采用六线连接, 以保证精度;

d) 校准或试验过程中地线一定要采用电阻小的导线, 接地电阻要小于4Ω。

6 结束语

上一篇:多批次实验下一篇:健脾补肾祛湿