时延分析

2024-10-20

时延分析(共8篇)

时延分析 篇1

摘要:通过对2G/3G呼叫测试, 分析不同厂商设备主被叫呼叫信令流程, 呼叫接续流程耗时, 进而优化减少呼叫时延。在此基础上对4G网络的CSFB (Circuit Switched Fallback电路域回落) 呼叫时延进一步分析, 对网内优化具有一定的参考价值。

关键词:呼叫接续时延,CSFB

1 呼叫接续时延的基本原理

呼叫接续时延, 在人为感知上是指从用户拨号到听到被叫的彩铃音或回铃音的时间, 从信令角度是指从主叫手机发起业务请求 (CM SERVICE REQUEST) 到收到振铃消息 (ALERTING) 之间的时长。呼叫的接续时延过长, 会严重影响用户对网络的感知。

2 2G/3G呼叫接续时延分析

本次呼叫测试模型为局内普通 (非智能、无彩铃) 用户呼叫, 该呼叫模型的信令基本流程如下: (注:不同厂商交换参数设置不一, 呼叫处理流程也有不同。)

2.1 影响呼叫时延的主要因素

(1) 寻呼流程时延:指无线侧寻呼响应时间。这与无线环境有关, 还与A/Iu口信令拥塞情况有关。

(2) 鉴权流程时延:主要和无线侧关系比较密切, 还可能和SIM/USIM卡有关, 不同的卡CPU处理总线位数不同, 对于SRES的运算时间也有差异。

(3) 指配流程时延:主要和无线侧关系比较密切。主被叫TCH ASSIGNMENT REQUEST到TCH ASSIGNMENT COMPLETE之间的时长。

(4) 交换机处理差异:不同交换机对不同子流程的处理不同, 导致处理时延有差异。

2.2 呼叫时延现网分析

通过对H市、A市、S市和W市的移动网络呼叫接续时延做测试, 采用本局互拨的呼叫模型, 拨测20次, 得到呼叫接续时延的平均值如下 (单位:秒) :

通过比较发现:W市移动网络的接续时延比电信、联通网络要短;其它市联通接续时延小于移动网络接续时长。据了解, 联通交换侧的无线参数没有移动参数严格, 参数相同情况下, 移动和联通接续时延将相当。

2.3 呼叫时延在不同厂商端局间的比较

2.3.1 信令比较

A厂商局内呼叫:

B厂商局内呼叫:

C厂商局内呼叫:

2.3.2 时长比较

通过提取拨打测试的信测消息, 得到呼叫时延统计, 见表2:

2.3.3 小结

(1) 鉴权时间 (AUTH REQ与AUTH RESP之间的消息间隔) 分析。A、B和C厂商局主叫耗时分别是0.7-0.8s、0.7-0.8s和0.6-0.7s, 该时间主叫表现为无线与终端之间的耗时。按照集团公司的网络设置要求, 用户主叫必须进行100%鉴权, 被叫无需鉴权。C厂商设备由于主叫鉴权与被叫鉴权不能单独进行设置, 所以C厂商设备下用户的被叫也进行100%鉴权。A和B厂商交换设备下被叫流程中无鉴权流程。

(2) 加密时间 (Cipher Mode Command与Cipher Mode Complete之间的消息间隔) 分析。C厂商交换机耗时为0.2-0.3s, A和B厂商无此流程, 该时间主叫表现为无线与终端之间的耗时。主被叫过程中的加密流程为可选流程, 由于C厂商设备鉴权与加密不能单独设置, 所以存在加密流程。

(3) 主叫侧交换机指配电路 (Assignment Request与Call proceeding之间的消息间隔) 分析。A、B和C厂商交换机耗时分别为3.9秒、0.01秒和2.47秒, A厂商交换机用时最长。主叫侧A、B和C厂商设备均为早指配 (在呼叫建立过程中, 网络侧向主叫用户发送Call proceeding消息后, 被叫用户振铃Alerting消息前, 进行话务通道分配的一种指配方式) , 但是指配的时机各不相同:

a.A和C厂商主叫侧电路指配请求是在等到被叫侧回复Call Confirm消息后才下发的 (该时间间隔包含了交换机取漫游号码、被叫寻呼的时间间隔) , 而B厂商设备是在寻呼被叫的同时就下发了主叫侧电路指配请求。所以B厂商耗时小于A和C厂商较长。A和C厂商的接续时长与被叫流程中回复Call Confirm消息的时间有关。

b.B和C厂商交换机下, 无线侧主动上报Classmark, 而A厂商交换机开启Classmark_Request流程后, 主被叫流程中都要求手机上报无线性能, 同时A厂商交换机覆盖的BSC也会主动上报Classmark, 这与交换机的Classmark_Request流程重复, 影响呼叫接续时长, 并且增加A接口信令流量。

(4) 被叫流程中, A厂商耗时明显大于C厂商耗时, 特别是在SETUP与Call Confirmed之间, A厂商设备相比C厂商设备增加了Classmark_Request流程。该流程在GSM规范中没有明确规定, A厂商交换机根据Classmark2信元中的CM3标志来决定是否触发该流程。A厂商交换机Classmark流程与呼叫接续流程是并行处理的, 不影响交换机的时长, 但是手机是串行处理的, 影响时长。Classmark_Request为可选流程, 不影响业务。在测试局上关闭该参数测试, 发现接续时长减少0.8秒, A接口信令链路平均负荷降低0.2%-0.6%。

(5) 指配响应时间 (Assignment Request与Assignment Complete之间的消息间隔) A、B和C厂商耗时分别0.8秒、0.55秒和0.43秒, 该耗时为无线耗时。

(6) 振铃时间 (Assignment Complete与alert消息的时间) , 该时间体现为从主叫指配到主叫听到声音的时间间隔。由于各个厂商主叫指配的机制不一样, 比较时间间隔没有具体意义。

优化后, W市网络接续时长指标较3年前有显著提升, 在三家运营商中较有优势。其它市接续时长与电信、联通网络相比, 时间相当, 但有优化空间 (关闭交换机Classmark Request流程) 。开展优化工作后平均减少时长0.5秒。

3 4G呼叫接续时延分析

随着4G-LTE网络的引入, 带来了全新的网络架构和业务流程。而CSFB语音解决方案的引入, 使得CSFB用户相比于传统2G/3G语音用户增加了由EPS (LTE系统的统称) 网络指示用户回落到目标电路域网络处理流程, 因此会增加呼叫建立的时间, 降低用户的使用感知。

3.1 CSMO (CSFB主叫) 语音业务流程

(1) UE (用户设备) 发起CS Fallback语音业务请求。

(2) MME (移动性管理实体) 发送Initial Context Setup Request消息给e Node B (基站) , 包含CS Fallback Indicator。该消息指示e Node B, UE因CS Fallback业务需要回落到UTRAN/GERAN。

(3) e Node B要求UE开始系统的小区测量, 并获得UE上报的测量报告, 确定重定向的目标系统小区。然后向UE发送目标系统具体的无线配置信息, 并释放连接。

(4) UE接入目标系统小区, 发起CS域的业务请求CM Service Request。如果CM业务请求消息中携带CSMO标志, 则MSC Server记录本次呼叫是CSFB呼叫。

3.2 CSMT (CSFB被叫) 语音业务流程

(1) MSC Server收到IAM (初始地址信息) 入局消息。

(2) 根据存在的SGs (信令网关) 关联和MME信息, 发送SGs AP-PAGING-REQUEST (携带IMSI, TMSI, Service indicator, CLI, LAC) 消息给MME。

(3) MME发送Paging消息给e Node B, e Node B发起空口的Paging流程。

(4) UE建立连接并发送Extended Service Request消息给MME。

(5) MME发送SGs AP-SERVICE-REQUEST消息给MSC Server。MSC Server收到此消息, 不再向MME重发寻呼请求消息。为避免呼叫接续过程中主叫等待时间过长, MSC Server收到包含空闲态指示的SGs Service Request消息, 先通知主叫, 呼叫正在接续过程中。

(6) MME发送Initial UE Context Setup消息给e Node B, 包含CS Fallback Indicator。该消息指示e Node B, UE因CS-FB业务需要回落到UTRAN/GERAN。

(7) 伴随着空口、A/Iu-CS接口连接的建立, UE回Paging Response消息给MSC Server, 该消息中携带CSMT标识。

3.3 小结

进一步分析, 呼叫时延的增加主要体现在以下三个方面:

(1) EPS网络回落到2/3G网络:在CS Fallback语音呼叫阶段, 其流程相比普通的呼叫, 会增加额外的回落处理流程, 因而会增加呼叫建立的时间。但现网采用的CSFB语音解决方案中, PS域向CS域的回落是一个必需的过程, 无法省略。因此过程引入的时延无法避免, 只能从回落的流程中进行分析, 寻找优化空间。

(2) Uu口信道建立:无论是主叫还是被叫, 在发起语音业务时, MME都会指示UE回落到CS域, 而这个回落均需要通过无线信道来实现。当S1-U、Uu口保持在线状态时, 无需发起信道资源分配和建立的流程, 这样可缩短一定的时延。

(3) CSMT增加了4G寻呼:CSMT流程中发现当做被叫时, 如果S1-U、Uu口不在线, 一方面需要建立Uu信道, 另一方面需要发起4G寻呼, 即由MME发送Paging消息。而当S1-U、Uu口保持在线状态时, MME侧将保留UE连接状态信息, 当MSC通过SGS接口发送SGs AP-PAGING-REQUEST消息给MME时, MME可以直接寻呼到UE, 减少了MME根据跟踪区 (类似于CS域路由表) 寻呼UE的时延。在重新配置MME侧的MS活动定时器和e Node B的PS INACTIVI-TY TIMER定时器, 增加用户在线时间, 在MME+e Node B不同的参数配置下, 进行网络跟踪测试, 结果显示CSFB呼叫时延较修改前有所减少。

4 结束语

随着移动用户的不断增长以及在使用频率上的增加, 对移动网络的要求也在与日俱增, 呼叫接续时延会直接影响用户感知。为给用户提供更为优质、高效、满意的业务, 需要在核心网和无线侧持续优化参数配置来缩短呼叫接续时延。

参考文献

[1]韩斌杰编著.GSM原理及其网络优化[M].北京:机械工业出版社, 2001.

[2]华为技术支持[EB/OL].http://support.huawei.com.

[3]中国移动.运维知识管理系统[EB/OL].http://net.chinamobile.com.

网络控制系统的时延仿真分析 篇2

20世纪末,随着Internet技术、Web技术、网络安全技术、实时数据库等融入自动化系统,基于Internet的远程监控系统也开始进入工业领域[1]。这些变革为网络化控制系统(Networked Control System,NCS)的真正产生和发展奠定了基础。所谓的NCS就是指控制回路通过实时网络形成闭环的反馈控制系统,其特征是控制指令、传感器数据和系统信息的传输通过通信网络来实现。由于共享资源的需求,使得控制系统向扁平化、网络化和分布化的方向发展。与集中式控制相比,网络控制系统主要有[2]:成本低、安装维护简单、系统可靠性高、灵活性高、便于进行故障诊断、远程操作与控制、资源共享等优点。基于Matlab/Simulink的仿真工具箱TrueTime为NCS理论的仿真研究提供了简单可行、功能齐全的手段,摆脱了软件编程实现的网络通信协议和通信延时所带来的困难,支持控制与实时调度同时仿真,可以方便地仿真实时系统中的控制和资源调度问题。

1 TrueTime仿真平台

1.1 TrueTime功能

TrueTime是由瑞典Lund工学院Henriksson等开发的一个基于Matlab/Simulink的实时网络控制系统的仿真工具箱[3,4,5],可以方便地仿真控制任务的执行和网络传输。TrueTime仿真软件主要包括两个基本模块:内核模块(TrueTime Kernel)和网络模块(TrueTime Network),见图1。

1.2 内核模块

内核模块具有灵活的实时内核、A/D和D/A转换器端口、网络接口和外部通道。计算机模块按照用户定义的任务执行,代码采用Matlab或C++编写。中断句柄代表I/O任务、控制算法和网络接口。

实时内核包含有一定数量的数据结构用来记录任务组、就绪队列、时间队列等。在每个时钟周期内,内核让就绪队列中优先级最高的任务优先执行,执行任务是在虚拟的CPU里运行的。调度策略使用一个优先权函数来决定任务的属性。当前预定义的优先权调度策略有Rate-Monotonic(RM),Deadline-Monotonic(DM),Fixed-Priority(FP),Earliest-Deadline-First(EDF)调度。用户也可以自己写优先权函数来实现自己定义的任意的调度策略。在仿真程序运行时,内核执行用户编写的代码,即与不同的任务相关联的Matlab函数。代码函数返回执行时间的估计值,而任务只有等到这些时间在虚拟CPU里消耗完毕才能恢复到原来的状态。

每个任务在内核中都有一组基本的属性:任务名、代码段列表、任务周期、释放时间、相对时限及所需虚拟CPU的剩余时间。有些属性如任务的释放时间和剩余的执行时间由内核在每次仿真运行时进行更新。而其他一些属性如任务周期和相对时限为常量,除非用户代码显式地改变它们。

1.3 网络模块

网络模块给网络控制系统提供了通信资源,可以仿真局域网的媒介访问和包传输过程。它包含了多种网络参数,如网络节点数目、传输速率,媒体访问控制协议等参数。网络模块采用事件驱动方式,当有消息进出网络时,网络模块执行工作。消息包含发送和接收计算机节点的信息、用户数据(如测量信号或控制信号)、传送时间和可选的实时特性(如优先级或时限)。网络模块按选定方式工作,参数设定包括节点数目、传输速率、媒体访问控制协议和其他参数,其中媒体访问控制协议包括CSMA/CD,CSMA/AMP,TDMA,FDMA和Round Robin等方式。

2 时延特性

2.1 时延产生的原因

在NCS中,由于网络通讯方式、共享带宽以及网络负载变化不规则等因素的制约,当控制器节点和远地被控对象的传感器节点和执行器节点通过网络交换数据或控制信息时,往往出现数据多路径传输、多数据包传输、数据包时序错乱、数据包丢失、数据包重传、数据包碰撞、网络拥塞以及连接中断等现象。因此,节点间信息通信时,网络诱导时延[6]是不可避免的。

2.2 时延特性分析

由于受到网络所采用的通信协议、网络当时的负荷状况、网络的传输速率和信息包大小等诸多因素的影响,网络诱导时延将是恒定的、时变的、有界的或是随机、不确定的。表1列出了3种控制网络的访问控制方式和相应特性参数[7,8]决定的时延类型。

采用不同媒体访问控制方式和通信协议的控制网络,具有不同的服务性能。时延特性不同,NCS的分析与设计将采用不同方法。

2.3 时延对系统稳定性的影响

在网络化环境下,由于控制系统的前向通道和反馈通道都引入了控制网络环节,所以不可避免地会在控制回路中产生前向时延和反馈时延,如图2所示。

由于时延的存在,系统的前向通道和反馈通道就不能保证系统正常、稳定的工作。前向通道的时延相当于被控设备在这段时间内没有接收到任何的控制信息,而反馈通道的时延则相当于在这段时间内系统没有负反馈,所以就和开环系统一样,容易导致系统发散。而且,由于系统中有时延,控制信息不能实时地传递给被控设备,输出信息也不能实时地反馈给控制器,从而使整个系统的稳定性和过渡过程性能变差,信息传递的连续性遭到破坏,系统输出响应严重变形。网络的引入必然会造成网络传输时延的产生,而传输时延的不确定性是造成数据时序错乱和数据包丢失的主要因素。所以,在影响NCS性能的时延、丢包和节点的驱动方式等因素中,最主要的因素是网络诱导时延。另外,网络负载[9]是产生时延的直接原因。时延会降低系统的性能,使系统的稳定范围变窄,甚至使系统变得不稳定。时延是系统不稳定的主要因素,在NCS的分析与设计中,是不可忽略的重要因素。

3 仿真分析

下面利用TrueTime工具箱来搭建网络控制系统仿真平台,在此平台上对网络控制系统中存在的干扰和时延进行仿真研究。

3.1 仿真模型

该网络控制系统的仿真模型如图3所示,为了对系统进行研究、分析,网络控制系统中加入了干扰节点。其中,控制器、执行器、传感器和干扰节点各用一个内核模块代替。被控对象为一直流电机,其传递函数为:G(s)=1 000/(s2+s),采用PD控制器,参考输入为方波信号,传感器采样周期为h,比例增益为K,微分系数为N,Td。

控制器采用数字PD控制算法为:

Ρ(k)=Κ[r(k)-y(k)]D(k)=adD(k-1)+bd[y(k-1)-y]u(k)=Ρ(k)+D(k)

其中,ad=Td/(N*h+Td),bd=N*K*Td/(N*h+Td)。

参考取值:h=0.010,N=100 000,Td=0.035,K=1.5。

在节点的初始化程序中,定义传感器为时间驱动,执行器和控制器均为事件驱动。在网络参数中选择CSMA/AMP(CAN),调度策略采用固定优先级(prioFP),规定干扰结点(Interference)产生的信息具有最高优先级别,传输速率为80 Kb/s。仿真系统可以通过Pro-processing delay(发送时延)与Post-processing delay(接收时延)进行传输时延的设定。

3.2 仿真结果

(1) 针对不同的干扰占用网络带宽率进行仿真研究。

给定信号周期为0.6 s,振幅为0.5 cm的方波,启动仿真,结果显示:逐渐增加干扰占用网络带宽率,输出曲线震荡逐渐增加,表明系统的稳定性越来越差。当干扰节点占网络带宽率分别为20%,50%,80%时的仿真结果如图4所示(r表示给定信号振幅幅值,单位:cm)。

仿真结果可以看出干扰节点对网络控制系统性能的影响,干扰节点占用网络带宽率的增加引起延时的增加,导致系统由稳定逐渐变为不稳定。

(2) 针对具有时延的NCS进行了仿真研究。

假设传感器到控制器的发送时延,控制器计算时间的时延,控制器到执行器的接收时延均为1 ms,即总的时间时延为3 ms,仿真中的参数取值均不变。图5为具有传输延时的系统仿真曲线。

(3) 针对具有时延和干扰的NCS进行仿真研究。

系统加入干扰节点占用网络带宽率为30%和延时为3 ms,仿真中的参数取值均不变,仿真曲线如图6所示。

从图5可以看出,输出信号超调较大,稳定性较差。随着时延逐渐增加,系统的稳定性也将逐渐降低,最终会变为不稳定。

从图6可知,输出曲线超调加剧,震荡加强,稳定性变差,性能降低。说明干扰和时延同时作用,使系统整体性能变差的更快。

4 结 语

NCS将通信网络引入闭环控制系统中,也带来了时延等一系列新问题。本文介绍了在网络控制系统中加入的干扰节点引起一定的时延,加上系统本身的传输时延,导致系统的性能变差的更快;不考虑传输时延,单单就干扰节点的网络占有率的增加,导致系统的不稳定。因而要尽量减少干扰节点的影响,减少网络控制系统中存在的传输时延。利用TrueTime工具箱,可以对网络时延、网络参数对系统性能的影响、控制方法、网络调度等多方面进行综合仿真研究,从而使得网络控制系统的研究更加容易,但它并未引进TCP协议,及如何对多回路的控制系统,综合考虑网络性能指标,可调度约束及经济指标等进行综合的控制性能优化[10],还有待进一步研究。

摘要:介绍网络控制系统和基于Matlab/Simulink的仿真工具箱TrueTime,然后分析时延产生的原因、类型以及对系统稳定性的影响,最后以一个采用PD算法控制的单回路直流电机的仿真模型进行仿真。考虑干扰影响系统,仿真结果可以看出,传输时延和干扰同时存在网络控制系统中,使得系统性能变得更差,这表明干扰会产生一定的时延并且时延会降低系统的性能,使系统的稳定范围变小,甚至使系统不稳定。创新点:研究时延和干扰对系统控制性能的影响,并给出仿真曲线和仿真结论。

关键词:网络控制系统,TrueTime工具箱,时延,PD算法

参考文献

[1]邓士普,王树青.基于网络的控制系统研究综述[J].化工自动化及仪表,2003,30(6):1-5.

[2]Zhang W,Branicky M S,Phillips S M.Stability of Net-worked Control Systems[J].IEEE Control System Maga-zine,2001,21(1):84-99.

[3]Eker J,Cervin A.A Matlab Toolboxfor Real-Ti me and Con-trol Systems Codesign[C].Proc.of 6th International Real-Ti me Computing Systems and Applications Confe-rence[C].1999.

[4]Deepak R Sahoo,Swaminathan S,Al-Omari R,et al.Feed-back Control for Real-Ti me Scheduling[A].Proceedings ofthe American Control Conference[C].2002.

[5]Martin Andersson,Dan Henriksson,Anton Cervin.Trueti me-reference Manual[Z].2005.

[6]Zhang W,Branicky M S,Phillips S M.Stability of Net-worked Control Systems[J].IEEE Control Systems Maga-zine,2001,21(1):84-99.

[7]Lian F L.Analysis,Design,Modeling and Control of NetworkedControl Systems[D].The University of Michigan,2001.

[8]Octavian V Beldi man.Networked Control Systems[D].DukeUniversity,2001.

[9]Li Lianfeng,Moyne J R,Tilburg D M.Performance Evalua-tion of Control Networks Ethernet,Controlnet and Devicenet[J].IEEE Control Systemd Magazine,2001,2(1):66-83.

时延分析 篇3

摘 要: 针对流量动态变化的无线传感器网络,提出了具有平均时延约束的自适应休眠机制。在休眠阶段,节点采取自适应地周期性休眠和苏醒来节省能量且保证平均传输延迟。在苏醒周期的节点没有数据发送或者收到目的地址为其他节点的RTS/CTS帧后进入休眠周期。通过建立马尔科夫链模型分析可得到该机制中平均时延约束下休眠周期的优化值。

关键词: 无线传感器网络;休眠;时延约束;能量效率;马尔科夫链 0 引言

在无线传感器网络中可调度节点使其轮流工作,以尽可能多地关闭冗余节点的无线通信模块来减少不必要的能量消耗,从而达到延长网络生存时间的目的[1]。由于空闲侦听和信道争用冲突是无线传感器网络中不必要能量消耗的主要来源,因而减少空闲侦听使节点转入休眠状态是目前研究较多的提高能量效率的方法[2]。在无线传感器网络使用过程中,网络用户对监测区域内感兴趣的目标随查询任务而动态地增加或减少,从而使网络流量随之动态地变化[3]。S-MAC[4]协议采用周期性侦听和睡眠机制并提供良好的可扩展性,但无法根据网络环境的动态流量进行调整来提高能量效率。在文献[5]中基于S-MAC提出自适应退避算法,按照负荷的变化做动态增量或减量调整退避指数的最小值。上述算法可根据负载变动来调整网络参数以降低节点的能耗,但未考虑数据包传输时延问题。文献[6]中提出的节点最佳休眠时间可通过对二维马尔可夫链模型分析得出。文献[7]中分析了采用聚合的DCF机制的平均时延和各退避阶的平均时延,而后将时延约束转化为对平均时延的限制,通过保证给定比例的帧来满足时延约束。针对在无线传感器网络流量动态变化的监测环境中出现的问题,在上述研究工作的基础上,本文提出了具有平均时延约束的自适应休眠机制ADC(Adaptive Sleeping Method for Average Delay Constraint),并对其改进的S-MAC协议进行二维马尔可夫链模型分析,从而得到休眠阶段的休眠周期来保证分组传输过程中的平均端到端时延,并提高能量效率。1 机制描述

在该机制中,将时间划分为连续的帧后,帧内分为活动阶段和休眠阶段,其中活动阶段可包括传输、等待和退避等过程[8]。在活动阶段开始后,节点通过CSMA/CA(载波侦听多点接入/冲突避免)方式发送同步消息和数据。节点在MTslot时间内一直空闲且无数据需发送,则结束活动阶段,转入休眠阶段,以降低节点的能量消耗。休眠阶段可划分为若干个休眠和苏醒周期,其中休眠周期Tsleep和苏醒周期Twake皆设为系统时隙Tslot的整数倍。在休眠周期内节点关闭无线通信模块并缓存采集到的数据。处于苏醒周期内节点需监听信道是否有数据要发给自身。苏醒周期结束时,节点若有数据要接收或发送将立即进入退避过程来发送该数据,否则进入下一个休眠周期。若在次休眠和苏醒周期结束后,节点仍未收到上层发来需要发送的数据包或目的节点为自身的CTS帧,则结束休眠阶段,转入活动阶段的等待过程。离散马尔科夫链模型分析

为建立离散马尔科夫链模型来简化分析该休眠机制,暂不考虑其同步情形。由于接收状态时节点能量消耗与等待和退避状态的能量消耗近似,可假设接收数据在节点处于等待过程中完成,则不单独考虑接收状态。

对节点在任何一个时隙中可能存在的各个状态可用离散Markov链进行描述。退避过程可用随机过程B(t)表示,与回退计数器的计数值相对应。可用随机过程J(t)表示节点在t时刻所处的退避级数(0,1,…,m),其中m为最大退避级数。设定在退避过程中每个分组发送失败的概率p为独立且恒定的,则可用随机过程{J(t),B(t)}表示节点的退避过程。每个状态的概率用PB(i,k)(0≤i≤m,0≤k≤Wi-1)表示,则可用Markov链表示该退避过程,其中i为退避级数,k为退避计数器的值,Wi为退避次数为i时的退避窗口。

进入等待状态的节点,若有数据要发送,则从等待状态转移到退避状态。设定平均报文到达时间间隔服从参数为?姿的泊松分布,则在一个时隙中节点从等待状态转移到退避状态的概率为。若无数据发送,将进入下一个时隙。若经过M个时隙后节点仍然没有数据要发送,则将进入到休眠状态。

节点在休眠状态时,将进行周期性休眠和苏醒。节点在休眠周期和苏醒周期内都不改变自身状态。若在一个休眠和苏醒周期结束时有数据要发送,则将由休眠状态转移到退避状态,且在一个休眠和苏醒周期的转移概率为,其中Tsleep为休眠周期时间,Twake为苏醒周期时间。若没有数据发送,则进入休眠状态的下一个休眠和苏醒周期。若经过N次休眠和苏醒周期后,仍然没有数据发送,则将进入等待状态。由于只有当一个休眠和苏醒周期结束时才可会改变自身状态,可将处于某个休眠或苏醒周期结束时的时隙分别表示该休眠或苏醒周期以简化分析。由于休眠过程中进入下一个休眠和苏醒周期的概率?琢是独立且恒定的,因此节点的休眠过程也可用Markov链表示。

进入传输状态的节点直到数据传输结束后才能改变自身状态,而在传输状态时信源产生的数据要等传输结束后节点才能进入退避状态准备发送。在传输结束时,若有数据要发送,则由传输状态转移到每一个退避级数为0的退避状态的概率为,其中K为传输过程所需的平均时隙。因而在传输结束时没有数据需发送,则由传输状态转移到等待状态的概率。

节点从等待状态可以转移到退避状态,从每一个等待状态转移到每一个退避级数为0的退避状态的概率均为。节点传输状态结束后将转移到等待或退避状态,其转移概率分别为及。等待过程结束后节点转移到休眠状态的转移概率为。可知在设定条件下,级联后节点从一种状态转移到另外一种状态的概率是独立且恒定的,则上述过程可级联后为一个Markov链[8],其模型。

对节点在任何时隙内可能存在的各个状态用离散Markov链进行描述后,可通过该Markov 链模型求得在稳态时节点停留在不同状态的概率。由图2中休眠过程可知,第i个休眠和监听周期结束时节点所处状态的概率PS(i)可用下式表示:

用PI(i),0≤i≤N表示节点在任意一个时隙处于在第i个空闲状态的概率:

在退避过程,用PB(i,k),0≤i≤m,0≤k≤Wi-1表示节点在任意一个时隙处于在第i次退避并且其退避计数器为k的状态的概率,可用下式表示:

传输过程中节点在任意一个时隙处于第i个传输状态的概率PT(i)可表示为:

PT(K-1)=(1-pm+1)PB(0,0)

PT(i)=(1-pm+1)PB(0,0)(7)

其中完成数据包正确发送所需的时隙数:

在平稳状态时Markov链需满足下式:

可得节点处于退避级数为0且退避计时器为0的状态的概率:

由于不论退避级数为多少,只要退避计时器为0,则传感器节点开始传输数据,因此该节点在任意时隙的发送概率可表示为:

在节点传输数据时,若相邻n-1个节点中至少有一个节点也发送数据则发生碰撞,而且当目的节点处于休眠时发送数据也失败,因此该节点在任意时隙发送失败的概率为:

由式(11)和式(12)构成非线性方程组,可得?子和p[6]。

至少有一个节点发送数据的概率为:

在系统不空闲的条件下,有一个节点发送数据成功的概率为:

采用RTS/CTS机制时,Ts和Tc分别为数据成功发送和数据发送时分组碰撞所耗费的时间,可用下式表示:

由于计算平均时延时超出重传次数而被丢弃的帧不予考虑,则在退避过程或等待过程中数据帧到达发送节点的缓冲器队首至目的节点成功接收的平均时延DelayB为一次成功发送需要的平均时隙数和时隙的平均长度的乘积[5],可表示为:

其中1-pm+1为包没有被丢弃的概率,为没有被丢弃的帧到达第i阶的概率,为第i阶的平均退避时隙数为信道空闲的时间。

在传输过程或休眠过程中,节点要发送数据都需转移到退避过程才能将数据发送出去,因此信源在节点处于传输过程或休眠过程中产生而转移到退避过程引起的平均时延分别可用下式表示:

其中一个休眠和苏醒周期的时隙数。

数据帧到达发送节点的缓冲器队首至目的节点成功接收的平均时延可用下式表示:

在苏醒周期时节点需完整接收到发送节点向其发送的RTS帧,则Twake可设定为2(RTS/R)+2·SIFS+DIFS。对于平均时延约束为Delayaverage的业务,则需满足Delay

EPA系统周期数据通信时延分析 篇4

关键词:EPA,工业以太网,周期报文,通信,时延

1 引言

为了达到控制与监控的要求, EPA (Ethernet for Plant Automation) 系统中的信息在网络上传输时, 应有确定的时延, 即信息传输必须具有实时性[1,2]。尤其是周期报文, 由于其承载的数据都是为周期任务服务的, 因此对于通信实时性要求较高。本文从理论角度对EPA周期数据的通信时延特性进行了研究。

由文献可知, EPA系统的通信时延包括产生时延、排队时延、发送时延和接收时延4个部分。其中最关键的是排队时延d, 即报文发送前在队列中等待发送的时间。由于EPA系统的周期报文必须在预定的时间片内发送, 所以排队时延由等待时间片到达的待片时延Fp和等待其他报文发送的待发时延Dp组成, 即d=Dp+Fp。

2 模式1

模式1指的是周期报文在周期数据发送时间片到达之前进队, 如图1所示。图中Tr是报文的进队时间;Ts是报文的发送开始时刻;T1、T2、T3是宏周期的开始时间;Te为周期数据发送开始时间 (MOD (Tei, T) =Ai, Ai指的是设备i的周期数据发送时间偏离量) ;Td为非周期数据发送声明报文 (N报文) 开始发送的时间。如果设备本宏周期共发送n个周期报文, 且有m个周期报文

先其进队, 则该模式具有如下特征:

式 (2) 两边取模后为:

该模式下, 设备进入周期数据发送时间片时, 会在发送完这m个报文后发送该报文。则Fp即为这m个报文的发送时间, 而Dp则为从报文进队到设备周期数据发送时间片开始的时间段。分别如下面两式表示:

3 模式2

模式2是报文在周期数据发送时间片开始到N报文发送开始的时间段进队, 报文进队时, 设备的周期数据发送时间片已经开始, 报文已经开始发送, 但是由于N报文的发送还未开始, 报文仍能在本宏周期发送, 则该模式具有如下特征:

式 (7) 两边取模后为:

因为在该模式下, 报文进队时该设备周期数据发送时间片已经到达, 所以待片时延Dp为0。而Fp如下式所示:

4 模式3

模式3是周期报文在设备开始发送N报文之后进队, 报文在N报文开始发送之后进队, 设备已经不再发送周期报文, 则该报文在本宏周期没有发送机会, 只能延迟到下一宏周期发送, 则该模式具有如下特征:

将式 (11) 代入式 (12) 并取模后为:

由于报文延迟到下一宏周期发送, 则Dp如下式所示:

由以上分析可知, 模式1和模式2报文是在进队宏周期发送, 而模式3则延迟到下一宏周期。因此通信调度参数和报文的进队时间是决定其通信时延的两个关键因素。如果一个周期报文在设备开始发送N报文之前进队, 它就可以在本宏周期发送;否则如果它在N报文开始发送之后进队, 那么它就延迟到下一宏周期发送从而导致通信时延增加。因此, 对报文的进队时间和通信调度参数进行协调是提高周期数据通信实时性一个方法。

5 结语

本文研究了EPA周期数据的通信实时性, 根据报文的进队时间建立了3个模式, 分析了3个模式的调度特征和通信延迟, 建立了理论模型, 提出了提高EPA通信实时性的方法。

参考文献

[1]谢昊飞, 李勇, 王平, 等.网络控制技术[M].机械工业出版社, 2009.

时延网络控制系统的稳定性分析 篇5

网络控制系统由于在信息交换过程中, 信息包的冲突, 错序和丢失都会引起延迟, 这种延迟可能会很大, 因此研究网络诱导延迟可以大于一个采样周期的网络控制系统, 具有广泛的应用价值。目前关于延迟大于一个采样周期时的控制设计的文献主要有两类:一类是需要预先知道延迟分布概率的随机控制, 如文献[5];另一类是考虑延迟具有上界的状态反馈控制, 如文献[1], [2], [3], [4]。本章研究了网络诱导延时大于一个取样周期的随机网络控制系统, 并分析了其稳定性。

2 问题描述和预备知识

在本文中, 我们考虑的网络控制系统形式如下:

其中x (t) ∈Rn是状态向量, w (t) , v (t) 是外部干扰, u (t) ∈Rn是控制器输入向量, y (t) 是控制器输出向量。A, B, E, C, D是具有适当维数的常数矩阵, w (t) , v (t) 是高斯白噪声。

对于此控制系统我们做如下假设:

1) 网络诱导延时是网络控制系统的状态延时和控制转移延时, 并且是有界的。

2) 传感器的驱动方式采用时钟驱动方式, 控制器采用事件驱动方式, 控制器采用时分驱动方式。

3) 在此控制系统, 缓冲器可以在每个传感器和控制器的传送节点分别传送信息, 它的时间比最大的传输延时还要长。

4) 系统中的每个信号用一定的时间节拍传输, 因此控制器系统对上一次的时间延时是已知的。

为了讨论方便, 我们假设0≤τ≤m T, m满足m≥2, P是一个正整数。T是传感器的取样周期。系统控制过程可以描述如下:传感器在k T时刻对数据进行取样。当感应器信号到达控制器, 控制器会立刻计算出相应的控制输出量, 并把它送到执行器, 取样区间[k T, (k+1) T]可以分成p+1个小的子区间[k T+tki+1, k T+tik] (0≤i≤m, t0k=T, tkm+1=0, tik= ( (m+1) -i) T/ (m+1) ) 。执行器是分时驱动的, 它在k T+tik (0≤i≤m+1) 取样并作用于对象显然在上一个子区间最新的控制器信号到达执行器, 并且通过执行器作用于对象。由于时间延时τ是随机时变的, 所以网络控制系统也是随机时变的。假设τ≤m T, 所以在一个取样周期最多有p+1个变化的信号到达执行器。

定义1我们定义Ui (0≤i≤p) 是在区间[k T+tki+1, k T+tik]对象的控制器输入信号.则Ui (0≤i≤m) 的取值如下:

考虑到控制模型在取样区间的[k T, (k+1) T]的作用, 我们定义以下随机网络控制系统模型:

下面我们定义一个新的状态变量:

则控制系统 (2) 可以表示为如下形式:

上式中的各参数如下:

3 系统的最大延时分析

对系统的延时分析之前, 首先引入下面的引理.

引理1假设都是定义在区间Ω上的向量, 则对于任何矩阵

在这一部分里, 我们将利用线性矩阵不等式的方法得出网络控制系统的新的稳定定理, 并证明控制系统 (2) 是渐近稳定的。

定理1如果存在矩阵P>0, Q, X, Y, Z, 使得下面的两式成立:

上式中的各个参数如下:

则对于任何满足0≤τ≤m T条件的网络诱导延时, 控制系统 (2) 是渐近稳定的。

证明:显然下面的等式是成立的:

则系统 (2) 可以表达为:

利用式 (11) , 系统 (5) 变形为:

选取Lyapunov函数:

所以函数的增量有:

把式 (5) 代入式 (15) , 则有:

上式中v形式如下:

因此, 如果

那么根据Lyapunov稳定性理论, 系统 (2) 是渐近稳定的。利用Schur补引理, 不等式 (17) 等价于 (7) 定理1得证。

4 仿真结果和数值举例

例1考虑下面Zhang讨论的系统:

但我们考虑此系统的外部干扰后, (26) 可以表示为:

这个例子, 状态反馈控制器采用Zhang[4]的方式, 也就是, u (t) =[-3.75-11.5]x (t) , 并比较一下结论。在这篇文章, 取样周期与Zhang相同选择T=0.05S, 用Zhang的方法计算出的最大的延时是:τ=4.5×10-4S用我们的定理1计算出的延时是显然, 我们的方法保守性更小。

例2下面请看hu[2]讨论的系统:

在系统中我们加进了高斯白噪声。仿真中参数选取0.05s, 系统的初始状态x0=[1-0.5]T, 利用本文的方法延时计算出是100ms。

5 结语

本文分析了一类随机网络控制系统。主要对系统传感器的取样周期区间划分了更小的子区间, 针对系统控制器的信号的随机变化, 得到了系统渐近稳定的充分条件。从文中最后的数值举例和仿真结果, 与已有的结论做比较可看出, 此章的方法比已有的较好, 计算出的延时更接近于系统的实际情况。

参考文献

[1]Zhang W, Brannicky M S, Phillips S M.Stability of Networked Control Sys-tems.IEEE Control SystemsMagazine, 2001.

[2]Hu S S, Zhu Q X.Stochastic optimal control and analysis of stability of net-worked control systemswith long delay.Automatica, 2003.

[3]Ma C L, Chen S M, Liu W.Maximum allowable delay bound of networkedcontrol systems with multi-step delay.Simulation Modelling Practice and Theory, 2007.

[4]Fu M Y, Fellow IEEE, Xie L H.The sector bound approach to quantized feef-back control.IEEE Transactionson Automatica Control, 2005.

时延分析 篇6

1.1 多模光纤直放站定义

多模光纤直放站是在单模光纤直放站的基础上改进而来的, 属于同频放大设备, 是在无线通信传输过程中起到射频信号增强的一种无线电发射中转设备。多模光纤直放站采用数字化处理, 将软件无线电、数字光纤传输、数字中频处理、DPD功放、Doherty等技术融为一体, 支持TD-SCDMA的F频段制式 (1880-1900MHZ) 或A频段制式 (2010-2025MHZ) 和GSM/DCS制式的射频合路拉远, 并提供WLAN的传输通道, 可以实现一条光纤、一套设备、一次建设完成多种制式系统的传输拉远。多模光纤直放站由近端机和远端机组成。

1.2 多模光纤直放站工作原理

TD-SCDMA下行信号接入近端机, 先由同步模块获取同步信息, 通过数字中频单元对信号进行下变频处理, 由数字处理单元将中频信号进行数字化处理转为光信号, 由光缆传送到远端, 到达远端后通过同步模块取得同步信息, 经过数字处理单元进行上变频, 通过DPD功放放大, 通过天线进行覆盖, 上行工作过程与下行的工作过程相反。GSM的工作过程除了不用单独进行同步检测外其他过程与TD-SCDMA类似。多模光纤直放站为WLAN提供传输通道, 由AC或交换机接入WLAN信号, 将电信号转换为光信号输入到近端机, 近端机通过数字处理模块将WLAN的信号与GSM、TD-SCDMA的信号混合处理后通过光缆传输到远端机, 最后由数字处理单元将WLAN信号分离出来, 提供光口连接。

2 多模光纤直放站干扰分析

多模光纤直放站, 将GSM、TD-SCDMA两种制式网络系统合路传输, 共用后续的天馈分布系统, 首先要解决的是各制式系统合路后所带来的系统间干扰问题, 通过分析各系统间的干扰, 得到必须的系统隔离度等指标, 作为设备选型和网优维护的参考, 以尽量避免不必要的系统干扰。

2.1 关键隔离度指标分析

考虑到中国移动现有的三网合一网络 (GSM/TD-SCDMA/WLAN) 和其他可能共用室内分布系统 (联通GSM/WCDMA, 电信CDMA, PHS等) 的无线网络, 本文关于电磁兼容和干扰的分析将从三网延伸到多网, 并研究得出各系统合路时需要互相满足的隔离度指标, 另一方面, 通过分析一些特殊的干扰情况, 提出可参考的解决思路。

不同无线系统间的干扰与其频谱相对位置紧密相关, 根据本文的研究范畴, 各主要的无线系统的频段占用情况如下表1所示:

从无线信号干扰产生的机理来看, 应该将干扰分为:热噪声的增加 (N) , 离散的干扰包括同频 (C) 、邻道 (A) 、互调 (I, 含交调和倍频) , 强干扰引起的阻塞 (B) 。

杂散干扰、阻塞干扰和互调干扰是多系统合路必须考虑的问题。

杂散干扰是在信号处理过程中由于器件的非线性而产生的寄生在原始频带附近的信号形成的干扰。由于在产生杂散干扰信号的信号处理过程中滤波器的带外频率衰减作用, 杂散信号偏离原始频带越远, 其信号强度越弱, 两系统频率相隔越近杂散干扰越严重。多系统共用室内覆盖系统时, 由于不同系统的下行功率在同一点基本相当, 且下行功率远远高于上行功率, 由于杂散衰减的作用, 终端接收到的杂散干扰信号强度远远低于下行信号强度, 因此将不会对系统的下行造成干扰;另一方面, 由于上行信号功率弱, 杂散信号经过衰减后与相邻频率的上行信号强度差距不大, 可能会对上行造成很强的杂散干扰。

针对杂散的分析, 采取如图1所示方法, 若分析系统A杂散对系统B的影响, 最终得到系统A对系统B的隔离度要求, 首先通过协议获得系统A发射机的最低杂散要求, 并计算A系统杂散辐射在B系统带宽内的功率。根据工程近似方法, 以A系统杂散低于B系统接收机带宽内噪底10d B为设计目标, 从而得到A系统对B系统的隔离度需求。

阻塞干扰是指系统A的基站发出的信号功率落在系统B的基站接收滤波器通带之外, 却仍然进入B系统接收机而带来的额外干扰。当此干扰大于B系统接收机的阻塞门限时, 接收机被推向饱和, 无论有用信号质量多好都无法被接收。一般当满足杂散的隔离度需求时, 同时可以满足阻塞的隔离度要求。

互调干扰是指当有两个以上不同的频率作用于一非线性电路或器件时, 将有这两个频率互相调制而产生新的频率, 若这个新频率正好落于某一个信道而为工作于该信道的接收机所接收, 即构成该接收机的干扰, 称为互调干扰, 最为常见的是二阶互调干扰和三阶互调干扰。互调对其他系统的干扰主要体现在三阶互调上, 而三阶互调主要干扰的是相邻频段的系统, 存在这种干扰可能性的系统均可以通过灵活的频段设置进行规避, 比如PHS和WCDMA系统之间的互调干扰, 当PHS系统使用的频段为1900-1920MHz时, 其互调的干扰范围在1880-1940MHz之间, 假定PHS有源系统的输出功率为2W, 根据PHS有源设备的互调指标36d Bc, 则可以算出互调干扰的电平为-3d Bm, 远远大于杂散等其他干扰的电平, 此种情况很难通过增加2个系统之间合路器的隔离度来进行避免, 最好的办法是压缩其中一个系统的使用频段, 例如PHS系统和WCDMA系统之间的互调干扰, 可以压缩PHS系统的使用频段为1900-1910MHz, 则其互调的范围控制在1890-1920MHz之间, 不会对WCDMA系统产生干扰。

由以上分析可以看出, 对两个系统之间的干扰分析时, 阻塞干扰远远小于杂散干扰的影响, 而互调干扰存在于个别相邻的两个系统之间, 必须通过压缩频段等方式解决, 因此在考虑总的系统干扰时, 往往仅需考虑两个系统的杂散干扰要求, 对个别相邻系统需要重点考虑互调干扰。

综合以上分析, 不同系统总的隔离度要求 (结合各系统实际噪声系数5d B得出) 如下表2所示。要避免多网合一出现系统干扰问题, 需要合路设备满足该隔离度要求。

2.2 GSM900下行二次谐波对TD网F频段上行干扰分析

系统合路除了设备需满足隔离度要求外, 还有一些特殊的干扰情况需要重视, GSM900下行二次谐波对TD (F) 频段的上行干扰就是一个典型的例子。经过对多个基站和其它信源测试, 信源的二次谐波情况差异较大, 国家旧标准要求杂散发射小于-36d Bm, 于是出现信源二次谐波有的很好, 小于-100d Bm, 有的很差, 约-46d Bm。

下面对某厂家信源的二次谐波进行测试, 如图2、图3所示, 频谱仪接合路器TD端口, 功率补偿30d B, 基站接抗干扰器, 工作频段设置为1880-1900MHz, 测试得到的二次谐波约为-46d Bm。

除信源外, 天馈分布系统的无源器件、天线等都会产生二次谐波。

根据指标要求, GSM二次谐波产生在TD (F) 频段的幅值应小于-113d Bm, 高于此值会导致容量减小、速率降低, 尤其是数据业务将来大幅度提升情况下, 速率和容量的问题会越发体现。

针对二次谐波提出方案如下:采用高端高互调器件, 并且该器件需要采用低二次抑制技术;收发分缆, TD并入上行频段;分天馈情况下, TD天线和GSM天线上下放置, 调整倾角;降低信源功率和天线辐射功率, 增加覆盖密度。

2.3 GSM1800系统扩频使用干扰分析

GSM1800系统有时会扩频使用, 为避免临时频段下行在1880MHz附近对TD-SCDMA (F) 频段 (1880-1900MHz) 的杂散干扰, 需在GSM1800系统的下行发射端加装GSM1800扩展频段下行滤波器, 考虑扩展频段的截止频率从1880MHz开始, 首先满足1800临时频点的规划需求, 牺牲TD-SCDMA (F) 频段的前6MHz作抑制。

3 多模光纤直放站时延分析

3.1 针对GSM系统的时延分析

在一个近端机连接多个远端机的时候, 两两远端的覆盖区域可能产生重叠, 如图4所示, 从站1和从站2有重叠区域。手机用户 (MS) 处于两站覆盖交界处时, MS的通信路径可能有两条:A路径 (图4中abc线) 或B路径 (图4中adc线) 。由于从站2光纤拉远的距离比较远, 则通过路径B从站2的信号到达基站的时延必然大 (每公里光纤大概有5 s的时延) 。GSM制式中, 若基站接收到的两个同频信号间时延相差大于15 s, 则认为其中一个是干扰, 如果两个信号之间的功率相差不大, 不能满足最低信噪比要求 (9d B) , 则会引起掉话。采用时延校准可以解决这个问题。多模光纤直放站设计时必须具备时延校准功能, 开启时延校准功能后, 可以把从站1的时延和从站2的时延调整为一样, 从而不会产生上述的同频干扰现象。

3.2 针对TD系统的时延分析

上行预同步过程中, 当UE在多模光纤直放站覆盖区和目标小区基站覆盖区间切换时, 如果多模光纤直放站的上下行时延是不对称的, 则会对TD的接力切换和硬切换造成一定的影响。

对接力切换的影响:假设源小区和目标小区到UE的下行时延均为零, 多模光纤直放站的上行时延为d。根据导频信号的时间差 (t) , 来确定切换到目标小区后上行时间提前量的变化 (2 t) , Node B会通过SS命令使UE提前发送。由于引入多模光纤直放站后上下行时延是不对称的, 所以这里用下行导频时间差估出的上行发送时间是不正确的。当从多模光纤直放站覆盖小区向目标小区切换时, 如果d>16chip (12.5 s) , 则TS3侵入TS2, TS2侵入TS1。这样造成各时隙底噪上升, 信道环境变差, 切换失败;当从目标小区向多模光纤直放站小区切换时, 情况一样。

对硬切换的影响:当从多模光纤直放站覆盖小区向目标小区切换时, 与正常切换一样;当从目标小区向多模光纤直放站源小区切换时, UE在做随机接入时, 并不知道上行的时延, 此时如果d>32chip (25 s) , 则UE发送的SYNC_UL将有部分落入TS1, 造成切换的失败。

多模光纤直放站在设计时需要保证上下行时延的准确性和一致性, 在网络中使用时, 不会引起系统上下行链路时延不对称, 不会影响系统的接入性能和切换性能。

4 多模光纤直放站容量分析

作为GSM系统来说, 多模光纤直放站设备可以支持最多16载波, 具体载波配置数是由基站主设备根据具体覆盖情况来配置, 多模光纤直放站只是将近端机耦合的基站载波信号拉远到远端室内覆盖区, 并不改变其容量, 多达16载波的容量支持可满足各种覆盖场景的容量需求。

TD系统的F频段和A频段都采用宽带型, 直接耦合基站RRU的射频信号进行传输和覆盖, 并不改变容量, 载波配置由基站来具体配置, 无论基站RRU的载波数量配置多少, 多模光纤直放站都可以支持。而针对业务热点场景, 通过N频点组网, 而现网的A频段无法支持足够的载波的话, 可扩容使用F频段, 多模光纤直放站同样能够支持。

由于TD是一个容量受限的网络, 为不破坏建网时的容量规划, 建议室内分布应用多模光纤直放站时, 要为其选用单独的单通道RRU作施主基站使用, 施主RRU不建议再覆盖其他区域, 单独将多模光纤直放站的TD覆盖区规划为一个小区, 便于全网的小区规划和后期的容量升级。

参考文献

[1]樊昌信, 曹丽娜.通信原理 (第6版) [M].北京:国防工业出版社, 2006

[2]张威.GSM网络优化-原理与工程[M].北京:人民邮电出版社, 2003

时延分析 篇7

变电站的设备智能化是实现智能电网的重要基础环节,随着IEC 61850标准的完善,智能变电站对同步时钟精度和稳定性要求越来越高[1,2,3]。IEEE1588同步时钟对时精度达亚微秒级,但该时钟基于网络对时,以变电站通信网络为传输基础[4,5]。变电站通信网络是基于IP承载技术的综合数据业务网,承载着站内全部通信业务,因此,存在同步报文传输不可靠、路径时延不确定等问题,而且时钟发生器自身也存在振荡频率偏移误差,这些因素都将影响IEEE 1588同步时钟的授时稳定性。

文献[6]提出通过晶振补偿和OffsetTime滤波来提高网络时钟对时精度,但该方案实现复杂,对CPU计算速度有较高要求;文献[7]提出一种硬件补偿方案,通过在交换机的物理层中嵌入以太网收发机DP83640芯片,有效减小了时钟发生器振荡频率偏差对IEEE 1588时钟的精度影响,但该芯片价格昂贵,且需改造网络设备,成本较高;文献[8]提出用线性收敛比较法对时钟同步系统进行在线故障检测,该方法能有效进行时钟调谐,但如果调谐过程中路径延时偏差较大,将会严重影响该方法的测量精度。

为解决上述问题,本文提出一种基于网络区分服务调度模型(diffserv-based packets scheduling model,DPSM)的同步报文路径延时误差修正方法,并对时钟发生器振荡频率进行修正,实现了纳秒级高精度网络对时。

1 IEEE 1588同步原理

IEEE 1588协议采用计算主从时钟的时间偏移量和测量线路的路径延时量进行时间同步。假设传输线路对称,时间偏移量为Toff-delay,路径延时量为Tdelay,透明时钟本身不参与同步过程,对于长距离的时间同步系统,透明时钟的转发延时是随机的,假设在理想情况下转发延时量确定,设为TQ-delay。

主时钟在Ta1时刻向网络发送一个Sync报文,如图1所示。

Tb1时刻从时钟收到Sync报文,接着主时钟通过Follow_Up报文发送之前记录的精确时间信息Ta1,从时钟接收Follow_Up报文后在Tb2时刻发送一个Delay_Req报文。主时钟收到Delay_Req报文后,记录精确接收时间Ta2,并把Ta2标记在Delay_Resp报文中发送给从时钟。从时钟接收到Delay_Resp报文后,则可计算出时间偏移量Toff-delay和路径延时量Tdelay为:

基于式(1)、式(2)求出Toff-delay和Tdelay后,对时间偏移和路径延时进行在线校准,这样就完成了主从时钟的时间同步,通过电力通信网络连接各个时钟节点,实现全网时间同步。

2 IEEE 1588同步报文网络延时误差分析

2.1 同步报文接收转发存在路径延时

IEEE 1588同步过程是在理想条件下进行的,在实际应用中,同步报文的收发存在路径延时,路径延时主要包含链路延时和队列延时。

由于变电站通信网络是分布式网络,传输所有业务报文,而业务报文的到来是随机、不确定的,每个节点都没有全局的网络信息[9]。当线路出现拥塞时,如图2所示,将会存在不可预测的路径延时问题,其中队列延时存在于每台网络设备的端口。如果遇到网络传输阻塞情况,将会出现业务竞争,引发同步报文丢包等情况,严重影响主从设备的同步性能。

2.2 同步报文路径延时的误差分析

假设主时钟发送Sync报文和接收Delay_Req报文过程中的路径延时分别为Tdelay1和Tdelay2。在理想条件下,路径延时是确定的,即Tdelay1=Tdelay2。当Tdelay1≠Tdelay2时,分析可得:

把式(3)代入式(4)消去Toff-delay可得:

把式(6)代入式(5),可得

在式(7)中,Tdelay为理想的路径延时量,而T^delay为实际的路径延时量。因为路径延时存在随机性,直接影响到同步算法的有效性,尤其是在网络传输阻塞等极端情况下,Δt/2会趋向于无限大。因此,Δt/2的大小在很大程度上反映了IEEE 1588同步时钟的对时精度,其误差不可忽略。

3 基于DPSM机制的同步报文路径延时误差消除方法

为了可以有效控制同步报文的路径延时,使得Δt/2无限趋于0。本文建立了DPSM机制,提出了基于带宽调节因子和紧迫度函数的DPSM算法来确定路径延时。

3.1 DPSM原理分析

本文提出的DPSM是一种改进的适用于变电站通信网络的实时在线分组调度算法机制,如图3所示。其中PTP表示精确时间同步业务。

其基本原理如下。

1)对进入网络每个节点的业务报文设置队列优先级,引入了虚拟时间概念,配置了虚拟系统时间,并且定义了每个数据流的虚拟启动时间和虚拟结束时间。DPSM要求优先发送虚拟启动时间最小的分组,从而满足不同业务报文对路径延时的要求。

2)相比于传统的区分服务模型算法,DPSM对同步报文进行了整形优化,对同步报文建立了带宽调节因子,通过调节网络带宽,可以控制同步报文的服务速率,从而确定同步报文的路径延时。

3)对网络节点中的业务报文进行标记,当网络拥塞时,建立报文紧迫度机制,为不同类型的业务报文分配不同的差异化服务编码,实现多级化区分业务调度。

4)DPSM提出了网络可靠性保障机制(reliability guarantee mechanism,RBGM),由于同步报文采用IP或UDP封装,在DPSM中引入RBGM,可在同步报文的预留空间里标记可靠性标识,实现同步报文数据包无缝隙传输。

DPSM提供了一种公平、动态的队列方案,对同步报文设置最高优先级,达到实时优先发送同步报文的目的。配置同步报文的带宽调节因子,可以控制同步报文的服务速率,进而使同步报文的路径延时统一,控制同步报文的服务速率还可以有效避免高优先级报文的带宽抢占现象。当网络出现拥塞时,建立报文紧迫度机制,实时优先发送紧迫度较高的同步报文,实现高精度网络对时方案。

3.2 DPSM算法分析

DPSM算法采用虚拟时间戳来模拟系统时间。定义每个数据分组的启动时间和结束时间为一个事件,设第n个事件的时间为tn,V(t)为虚拟系统时间函数,DPSM算法描述如下。

1)执行区分调度前,先完成调度初始化。在系统初始时刻,虚拟系统时间清零:

2)当通信网络实时交换数据时,系统虚拟时间为:

3)假设ωm,k为第m组数据流的第k个数据包,ωm,k到达服务器的时刻为tm,k,Lm,k为ωm,k的数据长度,rm为第m组数据流的输出带宽,Sm,k和Fm,k分别为ωm,k的虚拟启动时间和虚拟结束时间。当ωm,k到达后,虚拟启动时间为:

式中:Fm,k-1为上一个数据包离开时的虚拟时间。

Fm,k的通用公式可表示为:

当上一个数据包的虚拟结束时间被确定时,就能确定本次的虚拟启动时间,从而最大限度地减小了算法的复杂度。

4)进行区分调度的规则是优先发送虚拟启动时间最小的数据包,对不同类的数据报文进行配置,实现分级化区分调度。

5)在任一时刻t,DPSM要完成数据报文的发送,应满足以下发送判据式:

3.3 网络正常情况下IEEE 1588网络时钟路径延时的误差修正

在通信网络正常时,通过DPSM对同步报文进行优化配置,可以校正同步报文的服务速率。

在计算系统虚拟时间中添加了带宽调节因子τ(0<τ≤1),通过对同步报文配置τ值,可以调节同步报文与其他业务报文之间的带宽比例。τ值越大,同步报文分配的数据带宽就越小;随着τ值的减小,同步报文就获得更大的数据带宽。数据带宽越大,报文的服务速率就越快。通过控制同步报文τ值,使得τ成为一个定值,可以实现同步报文按照约定速率进行传输,使得Δt/2无限趋于0,从而消除网络时钟路径延时误差。

3.4 网络拥塞情况下IEEE 1588网络时钟路径延时的误差修正

当通信网络出现拥塞时,同步报文路径延时趋于无限大,甚至造成同步报文的丢失。

DPSM在虚拟启动时间中引入了报文紧迫度函数μ(x)。在网络正常情况下,为了避免出现带宽抢占现象,应配置同步报文μ(x)函数值为一个无限小的常量;当网络出现拥塞时,DPSM自适应调节同步报文的μ(x)函数,使得同步报文的虚拟启动时间小于其他数据报文的虚拟启动时间,从而优先发送同步报文。

在网络拥塞时,为了让同步报文获得更小的虚拟启动时间,应对μ(x)函数配置一个较大的值,但如果对μ(x)函数设置值过大,将会出现带宽过剩现象,造成网络资源浪费,影响了网络的公平性原则。因此,μ(x)函数需满足下式:

式中:Lmin为站内通信网络中最小数据包的长度;β(β≥1)为拥塞程度,网络拥塞程度越大,β值越小,当β=1时,同步报文将获得最大的紧迫度。

3.5 RBGM的实现

IEEE 1588同步报文基于IP或UDP包进行传输,主要由报头、正文和后缀3个部分组成。报头由transportSpecific(传输特性)、messageType(信息类型)、reserved(预留)等字段构成;正文部分主要是实现IEEE 1588同步报文机制功能;后缀在一般情况下为0[5]。由于IP/UDP是无连接、不可靠的“尽力而为”传输机制[10,11],不能保证IEEE 1588同步报文的可靠性传输,引入RBGM对IEEE 1588同步报文的可靠传输提供了安全保障。

IEEE 1588同步报文在原始报头里配置了预留字段,未被定义时所传输的比特位为0,所以可靠性传输标识符可定义在同步报文的报头的预留字段里,如图4所示。

RBGM的实现过程如下所述。

1)主时钟发送同步报文时,在报头的预留字段里标记可靠性传输标识符,从时钟通过检测可靠性传输标识符,可以迅速识别发送过来的同步报文。

2)从时钟接收到可靠性传输标识符后,迅速向主时钟反馈一个包含可靠性传输确认符的确认消息,通知主时钟同步报文已被正确接收。

3)如果主时钟在一定时间内没有收到确认消息,则判断之前发送的同步报文可能丢失,RBGM迅速对同步报文进行重传,直到主时钟接收到确认消息。

3.6 DPSM机制对IEEE 1588时间戳标记的影响

IEEE 1588同步报文采用IP层报文封装结构,同步报文经过IP层封装后到达PHY层时标记时间戳,DPSM机制在IP层实现,如图5所示。因此,DPSM机制不会对时间戳的标记产生影响。

4 高精度网络时钟的产生

在IEEE 1588同步网络中,全网中每个网络节点的时钟发生器存在一定的同步误差。本文在实现路径延时误差修正的基础上,对时钟发生器振荡频率进行了修正,完成高精度时钟偏移量的测量,进而实现高精度网络时钟同步。

4.1 智能变电站对时钟同步网络精度要求

智能变电站时钟同步网络基于统一的网络通信信息平台,应满足以下时间精度要求[12]。

1)IEC 61850标准将智能变电站的采样值同步精度根据应用要求分成了5个等级(T1至T5),其中T5主要用于计量,要求精度达1μs。

2)时间同步报文用于同步变电站自动化系统内智能电子设备内部时钟。根据不同的事件时标或原始数据采样精度,要求满足各个智能电子设备不同级别的时间同步精度。

3)时钟同步精度必须高于设备功能要求至少一个数量级。

根据本文提出的DPSM机制可对同步报文设置队列优先级,使同步精度高于智能设备功能要求,满足IEC 61850标准规定。

4.2 高精度网络时钟的实现原理

在从时钟接收到主时钟发送的时钟同步报文后,会产生一段不确定延时后才发送延时测量请求,而这段延时是随机的,主要是由主从设备时钟发生器的振荡频率不一致所引起。在同步网络中,如果主从设备各自的时钟发生器振荡频率不一致,将导致同步算法机制出现一定的误差。

高精度网络时钟具体实现过程如下。

1)从时钟发送一个同步请求报文,同时记录发送时间Tb1。主时钟在Ta1时刻接收并记录精确接收时间,如图6所示。此刻透明时钟不参与同步过程,通过路径延时误差的修正,其转发延时为一定值TQ-delay。

2)经过时间δ(以从时钟为基准)后,从时钟发送一个跟随报文给主时钟并记录精确接收时间Ta2。分析可得:

式中:ΔF为主从时钟时钟发生器振荡频率的频率差;δ为一个定值,通过初始化设置后,不需要再对δ值进行设置。

3)主时钟把之前记录的2次精确接收时间Ta1和Ta2发送给从时钟,从时钟通过式(14)就完成了主从设备时钟发生器振荡频率误差的修正,然后完成时钟偏移测量,从而实现高精度网络时钟同步。

4.3 高精度网络时钟的硬件实现

根据上述原理,本文设计了一种高精度网络时钟,硬件原理如图7所示。

图7(a)为主时钟硬件电路框图,采用GPS/北斗双模授时系统作为主时钟授时源,为网络提供精确秒脉冲信号,其中时间信息送至CPU,秒脉冲送至FPGA。图7(b)为从时钟硬件电路框图,从时钟的秒时间由恒温高精度晶振提供。FPGA是基于硬件的电路,用以实现PHY层时间戳的标记。CPU用以处理DPSM算法,对进出节点的不同类型的数据报文设置队列优先级,修正数据报文的服务速率,配置报文紧迫度函数,从而实现同步报文的延时确定性。

为了验证本文所提出的高精度网络时钟的有效性,利用本文方法进行了对比试验。试验中主从时钟的CPU采用ATMEL公司生产的ARM9260芯片,选用ACTEL公司生产的A3P125作为FPGA芯片,高精度恒温晶振的频率为100 MHz。为验证试验的可靠性,在主从时钟之间加入了2个WAN路由器组成广域网络,WAN路由器由一个ARM9260实现DPSM机制。高精度网络时钟试验环境如图8所示。

图9为同步报文路径延时测试结果。在图9(a)中,随着网络负载(表示沿途链路带宽被占用的饱和度)的增加,同步报文的路径延时产生较大的偏差;图9(b)是通过DPSM修正后的测试结果,可以看出修正后的同步报文满足低延时、低抖动性原则,特别在网络负载过大导致网络阻塞时,同步报文的延时依然可以保持良好的稳定性。

采用本文方法对网络时钟进行校正后,用示波器经过多次比较主从时钟的脉冲输出(见附录A图A1),可得出从时钟输出有效时的最小时间偏差可达50ns,平均误差约200ns。基于IEC 61850标准进行分析,可见本文提出的DPSM算法所达到的对时精度完全可以满足智能变电站对时间精度的要求,网络稳定性及报文延时优于传统算法,可以在整个变电站自动化设备中推广。

5 结语

本文提出的基于DPSM机制的同步报文路径延时误差消除方法,确定了同步报文的路径延时;在消除同步报文路径延时的基础上,对时钟发生器振荡频率进行了修正。理论分析和实验结果表明,该方法所产生的网络时钟偏差可达50ns,精度高、稳定性好,能够满足智能变电站对时钟精度的要求。随着对IEEE 1588网络时钟的研究更加深入,智能变电站的对时系统有望实现采用IEEE 1588标准构建的网络授时平台,对实现智能变电站时间统一系统具有重要意义。

附录见本刊网络版(http://aeps.sgepri.sgcc.com.cn/aeps/ch/index.aspx)。

参考文献

[1]国家电网公司.智能变电站技术导则[R].2009.

[2]何光宇,孙英云,梅生伟,等.多指标自趋优的智能电网[J].电力系统自动化,2009,33(17):1-5.HE Guangyu,SUN Yingyun,MEI Shengwei,et al.Multi-indices self-approximate-optimal smart grid[J].Automation ofElectric Power Systems,2009,33(17):1-5.

[3]IEC 61850 Communication networks and systems insubstations[S].2003.

[4]于跃海,张道农,胡永辉,等.电力系统时间同步方案[J].电力系统自动化,2008,32(7):82-86.YU Yuehai,ZHANG Daonong,HU Yonghui,et al.Timesynchronizing system for power system[J].Automation ofElectric Power Systems,2008,32(7):82-86.

[5]IEEE Std 1588TM—2008 IEEE standard for a precision clocksynchronization protocol for networked measurement and controlsystems[S].2008.

[6]桂本烜,冯冬芹,褚健,等.IEEE1588的高精度时间同步算法的分析与实现[J].工业仪表与自动化装置,2006(4):20-23.GUI Benxuan,FENG Dongqin,CHU Jian,et al.A study andanalysis of high-accuracy network synchronization based onIEEE 1588[J].Industrial Instrumentation&Automation,2006(4):20-23.

[7]于鹏飞,喻强,邓辉,等.IEEE1588精确时间同步协议的应用方案[J].电力系统自动化,2009,33(13):99-103.YU Pengfei,YU Qiang,DENG Hui,et al.The research ofprecision time protocol IEEE 1588[J].Automation of ElectricPower Systems,2009,33(13):99-103.

[8]胡永春,张雪松,许伟国,等.IEEE1588时钟同步系统误差分析及其检测方法[J].电力系统自动化,2010,34(21):107-111.HU Yongchun,ZHANG Xuesong,XU Weiguo,et al.Erroranalysis and detection method for IEEE 1588 clocksynchronization system[J].Automation of Electric PowerSystems,2010,34(21):107-111.

[9]国家电网公司.智能电网关键设备(系统)研制规划[R].2010.

[10]PAREKH A,GALLAGER R.A generalized processor sharingapproach to flow control in integrated services networks—thesingle node case[J].IEEE/ACM Trans on Networking,1993,1(3):344-357.

[11]FALL K R,STEVENS W R.TCP/IP illustrated:the protocol[M].Addison-Wesley Professional,1994.

时延分析 篇8

1 NS2仿真软件

文中在在利用NS2软件构建网络模拟环境, 使用NS2进行模拟, 可通过两种方式实现, 一种是使用已有的NS2网络元素实现;另一种是基于C++和OTcl编程实现。NS2功能强大, 模块较为丰富, 已实现的模块主要有:业务源流量产生器 (Telnet、CEB、FTP、Web等) ;网络传输协议 (TCP、UDP等) ;路由算法 (Dijkstra等) 等等。由于能够近乎真实地模拟网络环境, 并可以在各个层次上模拟网络的运行过程, 故而成为目前网络研究领域被人们所广泛应用的网络仿真软件之一。

2 时延测量仿真分析

用NS2进行建模仿真。整个网络结构由接入层、汇聚层和骨干网建成。模型中接入端点Source在每隔10s发出一个大小恒定的一般数据包。对DSLAM接入设备接入层主要用于汇聚接入流量。汇聚层网络接入服务器Access_R一般由具有优势的服务功能, 选择思科的自主网络系统作为汇聚层服务器交换机路由器, 主要功能是实现DSLAM和骨干网和接入网协议的最终完成之间的连接。Core_R是骨干路由器, 路由器主要负责完成骨干网之间的业务沟通。骨干网是Core_Net, 设其时延为10ms。

网络的结构是关于Core_Net的两边对称。仿真中的数据经过实际的长得地理位置上的变化, 可以认为是链路之间的短距离的数据传输, 因此链路传播时延可忽略;为了使得测量值更接近实际值, 预先输入40%左右背景流量。

2.1 时延分析

在网络模型中, 发送端Source发送的数据包大小固定, 都是1024B的TCP数据包, 用NS-2进行仿真, 分析各部分时延的大小及所占整个端到端时延的比例, 找出主要时延所在。仿真结果如图1所示。显示了每个部分的端到端延迟。因为每个链接有背景流量, 延迟出现波动, 即抖动;不使用任何Qo S机制使用的模型, 所以延迟比较大。图1中带菱形符号的是端到端延迟, 平均是351ms, 中间线源在DSLAM1平均延迟, 174ms的大小, 设置延时10ms Core_Net;延迟曲线从DSLAM1到Core_Net是底部线重叠的部分, 依次是平均10ms, 5ms, 1ms。时间延迟352ms的是接入网, 总延迟占整个网络延时的88.6%, 而主网部分的时延占了整个网络时延的4%左右。因此网络的主要时延是有接入网部分造成的。

2.2 时延与数据包大小的关系

实际的网络中链路中传播的数据可以是视频、图像、声音等多种的媒体文件, 媒体文件的数据量很大, 在传输过程中需要分成多个数据包的传输。为了分析数据包的大小是否影响网络的延时, 通过源端发送大小不同的TCP数据包进行仿真, 仿真的结果如图2所示。

32B的数据包的时延值是最小, 1308B的数据包的时延值最大。即数据包越大平均的时延值越大, 数据包和端到端的平均时延基本呈线性递增的关系。因此, 具体的被测网络系统中, 应用主动测量技术时发送的探测包的大小要考虑选择合适的包大小, 使得测得的时延结果的精度更高。

端到端网络时延包括处理时延、排队时延、传输时延和其它时延, 大小不同的数据包的端到端时延的不同就是由于组成时延的这些不同部分所引起的。在仿真中发送端发送不同大小的数据包进行分析数据包的大小与其排队时延、处理时延、传输时延分别的关系, 如图3、图4所示。

由于链路有背景流量, 因此输出队列时延较大。发端每隔10s才发出一个数据包, 所以, 数据包在路由器的输入队列中不需要排队等候, 各种大小数据包的队列时延都一样。

分析图3和图4, 主动测量中发送的数据包的越大, 则处理时延和传输时延也随着变大。数据包的大小和处理时延与传输时延之间大致呈线性递增的关系。

实验结果显示数据包的大小与测量的延时有关, 延时的增加会随着数据包的增加而加大, 但是实验结果还显示, 数据包的增加也会使得路由器的处理时间也会改变。因此在实际测量中没有研究。

背景流量的测量在速率一定的情况下, 较小的测量数据包, 数据包到达间隔小, 接收探测数据包的速率大, 测量数据包和链接缓冲背景流并不激烈, 如果测量包长度较大, 然后测量数据包处理和传输占用更多的时间, 和链接的背景流争抢缓冲更强烈。因此应该有一个合理的中间值, 使背景流量测量流和链接不是激烈的缓冲区, 即发送的探测流与背景的数据流之和不能超过链路的带宽。综合所述, 对数据包大小的选取会对网络性能的测量产生比较重要的影响, 因而对数据包大小的选取是必须认真考虑的因素之一。

3 结语

主要对测量的端到端主动时延进行分析, 仿真得出主动测量技术中发送的探测数据包的大小对时延是有影响的, 探测包与网络的背景流结合后, 时延值与探测包的大小大致呈线性关系递增。所以在对用于测量网络链路的带宽工具以及在主动测量技术中注入的探测包与背景数据流相结合后产生的新的数据流对网络带宽的影响进行分析研究, 进一步分析主动测量值时延误差与网络链路带宽间的关系。

参考文献

[1]李勇军, 蔡皖东, 王伟.网络断层扫描技术综述[J].计算机工程, 2006, 32 (13) :91-93.

[2]刘瑞芳.网络性能测量和推测技术的研究[D].北京:北京邮电大学, 2006.

[3]费高雷.基于单播端到端测量的网络性能参数估计方法研究[D].成都:电子科技大学, 2012.

[4]张莉.基于端到端测量的网络链路丢包性能推测[D].北京:北京邮电大学, 2006.

上一篇:每天1小时下一篇:阅读问题