QoS

2024-07-05

QoS(通用12篇)

QoS 篇1

随着IP技术和网络的发展,世界各国的运营商基于IP网络已经开发出多种多样的新业务,IP网正在从当初单纯传送数据向可传送数据、语音、活动/静止图像的多媒体网络转变。终端软硬件的不断发展使得很多终端已能够满足多媒体应用的需要,因此在IP网上实现类似语音、传真、会议等实时多媒体应用的问题焦点便集中在了如何传输这些时延敏感的业务上。基于此,我们根据区分服务模型的体系结构,设计实现了一个实用的具有QoS[1、2]功能的视频传输服务系统。

1 QoS管理系统的工作原理

在保留IETF区分服务模型[3、4]基于DSCP[5、6]标记的流聚集转发机制的基础上,提出面向用户和服务的区分服务模型。要求因特网连接提供商的路由器能够根据数据包的DSCP值对业务流进行调节并选择相应的逐跳转发行为[7、8];将区分服务模型中边界路由器的分类标记等功能移到因特网内容提供商的服务器端实现,在因特网连接提供商(IAP)部分增加QoS服务器,在用户端、QoS服务器和因特网内容提供商服务器端增加QoS协商模块和接纳控制模块。目的是减轻边界路由器的负担,使得QoS的接纳控制和资源管理变得相对容易,同时也使用户和因特网内容提供商增加直接参与服务质量保证的机会。给出了面向用户和服务的区分服务模型的体系结构,并将该模型应用到一个已设计实现的实用的具有QoS功能的QOS管理系统,再设计了该系统中QOS服务器的计费模块的设计与实现。

2 QoS服务器的设计

运用在因特网连接提供商部分增加QoS服务器,在用户端、QoS服务器和因特网内容提供商端增加QoS协商模块和接纳控制模块的方法,构建QoS服务器系统平台,可大大减轻边界路由器的负担,使用户和因特网内容提供商都有机会直接参与到服务质量保证中,从而更容易对QoS进行接纳控制和资源管理,同时也便于服务运营商对提供服务进行管理和计费。QoS服务器内部结构如图1所示。

3 QOS计费模块的内部结构和主要处理流程

3.1 QOS计费模块的内部结构

计费模块的功能是从数据库里读取流量统计信息,根据不同的QoS服务等级进行计费,以备用户查询。QoS服务器的计费模块是为网络连接提供商计费,而内容服务器的计费模块是为内容提供商计费的。

计费模块对外提供用户计费服务,如图2所示。

3.2 QOS计费模块的计费方式

计费分按连接时间计费和按连接时间计费两种,用户可自行选择其中之一。

1)按日计费方式描述如下:

(1)在每个固定的日子(例如每个月的第1天)对各个用户进行计费,并在用户的账号里扣除相应的费用;

(2)当用户通过访问Web服务器,提交了新的QoS服务级别申请后,对该用户当天以前的资费进行计算,并在其账号扣除相应的费用;

(3)按日计费的计算方法:费用=该用户所享受的最高QoS服务级别的每日收费×从上一次计费日期到当前计费日期的间隔天数

2)按连接时间计费方式描述如下:

(1)当QoS协商成功后,记录开始服务的时间。

(2)当每次服务结束后,内容服务器都向QoS服务器作出报告。记下此时的时间作为服务的结束时间。

(3)计算服务时间长度,然后对该用户进行计费,并在其账号中扣除相应的费用。

(4)按连接时间计费的计算方法:

费用=服务时间(以分钟计)×所享受的服务级别的每分钟收费单价

3.3 QOS计费模块的处理流程

按日计费流程如图3所示。

按连接时间计费流程如图4所示。

4 结束语

在今后的基于Internet的网络视频会议或企业应用中,基于终端的QoS解决策略是一个切实可行的方法。随着网络的发展、网络带宽的增加和控制机制的完善,基于网络的QoS策略将成为主要的方式。该文设计实现的QoS视频传输系统中QoS计费模块,在实际应用方面作出了很好的尝试,具有较好的实用价值,对的进一步研究和实施具有指导作用。

摘要:首先介绍了QoS管理系统的工作原理;然后概述了QoS服务器在整个系统中的位置;接着,设计实现了QoS服务器中QoS计费模块并介绍了该模块主要处理流程;最后指出,该模块在实际应用方面作出了很好的尝试,具有较好的实用价值。

关键词:QoS,区分服务,QoS管理系统,QoS服务器,计费模块

参考文献

[1]Ferguson P,Huston G.Quality of Services[M].John Wiley&Sons,1998.

[2]Huston G.Next steps for the IP QoS architecture[C].IETF RFC2990,2000.

[3]Nichols K,Blade S,Baker F,et al.Definition of the differentiated services field(DS Field)in the IPv4 and IPv6 headers[S].IETF InternetRFC 2474,December 1998.

[4]Carlson M,Weiss W,Blake S,et al.An architecture for differentiated service[S].IETF Internet RFC 2475,December 1998.

[5]Nichols K,Blake S,Baker F,Black D.Definition of the Differentiated Services Field(DSField)in the IPv4 and IPv6 Headers[S].RFC 2474,December 1998.

[6]Blake S,Black D,Carlson M,ed al.An Architecture for Differentiated Services[S].RFC 2475,December 1998.

[7]Wroclawski J.Specification of the controlled-load network element service[S].IETF RFC 2211,September 1997.

[8]Shanker S,Partridge C,Guerin R.Specification of guaranteed quality of service[S].IETF RFC 2212,September 1997.

QoS 篇2

张路宜

200522160013

VoIP(voice over IP)就是通过IP 网络承载语音业务,也称IP 网络电话。当网络出现拥塞或传输差错时,语音包就会产生时延、抖动甚至丢失,导致语音不连续或中断,严重影响语音质量。VoIP 业务有着严格的实时性要求,时延、抖动和丢包这3 个影响VoIP 服务质量的主要因素与承载网的性能密切相关。

目前,优化QoS(服务质量)的业务模型主要有intserv(集成服务)、diffserv(区分服务)和MPLS(多协议标签交换)3 种。intserv 可扩展性差,在现有的网络上实现起来非常困难;diffserv 提供了基于类的QoS ,具有良好的可扩展性,但缺乏有效的end2to2end(端到端)机制;MPLS TE(流量工程)通过有效地管理带宽资源,间接改善网络服务质量,但其带宽管理

以及MPLS TE 隧道都无法做到基于业务类别。如果EF(加速转发)、AF(保证转发)、BE(尽力而为)这几类业务都承载在一个MPLS TE 隧道中,那么EF和AF 业务将受到严重的影响。因此, 单独采用diffserv或MPLS TE 服务模型来优化VoIP 业务的QoS ,效果都不尽如人意。

MPLS diffserv2aware TE 是具有diffserv 感知能力的MPLS 流量工程,综合了diffserv 和MPLS TE 两者的优点形成的一种新的集成业务模型,实现了基于业务类别的带宽管理和隧道服务,可以有效保证VoIP 业务在承载网上的服务质量。VoIP 传输基本原理

传统的电话网采用电路交换方式传输语音,可以确保语音传输质量。VoIP 技术将发送的模拟语音信号数字化之后进行编码、压缩,然后转换为IP数据包在网络上传输;在接收端再进行拆包、解压、解码等逆向处理,最后转化为模拟语音输出。包含基本配置的IP 电话网结构如图1 所示,我们以电话用户025 呼叫022 为例,简单介绍VoIP 的通信接和传输过程。025 话机拨号向022 话机发起呼叫,呼叫信令进入语音网关编码、压缩成特定的帧,经过IP 网络送入关守(GK:gate keeper)后对025 话机进行鉴权。如鉴权成功,则对被叫号码022 进行地址解析,通过落地网关与PSTN(公用交换电话网)建立逻辑通道,分别给主叫送回铃音、给被叫送振铃音。至此,经由接入语音网关与落地网关的一个呼叫流程就建立起来了。发送的模拟语音信号由接入语音网关进行编码、压缩、组帧,语音分组通过IP 网络传输到达落地网关,再经过拆包、解压缩、解码等一系列逆向处理,转变为模拟语音信号,通过PSTN 到达被叫话机。VoIP 业务QoS 性能分析 2.1 时延

时延是一个分组从发送端发出后到达接收端的时间间隔,是端到端的时延。ITU2T G.114 规定,对于高质量语音可接受的单向时延是150ms。网络时延可分为固定网络时延和变化网络时延2 部分。固定网络时延是指在发送端和接收端间的信号传输时延、语音编码时延以及VoIP 编解码的语音打包时间。网络的传输时延值约为6.3μs/ km , G.729编解码标准编码时延为25ms(包括2 个10ms帧加5ms算法时延),打包时延为20ms。变化网络时延主要源自网络拥塞,而拥塞是不定时发生的,所以由此产生的时延也是变化的。这种可变时延会因在外出接口队列中长时间的等待或较大的串行化延迟而迅速增长。语音分组在外出队列中排在一个大数据分组后导致长时延情况如图2所示。为了控制语音数据包到达目的地的时延,必须有足够的带宽来保证。

图2 语音分组排在大数据分组后产生的时延

2.2 抖动

抖动是指由于各种时延的变化导致网络中数据分组到达速率的变化。它主要由以下几个因素引起:排队时延、可变的分组大小、中间链路和路由器上的相对负载。补偿抖动的常用方法是在接收端设备上进行缓冲处理。虽然这与减小时延的目标相悖, 但对消除抖动带来的影响是必要的。如图3 所示,在时延一定时,当抖动增大时抖动缓冲区也得相应增大,而增大缓冲区就意味着需要占用接收端设备更大的存储器空间并带来更大的时延。

抖动幅度与抖动缓冲区大小关系示意图消除抖动的缓冲区大小可按下列方法估算。假设在一次连接中,所有分组中传输时间最短的那个时延值等于固定传输时间, 即Tmin = min{ Tn}式中Tn 是每个分组的时延。

每个分组的时延抖动为Xn = | Tn – Tmin 一段时间内的平均时延抖动(期望值)为M = E(Xn)

平均时延可用来确定消除抖动的缓冲区的大小。在相对稳定的情况下,设某种语音编码方式的帧长为F ,一段时间内的平均时延抖动为M ,帧速为f ,则缓冲区大小为Mf F。

2.3 丢包

语音分组在传输过程中有可能被丢失,其原因主要是分组超时或网络拥塞。IP 数据报在网络中寻径具有随机性,为避免数据报进入死循环,系统在一个新数据报产生时,会在其头部TTL(time to live)标志位设定其在网络中的最大生存时间。如果超过这个时间限制,系统自动将其丢弃。造成拥塞的主要原因是网络中的设备没有足够的缓冲区接收数据,如果通向某一路由的队列排队太长,将会产生溢出,导致分组丢失。当单个分组丢失时,采用插值技术可以近似恢复,对语音的理解影响不大。但是,如果有多个连续分组丢失,那么只能靠插入静默帧来处理。通常,语音编解码可以允许3 %~5 %的丢包率。3 VoIP 业务QoS 性能优化

3.1 MPLS diffserv2aware TE模型

diffserv 将流量分成几个等级并按每个等级分配网络资源。为了避免采用信令协议, 它以6 位diffserv码点(DSCP)直接在数据包上标记等级。DSCP 字段是IP 报头中服务类型(ToS)字段的一部分。IETF 对很少使用的ToS 字段进行了重新定义,将其分隔成6 位DSCP 字段和2 位显式拥塞通知(ECN)字段。diffserv 为流量提供不同的转发处理,从而为不同的流量执行特定的QoS。它是一种可扩展的解决方案,不需要在网络核心基于流信令和状态进行维护。但是,如果流量的传输路径不能提供足够的资源来满足QoS 要求,diffserv 将无法保证QoS。

MPLS TE 利用可用资源沿链路建立标签交换路径(LSP),从而确保始终为特定流提供有保证的带宽,以避免在稳定或故障情况下出现拥塞。如果沿最短路径的可用资源不足, 可以不按照最短路径来设计LSP , 从而实现传输资源优化。

MPLS 通过链路保护和快速重路由等机制实现故障发生时的快速恢复。但MPLS TE 忽略了在一个汇聚级别(包含所有服务类别)的可用带宽上,进行CoS(class of service ,服务等级)的分类和操作。MPLS diffserv2aware TE 通过将diffserv 与TE 两者的功能结合在一起,使MPLS TE 能够感知CoS ,允许根据CoS 细粒度来预留资源,并在每个CoS 级别提供MPLS 容错机制。因此,MPLS diffserv TE 可以用来为VoIP 业务提供QoS 保证,从而满足严格的SLA(servicelevel agreement ,服务等级协定)。

3.2 VoIP 业务QoS 优化方法

在MPLS diffserv2aware TE 中,可以采用BE 和EF这2 种diffserv PHB(per hop behavior ,单跳行为),BE用于数据传输,EF 用于语音传输。EF 在diffserv 域比BE 具有更高的优先级。我们的目标是对语音业务提供服务质量保证。每条链路上配置2 个调度队列,一个用于BE ,另一个用于EF。IETF 要求支持最多8 个CT(class type ,级别类型),从CT0 到CT7。我们将CT0 映射到BE 队列,CT1 映射到EF 队列(用于传输VoIP 业务)。一个diffserv TE LSP 只能传送一个CT 的流量,但是传送同一个CT 流量的LSP 可使用相同或不同的抢占机制。本文从描述的简单性出发,只考虑支持2 种CT , 分别用于语音和数据业务。其中CT1 比CT0 具有更高的资源占用优先级。

我们采用RDM(Russian doll model)带宽分配模式,将CT1(话音流量)的带宽限制在链路的某个比例,以确保话音流量具有较小的队列延迟。通过IGP(内部网关协议)广播每条链路上基于CT 的每个优先级的可用带宽, 采用改进的最短路径优先(CSPF)算法,在原来TE 的限制条件下再加入CT 特定的带宽要求作为限制条件来计算路径。LSP 的CT信息在RSVP 路径消息的全新级别类型对象(CT对象)中进行传输,并规定请求预留带宽的CT。以下2 个规则可确保在网络中渐进部署diffserv TE:CT对象只用于从CT1 LSP(如果CT1 对象丢失,则假定为CT0);节点接收到包含CT 对象的路径信息时,如果它无法识别该消息,将拒绝建立路径。

承载在路径消息中的CT 信息,指定了沿路径的每个节点上都执行许可控制的CT。如果沿路径的节点的资源足够,则接收新LSP ,节点计算每个CT 新的可用带宽和优先级别,这些信息随后被送回IGP。另外,我们采用基于Exp 位的diffserv 处理方法(简称E2LSP),在整个diffserv 域中配置一致的Exp2PHB 映射。简而言之,MPLSdiffserv2aware TE 就是对IGP 进行扩展,收集EF 和BE 类的资源使用情况,分别建立TED(流量工程数据库),通过信令协议携带类别建立LSP。这种集成服务模型的优点在于LSP 的建立是基于每个CT 的带宽要求,既可以实现基于类的QoS ,又可以进行带宽控制,提供了低丢失、低延迟、低抖动以及确定的带宽服务,可以很好地满足VoIP 的QoS 要求。

参考文献

[1 ] 张登银, 张庆英.基于因特网的QoS 技术及其业务分析[J ].计算机工程与科学, 2002 ,24(3):31 —35.[2 ] 桂海源.IP 电话技术与软交换[M].北京:北京邮电大学出版社,2004.[3 ] 张登银, 孙精科.VoIP 技术分析与系统设计[M].北京:人民邮电出版社,2003.[4 ] LOVELL David.Cisco IP 电话技术[M].北京:人民邮电出版社, 2002.[5] VoIP业务Qos性能分析 张登银 施伟 南京邮电学院 江苏通信技术 2005-02

PTN传送网的Qos策略探讨 篇3

关键词:PTN;Qos;传送网;全业务

中图分类号:TN915.09 文献标识码:A 文章编号:1006-8937(2012)23-0091-02

伴随着移动互联网、IMS、LTE等业务的蓬勃发展,大量视频和数据IP化业务的不断涌现,原来SDH/MSTP传送网存在着带宽静态分配的巨大缺陷,无法满足IP数据流量爆炸性增长的实际需求。中国移动为了满足业务多样化、IP化、宽带化及时间同步的需求,从2009年开始规模引入分组传送网(PTN),PTN继承了SDH电信级网和以太网高效统计复用的优点,以分组的内核实现端到端业务调度、监控保护、Qos保证等类似SDH的电信级性能,其应用场景和PTN传送网要为各类基站(2G、TD-SCDMA及未来的TD-LTE)提供回传,为各类客户提供语音、数据、视频等新型业务的综合承载,还用来为GPON等宽带接入网提供上联路由。

1 PTN网络的Qos指标

PTN网络引入了带宽统计复用的功能,实现了传送网络的动态带宽,可以在有限的带宽内传送更多的业务,这就使得传送网络可能出现网络拥塞,这时就需要Qos确保特定业务的正常。

Qos是网络的一种安全机制,它的目的在于向用户提供端到端的服务质量保证,即在跨越多种底层网络技术(ATM、Ethernet、SDH等)的网络上,为特定的业务提供其所需要的服务。Qos并不能提高带宽,但它可以通过使用报文分类、流量监管、拥塞管理、拥塞避免、队列调度、流量整形等技术(图1),对网络资源进行合理分配与监控,最大限度地减少网络延时与抖动,确保关键业务的质量。

Qos指标实际上是业务质量的技术化描述,对于不同的业务,Qos缺乏保障时,所呈现出来的业务表象是不同的。一般而言,Qos主要包括五个技术指标,分别是可用带宽、时延、时延抖动、丢包率和业务可用性。下面进行详细的叙述:

①可用带宽。可用带宽指的是网络的两个节点之间特定应用业务流的平均速率,主要衡量用户从网络取得业务数据的能力,所有的实时业务对带宽都有一定的要求,如对于视频业务,当可用带宽低于视频源的编码速率时,图像质量就无法保证。

②时延。时延指的是数据包在两个参考点间从发送到接收的时间间隔。它包括了发送时延、传播时延、处理时延、排队时延(时延=发送时延+传播时延+处理时延+排队时延)。所有实时性业务都对时延有一定要求,如VoIP业务,时延一大,通话就会变得无法忍受。

③时延抖动。时延抖动指的是经同一路由发送一组数据包,在接收侧收到该组数据包的时间时隔差异,其主要是由于业务流中相继分组的排队等候时间不同引起的,由于队列、缓冲的不确定性,所以时延抖动也是随机产生的。当带宽资源有限而又需要在其中混传不同优先级业务的时候,抖动就不可避免,只要抖动落在规定容差之内就不会影响服务质量。某些业务类型,特别是话音和视像等业务,对时延抖动是非常敏感的,稍许的时延抖动就会导致业务质量迅速下降,利用缓存可以克服过量的抖动,但这将增加时延,造成其他问题。

④丢包率。丢包率指的是在网络传数据包时丢弃数据包的最高比率,用来衡量网络正确转发用户数据的能力。数据包丢弃一般是由网络拥塞引起,在MSTP传送网中,由于传输资源是预占的,所以正常情况下丢包率应该为0,而PTN网络中,不同优先级的业务是混传的,当网络拥塞时,必然会出现低优先级业务的丢包现象。不同业务对丢包的敏感度不同,在多媒体业务中,少量丢包就可能使图像出现马赛克现象。

⑤业务可用性。业务可用性指的是业务有保证的正常运行时间。可用性主要是设备可靠性和网络存活性相结合的结果。对它起作用的还有一些其他因素,包括软件稳定性以及网络演进或升级时不中断服务的能力。

2 PTN传送网的Qos策略

2.1 Qos设计原则

在确保优先处理高优先级业务的前提下,满足其他业务处理的公平性。在满足业务传送的QoS基础上,尽量简化QoS配置,尽量避免QoS配置降低系统性能,减少对业务传送时延的影响。

2.2 Qos规划思路

PTN使用DiffServ(差分服务)QoS模型来为不同等级的业务和不同级别的用户提供差异化服务。DiffServ模型在网络入口处根据服务要求对业务进行分类、流量控制,同时设置报文的DSCP域;在网络中根据QoS机制并依据分组的DSCP值来区分每一类通信,为之服务,包括资源分配、队列调度、分组丢弃策略等,统称为PHB(per-hop behavior)。DiffServ域中的所有节点都将根据分组的DSCP字段来遵守PHB。

PTN设备完整实现了标准中定义的BE、AF1、AF2、AF3、AF4、EF、CS6、CS7八组PHB,使运营商可为用户提供具有不同服务质量等级的服务保证,实现同时承载数据、语音和视频业务的综合网络。在不需要QoS保证或不进行流分类或报文通过流分类没有相匹配规则时,对报文作尽力转发BE处理。为了保证业务传送质量,需要进行综合Qos规划,一般情况下,Qos的规划包括以下几个部分。

①流分类。通过ACL进行分类,根据业务类型,采用Port、Port+Vlan或Port+Vlan+Pri方式进行流分类。

②流量监控。建议启用三色双速率令牌桶算法,着重对于流量的控制,根据业务流量的需求设置合理的CIR(承诺信息速率)和PIR(峰值信息速率)。

③队列调度。由于PTN网络是同时承载数据、语音和视频业务的综合网络,建议采用SP(严格优先级)+WRR(加权轮询),避免高级别业务过多时,低级别业务被完全丢弃。

④拥塞避免。经过适当的Qos控制,基本可以保证业务数据在PTN网络中不丢包,但为了避免后期业务量膨胀时可能产生的网络拥塞,建议默认启用WRED(加权随机先期检测)在拥塞时进行随机公平调度。

2.3 Qos策略方案

目前,PTN网络承载的主要业务包括基站业务和以太网专线业务。各类业务对网络指标的要求各不相同,所以PTN网络需要启用Qos功能,主要进行业务优先级设置和CIR/PIR设置,以保证其传送质量。

2.3.1 基站业务

基站业务可以分为非IP化基站和IP化基站业务。

①非IP化基站包括传统2G基站和未进行IP化改造的TD基站,这类基站的业务数据均统一打包在E1结构内,无法对其中的话音和数据进行分类识别,所以将其设为最高优先级,预留带宽进行直接透传。

②IP化基站指的是IP化的TD基站,这类基站的业务在PTN网络的入口处采用Port+Vlan进行流分类,然后根据不同的业务进行差异化服务,其业务类型划分及优先级设定如表1所示。

按照一个GE接入环接入15个3G基站,并保留部分带宽用做专线等其他业务使用进行测算,建议每个3G基站业务设置CIR=30M,PIR=80M。

2.3.2 以太网专线业务

以太网专线业务可以分为出租专线业务、CMNET专线接入业务和WLAN业务。

①出租专线业务,这类业务在PTN网络的入口处采用Port进行流分类,PW优先级设置为EF,PIR=CIR=客户签约带宽。

②CMNET专线接入业务根据客户等级划分为金牌、银牌和普通客户,这类业务在PTN网络的入口处采用Port进行流分类。金牌客户业务的优先级为EF,PIR=CIR=客户签约带宽;银牌客户业务的优先级为AF4,PIR=CIR=客户签约带宽;普通客户业务主要有通过OLT上联的业务,优先级设为AF2,不进行PIR和CIR设置。

③WLAN业务在PTN网络的入口处采用Port+Vlan进行流分类,业务等级与IP化TD基站基本相同,因此不再赘述。根据热点区域的不同,设置不同的PIR/CIR,正常情况下建议A类区域(如高校)设置CIR=100M,PIR=100M;B类区域(如机场、火车站和大型会展中心等公共区域)设置CIR=50M,PIR=100M;C类区域(根据用户需求加强覆盖的区域,如酒店、商务写字楼等半封闭场所)设置CIR=50M,PIR=50M。

3 结 语

为了更好地承载数据业务,PTN技术首次在传送网中引入了Qos的概念,利用Qos的差分化服务特性,运营商可以根据业务种类和级别来分配传送资源,制定不同的转发策略,这样不仅能提供多等级区分的服务以满足用户对服务质量的不同要求,还能充分利用有限的传输网络资源来满足数据业务高速发展的需求,有助于提高用户满意度和企业运营收益。

参考文献:

[1] 陈明华,梅仪国,陈炜,等.PTN QoS部署策略及演进分析[J].电信技术,2011,(7):25-27.

[2] 单滤斌,虞有池. PTN的Qos技术应用研究[J].邮电设计技术,2011,(4):51-55.

QoS 篇4

1 NGN和IMS对IP承载网Qo S方面的要求

1.1 承载网主要指标和IP电话质量定义

描述承载网性能指标的参数主要有带宽、时延、时延抖动、丢包率等, 其中带宽是一个基本要求, 必须满足规划的带宽要求。根据通信行业标准YD/T1071-2006《IP电话网关设备技术要求》, 网络质量可以分为以下三级, 如表1所示:

对于IP电话质量的评价采用MOS (Mean Opinion Score) 值评价, 评测方法在ITU-T P.800中定义。实际中可以采用PESQ (Perceptua Evaluation of Speech Quality) 客观测试方法, 在ITU-T P.862 (PESQ) 中定义。MOS值的定义如表2所示:

1.2 NGN和IMS对承载网Qo S指标的要求

1.2.1 NGN和IMS对承载网带宽的要求

足够的带宽对于NGN和IMS业务来说是一个基本要求。对于话音业务可以采用传统的PSTN话务模型计算, 最后带宽需求根据不同的压缩算法乘一个系数。PSTN上一个话路为64Kbps的带宽, 定义系数为1, 对应不同的编码技术的IP网络和以太网带宽系数如下, 如表3所示:

控制流和信令流的带宽按照G.711编码所需带宽的0.5%计算, 一个简单快速的算法是按照2.5%媒体流带宽预留。如果有静音检测和拟制能力, 话音流量按60%计算。

带宽不足对于NGN和IMS业务的影响要远大于传输不够对于PSTN的影响。相对于PSTN, 目前的NGN和IMS标准还没有引入因承载网资源不够而启动的“呼叫接纳控制”与“阻塞”的机制, 因此可能由于话路过载而使其他正在通话的话路质量受到影响。解决这个缺陷需要引入对承载网感知的技术和“呼叫接纳控制”机制。

1.2.2 NGN和IMS业务在不同承载网质量下的表现及对承载网Qo S指标的要求

如果需要支持基于G.711透传方式传真业务和Modem业务, 必须要求承载网的质量达到良好 (网络时延≤40ms, 时延抖动≤10ms, 丢包率接近≤0.1%) , 则话音、视频、二次拨号等业务质量主观评价可达到良以上, 其中G.711的话音业务质量可达到优。

如果不需要支持基于G.711透传方式传真和Modem业务, 承载网质量在较差的条件下 (网络时延≤100ms, 时延抖动≤20ms, 丢包率≤1%) , 话音、视频、二次拨号等业务质量主观评价也可达到或接近良, 基本满足运营需要。

在承载网质量为“恶劣”的条件下, 各种NGN和IMS业务就达不到运营的要求。

各种NGN和IMS业务对网络质量的要求如表4所示:

除了网络的Qo S指标外, 为了保证NGN和IMS业务运营的需要, 要求网络具备运营需要的稳定性, 在较长时间内保证网络的可用性。在网络稳定性的必要条件下的承载网质量最低要求不能低于以下指标 (注:在最低指标下透传方式的传真和Modem业务不可用) :

a) 带宽满足业务规划需要;

b) 网络时延要求≤40ms, 最差不能>100ms;

c) 时延抖动≤10ms, 最差不能>20ms;

d) 丢包率小≤0.1%, 最差不能>1%。

1.2.3 NGN和IMS网络Qo S的总体要求

根据表格4的结果, Modem和透传方式的传真对承载网质量最敏感, 因此在网络中应保持最高的优先级, 话音媒体流、T.38传真的承载网质量要求其次, 媒体控制流因具有重传机制可配置一个较低优先级, 视频因流量较大对网络冲击较大置于低优先级, 实际的优先级跟具体的网络能力有关, 要考虑到网络的具体可实施性, 但是一定要考虑不同业务对承载网优先级的要求。

如果一个网络支持三个优先级, 下表给出一个全网NGN和IMS业务Qo S配置的例子, 当然也有其他优先级的配置方式, 应根据运营商的具体网络选取一个相对较好的配置方案, 如表5所示:

2 目前可行的Qos保障技术

NGN和IMS承载网采用IP协议作为统一承载协议, 所以NGN和IMS承载网采用的Qo S技术就是IP Qo S技术。目前IP承载网主要提供尽力而为型业务, 既使发展到IPv6, 在IP Qo S上的改进也不大。随着NGN和IMS业务的引入, 话音、视频会议等实时业务对Qo S提出了严格要求。

目前, IP承载网实现Qo S的方法包含以下几种选择:

a.只支持Diff Serv或To S;

b.基于Best-Effort (尽力而为) 的流量工程;

c.基于Best-Effort (尽力而为) 的流量工程+Diff Serv或To S;

d.基于Diff Serv的流量工程。

为了保证高速与高可靠性的语音数据包的传送, 必须要有足够的带宽保证。正如前面章节所述, 目前保证Qo S的最好方法是对重要的流量采取比一般的尽力而为业务更高的传送优先权, 这样, 即便是在繁忙、拥塞的时候依然可以保证Vo IP的质量。在现在可用的技术中, 只有Diff Serv适合NGN和IMS软交换的要求。

2.1 IP承载网的Qo S保证技术

a.核心部分:主用采用区分服务与带宽规划的方式解决Qo S。

b.边缘接入部分:802.1P/1Q等技术保证软交换业务的优先级, 对于IAD设备自身要确保保证语音优先高于数据业务。

c.另外在接入、汇接层也可以考虑采用MSTP等区分数据业务与语音业务。

2.2 NGN和IMS软交换设备的Qo S保证技术

NGN和IMS软交换设备本身应具有Qo S控制机制, 如调整语音编解码、静压检测、回音消除、丢包补偿等技术。

2.3 服务等级划分

在网络的核心汇聚层, 建议采用Diff-Serv构架的服务质量保证方案。这种服务质量保证方案的基础思想是, 对网络流量进行有限的分类 (比如, 分成三类或五类) , 然后针对每种类别进行不同的对待处理。可把网络的业务流量分成四类, 如表6所示:

对于每种业务等级, 概述如下:

2.3.1 A级业务

这类业务要求有严格的时延和带宽保证, 比如NGN和IMS/基于组播的IP-TV等, 在网络设备上, 对于这类业务, 要严格优先调度;

2.3.2 B类业务

这类业务可以保证业务的带宽, 但不能保证业务的时延。在网络拥塞的情况下, 这类业务的时延难以得到保证。对于这类业务, 在开展的时候可以预先设定一定的带宽 (比如2M) , 当业务流维持在2M以内的时候, 带宽是可以得到保证的 (即不丢包) , 但如果这类业务的流量超过了预定的带宽 (2M) , 那么如果网络不拥塞, 超过的部分也正常传输, 如果网络拥塞, 那么这类业务就会被按照一定的概率进行丢弃;

2.3.3 C类业务

这类业务与B类基本上相同, 唯一不同的是, 这类业务的带宽丢弃概率要比B类业务高, 即如果网络发生拥塞, 对于网络设备会优先丢弃C类业务的报文;

2.3.4 D类业务

这类业务是普通的数据通信业务, 按照BestEffort方式进行传送, 既不保证时延, 也不保证带宽。

2.4 各业务等级实现方式

对网络的业务等级划分提出来之后, 下面的问题就是如何实现这类业务。一般来讲, QOS的保证机制包括下列几个方面:

2.4.1 分类

即如何区分业务属于那个服务等级, 这个动作一般在网络入口上完成, 分类的依据很广泛, 可以根据接入的端口、VLAN、MAC地址、报文长度、IP五元组 (源IP地址/目的IP地址/协议号/源端口号/目的端口号等) 等进行;

2.4.2 标记

分类之后, 就是如何标记每个服务等级的业务, 一般情况下, 采用协议报文的头部信息进行标记, 比如, 针对IP, 可以标记IP头的TOS或DSCP字段, 对于MPLS, 可以标记MPLS的EXP字段, 对于ATM, 可以使用不同的ATM业务类型, 比如CBR、ABR、VBR和UBR来对待每种业务, 对于LAN, 则可以标记以太网数据帧的PRI字段 (802.1p标准) ;

2.4.3 调度

在网络发生拥塞的时候, 采用什么样的策略来调度每种业务, 使得每种业务获取预先设定的服务质量参数, 一般情况下, 采用队列的方式进行调度, 目前来说, 可以采用的队列有PQ、CQ、WFQ、CBWFQ、LLQ等队列调度技术, 在实际部署的时候, 对于每种设备, 只要该设备能够支持Diff-Serv即可, 对每种设备采取的具体的队列调度技术不作要求 (即只要能够实现预先定义的服务质量参数即可) ;

2.4.4 丢弃

在网络拥塞, 设备的缓冲队列的长度大于设备能够承受的范围的时候, 就需要丢弃一部分报文, 这就是丢弃策略, 一般情况下, 丢弃策略包括尾丢弃、RED、WRED等丢弃算法, 每种设备的具体实现机制可能也不一样, 但一个统一的标准就是, 只要设备选择使用的丢弃策略符合Diff-Serv标准即可, 比如, 对于B类业务和C类业务, 在网络拥塞发生的时候, 要保证B类业务的丢弃概率要比C类业务低;

2.4.5 整形

对于设备的外出流量, 采用一定的算法, 来使输出的流量规范化 (满足一定的要求) , 比如, 对于突发的流量, 通过设备内部的缓存, 使之平滑化, 这样可以满足下游设备的要求;

2.4.6 流量监管 (CAR)

一般情况下, 限制每种业务的接入带宽, 比如, 对于一个个人用户, 可以限制该用户的接入带宽维持在1M以内, 对于超过1M的流量, 采取丢弃或降级的策略, 这样可以保证用户不会过多的占用网络带宽, 既可以保证网络整体的QOS, 也可以保证网络的安全。

参考文献

[1]信息产业部发布通信行业标准.YD/T 1264-2003 IP电话/传真业务总体技术要求 (第二阶段) , 2003

[2]信息产业部发布通信行业标准.YD/T 1071-2006IP电话网关设备技术要求, 2007

以QoS为核心的网管控制技术 篇5

而在多业务支持的宽带网络环境中,不同类型业务对网络性能要求千差万别,以客户为中心,满足不同层次的业务质量是网络的一大特征。随着市场竞争的日趋激烈,各种不同类型的网络运营者,都需要依靠网络提高工作效率,降低工作成本。一网多能已成为用户需求方向,与之相对应的是以QoS为核心的多种网络管理控制技术。

近年来,QoS实现技术的发展非常快,业内所有的电信级设备供应商都能提供不同程度的QoS功能,在三层以太网交换机上QoS也逐步成为了普及性的技术应用,可现实是,距离真正的支持多业务宽带应用的服务质量还相当遥远。因为孤立的谈论QoS不能彻底解决它需要解决的问题。

用户需要带宽的持续提升,需要多种网络应用都能在一个简单平台上运营,需要网络结构简化但具备最大可控能力,需要现在的组网架构能够向下一代网络平滑过渡,需要随着整体网络规模和性能成长,成本能够不断降低……然而在现在的以CPU和软件为轴心的网络交换架构中这些又都是矛盾的。

网络环境需要更专注的设备。联想与合作伙伴共同推出的天工iSpirit68系列高端交换机,构建的以太网环境,实现ATM、SONET 、SDH等技术所达到的电信级的可靠保证,并且能够提供比上述技术更为丰富的多业务支持,

从而成为联想网络为用户构筑“可信赖的网络环境”的基础。

让Qos助力带宽资源合理使用

在整机交换结构方面,其共享内存结构,即中央交换矩阵加分布式交换矩阵的方式,实现了无阻塞交换结构,可以避免传统路由体系在开启了多种功能后造成的性能恶化。天工iSpirit68 08的交换结构中,所有的功能模块都带有独立的交换矩阵,可以独立地进行包的处理和转发工作;CPU负责进行交换资源的分配,处理一些复杂的任务,而针对对性能影响最大的数据包转发和QoS控制,则有专门的ASIC芯片进行处理。由于CPU、ASIC分担了不同的工作,并且数据转发和QoS控制也由不同的ASIC芯片完成,这样就能在保证全线速交换的速度下,实现QoS的功能。

在硬件实现QoS的基础上增加优先级的划分并提高带宽粒度,可弥补CPU对性能的拖累和ASIC灵活性上的不足。传统的交换机每端口支持的硬件优先级较少,这样将导致其承载的不同网络应用无法得到相应的优先级分配。像语音、视频等对传输延迟比较敏感的应用要和像email 、文件传输等对带宽延迟并不敏感的应用争抢带宽资源,传输质量无法得到有效的保护。天工iSpirit 68系列产品每个端口都支持8个硬件优先级,其应用方式也有相应有8种。ASIC加上8个硬件优先级,保证了交换引擎提供基于策略的服务质量,包括优先权分配、带宽管理和拥塞控制等,充分保障语音、视频等传输延迟敏感型的应用的传输质量。同时它可以将带宽细分成总带宽的1/50,加强了带宽控制的灵活性。

QoS 篇6

关键词:移动IP;服务质量;资源预留协议

中图分类号:TP393文献标识码:A文章编号:1009-3044(2007)12-21554-02

The Qos of Real Time Application in Mobile IPv6

WANG Lei,BAO Guang-Chang

(College of Mathematics & Information Science, Northwest Normal University,Lanzhou 730070,China)

Abstract:IPv6 provids the mobility support,Real time applications like IP telephony ,video conferencing, ect,require QoS guarantees on the mobil communication. Introduces basic principle of mobile IPv6 and the feature of RSVP mechanism,discusses the problems that the RSVP is employed in mobile networks,analyses the advantages and insufficiency of solutions for these problems .

Key words:MIPv6;QoS;RSVP

1 引言

互联网的飞速发展给人们的生活、工作方式都带来了深刻的影响,另一方面随着便携式终端的逐渐普及以及通信技术的发展,越来越多的用户不再满足在固定地点从Internet 检索、传输信息的现状,而希望能够以更加灵活的方式接人到Internet 中去,不受到时空的限制,移动IP[1]正是在这种需求下产生的。在获得移动性的同时,移动用户对实时业务的需求(如IP电话、视频会议等业务)也引发了在移动IPv6环境下服务质量(QoS)保证等方面的研究。

2 移动IPv6 的基本原理

移动节点在通信过程中经常需要改变接入的链路。在现有路由机制下,因特网上的一个节点在改变了其在网络上的接入点以后,如果不重新配置其IP地址,那么路由器就不能识别此节点,它就不能继续与网上的其它节点进行通信。而在TCP/IP网络环境中,TCP至少在目前还没有机制能允许在连接中改变IP地址,如果一个节点收到的TCP段中的源IP地址与此TCP连接在建立时协商的地址不同,该节点将认为这个TCP段是属于另一个连接的。IP地址的变化最终会导致通信的中断。移动IP提供了一种IP路由机制,使移动节点可以以一个永久的I P地址连接到任何链路上。

在移动IPv6 中定义了3 个操作实体:移动节点(MN ,Mobile Node),对端通信节点(CN ,Correspondent Nod),家乡代理(HA ,HomeAgent)。为了在MN移动的时候仍然保持传输层的连接, MN必须始终保持一个固定IP地址,这个地址就是家乡地址(Home Address)。由于MN的移动性, 要使通信顺利进行, MN还必须绑定另一個IP 地址, 即转交地址(Care-of Address) , 转交地址符合MN当前所处网络的逻辑拓扑,发往MN的数据包用转交地址作为路由定向。当MN发生漫游时,它检测到自己已经移动到了外地, 就利用IPv6的自动地址配置功能[2]采取主动地或者被动的地址配置,获得一个转交地址。MN通过绑定更新(BU)、绑定应答(BA)等一系列布告过程向其HA和CN交换转交地址信息。CN如果不知道MN转交地址,则像同其他任何固定节点发送数据包那样向MN发送数据包。数据包被路由到家乡链路后,HA截获这个数据包,将它通过隧道送往MN的转交地址。MN发往CN的数据包是直接发往它的,不用经过HA。形成CN和MN之间通过HA的三角路由。CN如果知道了转交地址,则采用IPv6 数据包中包含家乡地址的路由扩展包头,直接把数据包发给转交地址。为了通过入口过滤和被上层协议所识别,由MN所发的有效负荷的数据包的源地址被设为其转交地址,同时家乡地址被插在了目的地可选扩展包头中的源地址选项中。

3 RSVP的工作特点

随着Internet的高速增长,实时业务量也在不断增长,由于实时业务对网络传输的延时、抖动等特性较为敏感,现有的Internet所提供的是“尽力而为”(Best-effort)的服务已经不能满足许多新的应用需求。因此,需要在Internet中支持QoS保证技术。为了解决IP QoS的问题,IETF建议了几种服务模型和机制,主要有:综合服务(IntServ,Integrated Service),区分服务(DiffServ,Differentiated Service),多协议标记交换(MPLS,MuItiProtocol Lable Switch)等。

图1 RSVP的信令交换

RSVP是一种提供预留设置和控制以实现综合服务的协议, 它通过端对端的资源预留来实现QoS,并支持多播通信。从高层来看,其在实时业务中包括两个阶段,第一阶段,应用程序采用RSVP在发送者到接收者之间交换PATH与RESV信令在某条路径上的路由器中保留一定的资源,如图1所示。第二阶段,应用程序利用这些保留的资源通过同样的路径发送实时业务流量。它具有如下特点[3]:

资源预留由接收方发起:由发送方发送PATH消息收集链路状况信息,接收方收到PATH消息后返回RESV消息,在链路上进行资源预留。

单向性: 一个RSVP资源预留是单向的,双向实时数据流可申请两个方向的资源预留,分别由各个方向的接受者发起。

软状态协议:预留状态信息被缓存在每中间节点中,预留状态是有时间限制的,如果时间到期了,预留状态就会被删除。RSVP必须周期性地发送PATH和RESV消息,刷新、维持预留路径上的路径状态与预留状态。

4 RSVP在移动IP中的环境中的应用

在移动IP网中,MN总是在不断地改变它们的位置,这是移动IP给实时业务带来的最大挑战。由于RSVP只在一条特定路径上预留资源,那么从发送方到MN的路径经常发生变化也就意味着MN每次切换链路时都要重新进行资源预留。切换链路后,MN的数据流在网络中经过的传输路径可能发生变化,这种变化可能出现在端到端路径中靠近终端的一小部分路径上,也有可能对整个路径产生影响。并且由于切换(Handoff)而转交地址发生变化,中间路径上预留资源的路由器就找不到前一节点。

RSVP的一个显著的缺点就是它执行的高复杂性以及端到端进行资源预留所花费时间也比较长,在移动主机中不是太合适,故有人提出一种扩展RSVP以支持移动性的方案MRSVP。在MRSVP[4]中,移动主机可以在它将来到达的子网提前预留资源,从而保证移动主机的服务质量。移动主机未来访问的子网的集合称为Mspec,Mspec可根据主机的移动动态变化。为了提前预留资源,Mspec中的每个子网有一个移动代理,与移动主机处于同一子网的代理称为本地代理,在其他子网中的代理称作远程代理。远程代理将代替移动主机在未来可能访问的子网执行被动资源预留。在MRSVP中引入了主动和被动资源预留的概念,主动资源预留发起于移动主机的当前子网,被动资源预留发起于在Mspec中列出得子网。为了提高资源的利用率,被动预留的资源可以被该子网中对于服务质量有较低要求的其他业务流使用。然而当被动预留资源转变为主动预留资源(即移动主机移动到该子网时),使用被动预留资源的业务流需要立刻释放它所占有的带宽。

由于MRSVP在移动主机可能到达的位置提前预留资源,使得移动主机可以在新的位置获得所需的带宽从而保证了移动主机的服务质量。 MRSVP的缺陷在于它在RSVP的基础上增加了新的消息以及扩展其功能来支持高级的资源预留更大地增加了RSVP原有的复杂性,并且,由于此协议需要在移动主机可能访问的位置预留资源的前提是假设移动主机能够准确决定其Mspec,但是在许多移动应用中可能很难实行。此外,MRSVP没有解决RSVP信令开销大的问题。

针对RSVP的信令复杂和开销大,有人提出了在移动应用中简化RSVP的方案,比如Simple RSVP[5],它将预先RSVP隧道与移动IP结合在一起。它尽力对RSVP的作最小改变来最小化由于切换所带来的服务中断。这些方案都对RSVP信令作了简化和改进,配合预先配置隧道,减少了在切换工程中进行资源预留的延迟。但是没有解决由于提前过多预留资源而导致的网络资源利用率低的问题。

在移动Ipv6中引入了一个新的节点名,即移动锚点(MAP ,Mobility Anchor Point)[6],并对MN的操作进行了简单扩展,将分层的概念引入到移动IP中,把移动性分为宏观移动(域间移动) 与微移动(域内移动) 2 种。域内(intra-domain) 移动采用微移动IP协议,比如HMIPv6[7] 等.其结构如图2所示。MAP可以使移动Ipv6的绑定消息(绑定更新、绑定确认消息)处理限制在本地区域内,减少消息处理的开销。

经统计MN大多数情况的移动都是在一个MAP域内。MN拥有本地转交地址(LCoA) 与在线转交地址(RCoA)地址对,其中LCoA是MAP所在子网的地址,RCoA是MN对外通信使用的地址。MN在域内移动时,RCoA保持不变,仅LCoA发生改变,MN仅仅需要向MAP发送本地的绑定更新所绑定新的(RCoA,LCoA)地址对。这样,MN可采用三元组(RCoA,CNaddr,流标记)来标识一个流。MN发生链路切换时,在MN到通信对端的路径上可能多个路由器发生改变,采用层次化模型以后,所涉及的变化的路由器到MAP一般就截止了。对于CN来说不发生改变,切换前后仍然被认为是同一个流,从而大大的减少了重新预留的开销。当每次MN切换时,MAP到通信对端这段主干路径上重用切换之前所作的预留,只要对到MAP这段较短的路径上进行局部预留即可。

图2 分级移动Ipv6域

當MN进行域间切换时,MN切换后的转交地址的变化也会引起传输路径上的某些节点无法正确识别、转发带有与IP 地址有关的QoS 参数的数据流,并且切换可能在不同管理域的子网间进行,不同域之间可能采用不同的QoS 机制。有人提出通过对移动IPv6 现有协议进行扩展和修改将移动IPv6与RSVP结合起来,得到适合于QoS 协商的信令集。移动管理和服务协商可以同时完成,能够减轻网络负担,容易实现。

当MN切换到新链路后,它要发送绑定更新到MA进行注册,对绑定更新进行扩展,在绑定更新与绑定应答消息中加入新的QoS选项,它是IPv6的hop-by-hop扩展报头,这样使MN在家乡注册的同时也能够把QoS请求带到中间的各路由器,使得MN在布告其转交地址的同时完成了资源预留。一定程度上缩短了切换后建立资源预留的时间,减少了在切换切换过程中失去QoS保障的报文数,提高了服务质量。

5 结束语

IPv6对移动性提供了内在的支持,被认为是新一代Internet和构建移动信息平台的重要基石,但移动环境中的实时业务也对QoS提出了更高得要求。本文对移动IP中QoS的几种解决方案作了比较,分析了几种改进方案。目前,许多研究机构都致力于这些关键技术的研究。相信不久的将来,移动IPv6 将为移动互联网开拓一个全新的领域,成就网络明天。

参考文献:

[1]James D.solomon.裘晓峰.等.译.移动IP[M].机械工业出版社,2000.

[2]silvia Hagen.技桥.译.IPv6精髓[M].清华大学出版社,2004.

[3]Martin Karsten.Experimental Extension to RSVP-Remote Client an One-Pass Signalling.IWQoS,2001.

[4]Talukdar,B Badrinath,et al.MRSVP:A resource reservation protocol for an integrated services network with mobile hosts . Wireless Networks,2001,7(1):5-19.

[5]A.Terzis,M.Srivastava,L.Zhang,A Simple QoS Signaling Protocol for Mobile Hosts in the Integrated Services Internet, INFOCOMM,May 1999.

[6]蒋亮,郭健.下一代网络移动IPv6技术[M].机械工业出版社,2005.

[7]IETF Draft-2002. HMIPv6 Mobility Management.

网络QoS优化模型研究概述 篇7

关键词:服务质量,优化模型,资源配置

一、网络优化模型分类

随着计算机网络业务的逐步拓展, 各种业务对网络的需求也在不断提升。为保证网络服务正常有效的部署, 需要尽量提高或保障特定业务中关键的服务质量 (QoS) 。相关的QoS评价指标主要包括网络的吞吐率、时延、丢包率等。它们可以被看成网络协议的效用。在资源有限的网络系统中, 其对偶问题是最小化网络运行的代价。为了进一步提高网络的QoS, 不仅需要评价现有的网络协议, 而且需要进行网络的再造工程, 用优化理论对网络系统进行建模分析, 得出使网络性能达到尽可能令人满意的机制。不同的网络系统和业务的运行机制各异, 但优化模型的初衷往往是相近的。如果将网络服务看成某种资源, 则优化问题其实可以归结为优化资源配置。更细致的划分可将网络优化模型分为:

1. 资源分配

如链路带宽分配问题、队列空间分配问题等。

2. 任务调度

任务调度问题可以分为单队列多服务器调度、多队列单服务器调度和更一般的多队列多服务器的调度等。

3. 网络资源部署

如确保网络连通性的互联设备放置问题、在服务器集群中最大化资源利用率的软件放置问题以及最小化成本的服务器覆盖问题。

4. 系统参数配置

如传输节点的功耗配置、拥塞控制窗口的大小配置。优化模型的结构决定了解决优化问题所采用的算法。算法中最重要的划分即是易解问题和NP-难问题, 这引导我们寻找优化方案的方向, 抑或精确地保证最优的服务质量, 抑或尽力而为得到次优的优化方案。如何将设计的优化算法部署到实际网络运营的控制中也是值得探讨的问题, 因为算法的部署方式会直接影响网络运行的性能。它不仅是工程技术问题, 也与优化理论本身相关。例如, 我们更希望得到能够分布并行部署的算法, 来减少每个网络节点的负载, 并迅速地得到优化方案。网络的再造工程是一个循环的过程, 评价-优化-评价-再优化地循环演进逐步提升网络系统的服务质量, 而对网络优化算法的评价为网络性能的不断改善提供了参考。

二、网络QoS优化模型表达与分类

网络系统旨在对用户提供尽可能高的服务量, 网络技术也在为可以接纳更多的潜在用户和高用户感受而逐步演进。

图1描述了网络服务质量的优化目标和步骤。整个网络系统可以看作是一个拥有生产者和消费者的系统, 生产者对应服务主体, 提供相对有限的资源;消费者对应用户, 利用生产者分配的资源。资源分配问题蕴含一系列QoS指标, 资源分配的有效性决定网络的利用率, 分配的均衡程度决定网络的公平性, 而这些QoS指标统一构成了每个用户和整个网络社会的效用。

网络中的任务调度是网络优化中的另一个关键因素。任务执行和数据传输时序的不同对网络用户个体和网络整体的影响可能很显著。负载均衡调度是网络中最基本的调度问题, 它可以被建模为以最小用户平均时延为目标的优化问题。实际上, 调度问题可以被视为一种特殊的资源分配问题, 例如以最大化网络吞吐率的网络流调度策略实际上在进行着网络信道的资源分配, 亦可以将其看作为以时间为资源的分配问题, 使分配的资源达到最少, 资源的利用率最高。可见, 资源分配和任务调度之间并没有不可逾越的鸿沟。可以将任务调度看作为在有限资源的约束下实现最大化QoS目标的决策过程, 这恰恰对应着网络优化模型的建立。

网络资源部署可以归结为研究网络平面体系结构的问题, 它主要探讨如何将资源合理地进行安置 (Location/Placement) , 例如网络中服务器的放置、无线传感器网络中设备的布置等。该类问题的目标同样是面向更多的用户或提供更高的性能。还有一类网络优化是针对网络系统的参数配置, 从而指导网络参数的设计。在蜂窝网络中移动基站的传输功率大小将影响信噪比, 如何决定功率的参数配置就是一个典型的网络参数配置优化问题。网络协议机制往往从启发式设计开始, 在真正部署之后需要不断地进行补丁式的改善, 这是由于网络设计之初没有严格的理论支撑。网络机制与优化理论的偏离使得后续演进的实施代价增高, 也为服务质量的保障设下了难题。从优化模型出发对网络系统进行建模分析, 能够使其性能达到尽可能令人满意的程度, 从设计到实施都有章可循。

三、结束语

本文从优化理论出发将网络优化模型分为资源分配、任务调度、网络资源部署和系统参数配置等4个方面。网络中的优化理论将成为网络系统设计的基本出发点, 它不仅能够严格导出网络中同一层次中资源分配和任务调度的最优决策, 而且能够指导网络的跨层设计。很多网络机制基于启发式设计, 尚待改进, 因此需要网络优化理论的支持。在实际中, 网络中各节点的能量和资源有限, 也亟需找到更有效的优化算法。优化算法的评价结果将对选择具有最优折中性能指标的算法提供参考。

参考文献

[1]Haykin S.Cognitive radio:Brainempowered wireless communications.IEEE Journal on Selected Areas in Communication (sJSAC) , 2005, 2 (32) :201-220

[2]Hossain E, Niyato D, Han Z.Dynamic Spectrum Access andManagement in Cognitive Radio Networks.Cambridge, UK:Cambridge University Press, 2009

IP网络QoS问题综述 篇8

计算机网络是一种分组网络, 最初是为了传送数据信息设计的。传统因特网认为所有的分组都是平等的, 而IP网络提供的是“尽最大努力交付” (Best Effort) 的服务, 也就是一种不可靠的服务。

虽然互联网使用TCP协议可以很好的解决网络不能提供可靠交付这一问题, 但是随着在互联网上传输多媒体信息 (包括声音和图像信息) 的应用越来越多, 而且多媒体业务对实时性和时延抖动等服务质量有较高的要求, 这就促使现有的网络演变成能够保证服务质量 (Qo S) 的网络。

1 QoS的定义和需求

QoS (Quality-of-Service) 是一些技术的总和, 可以通过这些技术优化网络资源的利用。转发设备上对流量进行转发的接口的容量是一种基本的网络资源, QoS机制通过在流之间分配这种资源来提供不同的服务质量。由于网络层次之间、对等层次之间都存在服务和被服务关系, 因此, QoS不只局限于网络层和应用层, 它存在于网络的各个协议层次之间, 而本文讨论的主要是IP层的QoS机制。

通常, 在多媒体通信中将“流”定义为具有同样的源IP地址、源端口号、目的IP地址、目的端口号、协议标识符及服务质量需求的一练串分组。在虚电路子网中, 属于同一个流的所有分组将会走同样的路由路径;而在数据报子网中, 他们可能会走不同的路径。可以用4个基本的性能参数来描述一个流的需求特征:可靠性、时延、时延抖动和带宽。这4个需求特征合起来就决定了一个流所要求的服务质量。不同的应用对这4个性能参数的需求的严格程度是不同的, 图1列出了一些常见的应用以及它们所需的服务质量。

从图1中可以看出, 传统的应用如文件传输和电子邮件对可靠性有着严格的要求, 数据传输中的任何一位允许被错误递交, 因为一旦出现差错, 那么下载到的就是被损坏的文件;而音频/视频点播或者视频会议等多媒体应用对时延抖动有严格的要求, 尤其是对于音频数据流, 即使几个毫秒的抖动也会对用户造成明显的影响。

2 IP Qo S中的一些基本技术和机制

2.1 缓冲技术

缓冲技术就是在接收端设置适当大小的缓存, 缓存就是一个先进先出的队列。当分组到达接收端时先存入该缓存, 当缓存中的分组数达到一定的数量后再以恒定的速率按顺序将这些分组读出, 图2说明了该技术。

从图2可以看出, 一个流中的分组以非恒定的速率到达接收端, 然后被存入缓存, 从流中第一个分组达到缓存算起, 经过时间T后就按恒定速率即固定时间间隔将该缓存中的分组顺序读出。

通过缓冲技术可以平滑输出流, 这样就可以在一定程度上消除时延抖动。对于音频/视频点播等应用来说, 时延抖动是主要问题, 所以该技术很有用, 但是在消除了抖动的同时也增加了时延。

2.2 分组调度机制

路由器中缓冲区默认的排队规则是先进先出, 按照分组到达的顺序来转发分组, 这就不能区分时延敏感分组和一般的数据分组, 而且使得排在长分组后的短分组要等待很长时间。分组调度机制在先进先出的基础上增加按优先级排队, 从而使优先级高的分组优先得到服务, 图3是按优先级排队的一个例子, 该例子中有两个优先级队列。

在图3中, 分组到达路由器后由分类器对其进行高低优先级分类, 然后进入相应的队列。分组调度器的作用是从各队列中取走排在队列首部的分组再输出到链路上。在该例子中, 只有高优先级队列为空时, 调度器才从低优先级队列中取出分组输出到链路上。

简单按优先级转发分组有一个明显的缺点就是低优先级队列中的分组可能会长时间得不到服务, 公平排队 (f a i r queuing) 算法可以解决该问题, FQ算法的本质是路由器轮流扫描每一条输出线路上的一组队列, 取出当前扫描队列的队首分组后输出, 这样就能使每个队列一次只有一个分组被输出。

公平排队算法并没有区分分组的优先级, 于是就有了加权公平排队WFQ (weighted fair queuing) 算法。该算法根据优先级的不同, 为每个队列分配一个相应的权重, 高优先级队列的权重较大, 所以分配到的服务时间也相对较长。

2.3 流量整形技术

流量整形 (traffic shaping) 是指调节一个流中分组传输的平均速率和峰值速率, 以使流符合规定的形状。令牌桶算法 (token bucket algorithm) 是一种常用的流量整形算法, 该算法如图4所示。

在图4的桶中最多可装入b个令牌, 只要桶中的令牌小于b个, 就每隔T秒向桶中注入一个令牌。流中一个分组进入网络前要先进入一个队列中等待桶中的令牌。桶中如果有令牌, 该分组就可取走一个令牌, 然后被准许进入网络;若桶中无令牌, 则要等待新的令牌注入到桶中, 流中的下一个分组才被准许进入网络。这样, 通过控制令牌进入桶的速率就可以对流进行整形。

3 综合服务与资源预留协议RSVP

3.1 综合服务Int Serv

综合服务Int Serv是由IETF (Internet engineering task force) 提出的一种IP Qo S体系结构, 它提供端到端的服务, 其主要特点有两个:

(1) 资源预留。一个路由器需要知道已经为不断出现的请求资源的流预留了多少资源 (包括带宽、缓冲区空间、CPU周期) 。

(2) 通道建立。一个需要服务质量保证的流必须首先在源站和目的站的路径上的每一个路由器预留所需的资源, 以保证其端到端的服务质量要求。因此在传输一个流之前必须先建立一条端到端的通道, 这需要该通道上的每个路由器都有足够的资源预留给该流。通道建立之后, 流中的所有分组都沿着这条通道从源站被发送到目的站。

Int Serv定义了两类服务:有保证的服务 (guaranteed service) 和受控负载的服务 (controlled-load service) 。

Int Serv由四部分组成:分别是资源预留协议RSVP、准入控制、分类器和分组调度器。其中RSVP用于为流建立通道及预留资源;准入控制用来决定是否同意某条流对路由器资源的请求;分类器和分组调度器的作用前面已经叙述过了, 这里就不再赘述了。

3.2 RSVP

资源预留协议RSVP (Resource Reservation Protocol) 是一种信令协议, 它在进行资源预留时采用了多播树的方式。发送端生成PATH消息, 描述将要产生的流的信息, 包括发送端标识、上层应用和分类标准等, 然后将PATH消息发送给所有的接受端, 图5是RSVP的一个例子。

在图5中, 粗箭头表示PATH消息, 细箭头表示RESV消息。源站主机以多播的方式向下游方向发送PATH消息, 在途径的每个RSVP路由器建立PATH状态信息。当PATH消息传送到多播路径终点的三个接收端主机后, 每个接收端用反向路径转发的方式向上游发送RESV消息, 包含接收端标识、所请求的服务质量等。该消息途径的每个RSVP路由器都需要判断是否有足够的资源支持该请求, 当拒绝请求时, 该路由器就产生差错消息并传送给该路径上的所有RSVP路由器。服务质量的请求是由接收端发出的, 所以RSVP是接收端驱动的协议, 并且只为单向流预留资源。

3.3 Int Serv/RSVP模型的优点

(1) 能够提供有绝对保证的Qo S。RSVP运行在从源端到目的端的每个路由器上, 因此可以监视每个业务流, 从而防止其消耗的资源比它请求预留的资源要多。

(2) RSVP在源和目的地之间可以使用现有的路由协议。RSVP可通过IP数据包来承载并且具有软状态的特点, 通过周期性地重传PATH和RESV消息, 协议能够动态地适应网络拓扑的变化。并且如果这些消息得到不到及时的刷新, RSVP将释放其预留的资源。

(3) 能够像支持单播流那样方便地支持多播流。RSVP采用了面向接收者的方法, 它能够识别多播流中的所有接收端, 然后发送PATH消息给它们。并且它可以把来自多个接收端的RESV消息汇聚到一个网络汇聚点上。

3.4 Int Serv/RSVP模型存在的缺点

(1) 扩展性不好。由于它是基于流的、与状态相关的服务模型, 随着流数目的增加, 状态信息的数量将成比例地增长, 因此它会占用过多的路由器存储空间和处理开销。

(2) 对路由器的要求较高, 实现复杂。由于需要进行端到端的资源预留, 必须要求从发送者到接收者之间的所有路由器都需支持必要的信令协议, 因此所有路由器必须实现RSVP、许可控制、包分类和包调度。

(3) 不适合用于业务量较小的流。因为这种情况下为该流预留资源的开销很可能大于处理流中有效数据的开销。但是, 目前Internet流量绝大多数是由业务量较小的突发流构成的 (如Web应用) , 当这些流只需要一定程度的Qo S保证时, Int Serv/RSVP模型的效率很低。

4 区分服务Diff Serv

由于实施Int Serv和RSVP都较为复杂, 很难在大规模网络中实现, I E T F就提出了一种新的策略, 即区分服务Diff Serv。

4.1 Diff Serv基本要点

(1) Diff Serv将原IPv4分组的组头中的8bit服务类型字段重新定义为区分服务字段 (DS field) , 可以通过设置DS字段的前6个bit部分——区分服务码点 (DSCP) 来确定DS字段的值。路由器根据每个分组DS字段的值来处理分组的转发, 因此就可以利用DS字段的不同值来提供不同等级的服务质量。

(2) 在用户得到区分服务之前, 需要和提供服务的ISP商定一个服务等级协定 (SLA) , 在SLA中指明了被支持的服务类别和每一个类别所容许的通信流量。SLA分为静态SLA和动态SLA, 静态SLA是按固定时间间隔协定的 (如每月或每年) , 而动态SLA需要用户使用信令协议如RSVP来请求所需的服务。

(3) 网络可以被划分为许多个DS域, Diff Serv将大多数的复杂处理放在直接与用户端相连的边界路由器 (boundary router) 上, 边界路由器中有分类器 (classifier) 、标记器 (marker) 、整形器 (shaper) 和监管器 (policer) , 各功能块的关系如图6所示。

从图6中可以看出, 分类器对进入路由器的分组进行分类, 然后交给标记器。标记器根据分组的类别设置其DS字段值。监管器根据事先商定的SLA不断的测定流的速率。整形器用于平滑输出流。

4.2 已定义的两种每跳行为 (PHB) 和3种服务

“行为”指在转发分组时路由器对分组是怎样处理的, 比如“首先转发这个分组”或“最后丢弃这个分组”。“每跳”强调这里所说的行为只涉及本路由器转发该分组的行为, 而不管下一个路由器怎样处理。

Diff Serv定义了两种PHB:迅速转发PHB (expedited forwarding PHB, EF PHB) 和确保转发PHB (assured forwarding PHB, AF PHB) 。

通过不同的分类、监控、整形、调度机制, 可以提供多种服务。目前已定义的有3种:针对要求低时延和低时延抖动业务的Premium Service;针对要求比尽最大努力交付有更高可靠性的Assured Service;提供3种递减服务等级金、银、铜的Olympic Service。

4.3 Diff Serv与Int Serv的区别

Diff Serv和Int Serv的区别很大, 主要体现在以下几点: (1) Diff Serv不是为网络中的每个流都维护转发时使用的状态信息, 而是将若干流根据其DS字段的值聚合成少量的流, 所以路由器中的状态信息与服务类别的数量而不是流的数量成正比; (2) Diff Serv将复杂的分类、标记、监控和整形操作放在边界路由器上, 而核心路由器的工作尽可能的简单, 这样就能快速的转发分组。 (3) Diff Serv不需要在发送分组流之前先建立一条端到端的路径。

5 MPLS和流量工程

5.1 多协议标签交换MPLS

MPLS是一种转发机制, 其特点是转发分组时不用IP地址前缀来查找路由表中的匹配项目, 而是给进入MPLS域的分组打上一个很短且长度固定的“标签”。这样, 转发分组时就不再上升到网络层, 而是根据第二层的标签用硬件进行转发加快了分组转发的速度。具有MPLS功能的路由器被称作标签交换路由器 (LSR) , 并且MPLS域中的各LSR需要用专门的标签分配协议 (LSP) 为分组分配标签以及建立和特定标签相对应的标签交换路径 (LSP) , LSP类似于ATM网络中的虚电路。MPLS帧的结构如图7所示。

MPLS可以和Diff Serv相结合来提供Qo S, 在这种结构下, 要先在入口路由器—出口路由器对之间配置LSP。有可能需要为每一种业务流在每个入口路由器—出口路由器之间建立单独的一条LSP, 这样就会有C*N (N-1) /2条LSP, C代表业务流种类的数量, N是边界路由器的数量。由于LSR转发分组时不检查IP头, 而DSCP是携带在IP头中的, 为了确保不同的DSCP分组在每个LSR上都得到合适的Diff Serv, 所以需要从标签头来确定PHB。而MPLS头有一个3bit的COS (class of service) 字段可以表示8个服务种类, 那么就可以配置LSR将MPLS的COS字段映射到不同的PHB。LSR处理分组的过程与Diff Serv基本相同, 不同点有三: (1) 在ISP的入口路由器上, 在对分组进行Diff Serv处理后, 要在分组前插入MPLS头; (2) 核心路由器按照分组的标签和COS字段转发分组而不是依据DS字段; (3) 当分组离开MPLS域时, 出口路由器将分组的MPLS头剥去。

5.2 流量工程

当网络负载轻的时候, Qo S机制如Int Serv/RSVP和Diff Serv提供的服务质量和尽最大努力交付的服务相差不多, 所以应该考虑如何一开始就尽力避免网络拥塞。网络拥塞是由于网络资源不够或者流量分布不均造成的。在第一种情况中, 所有的路由器和链路都已超负载了, 所以惟一的解决方案只能是增加资源;在第二种情况中, 网络的一部分过负载, 而另一部分轻负载, 这种情况一般是现有的以找到最短路径为目的的动态路由协议造成的。流量工程 (traffic engineering) 就是通过均衡网络负载来避免拥塞发生。

6 结论

目前, 是否需要在IP网络上提供Qo S机制一直有较大的争论, 一种观点认为Qo S机制在提高了服务质量的同时降低了网络资源的利用率, 而随着光纤和波分复用技术的发展将使网络提供足够的带宽, 时延和时延抖动也可以足够小, 所以不需提供Qo S机制;另一种观点认为不管网络能提供多大的带宽, 也会出现相应的应用耗尽带宽, 所以必须提供Qo S机制。

不管争论的结果如何, 目前看来网络还没有能力提供足够的带宽, 所以IP网络上仍需提供Qo S机制, 而Windows和一些UNIX操作系统以及一些路由器/交换机已经提供了Qo S机制, 区分服务的优势使其成为近期研究的热点, 尤其以比例区分服务为重。另外, 随着MPLS的日益成熟, 怎样在MPLS网络上提供Int Serv/RSVP和Diff Serv已经成为另一个研究热点。

参考文献

[1]Andrew Tanenbaum.Computer Networks4th Edition.北京:清华大学出版社.2004.

[2]Bernet Y.The Complementary Roles of RSVP and Differenti-ated Services in the Full-Service Qos Network.IEEE Communica-tion Magazine.2000.

[3]谢希仁.计算机网络.北京:电子工业出版社.2003.

[4]Shenker S.Specification of Guaranteed Quality of Service.RFC2212.1997.

[5]Parekh A.A Generalized Processor Sharing Approach to Flow Control in Integrated Services Networks:the Single-Node Case.IEEE Transactions on Networking.1993.

[6]Wroclawski J.The Use of RSVP With IETF Integrated Service.RFC2210.1997.

[7]Wroclawski J.Specification of the Controlled-load Network Element Service.RFC2211.1997.

[8]Braden R.Resource ReSerVation Protocol (RSVP) —Version1Functional Specification.RFC2205.1997.

[9]Blake S.An Architecture for Differentiated Services.RFC2475.1998.

[10]Nichols K.Definition of the Differentiated Services Field (DS Field) in the IPv4and IPv6Headers.RFC2474.1998.

[11]Jacobson V.An Expedited Forwarding PHB.RFC2598.1999.

光网络的QoS机制研究 篇9

服务质量 (QoS) 是指网络服务提供商与用户之间以及网络上互相通信的用户之间关于信息传输与共享的质的约定 (例如,传输延迟允许时间、最小传输画面失真度以及声像同步等) 。光网络中的QoS的关键性能指标主要包括:可用性、吞吐量、时延、时延变化 (包括抖动和漂移) 和丢包率。

可用性:是当用户需要时网络能正常工作的时间百分比。可用性主要是设备可靠性和网络存活性相结合的结果。对它起作用的还有一些其他因素,包括软件稳定性以及网络升级时不中断服务的能力。

吞吐量:是在一定时间段内对网络上能够承载流量 (或带宽) 的度量。根据应用和服务类型,服务水平协议(S L A) 可以规定承诺信息速率 (C I R) 、突发信息速率 (BIR) 和最大突发信号长度。一般讲,吞吐量越大越好。

时延:指一项服务从网络入口到出口的平均经过时间。产生时延的因素很多,包括分组时延、排队时延、交换时延和传播时延。传播时延是信息通过铜线、光纤或无线链路所需的时间,它是光速的函数。在任何系统中,包括同步数字系列 (S D H) 、异步传输模式 (A T M) 和弹性分组环路 (R P R) ,传播时延总是存在的。

时延变化:是指同一业务流中不同分组所呈现的时延不同。高频率的时延变化称作抖动 (jitter) ,而低频率的时延变化称作漂移 (excursion) 。抖动主要是由于业务流中相继分组的排队等候时间不同引起的,是对服务质量影响最大的一个问题。漂移是任何同步传输系统都有的一个问题。漂移会造成基群失帧,使服务质量的要求不能满足。

丢包率:不管是比特丢失还是分组丢失,对分组数据业务的影响比对实时业务的影响都大。要保持统计数字,当超过预定门限时就向网络管理人员告警。

2 光网络中实现QoS的方法

光网络中实现Q o S的方法主要有:尽力而为模型、区分服务模型、集成服务模型等。

2.1 尽力而为(Best Effort)模型

尽力而为模型是传统IP的QoS服务模型,存在许多缺点:在发生瞬时拥塞时,路由器提供的时间响应不可预测;对不同业务流类型不能提供不同优先级的服务;不能动态的请求端到端的服务质量;只有有限的机制可以用来审计网络资源的使用质量。

2.2 集成服务(IntServ)模型

集成服务在R F C 1 6 3 3中进行了定义,将资源预留协议作为IntServ结构中的主要信令协议。

集成服务的基本思想是在传送数据之前,根据业务的Q o S需求进行网络资源预留,从而为该数据流提供端到端的Q o S保证。IntServ依靠资源预留协议RSVP逐节点的建立或拆除每个流的资源预留软状态;依靠接纳控制(也称准入控制) 决定链路或网络节点是否有足够的资源满足Q o S请求;依靠传输控制将分组分类成传输流,并根据每个流的状态对分组的传输实施Q o S路由、传输调度等控制。

IntServ和RSVP在整个网络中应用,存在如下根本的局限:

(1) 基于流的RSVP资源预留、调度处理以及缓冲区管理,有利于提供QoS保证,但是系统开销过高,对于大型网络存在可扩展性的问题。

(2) 许多应用需要某种形式的QoS,但是无法使用IntServ模型来表达QoS请求。

(3) 必要的策略控制和价格机制,如访问控制、鉴别、记账等目前尚处于发展阶段,无法辅助应用。

2.3 区分服务(DiffServ)模型

区分服务的基本思想是将用户的数据流按照服务质量要求来划分等级,任何用户的数据流都可以自由进入网络,但是当网络出现拥塞时,级别高的数据流在排队和占用资源时比级别低的数据流有更高的优先权。区分服务的基本机制是在网络的边缘路由器上根据某一业务的服务质量要求将该业务映射到一定的业务类别之中,随后利用I P分组中的D S字段唯一的标示这一业务所需的服务类别,网络中各个节点将依据该字段对各种业务类别采取预先设定好的服务策略,保证相应的传送速率、延时、抖动等服务质量参数。

3 基于标签的光交换网的QoS实现

全光交换(A O S)包括:传统的光波长交换、光突发交换和光包/分组交换。随着多协议标签交换 (M P L S) 技术的发展,人们又将传统的A O S技术与M P L S技术结合起来,对应地提出了一套基于标签的全光交换技术:多协议波长标签交换 (MPLmS) 、基于标签的光突发交换 (LOBS) 和光标签包/分组交换 (OLPS) 。下面讨论3种基于标签的全光交换技术 (M P L m S, LOBS和OLPS) 中的QoS实现。

3.1 MPLS/MPLmS网络中的QoS模型

在M P L S网络中实现Q o S主要有两种模型:综合业务 (IntServ) 和区分业务 (Diff Serv) 。

IntServ是在建立标签交换路径的过程中,预留适当的资源,使在这个LSP中的传输具备QoS保证。其QoS实现的关键就在于把标签请求和标签绑定与一定的参数结合起来。发送方先发送RSVP的路径信息,在该路径信息中包含本次传输的流量信息和QoS级别。MPLS网络的入口节点收到该路径信息后,向该网络中的下一级节点发送一个含有标签请求、流量消息和QoS请求信息的信息包。在MPLS网络中的标签交换则是在标签交换路由器由标签请求部分的交换来实现的。当该信息包到达MPLS网络的出口节点后,这个出口节点把此RSVP的路径信息发送给接收方。接收方收到该路径信息后,向该网络的ER发送相应的预留信息。出口节点根据预留信息进行资源预留,同时根据标签请求进行标签分配,并将分配到的标签和相应的预留信息一起向上游的中间节点LSR发送。LSR根据预留信息进行资源预留,同时进行标签交换。当含有指向入口节点标签的信息包到达入口节点时,表明一条具有QoS保证的LSP已经建立起来了。入口节点再向发送方发回RSVP的预留信息,发送方可以开始传输数据。

DiffServ的建立必须先由用户和LSP协商一个服务等级协议。发送方先向本地的宽带代理发出RSVP的路径信息,提出DiffServ申请。若申请被拒绝,则发送错误信息给发送方,结束该过程。若申请被接受,则带宽代理向MPLS网络的入口节点LER1发出路径信息,请求建立LSP。接受请求后,LER1就将标签请求信息嵌入PHS信息,并向下游节点传送。当该信息包到达LSP出口节点LER2后,LER2向其相应的本地带宽代理发出路径信息,带宽代理则对其域的边缘路由器做出相应的设置,准备接收数据。此本地带宽代理接着向LER2发回RSVP的预留信息。当LER2收到预留信息后,向上游节点发出标签绑定消息,当此绑定消息返回LER1时,则建立起了一条LSP。LER1向它的本地代理返回预留信息,本地代理收到后,即对ER1进行相关配置,并向发送方发回预留信息,可以开始发送数据。

IntServ和DiffServ都是在MPLS网络中实现QoS的模型。IntServ是在发送方和接收方之间利用RSVP预留带宽,形成一条“通道”。它对路由的要求很高,算法和策略都极其复杂,它的实现必须要对现有的路由方法做很大的修改。而DiffServ则更易实施,其对路由的要求要低得多,对现有路由方法的修改也少得多。因此,DiffServ模型在实际应用中要比IntServ模型更受欢迎。

3.2 LOBS网络中的QoS模型

在LOBS网络中,避开过载节点,对不同的服务类提供Q o S,使用将离线和在线相结合的混合路由算法。为了区分服务类,可以用优先级机制来实现QoS。在此,我们将数据块分成两类:一类是高优先级L S P (H P L S P) ;一类是低优先级L S P (LPLSP) ,LPLSP可以继续分成L P1、LP2等 (LP1的优先级要高于LP2) 。HPLSP是“提供质量保证”的,而LPLSP则是“尽力而为”的。另外,还有3个模块协助实现QoS: (1) 通道建立模块 (PR) :根据流量矩阵计算离线路由。PR描述了网络的实际拓扑和资源信息。 (2) 动态路由模块 (DR) :根据LSP请求信息计算在线路由。其目的是寻找无阻塞路由来替代过载的现存最短路由。 (3) 抢占机制模块 (PM) :负责处理抢占带宽。当发生抢占带宽时,其将被抢占的LP数据流转移到无阻塞的路由上。P M需要包含有目前LSP链路信息的动态LSP数据库 (DLD) 来实现其功能。在I R处,先进行标签请求分析,更新D L D数据库,然后开始建立L S P。HPLSP先调用PR模块,计算离线路由,尝试建立LSP。如果成功,则可以在控制包上贴上标签开始转发和传输,并采用延迟预留机制预留带宽,即数据包到达时才分配带宽,然后即可以开始转发数据包。如果建立LSP失败,则调用DR模块,计算在线路由,再尝试建立L S P。如果失败,就会抢占L P L S P的带宽,即开始转发控制、预留带宽和转发数据包的过程。而当抢占发生时,被抢占的节点就会调用P M模块,将被抢占的L P L S P转移到其他无阻塞路由上。而此时,由于采用了延迟预留机制,所以被抢占的LPLSP就会有时间建立新的LSP。另外,采用额外偏置时间机制,还可以增加HPLSP建立成功的机会。这种方法的优点是避免了大数据包的O/E/O转换,有效地提高传输效率。虽然牺牲了部分的网络透明度,但LOBS的可实现性却大为增加,所以这种在L O B S中实现Q o S的方法是非常接近实际应用的。

3.3 OLPS网络中的QoS模型

与L O B S中的标签头和数据包的相对“分离”的关系相比,O L P S中的标签头是被“粘”在数据包上的。所以在O L S R处,要先将标签头与数据包分开,然后利用离线和在线相结合的混合路由算法来建立L S P,最后就可以进行数据包的传输和转发了。数据流在OLSR中的处理过程是:首先在入口处,需要进行去复用,把分离出的标签在控制单元中进行相应的处理 (如根据标签信息分配带宽,标签交换等) 。而数据包则根据标签中的信息在光交叉矩阵 (OXC) 中进行处理 (路由) 。最后在OLSR出口处,还需要进行复用,即将新的标签粘在数据包上,继续向下游节点传输。副载波复用/去复用的过程可以采取光单边带副载波头擦除/替换技术来实现。而实现该技术的关键就是相关器件的实现。

除了上述方法外,还可以采取类似于L O B S网络技术的“先传光包头和光标签,经过一段偏置时间后,再传包的净荷信息”的随路方式 (实质上是一种时分复用技术) 。但是这种方式却需要预先对整个网络的认知。当整个网络中有一个节点发生变化时,就需要对整个网络进行“重新认识”,而且光包头和光标签与包的净荷必须占用不同的波长,再加上偏置时间技术所固有的问题 (需要非常复杂的算法以精确设置偏置时间) ,所以将这种方法付诸于实用是有一定困难的。

摘要:随着信息技术的迅速发展, 服务质量 (QoS) 对于网络来说越来越重要。Q o S是网络的一种安全机制, 一种用来解决网络延迟和阻塞等问题的技术。本文主要讨论了光网络中QoS的关键性指标, 实现QoS的主要方法以及优缺点, 最后论述了基于标签的光交换网的QoS实现方法。

关键词:服务质量,基于标签的光突发交换,尽力而为模型,区分服务模型,集成服务模型

参考文献

[1]何侃, 张定春.基于标签的光交换网的QoS实现[J].光纤通信研究.总第129期, 2005年3月

[2]徐荣, 龚倩.高速宽带光互联网技术[M].北京:人民邮电出版社.2002年

Adhoc网络中QoS保障机制 篇10

Ad hoc网络的应用环境以及多媒体业务流在网络中的传输需求要求Ad hoc网络支持QoS。具体表现在军事通信和紧急搜救等应用场合,信息应能实时、准确地传送,这要求Ad hoc网络保证分组的带宽、时延;在军事通信和民事通信领域,当需要传送语音、图像等实时业务(如战地环境图像、临时视频会议等)时,由于这些业务对延时、延时抖动等[1]QoS参数均较敏感,同样要求Ad hoc网络提供业务的QoS保证。因此,Ad hoc网络中QoS的研究是其应用场合的需要,具有重要的实际意义和应用价值。

1Ad hoc网络的QoS体系结构

1.1IntServ

IntServ是一种基于流(per-flow)的资源预留机制,它引入了虚电路的概念,由RSVP作为建立和维护虚电路的信令协议,路由器通过相应的包调度策略和丢包策略来保证业务流的QoS要求。IntServ要求网络中的节点保存基于流的状态信息,它对节点的存储能力和处理能力都有很高的要求,存在明显的可扩展问题。在Ad hoc网络中,由于节点几乎全是便携式移动终端,其存储能力和处理能力均有限。同时,由于Ad hoc网络拓扑的频繁变化,用于维护虚连接的RSVP协议将带来很大的开销,而Ad hoc网络的带宽有限,因此,IntServ并不适合Ad hoc网络,尤其是较大型的Ad hoc网络[2]。

1.2DiffServ

DiffServ是一种基于类(流的集合)的QoS体系结构,它提供定性的QoS支持。接入DiffServ域的业务流首先在域的边缘被分类和调节[(conditioning,包括测量(meter)、整形(shaping)、重标记(remarking)/丢弃(dropping)等)],而域的核心节点只简单地根据包的DS域对包进行调度,DiffServ不要求域的核心节点保存并在网络拓扑变化时更新基于流的状态信息,从而使核心节点的实现相对简单。从这一方面看,DiffServ更适合Ad hoc网络。但是,如果采用DiffServ结构,则在无中心、分布实施、拓扑频繁变化的Ad hoc网络中,存在如何划分DiffServ域,如何定义并区分边缘节点和核心节点,以及如何进行动态资源分配等问题。

1.3 灵活QoS模型

针对Ad hoc网络提出了一种称为灵活QoS模型(flexible QoS model for MANETS,FQMM)的体系结构,该模型类似于DiffServ,它将整个无线Ad hoc网络定义为一个DiffServ域,网络中的每个节点既是边缘节点,又是核心节点,当某节点为业务流的源端时,该节点为边缘节点,当某节点作为业务流的中间转发节点时,该节点为核心节点。FQMM提供了一种称为混合(hybrid)模式的资源分配策略,它既支持IntServ的基于流的资源分配,又支持DiffServ的基于类的资源分配,高优先级的业务基于流分配资源,低优先级的业务流基于类分配资源,以减小节点需保存的基于流的状态信息,提高FQMM的可扩展性。FQMM还采用自适应的业务量调节机制来适应无线链路带宽的变化。

a) FQMM是第1个针对Ad hoc网络的QoS模型,它的主要优点是根据网络状态的变化,作自适应的业务量调节(conditioning),但它同时还存在如下缺点:

1) 实现复杂。由于网络中的节点既要支持IntServ,又要支持DiffServ,同时,每个节点既可能是边缘节点又可能是核心节点,因此,要求每个节点均实现IntServ和DiffServ的相关功能;

2) 对于混合的资源分配策略,存在高优先级的流和低优先级的流各应占多大比例的问题.对低优先级的流,由于采用DiffServ的基于类的资源分配策略,因此,在Ad hoc域内,仍存在与DiffServ相似的资源分配问题。

b) 根据以上分析得知,已有的QoS体系结构并不完全适合Ad hoc网络,结合Ad hoc网络自身的特点及其应用场合认为,Ad hoc网络的QoS体系结构应该具有下述特点:

1) 具有业务区分能力,提供定性的QoS支持;

2) 开销小,对节点的存储能力和处理能力的要求较低,尽量避免基于流的存储和处理要求;

3) 分布实施,在无固定设施的Ad hoc网络中,任何集中式的算法、机制都会增加其实现的难度和引入较大的开销;

4) 具有自适应能力,即能根据无线信道和网络拓扑的变化,实现自适应的资源分配、业务量调节等功能。

2 动态服务质量保证机制

动态QoS保证机制是一种基于资源预留的服从综合服务模型的方法。资源预留请求不是针对某个固定值,而是规定了一个预约请求范围,网络实体通过对此请求范围进行判决来灵活地提供服务。预约请求范围从应用能接受的最小服务级别到网络可以提供的最大服务质量等级J,各种网络实体(如路由器)在此范围内根据网络的资源状况进行动态的自适应调整,从而提供了一种在动态网络环境下保障QoS的方法。

2.1 移动Ad hoe网络的动态特性

a) 动态变化的链路特性

相比与有线链路,无线链路的传输特性经常会发生变化,使得链路层特性也随之改变。通常可以采取两种方法来减少链路变化对上层应用造成的影响:一种方法是在网络层进行差错控制;另一种方法是在链路层进行差错控制。如果采用第一种策略,链路层的性能将变得很差,网络层必须进行差错检测和纠错,然而网络层很难判断分组的丢失是拥塞产生的还是链路层的性能恶化造成的,并且网络层也无法准确获悉当前可利用的带宽,从而难以实施资源预留。因此,最好在链路层进行差错控制。例如,可以使用简单的自动请求重传协议(ARQ)来保障数据的可靠传输。也可以采用一些较复杂的链路层协议(如自适应FEC),它们能够根据链路的质量自适应地实施差错控制机制,此时网络层的延时和吞吐量与具体的编码算法和控制机制相关。

b) 节点的移动特性

Ad hoc网络中节点可以随意移动,并且移动方向和速度都难以预测。这一特点会加剧链路的动态变化,因为节点可能会随时切换到不同的物理媒介上,从而使得可利用的带宽不断变化。另外,节点的移动将会不断改变网络的拓扑结构,使得资源预留变得更加困难,因为资源预留一般要求路径相对比较固定。在蜂窝移动网络中,移动终端切换时可以采用提前进行预约的方法来解决这个问题,但是Ad hoc网络的动态特性使得这种方法不再适用,并且采用备用路由的方法也只能部分解决这个问题,一种较好的方法是实施多路径路由,也就是说,资源预留必须在多条可能的路由上进行。但是,这种方法的可扩展性较差,当网络规模较大时将很难实现。

c) 应用需求的动态变化

在不同的时间和场合,各种应用需求经常会发生变化。在固定网络中,可以通过采用基于策略的接入控制机制来决定各种应用的要求是否得到满足。这种方法能够保证一些用户的要求得到满足,但是不够灵活,它要么保证用户的服务质量,要么完全拒绝用户的服务请求。有时,这并不是一种很好的策略,特别是对服务提供商而言。一种可选的策略是尽可能满足更多用户的接入要求, 同时为这些用户提供能够接受的服务质量。为此, 网络和应用需要通过某种方式来交互网络可利用的带宽和应用能够接受的服务质量级别等相关信息,从而实施合理的接入控制机制。

2.2 动态预约机制

为了解决动态变化的网络特性引起的问题,通过允许资源预约请求规定一个范围而不是一个确定值来实施资源预留。为了实现方便,该机制采用基于业务类的排队策略和受控负载模型。此时,平均数据率是实施资源管理的关键因素之一,可以将数据速率的范围定义为(rmjn—rmax),其他的参数也可以进行相应地规定。当网络资源变化时,动态QoS机制可以在规定的范围内调整资源的分配。例如,当网络中存在大量的业务流时,这种机制将尽量使更多的业务流获得预约范围之内的动态服务质量,而不是完全拒绝。如果采用的服务模型不是受控负载模型,例如要在确保服务模型中保证较小的分组丢失率,此时输出缓存器的大小将成为资源管理的关键因素, 因此可以将令牌桶深度作为预约请求中的可变参数: 如果需要为实时业务提供QoS,时延可能成为最重要的参数。为了进一步简化模型的实现,可以采用使某个参数在特定范围内变化,而保持其它参数不变的方法,通过调整可变的参数来满足其它参数的要求。例如,可以通过限制业务流的平均速率来确保有足够的带宽用于传输突发业务流,从而满足传输时延和时延抖动的要求。

2.3 动态资源预留协议(DRSVP)

一种简单的动态QoS保障[3]方法可以通过扩展RSVP协议来实现,但需要对RSVP作如下改动:

1) 在RESV消息中增加额外的流规范(flowspec),并且在PATH 消息中相应地增加业务类型规范(tspee),用于描述业务流量的资源请求范围;

2) 在RESv消息中增加一些测量规范来使上游节点可以了解下游链路的资源状况;

3) 增加预约通知消息,用于上游节点向下游节点通知资源状况;

4) 对接入控制进行适当的改动使其能够处理具有一定带宽范围的预约;

5) 设计一个带宽分配算法来为那些被允许接入的流分配带宽,并且需要考虑各个流的预约请求范围以及各自的上下游带宽瓶颈。

3 具有QoS能力的中间适配机制

Ad hoe网络[4]中另一种提供QoS保障的策略是采用带有中间适配件的网络框架来适应网络性能的变化。这种方法考虑了网络的性能和端到端的资源状况,可以向应用提供有用的信息用于重新配置,从而使系统获得最优的服务质量。

3.1QoS中间适配层框架

在性能经常发生变化的异质网络环境中,多个应用需要共享和竞争可用的系统资源,因此它们需要自适应地动态调整各自的资源需求。为了优化应用层感知的QoS性能,可以设计一种中间适配层来适应下层网络和端系统资源的动态变化。它的目标有两个:一是提供具有QoS保障的传输层机制并且能够对不同的流采用不同的调度策略;二是通过使用一个控制模型,网络能够向应用层提供相关的QoS信息来优化应用层的业务性能。一种简单的实现框架由一个传输控制器和应用控制器构成。前者用于实现一个可靠的传输层并向网络层提供反馈信息,同时它还可以通过一个分组调度器来适应多种业务流对QoS的要求,并能够静态复用业务流来适应带宽的变化。在传输控制器的上层,应用控制器被用来优化应用层QoS的性能,并提供相应的QoS信息来重新指配应用层的通信行为。

3.2 中间件QoS适配器

目前,应用层的自适应机制不能维持某些全局特性(如公平性),并且操作系统的资源管理机制也无法了解应用层数据的语义。中间件QoS适配器I 可以通过动态控制和重新指配多媒体业务的相应参数和特性来提高QoS自适应机制的效率和准确程度。这就要求大量的分布式应用能够适应端到端QoS的变化。首先,它们能够接受和容忍一定范围内的资源限制,并且可以随着可用资源的变化来改变业务性能;其次当需要降低QoS时,它们可以牺牲一些对QoS不太敏感的参数来确保敏感参数的质量。QoS适配器主要在两个方面起作用:系统级(如操作系统和网络协议)和应用级。前者主要强调全局参数,如公平性和资源利用率;而后者更加重视与应用层相关的语义,如视频流的帧速率和视频跟踪的准确度等, 目标是尽量不降低业务的性能。需要强调的是,在Ad hoe网络中不可能实现确保的QoS,因为这将对节点的移动模式、节点的密度和分布做出相应要求,违背了Ad hoe网络设计的初衷。

4 提供QoS保障的MAC协议

4.1Ad hoe网络中的协议[5]

Ad hoe网络能否得到广泛应用的一个关键是发展合适的MAC协议,这种MAC协议必须是分布式的,能够高效地利用网络资源,并且可以满足数据业务和实时业务的0要求。MA C协议解决分组冲突的方法一般是延时重发,延时策略可以采用二进制指数退避(BEB)算法和乘法增加线性减小(MILD)算法等,但是退避策略不能为实时业务提供QoS保证。

近年来,提出了各种MAC机制用来提高网络吞吐量和增强QoS。例如多址访问冲突避免(MA CA)协议。利用RTS和CTS来提高网络吞吐量,因为只有较短的控制分组而不是数据分组会发生冲突。组分配多址接入(GAMA)是一种用于提供QoS保证的MAC协议。该协议中,一个竞争阶段通过使用RTS和CTS对话为随后的无竞争阶段预留带宽,并且一个在无竞争阶段传送的分组可以为下一个循环周期预留带宽。多址接入/分组预留(MACA/PA)类似于GAMA,但是要求在无冲突阶段发送一个ACK来通知相邻的节点,以便在下一个循环到来时获得下一个分组。这些机制与纯粹的CSMA机制不同,因为节点可以基于分组中携带的预约请求来获得信道的状态信息。

4.2 支持QoSMAC协议[6]

这种MAC协议的目标是在Ad hoe网络中使共享媒体的各个节点能在尽量不影响其他节点的前提下实现自身的QoS要求。这是一个比较复杂的问题,例如,节点I是节点J和节点K的邻居,但是J和K不能直接进行通信,所以它们彼此不知道对方的QoS要求,但是它们可以通过节点I来影响对方。所有的节点可以广播它们的最大带宽要求,因此所有的节点都可以知道其邻居节点的带宽要求,从而可以实现一种在邻居节点间分配信道接入时间的分布式算法。协议具体描述如下:协议中定义了一个循环周期,它由最大可能数量的时隙组成(由节点数量和分布决定)。在每个周期的开始,每个节点都知道其邻居节点的带宽要求,并且能够根据各个节点的带宽要求在邻居节点之间分配相应的时隙。由于所有的节点都运行相同的算法并且交换相似的信息,从而可以知道哪个节点将会占用哪个时隙。节点占用时隙的顺序可以通过它们广播带宽请求时分组中携带的IP地址来决定, 同时为了获得较好的公平性,占用时隙的顺序可以在每个周期结束时进行轮换。在每个周期的最后可以留出一段时间用于节点的随机接入,这段时间通常被用来传送尽力而为分组,还可以用来交换各种控制信息,同时新加入的节点也利用这段时间来广播带宽请求。只有当业务量参数发生变化或者现有路径不能满足带宽要求时,节点才会重新广播带宽请求信息。更新后韵信息将被用于下一个循环周期进行时隙的分配。由于知道占用的时隙和总流量,节点可以实现一种连接允许接纳控制算法来接受或拒绝收到的业务流。此外还可以在协议实现时赋予实时业务更高的优先级并且确保无冲突的传送,从而保证较低的时延。这些方法的采用,将会在一定程度上保证实时业务和一些特殊业务的服务质量。

5 结束语

固定有线网络中的QoS保障问题经过多年的研究,已经积累了相当多的经验和方法,但是这个问题仍然没有得到很好的解决。相比与固定有线网络,Ad hoc网络是一种动态变化的基于无线信道的自组织网络。它的QoS保障问题更加复杂和难以实现。当前,它的研究仍是一个开放的热点问题。由于Ad hoc网络具有一些优良的特性,特别是它能够满足部队战术通信、抢险救灾以及应付突发事件等场合,近年来得到日益广泛的关注和重视。但是由于Ad hoc网络中QoS保障问题自身的固有难度,学术界至今没有取得突破性进展。本文主要从不同的角度比较分析了各种QoS解决策略,总结了近年来取得的一些成果,这些成绩将会积极地推动今后的研究工作,但是真正实现比较满意的QoS保障机制还需要经过长期的研究和实践。

参考文献

[1]赵志峰,郑少仁.Ad hoc网络体系结构研究[J].电信科学.

[2]徐雷鸣,英春,史美林.白组网环境中的QoS支持阴[J].计算机世界.

[3]王海涛,郑少仁.白组网的路由协议及其QoS保障[J].现代电信科技.

[4]Xiao HN,Seah WKG,Lo A,Chua KC.A flexible quality ofservice model for mobile ad-hoc networks.In:Proc.of the IEEEVehicular Technology Conference.Vol 1.

[5]Lee S-B.INSIGNIA:An IP-based quality of service frameworkfor mobile Ad hoc networks.Journal of Parallel and Dist.Comp.,Special issue on Wireless and Mobile Computing andCommunications.

QoS 篇11

在家庭网络中,有多种不同的技术可实现家电设备、娱乐设备、PC硬件、通信设备间的互连,其中最主要的两种技术就是IEEE 1394与IEEE 802.3。通过混合使用1394和以太网,可将IT设备和AV设备进行互连,具体模式为:“主干”网络(连接到每个房间的网络)使用高速以太网,计算机与媒体服务器连接也使用以太网,而媒体服务器的扩展硬盘与AV设备则使用1394连接。

但是,由于1394与IEEE 802.3在处理音视频数据流时对QoS采用不同的实现方式,因此两者之间进行音视频数据流传送会产生很多问题。IT设备通信在本质上是“突发式的”,而AV设备则发送连续的数据流。1394协议被设计成在处理AV流时确保QoS,而以太网协议则提供“竭力模式”(best effort)的服务(不把QoS放在首位考虑),适合于处理互联网和企业网络中的客户机/服务器模式应用,而不太适合于处理多媒体网络传输。因此不管用户要把1394设备连入以太网、还是简单地在以太网上处理AV数据流,都需要对以太网上的AV数据重新建立QoS模型。

CEA为此拟定了一份为以太网开发的QoS优先权分组标准CEA-2007。为了确保以太网的QoS,通过一个把1394严密的QoS协议与以太网的“竭力模式”桥接起来的适配器,把以太网控制流量的方式分为三级模型:首先,“优先权化QoS模型”通过使用优先权来实现QoS,即对AV应用定义比数据应用更高的优先权;但若AV流超出以太网带宽,所有AV流都会受拖累,因此当没有足够带宽来支持一个新AV流的时候,这个流将不会予以启动,现有的流则不会受影响,这种为AV流端到端路径保留资源的功能是“参数化QoS模型”带来的;最后,“竭力模式”的优先级别最低,它的信息流只在所有更高优先级流量都已发出的情况下才能发出。

IP网络对Qos的支持 篇12

随着IP网络及应用的飞速发展, 能够融合语音、视频、数据的三网合一将是网络发展的必然趋势。IP网络能够有如此巨大的发展, IP作为其核心技术起到了决定性的作用。但其无连接、每包路由、尽力服务的特点, 使其发展到今日成为支持新型需要服务保证的业务的最大障碍, 这也使IP网络的Qos (Quality of Service) 研究和实施成为当前IP网络进一步发展的关键。Qo S服务质量技术的出现便是致力于达到区分服务、保证服务质量的目的。Qo S旨在针对各种应用的不同需求, 为其提供不同的服务质量。对于具有不同网络服务要求的语音、视频和数据应用通信而言, 要求IP网络核心具有区分出不同的通信的能力, 进而为之提供不同的服务, 达到区分服务、保证服务质量的目的。

二、Qos概述

Qo S所评估的就是网络投递分组的服务能力。由于网络提供的服务是多样的, 因此对Qo S的评估可以基于不同方面。通常所说的Qo S, 是对分组投递过程中可为延迟、延迟抖动、丢包率等核心需求提供支持的服务能力的评估。Qo S并不能提高带宽, 但它可以通过对网络资源的合理分配与监控, 最大限度地减少网络延时与抖动, 确保关键业务的质量。用于定量衡量Qo S的指标包括:

业务可用性:业务有保证的正常运行时间。延迟:数据包在两个参考点间从发送到接收的时间间隔。抖动:经同一路由发送一组数据包, 在接收侧收到该组数据包的时间时隔差异。吞吐量:网络中发送数据包的速率, 可用平均速率或峰值速率表示。丢包率:在网络传数据包时丢弃数据包的最高比率。数据包丢弃一般由网络拥塞引起。通过对接入的业务流做不同的Qo S策略, 从而提供有区分的服务, 使得链路满足上述指标。Qo S机制包括流分类、CAR和队列调度。

2.1流分类

流分类是将数据报文划分为多个优先级或多个服务类, 如使用DSCP (Differentiated Services Code Point) Co S域的前6位, 则最多可分成64类。在分类后, 就可以将其它的Qo S特性应用到不同的分类, 实现基于类的拥塞管理、流量整形等。流分类是对报文实施Qo S策略的前提条件。简单流分类作用于DS域的内部节点, 一个DS域内的所有节点的简单流分类规则一致。简单流分类实现网络中的报文原有的优先级和设备内部的优先级相互映射, 使报文在设备内部按照设定的优先级进行传送。简单流分类相对于复杂流分类形式单一, 配置简单, 使DS域内的各节点Qo S配置简单化。

2.2 CAR

CAR (Commit Access Rate) 即约定访问速率, 通过对接入的报文进行速率限制的一种方式。CAR的目的就是为了对进入的报文进行染色 (或者标记) , 以及限定接入的报文速率, 往往是和其他的QOS策略共同来提供全网QOS保障的。

CAR的主要功能有两个:

标记功能:由染色和重标记实现。

流量限速:由对染色后的报文进行具体的行为处理实现。

流量限速则是对染色后的报文是否丢弃进行处理, 以便限定该流量的接入速率。

基于流的CAR策略是指对进入该接口的满足特定条件的某一类或几类报文进行流量控制, 而非所有报文。具体实现时, 首先根据五元组 (源地址、源端口号、协议号码、目的地址、目的端口号) 等报文信息对报文进行分类, 对于不同类的报文配置不同的CAR行为, 通过流策略将流分类与流量控制行为相结合, 然后在接口应用流策略。

2.3队列调度

(1) PQ调度。PQ (Priority Queuing) 调度, 就是严格按照队列优先级的高低顺序进行调度。只有高优先级队列中的报文全部调度完毕后, 低优先级队列才有调度机会。采用PQ调度方式, 将延迟敏感的关键业务放入高优先级队列, 将非关键业务放入低优先级队列, 从而确保关键业务被优先发送。PQ调度的缺点是:拥塞发生时, 如果较高优先级队列中长时间有分组存在, 那么低优先级队列中的报文就会由于得不到服务而“饿死”。

(2) WRR调度。WRR (Weighted Round Robin) 调度即加权轮询调度。WRR在队列之间进行轮流调度, 保证每个队列都得到一定的服务时间。以端口有8个输出队列为例, WRR可为每个队列配置一个加权值 (依次为w7、w6、w5、w4、w3、w2、w1、w0) , 加权值表示获取资源的比重。例如:一个100M的端口, 配置它的WRR队列调度算法的加权值为50、50、30、30、10、10、10、10 (依次对应w7、w6、w5、w4、w3、w2、w1、w0) , 这样可以保证最低优先级队列至少获得5Mbit/s带宽, 避免了采用PQ调度时低优先级队列中的报文可能长时间得不到服务的缺点。

WRR还有一个优点是, 虽然多个队列的调度是轮询进行的, 但对每个队列不是固定地分配服务时间片——如果某个队列为空, 那么马上换到下一个队列调度, 这样带宽资源可以得到充分的利用。

WRR调度有两个缺点:一是WRR调度按照报文个数进行调度, 而用户一般关心的是带宽。当每个队列的平均报文长度相等或已知时, 通过配置WRR权重, 用户能够获得想要的带宽;但是, 当队列的平均报文长度变化时, 用户就不能通过配置WRR权重获取想要的带宽。二是低延时需求业务 (如语音) 得不到及时调度。

三、Qos在网络中的应用

3.1 Diff Serv模型

Diff Serv模型是一种多服务模型, 它针对不同的业务提供有差别的服务质量, 可以满足不同的Qo S需求。通过对接入的业务流做不同的Qo S, 能够对其客户提供有区分的服务。Diff Serv模型中, 网络不需要为每个流维护状态, 它根据每个报文携带的优先级来提供特定的服务。可以用不同的方法来指定报文的Qo S, 如IP报文的优先级 (IP Precedence) , 报文的源地址和目的地址等。网络通过这些信息来进行报文的分类、流量整形、流量监管和队列调度。

3.2 Qo S配置流程

以某次卫星发射任务为例, 若对其进行流分类, 则可简单分为语音调度类和数据传输类, 可在汇聚层对每个流添加对应的ACL规则、流行为和流策略, 从而使得每个流对应不同的Qos策略。

(1) 添加流分类表

system-view进入系统视图

acl acl-number创建一个ACL, acl-number取值范围为2000~3999

rule[rule-id]permit udp source IP address 0 source-port range 3000~6000增加ACL规则

traffic classifier classifier-name流分类并进入流分类视图

if–math acl acl-number对流分类的匹配规则进行定义

quit退出视图

(2) 添加流行为

system-view进入系统视图

traffic behavior behavior–name定义行为进入流行为视图。

car{cir cir-value

remark[ipv6]dscp dscp-value重新标记IPv4/IPv6报文的DSCP值

(3) 添加流策略

traffic policy policy-name创建一个流策略并进入对应的流策略视图

traffic classifier class-name behavior behavior-name把流分类和流行为进行绑定

quit退出视图

(4) 将流策略应用到端口

system-view进入系统视图

interface gigabitethernet 0/0/1进入端口视图

traffic-policy p1 inbound

quit退出视图

(5) 互联端口策略

system-view进入系统视图

interface gigabitethernet 0/0/1进入端口视图

trust dscp配置接口信任报文的DSCP值

qos pq配置端口队列的调度模式

quit退出视图

四、结论

随着各种网络业务的增加, 用户对Qo S要求不断提高, 因此, 在资源有限的条件下, 研究IP网络对Qos的支持显得意义非凡。同时, 为了保证网络畅通并提供高服务质量, 对其添加Qos策略必要性重要性不言而喻。

摘要:本文对限制网络发展的关键技术Qo S进行了分析, 并针对某次卫星发射试验任务网络特点, 从流量分类思路上分析了如何实现Diff Serv区分服务, 以达到优化网络服务质量的目的。

关键词:QoS,DSCP,PQ,DiffServ

参考文献

[1]吴功宜, 计算机网络应用技术教程, 清华大学出版社, 2007

[2]Neal Allen.网络维护与故障诊断指南[M].北京:中国科学技术出版社, 1999.

【QoS】推荐阅读:

上一篇:茶叶有害生物下一篇:转型之痛

本站热搜

    相关推荐