QoS建设

2024-09-26

QoS建设(精选7篇)

QoS建设 篇1

网络的质量决定用户的网络体验, 我们总是力图把有限的带宽使用得更合理。BT下载速度快, 使用的范围广泛, 但由于其基于云服务器的原理, 使其占用大量的带宽。在公司内部如何限制BT下载的使用, 是本文讨论的问题。

限制BT下载的方法有很多种, 但大多数都会导致由于是底层的限制, 导致限制了BT下载, 使得其它的下载方式也不可使用的结果, 而Qo S是在应用层来更行网络限制的方法, 它让我们对网络质量的控制更加精确。

下面以某公司的网络为例, 说明如何限制公司内部员工使用BT下载的。某公司通过光纤链接到Internet, 使用10M带宽。通过网管软件监控发现生产部的流量总是很大, 可能是有人使用BT或其他工具进行下载导致的网络拥塞。由于生产部流量较大导致带宽被占满 (即带宽利用率100%) , 其他部门对Internet的访问就产生了大的延时, 导致正常工作缓慢。那么该如何对其进行限制呢?

使用CAR技术, 对符合配置的流量进行限速, 可以解决BENET公司的问题。

由于实际网络较复杂, 对网络进行简化, 实验用网络拓扑如图1所示。

图1中, PC1模拟生产部主机进行BT下载, PC2安装网管软件对路由器和交换机进行监控, 观察设备端口流量。网络规划如下:

1、BT服务器IP地址:10.0.1.2/24, R1路由器F0/0口:10.0.1.1/24;

2、PC1主机IP地址:10.0.0.201/24, PC2主机IP地址:10.0.0.4/24, R1路由器F0/1口:10.0.0.254/24;

模拟网络拥塞情况, 将R1路由器的F0/0口配置为10M。

具体实现步骤:

1、配置设备实现全网互通;

2、在PC2上安装网管软件, 并对设备进行监控;

3、通过PC1进行BT下载, 观察下载速度;

观察BT下载, 速度如图2所示为1028KB/s。

4、查看网管软件设备端口流量, 发现问题端口;

网络一直很慢, 网管员通过网管软件查看, 发现网关路由器WAN口下行流量很大如图3所示, 同时发现交换机的F0/11端口流量也很大将近8M左右明显不正常, 初步判定是由于某台主机下载导致的网络拥塞, 可以通过配置CAR对交换机F0/11口所带网段进行限速。

如果要具体判定是哪台主机在下载, 可以通过抓包进行分析, 发现报文都是到10.0.0.201的报文, 通过统计发现10.0.0.201的input流量最大, 可以判定是10.0.0.201主机正在下载。此时可以对此主机进行进一步检查, 并处理 (限速或断网) 。

5、在路由器上配置CAR对10.0.0.0/24网段进行限速, 限速为2M, 如下:

6、再次使用BT进行下载, 观察下载速度;

现在下行速率被限制在200KB/秒左右。

最后需要注意的是, 由于BT属于双向流量, 所以上行和下行都需要进行限速, 否则不限上行的话上传出现拥塞时也会造成网络访问Internet缓慢。

摘要:在公司内部如何限制BT下载的使用, 是本文讨论的问题。QoS是在应用层来更行网络限制的方法, 它让我们对网络质量的控制更加精确。以某公司的网络为例, 说明如何限制公司内部员工使用BT下载的。

关键词:QoS,BT下载,限速

QoS建设 篇2

VLAN技术也即虚拟网技术, 也是近年来随着交换技术而产生的一种新技术, 局域网交换机的出现在很大程度上代替了人们早已熟知的共享型介质, 并且使得大型局域网的出现成为可能, 但是基于交换技术的大型局域网也存在着固有的问题, 首先大量的广播信息所带来的带宽消耗和网络延迟给网络各性能造成了巨大的影响, 并且对于这样一个局域网网络所有的用户都处于同一个广播域之中, 同时对通讯安全也是一个很大的挑战。VLAN技术就是为了解决这种问题而出现的解决方案。通过使用VLAN技术, 可以将一个物理上互联的局域网络划分为逻辑上互相隔离的虚拟网络, 这些VLAN在逻辑上等价于广播域, 这些VLAN之间的通讯必须通过第三层的路由才能实现。

采用VLAN技术的优点, 在于能以较低的成本实现“广播”的控制、方便维护和提高网络的安全。目前IEEE802.1Q是最常用VLAN标准协议, 它利用以太帧帧头两个字节的12个Bit, 对不同VLAN进行标识, 不同VLAN的以太帧头携带不同的标识在同一物理网络中传输, 然后被交换机的VLAN TRUNK (即公共端口) 端口截获, 并转发到所属VLAN的目标端口。这样, 每个VLAN都是一个独立的广播域, 不同的VLAN的用户之间是无法通讯的, 若要通讯则必须利用路由功能, 与物理位置的无关性使VLAN的网络易于管理, 用户从一个网络移动到另一个网络不需进行布线调整, 只需在网管工作站上快速便捷地处理。

1. 划分VLAN的好处

采用了VLAN技术后, 各子网之间相对独立, 不仅提高了网络的效率, 也为网络的安全规划提供了前提。

根据网络的实际情况, 划分各个不同的VLAN, 可以根据地理位置、不同应用、不同部门、服务等等来划分。

(1) VLAN划分, 可以避免广播风暴, 在多媒体、视频点播等很容易引起广播信息;划分实施VLAN之后, 广播只在子网中进行, 不会做无意义的广播, 消除了广播风暴产生的条件。

(2) VLAN划分, 可以增加网络的安全性, 在不同的VLAN之间不能随意通讯, 只限与本子网间通讯, 不会对其他的子网产生干扰。要进行访问, 需要通过三层交换, 这样信息流就得到相当好的控制。

(3) 网络管理系统采用完全独立的IP子网和VLAN, 实现更加安全的对所有网络设备进行管理。建立VLAN和IP子网的对应关系。

(4) 提高管理效率, 实现虚拟的工作组, 减少站点的移动和改变的开销。

(5) VLAN间的子网访问, 可以在核心三层功能上实现, 结合三层交换机的ACL功能, 优化了组网。

2. VLAN的划分方法

VLAN的划分方式很重要, 在设计和建设VLAN, 实现VLAN应用时, 首先要决定如何划分VLAN, 即依据什么标准来组织VLAN成员。下面介绍5种常见的划分方式, 不同的划分方式代表不同的VLAN实现类型。

(1) 按端口划分VLAN

将交换机中的某些端口定义为一个单独的区域, 从而形成一个VLAN。同一VLAN中的计算机属于同一个网段, 不同VLAN之间进行通信需要通过路由器。基于端口的VLAN的优点是配置起来非常方便, 只要在交换机上进行相关的设置就可以了, 适用于网络环境比较固定的情况。不足之处是不够灵活, 当一台计算机需要从一个端口移动到另一个新的端口, 而新端口与旧端口不属于同一个VLAN时, 要修改端口的VLAN设置, 或在用户计算机上重新配置网络地址, 这样才能加入到新的VLAN中。否则, 这台计算机将无法进行网络通信。

基于端口的划分方式是最简单也是最常用的。采用这种方式, 将属于不同交换机端口的物理网段分在一个VLAN中, 通过网络管理软件, 根据VLAN标识符将不同的端口分到相应的分组 (VLAN) 中。例如, 一个交换机的1、2、6、7端口被定义为VLAN A, 同一交换机的3、4、5端口组成VLAN 8, 如图1所示。这样划分, 允许各端口之间的通信, 并允许共享型网络的升级。遗憾的是, 这种划分模式将虚拟网限制在了一台交换机上。

第二代端口VLAN技术允许跨越多个交换机的多个不同端口划分VLAN, 不同交换机上的若干个端口可以组成同一个VLAN。分配到同一个VLAN的各网段上的所有站点都在同一个广播域中, 可以直接通信;不同VLAN地点间的通信则通过路由器或三层交换机。

按交换机端口来划分VLAN, 其配置过程简单明了。迄今为止, 这仍然是最常用的一种方式, 但是这种方式不允许多个VLAN共享一个物理网段或交换机端口。如果某一个用户从一个端口所在的VLAN移动到另一个端口所在的VLAN, 网络管理员需要重新进行配置, 这对于拥有众多移动用户的网络来说是不可想象的。

(2) 按MAC地址划分VLAN

每块网卡都有一个独一无二的硬件物理地址, 这个地址就是MAC地址, 俗称为“网卡号”。在Windows中可用“ipconfig/all”命令来查看这一地址。

MAC地址是连接在网络中的每个设备网卡的物理地址, 由IEEE控制, 全球找不到两块具有相同MAC地址的网卡。MAC地址属于数据链路层, 以此作为划分VLAN的依据, 能很好地独立于网络层上的各种应用。如图2所示, 用此种方式构成的VLAN就是一些MAC地址的集合, 它解决了网络处理站点的移动问题。对于连接于交换机端口的工作站来说, 在它们初始化时, 相应的交换机要在VLAN的管理信息库中检查MAC地址, 从而动态地匹配该端口到相应的VLAN中。

按MAC地址划分的VLAN允许网络用户从一个物理位置移动到另一个物理位置, 并且自动保留其所属VLAN网段的成员身份。同时, 这种方式独立于网络的高层协议 (如TCP/IP、IP和IPX等) 。从某种意义上讲, 利用MAC地址定义VLAN可以看成是一种基于用户的网络划分手段。

这种方法的一个缺点是所有的用户必须被明确地分配给一个VLAN。在这种初始化工作完成之后, 对用户的自动跟踪才成为可能。在一个拥有大量节点的大型网络中, 如果要求管理员将每个用户都一一划分到某一个VLAN, 实在是太困难了。

(3) 基于网络层划分VLAN

可以基于网络层来划分VLAN, 有两种方案, 一种按协议 (如果网络中存在多协议) 来划分, 如上图3所示;另一种是按网络层地址 (最常见的是TCP/IP中的子网段地址) 来划分, 如图4所示。

建立VLAN也可使用与管理路由相同的策略。根据IP子网、IPX网络号及其他协议划分VLAN。同一协议的工作站划分为一个VLAN, 交换机检查广播帧的以太帧标题域, 查看其协议类型, 若已存在该协议的VLAN, 则加入源端口, 否则, 创建-个新的VLAN。这种方式构成的VLAN, 不但大大减少了人工配置VLAN的工作量, 同时保证了用户自由地增加、移动和修改。不同VLAN网段上的站点可属于同一VLAN, 在不同VLAN上的站点也可在同一物理网段上。

利用网络层定义VLAN缺点也是有的。与利用MAC地址的形式相比, 基于网络层的VLAN需要分析各种协议的地址格式并进行相应的转换。因此, 使用网络层信息来定义VLAN的交换机要比使用数据链路层信息的交换机在速度上占劣势。

(4) 基于IP广播组划分

可将任何属于同一IP广播组的计算机划分到同一VLAN。当IP包广播到网络上时, 它将被传送到一组IP地址的受托者那里。该组被明确定义了的广播组是在网络运行中动态生成的。任何一个工作站都有机会成为某一个广播组的成员, 只要它对该广播组的广播确认信息给予肯定的回答。所有加入同一个广播组的工作站被视为同一个VLAN的成员, 他们的这种成员身份可根据实际需求保留一定的时间。因此, 利用IP广播域来划分VLAN的方法给用户带来了巨大的灵活性和可延展性。在这种方式下, 整个网络可以非常方便地通过路由器扩展网络规模。

(5) 基于规则的VLAN

也称为基于策略的VLAN。这是最灵活的VLAN划分方法, 具有自动配置的能力, 能够把相关的用户连成一体, 在逻辑划分上称为“关系网络”。网络管理员只需在网管软件中确定划分VLAN的规则 (或属性) , 那么当一个站点加入网络中时, 将会被“感知”, 并被自动地包含进正确的VLAN中。同时, 对站点的移动和改变也可自动识别和跟踪。

采用这种方式, 整个网络可以非常方便地通过路由器扩展网络规模。有的产品还支持一个端口上的主机分别属于不同的VLAN, 这在交换机与共享式Hub共存的环境中显得尤为重要。自动配置VLAN时, 交换机中软件自动检查进入交换机端口的广播信息的IP源地址, 然后软件自动将这个端口分配给一个由IP子网映射成的VLAN。

由上述VLAN的划分方法结各个单位 (特别是检察院系统) 的实际使用情况, 建议采用基于端口划分VLAN, 即将每一个部门基于端口划分为一个VLAN。例如:检察院所有用户都集中在:财务处、信息通信处、办公室、院领导等, 对应的VLAN名为:CWC、XXTXC、BGS、YLD;各VLAN组所对应的网段如表1所示。

【注】之所以把交换机的VLAN号从“2”号开始, 那是因为交换机有一个默认的VLAN, 那就是“1”号VLAN, 它包括所有连在该交换机上的用户。

VLAN的配置过程其实非常简单, 只需两步: (1) 为各VLAN组命名; (2) 把相应的VLAN对应到相应的交换机端口。

如果还需要进一步实现提高安全性, 可以将基于端口划分和基于MAC地址划分结合起来划VLAN, 但此方法同时也增加了维护难度, 具体方法用户可根据实际需求再细化定义;

3. VLAN间路由实现

由于全网VLAN主要在核心层路由交换机实现路由交换, 所以, 各个单位的所有不同处室网段间的信息流都必须经过核心层。为了实现不同处室网段间的互访, 我们在接入层交换机上, 划分不同的VLAN, 然后在它的千兆上联端口上启用VLAN间TRUNK功能, 实现本地所有VLAN流量汇集往核心交换机。

在中心交换机上, 与接入层交换机互联的链路上, 也启用VLAN间TRUNK功能, 让所有接入层交换机的VLAN信息都可以汇集到核心交换机。然后, 在核心交换机上建立各个VLAN的路由接口 (也称虚拟接口) , 实现VLAN间的路由。并且, 可以实现访问控制功能, 对各个VLAN间的访问进行控制。

(二) QOS规划

在各个单位网络构建中, 提供充分的网络资源是解决QoS问题最彻底的方法, 但在现实中我们知道, 这是基本不可能达到事情, 因此如何构建、管理一个网络, 设计合理的QoS保障方案, 利用有限的资源, 为去获得更好的网络使用效益, 就显得非常必要了。业务的区分是进行QoS保障的基础, 网络中的业务有多种分类法, 根据对时间的敏感度, 可分为实时业务与非实时业务;根据对数据传送的要求, 又可分为可靠业务与不可靠业务, 等等。例如IP电话既是实时业务, 也是不可靠业务;E-mail是非实时业务, 但又是可靠传送业务。另外, 即使是实时业务, 也还可分为对延时抖动敏感的业务。因此, 精确预测及规划网络的业务是非常困难的, 对于各个单位内部网络, 确保在一般情况下网络具有最好的使用效率、实时业务具有较小延时, 在恶劣情况下保证关键业务得到应有的网络服务, 是QoS技术方案要解决的主要问题。

1. 网络带宽设计

合适的带宽是保障业务QoS的重要手段, 譬如一路比较清晰的IP电话需要占用约12Kbps的网络带宽, 因此不可能在1条64Kbps的链路上同时承载8路这样的IP电话。而且, 物理线路的带宽越宽, 在一定范围内将会有效降低整个网络中数据传送的时延。在网络构建中, 通常需要考虑对实时业务提供比较高的优先级, 以获得较低的时延。对于一些实时业务, 其占用的网络带宽可预测, 因此可以对这些业务做一个规划。一般每路H.323 IP电话约占用12Kbps (采用G.723编码协议, 考虑协议开销) ;一路效果可以接受的H.323视频会议为384Kbps, 效果好的为768Kbps;还有MPEG II等业务流量也是固定的。通过这些数据就可以根据各个单位网络中所开展的业务种类及使用特性, 来选择合适的带宽。一个基本的设计思想是根据对带宽占用大的业务来选择线路带宽, 并根据业务的使用频度来考虑业务对带宽的复用。如在三网合一构建的网络中, 有视频、语音、数据等业务, 通常是视频会议占用的带宽最大, 因此设计中带宽至少需要768Kbps以上。另外, 如按照语音、数据分别占用的带宽来进行叠加, 当然会使网络服务得到充分的保障, 但由于一般网络中视频会议并不是经常使用, 因此可以考虑用视频的带宽与其它业务 (如语音) 进行复用, 这样就可降低网络带宽的使用, 从而降低网络运营的费用。当然, 如果网络中各种业务都是频繁业务, 则只能采用带宽叠加了。

2. QoS技术选择及部署

有了合适的网络带宽并不能就完全保证各种业务需要的服务质量。在网络中, 数据业务具有突发性特点, 还有如FTP这样的“霸道”业务, 在这些业务的突发期间将会造成网络的过载及阻塞, 虽然网络设备 (路由器) 具有存储转发及速率适配的功能, 但在这个拥塞期间如没有任何措施进行处理, 则将影响业务的实时特性, 如IP电话断音、视频业务大量丢帧, 严重情况下还可能导致业务中断等后果。保证实时业务优先发送, 限制“霸道”业务对网络的占用, 从边缘接入层就开始部署, 是构建QoS保障方案的一个基本思想。针对不同的网络状况, 可使用不同的QoS技术。

(1) 单优先业务网

在对于各个单位这样的网络中, 必然有某种业务是最关键的, 虽然网络中也还有其它管理等数据业务, 但当网络发生资源争用时, 其它业务应该让道给高优先级的实时业务。从简洁性上看, 使用PQ (优先队列) 技术即可为各个单位网络提供需要的业务服务质量, 保证实时业务的优先发送, 减少传送时延及丢包率。利用PQ技术可以保证网络中的单优先业务得到最优先的转发, 获得最好的服务 (时延最小、丢包最少等) , 其它业务放在缺省的正常队列里发送, 但如果网络中的优先业务数据量很大, 则会使别的业务得不到相应得服务, 造成业务得阻塞, 因此需要在网络得带宽设计中, 根据优先业务得数据流量, 选择比其流量要多的带宽以保证其它业务也得到一定的服务。当然, 其它业务也可以根据需要配置成中或低优先级业务进行转发。另外, 部署QoS服务策略, 需要从网络的边沿接入部分就开始进行, 这样才能得到全网的服务保障。

(2) 多优先业务网

在各个单位网络中, 有多种需要实时性保障的业务, 还有其它业务如内部管理等业务也需要保证一定的互通性, 因此当网络发生资源争用时, 就不能简单地将关键业务置于优先就可以了, 这需要结合多种QoS技术及策略来为各种业务提供需要的服务质量。各种业务能有一个比较均匀的速率在网上进行发送, 可以减少网上业务的时延及抖动, 这就需要对一些会对网络带宽进行大量占用的非关键霸道业务 (如FTP等) 进行带宽的限制使用, 而为了使关键业务得到较好的服务, 又需要对关键业务提供一定的带宽分配和保证, 业务可以通过获得网络带宽的占用而达到减少时延的目的。在QoS保障技术中, 可以综合使用CQ、CAR来提供这样的服务。为提高网络的处理速度及效率, 在设计中可将同一种业务IP地址的某一位设置具有一定特征。当然, 业务网络也还有其它区分方法, 如可以只按照上层协议端口划分等。在业务分类处理上, 各业务网络内地址间的访问数据即为相应业务数据, 访问其它网络地址通常就是非业务数据。通过报文分类技术, 就可以根据相应策略进行处理。通常在网络拥塞时, 需要保证关键业务得到主要的带宽 (50%) , 语音业务也能得到相应的网络带宽 (30%) , 限制FTP业务不超过64Kbps的带宽, 这样就能通过带宽资源的获得而减小这种业务的拥塞及时延, 而且, 当关键业务流量达不到其对带宽的占用时, 该部分带宽也可以被别的业务占用, 从而提高整个网络资源的利用率。

3. 具体实现方式

内部核心交换机上的关键业务应该是文件服务器、OA办公系统、资源服务器系统和数据库系统、WEB服务器系统。我们首先要对分组进行分类, 设置IP优先级。由于普遍交换机均支持802.1P, 故按表2来进行IP优先级 (0~7) 的划分。

我们将DNS、服务器流量优先级设为3, 所有来自办公自动化、EMAIL服务器流的优先级设为4, 让其高于一般优先级0, 使其能够优先传送。文件服务器流量优先级设为3是因为其对时延要求较不敏感, 而更优先级5、关键优先级6则留给以后应用上文件资源的增加、WEB对外发布服务器和数据库服务器等对时延要求极其敏感的数据应用。另考虑到数据库应用流量较大, 有时可能会占用几乎全部带宽, 为了避免此种情况, 可以在核心交换机上使用GTS (通用流量整型, Generic Traffic Shaping) , 将其最大流量限制在1.5M, 留出0.5M用于别的应用。

另外运用WFQ (加权平均队列) 和WRED (加权随机预侦测) 来进行资源分配与分组丢弃策略。

(三) 结语

QoS建设 篇3

1 NGN和IMS对IP承载网Qo S方面的要求

1.1 承载网主要指标和IP电话质量定义

描述承载网性能指标的参数主要有带宽、时延、时延抖动、丢包率等, 其中带宽是一个基本要求, 必须满足规划的带宽要求。根据通信行业标准YD/T1071-2006《IP电话网关设备技术要求》, 网络质量可以分为以下三级, 如表1所示:

对于IP电话质量的评价采用MOS (Mean Opinion Score) 值评价, 评测方法在ITU-T P.800中定义。实际中可以采用PESQ (Perceptua Evaluation of Speech Quality) 客观测试方法, 在ITU-T P.862 (PESQ) 中定义。MOS值的定义如表2所示:

1.2 NGN和IMS对承载网Qo S指标的要求

1.2.1 NGN和IMS对承载网带宽的要求

足够的带宽对于NGN和IMS业务来说是一个基本要求。对于话音业务可以采用传统的PSTN话务模型计算, 最后带宽需求根据不同的压缩算法乘一个系数。PSTN上一个话路为64Kbps的带宽, 定义系数为1, 对应不同的编码技术的IP网络和以太网带宽系数如下, 如表3所示:

控制流和信令流的带宽按照G.711编码所需带宽的0.5%计算, 一个简单快速的算法是按照2.5%媒体流带宽预留。如果有静音检测和拟制能力, 话音流量按60%计算。

带宽不足对于NGN和IMS业务的影响要远大于传输不够对于PSTN的影响。相对于PSTN, 目前的NGN和IMS标准还没有引入因承载网资源不够而启动的“呼叫接纳控制”与“阻塞”的机制, 因此可能由于话路过载而使其他正在通话的话路质量受到影响。解决这个缺陷需要引入对承载网感知的技术和“呼叫接纳控制”机制。

1.2.2 NGN和IMS业务在不同承载网质量下的表现及对承载网Qo S指标的要求

如果需要支持基于G.711透传方式传真业务和Modem业务, 必须要求承载网的质量达到良好 (网络时延≤40ms, 时延抖动≤10ms, 丢包率接近≤0.1%) , 则话音、视频、二次拨号等业务质量主观评价可达到良以上, 其中G.711的话音业务质量可达到优。

如果不需要支持基于G.711透传方式传真和Modem业务, 承载网质量在较差的条件下 (网络时延≤100ms, 时延抖动≤20ms, 丢包率≤1%) , 话音、视频、二次拨号等业务质量主观评价也可达到或接近良, 基本满足运营需要。

在承载网质量为“恶劣”的条件下, 各种NGN和IMS业务就达不到运营的要求。

各种NGN和IMS业务对网络质量的要求如表4所示:

除了网络的Qo S指标外, 为了保证NGN和IMS业务运营的需要, 要求网络具备运营需要的稳定性, 在较长时间内保证网络的可用性。在网络稳定性的必要条件下的承载网质量最低要求不能低于以下指标 (注:在最低指标下透传方式的传真和Modem业务不可用) :

a) 带宽满足业务规划需要;

b) 网络时延要求≤40ms, 最差不能>100ms;

c) 时延抖动≤10ms, 最差不能>20ms;

d) 丢包率小≤0.1%, 最差不能>1%。

1.2.3 NGN和IMS网络Qo S的总体要求

根据表格4的结果, Modem和透传方式的传真对承载网质量最敏感, 因此在网络中应保持最高的优先级, 话音媒体流、T.38传真的承载网质量要求其次, 媒体控制流因具有重传机制可配置一个较低优先级, 视频因流量较大对网络冲击较大置于低优先级, 实际的优先级跟具体的网络能力有关, 要考虑到网络的具体可实施性, 但是一定要考虑不同业务对承载网优先级的要求。

如果一个网络支持三个优先级, 下表给出一个全网NGN和IMS业务Qo S配置的例子, 当然也有其他优先级的配置方式, 应根据运营商的具体网络选取一个相对较好的配置方案, 如表5所示:

2 目前可行的Qos保障技术

NGN和IMS承载网采用IP协议作为统一承载协议, 所以NGN和IMS承载网采用的Qo S技术就是IP Qo S技术。目前IP承载网主要提供尽力而为型业务, 既使发展到IPv6, 在IP Qo S上的改进也不大。随着NGN和IMS业务的引入, 话音、视频会议等实时业务对Qo S提出了严格要求。

目前, IP承载网实现Qo S的方法包含以下几种选择:

a.只支持Diff Serv或To S;

b.基于Best-Effort (尽力而为) 的流量工程;

c.基于Best-Effort (尽力而为) 的流量工程+Diff Serv或To S;

d.基于Diff Serv的流量工程。

为了保证高速与高可靠性的语音数据包的传送, 必须要有足够的带宽保证。正如前面章节所述, 目前保证Qo S的最好方法是对重要的流量采取比一般的尽力而为业务更高的传送优先权, 这样, 即便是在繁忙、拥塞的时候依然可以保证Vo IP的质量。在现在可用的技术中, 只有Diff Serv适合NGN和IMS软交换的要求。

2.1 IP承载网的Qo S保证技术

a.核心部分:主用采用区分服务与带宽规划的方式解决Qo S。

b.边缘接入部分:802.1P/1Q等技术保证软交换业务的优先级, 对于IAD设备自身要确保保证语音优先高于数据业务。

c.另外在接入、汇接层也可以考虑采用MSTP等区分数据业务与语音业务。

2.2 NGN和IMS软交换设备的Qo S保证技术

NGN和IMS软交换设备本身应具有Qo S控制机制, 如调整语音编解码、静压检测、回音消除、丢包补偿等技术。

2.3 服务等级划分

在网络的核心汇聚层, 建议采用Diff-Serv构架的服务质量保证方案。这种服务质量保证方案的基础思想是, 对网络流量进行有限的分类 (比如, 分成三类或五类) , 然后针对每种类别进行不同的对待处理。可把网络的业务流量分成四类, 如表6所示:

对于每种业务等级, 概述如下:

2.3.1 A级业务

这类业务要求有严格的时延和带宽保证, 比如NGN和IMS/基于组播的IP-TV等, 在网络设备上, 对于这类业务, 要严格优先调度;

2.3.2 B类业务

这类业务可以保证业务的带宽, 但不能保证业务的时延。在网络拥塞的情况下, 这类业务的时延难以得到保证。对于这类业务, 在开展的时候可以预先设定一定的带宽 (比如2M) , 当业务流维持在2M以内的时候, 带宽是可以得到保证的 (即不丢包) , 但如果这类业务的流量超过了预定的带宽 (2M) , 那么如果网络不拥塞, 超过的部分也正常传输, 如果网络拥塞, 那么这类业务就会被按照一定的概率进行丢弃;

2.3.3 C类业务

这类业务与B类基本上相同, 唯一不同的是, 这类业务的带宽丢弃概率要比B类业务高, 即如果网络发生拥塞, 对于网络设备会优先丢弃C类业务的报文;

2.3.4 D类业务

这类业务是普通的数据通信业务, 按照BestEffort方式进行传送, 既不保证时延, 也不保证带宽。

2.4 各业务等级实现方式

对网络的业务等级划分提出来之后, 下面的问题就是如何实现这类业务。一般来讲, QOS的保证机制包括下列几个方面:

2.4.1 分类

即如何区分业务属于那个服务等级, 这个动作一般在网络入口上完成, 分类的依据很广泛, 可以根据接入的端口、VLAN、MAC地址、报文长度、IP五元组 (源IP地址/目的IP地址/协议号/源端口号/目的端口号等) 等进行;

2.4.2 标记

分类之后, 就是如何标记每个服务等级的业务, 一般情况下, 采用协议报文的头部信息进行标记, 比如, 针对IP, 可以标记IP头的TOS或DSCP字段, 对于MPLS, 可以标记MPLS的EXP字段, 对于ATM, 可以使用不同的ATM业务类型, 比如CBR、ABR、VBR和UBR来对待每种业务, 对于LAN, 则可以标记以太网数据帧的PRI字段 (802.1p标准) ;

2.4.3 调度

在网络发生拥塞的时候, 采用什么样的策略来调度每种业务, 使得每种业务获取预先设定的服务质量参数, 一般情况下, 采用队列的方式进行调度, 目前来说, 可以采用的队列有PQ、CQ、WFQ、CBWFQ、LLQ等队列调度技术, 在实际部署的时候, 对于每种设备, 只要该设备能够支持Diff-Serv即可, 对每种设备采取的具体的队列调度技术不作要求 (即只要能够实现预先定义的服务质量参数即可) ;

2.4.4 丢弃

在网络拥塞, 设备的缓冲队列的长度大于设备能够承受的范围的时候, 就需要丢弃一部分报文, 这就是丢弃策略, 一般情况下, 丢弃策略包括尾丢弃、RED、WRED等丢弃算法, 每种设备的具体实现机制可能也不一样, 但一个统一的标准就是, 只要设备选择使用的丢弃策略符合Diff-Serv标准即可, 比如, 对于B类业务和C类业务, 在网络拥塞发生的时候, 要保证B类业务的丢弃概率要比C类业务低;

2.4.5 整形

对于设备的外出流量, 采用一定的算法, 来使输出的流量规范化 (满足一定的要求) , 比如, 对于突发的流量, 通过设备内部的缓存, 使之平滑化, 这样可以满足下游设备的要求;

2.4.6 流量监管 (CAR)

一般情况下, 限制每种业务的接入带宽, 比如, 对于一个个人用户, 可以限制该用户的接入带宽维持在1M以内, 对于超过1M的流量, 采取丢弃或降级的策略, 这样可以保证用户不会过多的占用网络带宽, 既可以保证网络整体的QOS, 也可以保证网络的安全。

参考文献

[1]信息产业部发布通信行业标准.YD/T 1264-2003 IP电话/传真业务总体技术要求 (第二阶段) , 2003

[2]信息产业部发布通信行业标准.YD/T 1071-2006IP电话网关设备技术要求, 2007

UMTS的QoS研究 篇4

作为第三代移动通信系统的典型代表, UMTS将为未来的信息系统提供业务平台, 其技术将不再被看作是问题, 而是被看作是业务创新、业务多样化和业务区分的驱动力, UMTS将代表当前大多数移动网络基础设施自然演进的趋势。Qo S是业务性能的综合效果, 它决定用户对业务的满意程度。它通过用于所有业务的性能因素的组合来表示, 如业务的适用性、可获得性、可保持性、完整性及每个业务特定的其它因素。第三代移动通信系统能否保证它所提供业务的Qo S, 是它能否获得成功的关键。

二、UMTS Qo S结构

3GPP (3rd generation partnership project) 提出了一种UMTS分层承载业务体系结构, 在这种结构中, 每一层上的每种承载业务都提供了基于底层的单独业务。从水平角度来看, UMTS Qo S体系结构将承载业务分成TE/MT (terminal equipment/mobile termina1) 本地承载业务、UMTS承载业务和外部承载业务3部分。其中, UMTS承载业务的Qo S管理功能是在UMTS承载业务接入点之间为用户提供可协商的、有质量保证的服务, 它又分为控制层面的Qo S管理和用户层面的Qo S管理:控制层面Qo S管理的功能包括业务管理、翻译、许可/能力控制和签约控制等;用户层面Qo S管理的功能是将信令或用户可以使用的数据业务量保持在特定的Qo S属性限度内, 具体包括映射功能、分级控制功能、资源管理功能和业务量调节功能等。

从一个TE到另一个TE的业务要经过网络的不同的承载业务。一个TE通过使用移动终端 (MT) 连接到UMTS网络。应用级的端到端业务使用下层网络的承载业务, 它利TE/MT局部承载业务、UMTS承载业务和外部承载业务来实现。它的Qo S由UMTS承载业务来实现。UMTS承载业务由两部分组成, 无线接入承载业务和核心网承载业务:无线接入承载业务在MT和CN Iu边缘节点间提供信令和用户数据的保密传输, 这种传输保证协商的UMTS承载业务的Qo S或对信令保证缺省的Qo S。此业务基于无线接口的特性, 对正在移动的MT也保持其Qo S;UMTS核心网的核心网承载业务利用CN路由器将UMTS CN Iu边缘节点和外部网络联结起来。此业务的作用是有效地控制和利用骨干网来提供协商的UMTS承载业务。UMTS分组核心网将支持有不同Qo S要求的各种骨干网承载业务。

三、UMTS与IP Qo S映射

当响应一个业务请求而建立UMTS承载和底层无线接入承载时, 一些UMTS级的参数值并不和相应的无线接入承载级的参数值相同, 例如UMTS承载所要求的传输时延一般必须大于无线接入承载所要求的传输时延, 因为在核心网内传输也要产生一些传输时延。因此要将UMTS承载业务参数映射为无线接入承载业务参数。

在Internet应用时, 要根据Internet的Qo S参数选择级别和合适的业务特征值。Internet应用并不直接地使用UMTS业务, 但使用Internet的Qo S定义和属性, 这些定义和属性在API上映射为UMTS Qo S属性。主要有两类Internet Qo S, 称为集成的业务和区分的业务。

PDP环境必须支持基于IP的Qo S, 即集成的业务 (信令协议为RSVP) 和区分的业务。两种机制都由TE中的应用来控制, 允许同一PDP有不同的Qo S要求。基于应用级IP的Qo S必须通过网络边缘的网络单元, 如3G网关节点, 映射为UMTS分组核心网的Qo S。在UMTS分组核心网内, RSVP将需要数据流的建立, 有可能汇合数据流。区分的业务对每个业务类型需要一个Qo S参数集或优先级和业务类型信息包含在数据分组中。如果是多媒体业务, 可以采用自适应Qo S机制。

四、UMTS的Qo S分类

UMTS的Qo S分为四个不同的级别:1会话级 (conversational class) ;2流级 (streaming class) ;3交互级 (interactive class) ;4背景级 (background class) 。这些级别的主要区别因素是业务对时延的敏感程度, 会话级的业务对时延最敏感, 而背景级对时延最不敏感。

五、总结

IP网络QoS问题综述 篇5

计算机网络是一种分组网络, 最初是为了传送数据信息设计的。传统因特网认为所有的分组都是平等的, 而IP网络提供的是“尽最大努力交付” (Best Effort) 的服务, 也就是一种不可靠的服务。

虽然互联网使用TCP协议可以很好的解决网络不能提供可靠交付这一问题, 但是随着在互联网上传输多媒体信息 (包括声音和图像信息) 的应用越来越多, 而且多媒体业务对实时性和时延抖动等服务质量有较高的要求, 这就促使现有的网络演变成能够保证服务质量 (Qo S) 的网络。

1 QoS的定义和需求

QoS (Quality-of-Service) 是一些技术的总和, 可以通过这些技术优化网络资源的利用。转发设备上对流量进行转发的接口的容量是一种基本的网络资源, QoS机制通过在流之间分配这种资源来提供不同的服务质量。由于网络层次之间、对等层次之间都存在服务和被服务关系, 因此, QoS不只局限于网络层和应用层, 它存在于网络的各个协议层次之间, 而本文讨论的主要是IP层的QoS机制。

通常, 在多媒体通信中将“流”定义为具有同样的源IP地址、源端口号、目的IP地址、目的端口号、协议标识符及服务质量需求的一练串分组。在虚电路子网中, 属于同一个流的所有分组将会走同样的路由路径;而在数据报子网中, 他们可能会走不同的路径。可以用4个基本的性能参数来描述一个流的需求特征:可靠性、时延、时延抖动和带宽。这4个需求特征合起来就决定了一个流所要求的服务质量。不同的应用对这4个性能参数的需求的严格程度是不同的, 图1列出了一些常见的应用以及它们所需的服务质量。

从图1中可以看出, 传统的应用如文件传输和电子邮件对可靠性有着严格的要求, 数据传输中的任何一位允许被错误递交, 因为一旦出现差错, 那么下载到的就是被损坏的文件;而音频/视频点播或者视频会议等多媒体应用对时延抖动有严格的要求, 尤其是对于音频数据流, 即使几个毫秒的抖动也会对用户造成明显的影响。

2 IP Qo S中的一些基本技术和机制

2.1 缓冲技术

缓冲技术就是在接收端设置适当大小的缓存, 缓存就是一个先进先出的队列。当分组到达接收端时先存入该缓存, 当缓存中的分组数达到一定的数量后再以恒定的速率按顺序将这些分组读出, 图2说明了该技术。

从图2可以看出, 一个流中的分组以非恒定的速率到达接收端, 然后被存入缓存, 从流中第一个分组达到缓存算起, 经过时间T后就按恒定速率即固定时间间隔将该缓存中的分组顺序读出。

通过缓冲技术可以平滑输出流, 这样就可以在一定程度上消除时延抖动。对于音频/视频点播等应用来说, 时延抖动是主要问题, 所以该技术很有用, 但是在消除了抖动的同时也增加了时延。

2.2 分组调度机制

路由器中缓冲区默认的排队规则是先进先出, 按照分组到达的顺序来转发分组, 这就不能区分时延敏感分组和一般的数据分组, 而且使得排在长分组后的短分组要等待很长时间。分组调度机制在先进先出的基础上增加按优先级排队, 从而使优先级高的分组优先得到服务, 图3是按优先级排队的一个例子, 该例子中有两个优先级队列。

在图3中, 分组到达路由器后由分类器对其进行高低优先级分类, 然后进入相应的队列。分组调度器的作用是从各队列中取走排在队列首部的分组再输出到链路上。在该例子中, 只有高优先级队列为空时, 调度器才从低优先级队列中取出分组输出到链路上。

简单按优先级转发分组有一个明显的缺点就是低优先级队列中的分组可能会长时间得不到服务, 公平排队 (f a i r queuing) 算法可以解决该问题, FQ算法的本质是路由器轮流扫描每一条输出线路上的一组队列, 取出当前扫描队列的队首分组后输出, 这样就能使每个队列一次只有一个分组被输出。

公平排队算法并没有区分分组的优先级, 于是就有了加权公平排队WFQ (weighted fair queuing) 算法。该算法根据优先级的不同, 为每个队列分配一个相应的权重, 高优先级队列的权重较大, 所以分配到的服务时间也相对较长。

2.3 流量整形技术

流量整形 (traffic shaping) 是指调节一个流中分组传输的平均速率和峰值速率, 以使流符合规定的形状。令牌桶算法 (token bucket algorithm) 是一种常用的流量整形算法, 该算法如图4所示。

在图4的桶中最多可装入b个令牌, 只要桶中的令牌小于b个, 就每隔T秒向桶中注入一个令牌。流中一个分组进入网络前要先进入一个队列中等待桶中的令牌。桶中如果有令牌, 该分组就可取走一个令牌, 然后被准许进入网络;若桶中无令牌, 则要等待新的令牌注入到桶中, 流中的下一个分组才被准许进入网络。这样, 通过控制令牌进入桶的速率就可以对流进行整形。

3 综合服务与资源预留协议RSVP

3.1 综合服务Int Serv

综合服务Int Serv是由IETF (Internet engineering task force) 提出的一种IP Qo S体系结构, 它提供端到端的服务, 其主要特点有两个:

(1) 资源预留。一个路由器需要知道已经为不断出现的请求资源的流预留了多少资源 (包括带宽、缓冲区空间、CPU周期) 。

(2) 通道建立。一个需要服务质量保证的流必须首先在源站和目的站的路径上的每一个路由器预留所需的资源, 以保证其端到端的服务质量要求。因此在传输一个流之前必须先建立一条端到端的通道, 这需要该通道上的每个路由器都有足够的资源预留给该流。通道建立之后, 流中的所有分组都沿着这条通道从源站被发送到目的站。

Int Serv定义了两类服务:有保证的服务 (guaranteed service) 和受控负载的服务 (controlled-load service) 。

Int Serv由四部分组成:分别是资源预留协议RSVP、准入控制、分类器和分组调度器。其中RSVP用于为流建立通道及预留资源;准入控制用来决定是否同意某条流对路由器资源的请求;分类器和分组调度器的作用前面已经叙述过了, 这里就不再赘述了。

3.2 RSVP

资源预留协议RSVP (Resource Reservation Protocol) 是一种信令协议, 它在进行资源预留时采用了多播树的方式。发送端生成PATH消息, 描述将要产生的流的信息, 包括发送端标识、上层应用和分类标准等, 然后将PATH消息发送给所有的接受端, 图5是RSVP的一个例子。

在图5中, 粗箭头表示PATH消息, 细箭头表示RESV消息。源站主机以多播的方式向下游方向发送PATH消息, 在途径的每个RSVP路由器建立PATH状态信息。当PATH消息传送到多播路径终点的三个接收端主机后, 每个接收端用反向路径转发的方式向上游发送RESV消息, 包含接收端标识、所请求的服务质量等。该消息途径的每个RSVP路由器都需要判断是否有足够的资源支持该请求, 当拒绝请求时, 该路由器就产生差错消息并传送给该路径上的所有RSVP路由器。服务质量的请求是由接收端发出的, 所以RSVP是接收端驱动的协议, 并且只为单向流预留资源。

3.3 Int Serv/RSVP模型的优点

(1) 能够提供有绝对保证的Qo S。RSVP运行在从源端到目的端的每个路由器上, 因此可以监视每个业务流, 从而防止其消耗的资源比它请求预留的资源要多。

(2) RSVP在源和目的地之间可以使用现有的路由协议。RSVP可通过IP数据包来承载并且具有软状态的特点, 通过周期性地重传PATH和RESV消息, 协议能够动态地适应网络拓扑的变化。并且如果这些消息得到不到及时的刷新, RSVP将释放其预留的资源。

(3) 能够像支持单播流那样方便地支持多播流。RSVP采用了面向接收者的方法, 它能够识别多播流中的所有接收端, 然后发送PATH消息给它们。并且它可以把来自多个接收端的RESV消息汇聚到一个网络汇聚点上。

3.4 Int Serv/RSVP模型存在的缺点

(1) 扩展性不好。由于它是基于流的、与状态相关的服务模型, 随着流数目的增加, 状态信息的数量将成比例地增长, 因此它会占用过多的路由器存储空间和处理开销。

(2) 对路由器的要求较高, 实现复杂。由于需要进行端到端的资源预留, 必须要求从发送者到接收者之间的所有路由器都需支持必要的信令协议, 因此所有路由器必须实现RSVP、许可控制、包分类和包调度。

(3) 不适合用于业务量较小的流。因为这种情况下为该流预留资源的开销很可能大于处理流中有效数据的开销。但是, 目前Internet流量绝大多数是由业务量较小的突发流构成的 (如Web应用) , 当这些流只需要一定程度的Qo S保证时, Int Serv/RSVP模型的效率很低。

4 区分服务Diff Serv

由于实施Int Serv和RSVP都较为复杂, 很难在大规模网络中实现, I E T F就提出了一种新的策略, 即区分服务Diff Serv。

4.1 Diff Serv基本要点

(1) Diff Serv将原IPv4分组的组头中的8bit服务类型字段重新定义为区分服务字段 (DS field) , 可以通过设置DS字段的前6个bit部分——区分服务码点 (DSCP) 来确定DS字段的值。路由器根据每个分组DS字段的值来处理分组的转发, 因此就可以利用DS字段的不同值来提供不同等级的服务质量。

(2) 在用户得到区分服务之前, 需要和提供服务的ISP商定一个服务等级协定 (SLA) , 在SLA中指明了被支持的服务类别和每一个类别所容许的通信流量。SLA分为静态SLA和动态SLA, 静态SLA是按固定时间间隔协定的 (如每月或每年) , 而动态SLA需要用户使用信令协议如RSVP来请求所需的服务。

(3) 网络可以被划分为许多个DS域, Diff Serv将大多数的复杂处理放在直接与用户端相连的边界路由器 (boundary router) 上, 边界路由器中有分类器 (classifier) 、标记器 (marker) 、整形器 (shaper) 和监管器 (policer) , 各功能块的关系如图6所示。

从图6中可以看出, 分类器对进入路由器的分组进行分类, 然后交给标记器。标记器根据分组的类别设置其DS字段值。监管器根据事先商定的SLA不断的测定流的速率。整形器用于平滑输出流。

4.2 已定义的两种每跳行为 (PHB) 和3种服务

“行为”指在转发分组时路由器对分组是怎样处理的, 比如“首先转发这个分组”或“最后丢弃这个分组”。“每跳”强调这里所说的行为只涉及本路由器转发该分组的行为, 而不管下一个路由器怎样处理。

Diff Serv定义了两种PHB:迅速转发PHB (expedited forwarding PHB, EF PHB) 和确保转发PHB (assured forwarding PHB, AF PHB) 。

通过不同的分类、监控、整形、调度机制, 可以提供多种服务。目前已定义的有3种:针对要求低时延和低时延抖动业务的Premium Service;针对要求比尽最大努力交付有更高可靠性的Assured Service;提供3种递减服务等级金、银、铜的Olympic Service。

4.3 Diff Serv与Int Serv的区别

Diff Serv和Int Serv的区别很大, 主要体现在以下几点: (1) Diff Serv不是为网络中的每个流都维护转发时使用的状态信息, 而是将若干流根据其DS字段的值聚合成少量的流, 所以路由器中的状态信息与服务类别的数量而不是流的数量成正比; (2) Diff Serv将复杂的分类、标记、监控和整形操作放在边界路由器上, 而核心路由器的工作尽可能的简单, 这样就能快速的转发分组。 (3) Diff Serv不需要在发送分组流之前先建立一条端到端的路径。

5 MPLS和流量工程

5.1 多协议标签交换MPLS

MPLS是一种转发机制, 其特点是转发分组时不用IP地址前缀来查找路由表中的匹配项目, 而是给进入MPLS域的分组打上一个很短且长度固定的“标签”。这样, 转发分组时就不再上升到网络层, 而是根据第二层的标签用硬件进行转发加快了分组转发的速度。具有MPLS功能的路由器被称作标签交换路由器 (LSR) , 并且MPLS域中的各LSR需要用专门的标签分配协议 (LSP) 为分组分配标签以及建立和特定标签相对应的标签交换路径 (LSP) , LSP类似于ATM网络中的虚电路。MPLS帧的结构如图7所示。

MPLS可以和Diff Serv相结合来提供Qo S, 在这种结构下, 要先在入口路由器—出口路由器对之间配置LSP。有可能需要为每一种业务流在每个入口路由器—出口路由器之间建立单独的一条LSP, 这样就会有C*N (N-1) /2条LSP, C代表业务流种类的数量, N是边界路由器的数量。由于LSR转发分组时不检查IP头, 而DSCP是携带在IP头中的, 为了确保不同的DSCP分组在每个LSR上都得到合适的Diff Serv, 所以需要从标签头来确定PHB。而MPLS头有一个3bit的COS (class of service) 字段可以表示8个服务种类, 那么就可以配置LSR将MPLS的COS字段映射到不同的PHB。LSR处理分组的过程与Diff Serv基本相同, 不同点有三: (1) 在ISP的入口路由器上, 在对分组进行Diff Serv处理后, 要在分组前插入MPLS头; (2) 核心路由器按照分组的标签和COS字段转发分组而不是依据DS字段; (3) 当分组离开MPLS域时, 出口路由器将分组的MPLS头剥去。

5.2 流量工程

当网络负载轻的时候, Qo S机制如Int Serv/RSVP和Diff Serv提供的服务质量和尽最大努力交付的服务相差不多, 所以应该考虑如何一开始就尽力避免网络拥塞。网络拥塞是由于网络资源不够或者流量分布不均造成的。在第一种情况中, 所有的路由器和链路都已超负载了, 所以惟一的解决方案只能是增加资源;在第二种情况中, 网络的一部分过负载, 而另一部分轻负载, 这种情况一般是现有的以找到最短路径为目的的动态路由协议造成的。流量工程 (traffic engineering) 就是通过均衡网络负载来避免拥塞发生。

6 结论

目前, 是否需要在IP网络上提供Qo S机制一直有较大的争论, 一种观点认为Qo S机制在提高了服务质量的同时降低了网络资源的利用率, 而随着光纤和波分复用技术的发展将使网络提供足够的带宽, 时延和时延抖动也可以足够小, 所以不需提供Qo S机制;另一种观点认为不管网络能提供多大的带宽, 也会出现相应的应用耗尽带宽, 所以必须提供Qo S机制。

不管争论的结果如何, 目前看来网络还没有能力提供足够的带宽, 所以IP网络上仍需提供Qo S机制, 而Windows和一些UNIX操作系统以及一些路由器/交换机已经提供了Qo S机制, 区分服务的优势使其成为近期研究的热点, 尤其以比例区分服务为重。另外, 随着MPLS的日益成熟, 怎样在MPLS网络上提供Int Serv/RSVP和Diff Serv已经成为另一个研究热点。

参考文献

[1]Andrew Tanenbaum.Computer Networks4th Edition.北京:清华大学出版社.2004.

[2]Bernet Y.The Complementary Roles of RSVP and Differenti-ated Services in the Full-Service Qos Network.IEEE Communica-tion Magazine.2000.

[3]谢希仁.计算机网络.北京:电子工业出版社.2003.

[4]Shenker S.Specification of Guaranteed Quality of Service.RFC2212.1997.

[5]Parekh A.A Generalized Processor Sharing Approach to Flow Control in Integrated Services Networks:the Single-Node Case.IEEE Transactions on Networking.1993.

[6]Wroclawski J.The Use of RSVP With IETF Integrated Service.RFC2210.1997.

[7]Wroclawski J.Specification of the Controlled-load Network Element Service.RFC2211.1997.

[8]Braden R.Resource ReSerVation Protocol (RSVP) —Version1Functional Specification.RFC2205.1997.

[9]Blake S.An Architecture for Differentiated Services.RFC2475.1998.

[10]Nichols K.Definition of the Differentiated Services Field (DS Field) in the IPv4and IPv6Headers.RFC2474.1998.

[11]Jacobson V.An Expedited Forwarding PHB.RFC2598.1999.

多QoS约束路由算法综述 篇6

路由由两部分组成:一是网络状态信息的发布和搜集;二是根据网络状态信息寻找一条合适的路径。而路由算法则属于路由的第二部分,即通常所说的路由算法是建立在网络状态信息已知的假设之上的。与传统的路由算法不同的是QoS路由算法需要选择度量参数,QoS路由的度量参数包括带宽、代价、延迟、抖动、丢失率和跳数等。另外,QoS路由算法与传统路由算法目的也不同,QoS路由算法只需寻找满足QoS约束的可行路径,不像传统路由算法只求最“短”路径。

1 QoS路由问题

在一个QoS参数已知的网络中,在任意两网络节点间,寻找一条或多条满足各QoS约束的可行路径。该问题转变为数学模型则是在一个已知边上各权值的有向图G(V,E)(无向图可视为一种特殊的有向图)中寻找任意两顶点间一条或多条满足各权值约束的路径。图中顶点代表网络节点,边代表网络通信链路。V是网络节点集合,E是网络通信链路集合。根据各QoS参数特性,有可将QoS参数分为三类:凹性参数,加性参数,乘性参数。其中,各参数性质表1所示。

2 QoS路由算法分类及今后发展方向

由于以两个或两个以上的加性参数或乘性参数为约束的多QoS约束路由是NPC问题[1],故而在研究QoS路由算法时,人们提出了各种启发式算法,试图在多项式时间内尽可能正确求解QoS路由问题的结果。其中,大部分启发式算法应用了图论中的两点间最短距离算法,如Dijkstra、Bellman-Ford等。根据路由选择时使用的度量参数个数大致可将以往QoS路由算法分为单混合度量参数路由算法和多度量参数路由算法,另外,也有不少仿生算法应用到了QoS路由领域中。

2.1 单混合度量参数路由算法

单混合度量参数路由算法主要思想是将多个QoS参数通过一个线性或非线性函数表示成一个度量值,然后应用求最“短”路径算法最终近似解决QoS路由问题[2,3]。其理论依据是单个度量参数求解两节点间最短路径能在多项式时间内完成。由此,此类算法通常具备较低的计算复杂度,但它有两个主要缺陷:1)不能确定单混合度量参数的表达式,也就因此关于混合度量参数的表达式的研究也有不少,从简单的线性组合到复杂的非线性组合;2)因为路由选择时使用的是混合参数,这样不可避免地丢失了各QoS参数部分信息,最终导致计算结果未必正确,即混合参数值最小的路径未必满足各QoS参数要求。

2.2 多混合参数路由算法

独立看待各QoS参数,进行QoS路由选择。由于多个独立的QoS参数(带宽等凹性参数除外)路由问题是NP完全问题,故目前这方面研究主要通过以下手段简化问题和降低计算复杂度:

1)由于不同应用对QoS参数重视程度不一样,如IP电话对延迟要求较高,文件传输对丢包率要求较高登。所以可以从多个QoS参数选择最重要一个做为度量值进行路由选择[4],在满足该约束的路径集合中,再找出满足其它约束条件的路径。此类算法缺点是随着QoS约束参数增加,成功率也会相对降低。

2)通过缩小各QoS参数取值空间,在有限的QoS取值范围内进行QoS路由选择[5]。而缩小QoS参数取值空间的手段主要有参数量化和参数定界,即通过不同手段将QoS参数取值映射到一个有限的特定集合中去。由于各QoS参数取值个数有限,故原来的NPC问题转变为P问题。虽然随着映射集合规模的变小,计算复杂度会被降低,但成功率会相应变低。

2.3 仿生算法

人们根据自然界某些现象设计的一类算法被称为仿生算法,如根据蚂蚁寻路现象设计了蚁群算法;根据生物进化中优良基因更易存活下来,设计了遗传算法;根据热量扩散设计出了模拟退火算法等。此类算法已被引入QoS约束路由算法领域,但它们在解决QoS路由问题时依旧存在各自的不足,如蚁群算法[6]在计算过程中容易造成大量无效搜索或陷入局部最优问题;遗传算法[7]属于一种多目标优化算法,其本身在执行效率方面并不适合路由选择问题等。

2.4 QoS路由算法发展方向

在实际应用中,我们对QoS路由算法的要求主要有计算复杂度低,正确率高,可扩展性好。所以,今后QoS路由算法的研究始终是不会脱离这几点。在降低复杂度方面,可能更为有效地将节点控制和路由控制结合,预先处理各种网络参数和增加各网络参数的联系,从而设计出更为准确的度量表达式,降低计算复杂度和提高算法的正确性。随网络规模日益扩大,算法的可扩展性变得尤为重要,故分布式路由算法将会变得更为重要,当然源路由算法和分布式算法结合也可能是未来QoS路由算法的发展方向之一。而网络规模增大,导致网络参数信息的准确性降低,因此研究网络参数信息的准确性也将成为QoS路由算法领域又一研究重点。

3 结论

多QoS约束路由算法属于NPC问题,因此其仍旧具备广阔的研究空间。而在现实中,网络规模日益增大和复杂化,以及人们对网络服务要求也日益提高,解决多QoS约束路由问题也成为了现实需要,故而QoS路由算法的研究具备重大研究意义。而从理论算法研究到技术实现及实际应用仍将需要大量时间和工作。

摘要:QoS(Quality of Service)路由算法是解决QoS问题的关键,也是当前网络领域里的一大研究热点。QoS路由算法的主要目的是为接入的业务选择满足服务质量要求的传输路径,同时保证整个网络资源的有效利用。改文深入探讨了QoS路由问题的实质,并对以往的QoS路由算法进行了归纳总结。基于已有的QoS路由算法的研究,该文对QoS路由算法的发展方向进行了预测。

关键词:QoS路由,多约束,NPC(Non-deterministic Polynomial complete)问题,路由算法

参考文献

[1]Zheng Wang,Crowcroft J.Quality-of-service routing for supporting multimedia applications[J].IEEE Journal on Selected Areas in Commu nications,1996,7(14):148-154.

[2]Cui Yong,Xu Ke,Wu Jianping,et al.Precomputation for finding paths with two additive weights[J].In International Conference on Communi cations,2003,1:636-640.

[3]Kunavut K,Sanguankotchakorn T.Multi-Constrained Path(MCP)QoS routing in OLSR based on multiple additive QoS metrics[J].Commu nications and Information Technologies(ISCIT),2010International Symposium,2010:226-231.

[4]Orda A.Routing with end to end QoS guarantees in broadband networks[C].INFOCOM'98.Seventeenth Annual Joint Conference of the IEEE Computer and Communications Societies,1998,1:27-34.

[5]Chen Shigang,Song Meongchul,Sahni Sartaj.Two techniques for fast computation of constrained shortest paths[J].IEEE/ACM Transactions on Networking,2008,16(1):105-114.

[6]林娜,邵志学.基于蚁群算法的多路径QoS路由算法研究[J].Journal of Shenyang Aerospace University,2011(1).

Adhoc网络中QoS保障机制 篇7

Ad hoc网络的应用环境以及多媒体业务流在网络中的传输需求要求Ad hoc网络支持QoS。具体表现在军事通信和紧急搜救等应用场合,信息应能实时、准确地传送,这要求Ad hoc网络保证分组的带宽、时延;在军事通信和民事通信领域,当需要传送语音、图像等实时业务(如战地环境图像、临时视频会议等)时,由于这些业务对延时、延时抖动等[1]QoS参数均较敏感,同样要求Ad hoc网络提供业务的QoS保证。因此,Ad hoc网络中QoS的研究是其应用场合的需要,具有重要的实际意义和应用价值。

1Ad hoc网络的QoS体系结构

1.1IntServ

IntServ是一种基于流(per-flow)的资源预留机制,它引入了虚电路的概念,由RSVP作为建立和维护虚电路的信令协议,路由器通过相应的包调度策略和丢包策略来保证业务流的QoS要求。IntServ要求网络中的节点保存基于流的状态信息,它对节点的存储能力和处理能力都有很高的要求,存在明显的可扩展问题。在Ad hoc网络中,由于节点几乎全是便携式移动终端,其存储能力和处理能力均有限。同时,由于Ad hoc网络拓扑的频繁变化,用于维护虚连接的RSVP协议将带来很大的开销,而Ad hoc网络的带宽有限,因此,IntServ并不适合Ad hoc网络,尤其是较大型的Ad hoc网络[2]。

1.2DiffServ

DiffServ是一种基于类(流的集合)的QoS体系结构,它提供定性的QoS支持。接入DiffServ域的业务流首先在域的边缘被分类和调节[(conditioning,包括测量(meter)、整形(shaping)、重标记(remarking)/丢弃(dropping)等)],而域的核心节点只简单地根据包的DS域对包进行调度,DiffServ不要求域的核心节点保存并在网络拓扑变化时更新基于流的状态信息,从而使核心节点的实现相对简单。从这一方面看,DiffServ更适合Ad hoc网络。但是,如果采用DiffServ结构,则在无中心、分布实施、拓扑频繁变化的Ad hoc网络中,存在如何划分DiffServ域,如何定义并区分边缘节点和核心节点,以及如何进行动态资源分配等问题。

1.3 灵活QoS模型

针对Ad hoc网络提出了一种称为灵活QoS模型(flexible QoS model for MANETS,FQMM)的体系结构,该模型类似于DiffServ,它将整个无线Ad hoc网络定义为一个DiffServ域,网络中的每个节点既是边缘节点,又是核心节点,当某节点为业务流的源端时,该节点为边缘节点,当某节点作为业务流的中间转发节点时,该节点为核心节点。FQMM提供了一种称为混合(hybrid)模式的资源分配策略,它既支持IntServ的基于流的资源分配,又支持DiffServ的基于类的资源分配,高优先级的业务基于流分配资源,低优先级的业务流基于类分配资源,以减小节点需保存的基于流的状态信息,提高FQMM的可扩展性。FQMM还采用自适应的业务量调节机制来适应无线链路带宽的变化。

a) FQMM是第1个针对Ad hoc网络的QoS模型,它的主要优点是根据网络状态的变化,作自适应的业务量调节(conditioning),但它同时还存在如下缺点:

1) 实现复杂。由于网络中的节点既要支持IntServ,又要支持DiffServ,同时,每个节点既可能是边缘节点又可能是核心节点,因此,要求每个节点均实现IntServ和DiffServ的相关功能;

2) 对于混合的资源分配策略,存在高优先级的流和低优先级的流各应占多大比例的问题.对低优先级的流,由于采用DiffServ的基于类的资源分配策略,因此,在Ad hoc域内,仍存在与DiffServ相似的资源分配问题。

b) 根据以上分析得知,已有的QoS体系结构并不完全适合Ad hoc网络,结合Ad hoc网络自身的特点及其应用场合认为,Ad hoc网络的QoS体系结构应该具有下述特点:

1) 具有业务区分能力,提供定性的QoS支持;

2) 开销小,对节点的存储能力和处理能力的要求较低,尽量避免基于流的存储和处理要求;

3) 分布实施,在无固定设施的Ad hoc网络中,任何集中式的算法、机制都会增加其实现的难度和引入较大的开销;

4) 具有自适应能力,即能根据无线信道和网络拓扑的变化,实现自适应的资源分配、业务量调节等功能。

2 动态服务质量保证机制

动态QoS保证机制是一种基于资源预留的服从综合服务模型的方法。资源预留请求不是针对某个固定值,而是规定了一个预约请求范围,网络实体通过对此请求范围进行判决来灵活地提供服务。预约请求范围从应用能接受的最小服务级别到网络可以提供的最大服务质量等级J,各种网络实体(如路由器)在此范围内根据网络的资源状况进行动态的自适应调整,从而提供了一种在动态网络环境下保障QoS的方法。

2.1 移动Ad hoe网络的动态特性

a) 动态变化的链路特性

相比与有线链路,无线链路的传输特性经常会发生变化,使得链路层特性也随之改变。通常可以采取两种方法来减少链路变化对上层应用造成的影响:一种方法是在网络层进行差错控制;另一种方法是在链路层进行差错控制。如果采用第一种策略,链路层的性能将变得很差,网络层必须进行差错检测和纠错,然而网络层很难判断分组的丢失是拥塞产生的还是链路层的性能恶化造成的,并且网络层也无法准确获悉当前可利用的带宽,从而难以实施资源预留。因此,最好在链路层进行差错控制。例如,可以使用简单的自动请求重传协议(ARQ)来保障数据的可靠传输。也可以采用一些较复杂的链路层协议(如自适应FEC),它们能够根据链路的质量自适应地实施差错控制机制,此时网络层的延时和吞吐量与具体的编码算法和控制机制相关。

b) 节点的移动特性

Ad hoc网络中节点可以随意移动,并且移动方向和速度都难以预测。这一特点会加剧链路的动态变化,因为节点可能会随时切换到不同的物理媒介上,从而使得可利用的带宽不断变化。另外,节点的移动将会不断改变网络的拓扑结构,使得资源预留变得更加困难,因为资源预留一般要求路径相对比较固定。在蜂窝移动网络中,移动终端切换时可以采用提前进行预约的方法来解决这个问题,但是Ad hoc网络的动态特性使得这种方法不再适用,并且采用备用路由的方法也只能部分解决这个问题,一种较好的方法是实施多路径路由,也就是说,资源预留必须在多条可能的路由上进行。但是,这种方法的可扩展性较差,当网络规模较大时将很难实现。

c) 应用需求的动态变化

在不同的时间和场合,各种应用需求经常会发生变化。在固定网络中,可以通过采用基于策略的接入控制机制来决定各种应用的要求是否得到满足。这种方法能够保证一些用户的要求得到满足,但是不够灵活,它要么保证用户的服务质量,要么完全拒绝用户的服务请求。有时,这并不是一种很好的策略,特别是对服务提供商而言。一种可选的策略是尽可能满足更多用户的接入要求, 同时为这些用户提供能够接受的服务质量。为此, 网络和应用需要通过某种方式来交互网络可利用的带宽和应用能够接受的服务质量级别等相关信息,从而实施合理的接入控制机制。

2.2 动态预约机制

为了解决动态变化的网络特性引起的问题,通过允许资源预约请求规定一个范围而不是一个确定值来实施资源预留。为了实现方便,该机制采用基于业务类的排队策略和受控负载模型。此时,平均数据率是实施资源管理的关键因素之一,可以将数据速率的范围定义为(rmjn—rmax),其他的参数也可以进行相应地规定。当网络资源变化时,动态QoS机制可以在规定的范围内调整资源的分配。例如,当网络中存在大量的业务流时,这种机制将尽量使更多的业务流获得预约范围之内的动态服务质量,而不是完全拒绝。如果采用的服务模型不是受控负载模型,例如要在确保服务模型中保证较小的分组丢失率,此时输出缓存器的大小将成为资源管理的关键因素, 因此可以将令牌桶深度作为预约请求中的可变参数: 如果需要为实时业务提供QoS,时延可能成为最重要的参数。为了进一步简化模型的实现,可以采用使某个参数在特定范围内变化,而保持其它参数不变的方法,通过调整可变的参数来满足其它参数的要求。例如,可以通过限制业务流的平均速率来确保有足够的带宽用于传输突发业务流,从而满足传输时延和时延抖动的要求。

2.3 动态资源预留协议(DRSVP)

一种简单的动态QoS保障[3]方法可以通过扩展RSVP协议来实现,但需要对RSVP作如下改动:

1) 在RESV消息中增加额外的流规范(flowspec),并且在PATH 消息中相应地增加业务类型规范(tspee),用于描述业务流量的资源请求范围;

2) 在RESv消息中增加一些测量规范来使上游节点可以了解下游链路的资源状况;

3) 增加预约通知消息,用于上游节点向下游节点通知资源状况;

4) 对接入控制进行适当的改动使其能够处理具有一定带宽范围的预约;

5) 设计一个带宽分配算法来为那些被允许接入的流分配带宽,并且需要考虑各个流的预约请求范围以及各自的上下游带宽瓶颈。

3 具有QoS能力的中间适配机制

Ad hoe网络[4]中另一种提供QoS保障的策略是采用带有中间适配件的网络框架来适应网络性能的变化。这种方法考虑了网络的性能和端到端的资源状况,可以向应用提供有用的信息用于重新配置,从而使系统获得最优的服务质量。

3.1QoS中间适配层框架

在性能经常发生变化的异质网络环境中,多个应用需要共享和竞争可用的系统资源,因此它们需要自适应地动态调整各自的资源需求。为了优化应用层感知的QoS性能,可以设计一种中间适配层来适应下层网络和端系统资源的动态变化。它的目标有两个:一是提供具有QoS保障的传输层机制并且能够对不同的流采用不同的调度策略;二是通过使用一个控制模型,网络能够向应用层提供相关的QoS信息来优化应用层的业务性能。一种简单的实现框架由一个传输控制器和应用控制器构成。前者用于实现一个可靠的传输层并向网络层提供反馈信息,同时它还可以通过一个分组调度器来适应多种业务流对QoS的要求,并能够静态复用业务流来适应带宽的变化。在传输控制器的上层,应用控制器被用来优化应用层QoS的性能,并提供相应的QoS信息来重新指配应用层的通信行为。

3.2 中间件QoS适配器

目前,应用层的自适应机制不能维持某些全局特性(如公平性),并且操作系统的资源管理机制也无法了解应用层数据的语义。中间件QoS适配器I 可以通过动态控制和重新指配多媒体业务的相应参数和特性来提高QoS自适应机制的效率和准确程度。这就要求大量的分布式应用能够适应端到端QoS的变化。首先,它们能够接受和容忍一定范围内的资源限制,并且可以随着可用资源的变化来改变业务性能;其次当需要降低QoS时,它们可以牺牲一些对QoS不太敏感的参数来确保敏感参数的质量。QoS适配器主要在两个方面起作用:系统级(如操作系统和网络协议)和应用级。前者主要强调全局参数,如公平性和资源利用率;而后者更加重视与应用层相关的语义,如视频流的帧速率和视频跟踪的准确度等, 目标是尽量不降低业务的性能。需要强调的是,在Ad hoe网络中不可能实现确保的QoS,因为这将对节点的移动模式、节点的密度和分布做出相应要求,违背了Ad hoe网络设计的初衷。

4 提供QoS保障的MAC协议

4.1Ad hoe网络中的协议[5]

Ad hoe网络能否得到广泛应用的一个关键是发展合适的MAC协议,这种MAC协议必须是分布式的,能够高效地利用网络资源,并且可以满足数据业务和实时业务的0要求。MA C协议解决分组冲突的方法一般是延时重发,延时策略可以采用二进制指数退避(BEB)算法和乘法增加线性减小(MILD)算法等,但是退避策略不能为实时业务提供QoS保证。

近年来,提出了各种MAC机制用来提高网络吞吐量和增强QoS。例如多址访问冲突避免(MA CA)协议。利用RTS和CTS来提高网络吞吐量,因为只有较短的控制分组而不是数据分组会发生冲突。组分配多址接入(GAMA)是一种用于提供QoS保证的MAC协议。该协议中,一个竞争阶段通过使用RTS和CTS对话为随后的无竞争阶段预留带宽,并且一个在无竞争阶段传送的分组可以为下一个循环周期预留带宽。多址接入/分组预留(MACA/PA)类似于GAMA,但是要求在无冲突阶段发送一个ACK来通知相邻的节点,以便在下一个循环到来时获得下一个分组。这些机制与纯粹的CSMA机制不同,因为节点可以基于分组中携带的预约请求来获得信道的状态信息。

4.2 支持QoSMAC协议[6]

这种MAC协议的目标是在Ad hoe网络中使共享媒体的各个节点能在尽量不影响其他节点的前提下实现自身的QoS要求。这是一个比较复杂的问题,例如,节点I是节点J和节点K的邻居,但是J和K不能直接进行通信,所以它们彼此不知道对方的QoS要求,但是它们可以通过节点I来影响对方。所有的节点可以广播它们的最大带宽要求,因此所有的节点都可以知道其邻居节点的带宽要求,从而可以实现一种在邻居节点间分配信道接入时间的分布式算法。协议具体描述如下:协议中定义了一个循环周期,它由最大可能数量的时隙组成(由节点数量和分布决定)。在每个周期的开始,每个节点都知道其邻居节点的带宽要求,并且能够根据各个节点的带宽要求在邻居节点之间分配相应的时隙。由于所有的节点都运行相同的算法并且交换相似的信息,从而可以知道哪个节点将会占用哪个时隙。节点占用时隙的顺序可以通过它们广播带宽请求时分组中携带的IP地址来决定, 同时为了获得较好的公平性,占用时隙的顺序可以在每个周期结束时进行轮换。在每个周期的最后可以留出一段时间用于节点的随机接入,这段时间通常被用来传送尽力而为分组,还可以用来交换各种控制信息,同时新加入的节点也利用这段时间来广播带宽请求。只有当业务量参数发生变化或者现有路径不能满足带宽要求时,节点才会重新广播带宽请求信息。更新后韵信息将被用于下一个循环周期进行时隙的分配。由于知道占用的时隙和总流量,节点可以实现一种连接允许接纳控制算法来接受或拒绝收到的业务流。此外还可以在协议实现时赋予实时业务更高的优先级并且确保无冲突的传送,从而保证较低的时延。这些方法的采用,将会在一定程度上保证实时业务和一些特殊业务的服务质量。

5 结束语

固定有线网络中的QoS保障问题经过多年的研究,已经积累了相当多的经验和方法,但是这个问题仍然没有得到很好的解决。相比与固定有线网络,Ad hoc网络是一种动态变化的基于无线信道的自组织网络。它的QoS保障问题更加复杂和难以实现。当前,它的研究仍是一个开放的热点问题。由于Ad hoc网络具有一些优良的特性,特别是它能够满足部队战术通信、抢险救灾以及应付突发事件等场合,近年来得到日益广泛的关注和重视。但是由于Ad hoc网络中QoS保障问题自身的固有难度,学术界至今没有取得突破性进展。本文主要从不同的角度比较分析了各种QoS解决策略,总结了近年来取得的一些成果,这些成绩将会积极地推动今后的研究工作,但是真正实现比较满意的QoS保障机制还需要经过长期的研究和实践。

参考文献

[1]赵志峰,郑少仁.Ad hoc网络体系结构研究[J].电信科学.

[2]徐雷鸣,英春,史美林.白组网环境中的QoS支持阴[J].计算机世界.

[3]王海涛,郑少仁.白组网的路由协议及其QoS保障[J].现代电信科技.

[4]Xiao HN,Seah WKG,Lo A,Chua KC.A flexible quality ofservice model for mobile ad-hoc networks.In:Proc.of the IEEEVehicular Technology Conference.Vol 1.

[5]Lee S-B.INSIGNIA:An IP-based quality of service frameworkfor mobile Ad hoc networks.Journal of Parallel and Dist.Comp.,Special issue on Wireless and Mobile Computing andCommunications.

上一篇:科研副产品下一篇:外喷雾系统