链路负载均衡(共4篇)
链路负载均衡 篇1
1 改造的背景
随着互联网的广泛深入发展, 互联网已渗透到广播电台的节目制作、播出及日常办公等各个方面。不断增长的网络应用对连接互联网链路的稳定性、可靠性及访问速度都提出了很高的要求。而我们现有的网络架构已不适应日益增长的网络应用要求。
1.1 当前的网络拓扑
一条100Mbps的电信光纤主要用于对外提供各种服务。一条20Mbps网通光纤主要用于台内用户的上网 (图1) 。
1.2 当前的网络架构存在的问题
(1) 没有真正实现链路的冗余。当100M的链路出现故障时, 无法把对外服务快速切换到另一条链路上, 将导致对外服务的全部中断。台内用户的上网虽然通过思科的HSRP做了三层核心交换路由的冗余, 任意一条链路断了可从另一条链路出去。但是由于三层交换机只能发现本机端口的状况, 无法确定上一跳路由节点的好坏, 当ISP出问题时, 要依靠人工进行链路的切换。
(2) 没有实现链路的流量负载均衡。二条链路都是各自为政, 无法在拥堵时相互分担流量, 造成了有的吃不饱, 而有的带宽又白白浪费。
(3) 没有解决电信、网通的互联互通问题。当前中国网通、电信的竞争格局造成网通用户访问电信服务器, 电信用户访问网通服务器速度缓慢。我们不时有台内外用户反映访问速度慢, 问题很多都是由此造成的。
(4) 当前重要的服务器都采用一主一备方式进行工作, 主机性能比较好, 备机一般为换下的旧机。平时只有主服务器对外提供服务, 备机只是保持数据同步, 不对外服务。当主机出现问题时, 才由人工切换到备机工作。这种方式的问题是对外服务会有中断, 再就是备机的资源浪费。我们也用过群集的方式, 但配置和故障恢复都非常麻烦, 很不方便。
1.3 需求分析
针对以上存在的问题, 我们需要有个解决方案, 能把多条链路有机地融合起来, 实现多链路的冗余和负载均衡。同时能根据主备服务器性能上的差异, 实现服务器的冗余和负载均衡。具体的说:
(1) 能动态地时跟踪检测各条链路的健康状况, 当发现某一链路有问题时, 问题链路的流量能自动改走其它正常链路, 确保服务访问不中断。
(2) 能动态地实时跟踪检测各条链路的流量情况, 能根据各条链路的带宽和当前各链路的流量状况自动进行负载均衡, 使得各条链路的带宽可得到有效的利用。
(3) 能为内外网访问用户智能地选择抵达目标地址速度最快的链路。链路选择的算法全面准确, 速度快, 明显改善进出访问的用户体验。
(4) 能根据服务器性能的差异和各自的负载情况, 实现主备服务器的在线冗余和四层的负载均衡。
(5) 管理方式灵活, 操作简便。管理者可方便了解各链路带宽使用情况, 各链路的数据流量。能对不同的应用流量进行QoS管理, 使得高优先级的应用流量能得到优先处理。
(6) 具有较强的抗各种网络攻击的能力, 支持设备的在线冗余工作, 切换时间达到毫秒级。
(7) 改造项目的实施较为方便, 不会对现运行的系统造成很大的影响。
2 解决方案设计
2.1 多链路负载均衡网络拓扑
我们部署两台链路负载均衡设备, 连接多条ISP链路, 由链路负载均衡设备实现多链路的负载均衡。同时运用链路负载均衡设备所拥有的服务器负载均衡功能, 实现服务器的四层负载均衡 (图2) 。
2.2 方案说明
方案的核心是使用了链路负载均衡设备处理多链路的冗余和进出流量的负载均衡。链路负载均衡设备是指以Radware公司的Link Proof和F5公司Link Controlle为代表的具有多链路管理和负载均衡功能的专业设备。多链路负载均衡设备解决方案就是在内部交换机和ISP的路由器之间, 跨接一台多链路负载均衡设备, 所有的内外网地址映射和Internet链路优化全部由多链路负载均衡设备来完成。这些专业设备与普通的交换路由设备相比, 更为智能, 功能更为强大, 能够提供链路冗余和进出双向流量的负载均衡功能, 负载均衡设备具有以下特点:链路健康状态检测;最佳链路选择;智能地址翻译。F5的链路负载均衡设备还整合了服务器的负载均衡功能, 能在同一设备上实现多链路和服务器的负载均衡功能。相比链路和服务器负载均衡分别实施的方案, 节省成本, 方便维护。考虑到多链路负载均衡设备是整个网络结构的关键节点, 所有链路的流量都要从这处理转发, 如果它出现问题, 内外网的所有联系就中断了。所以从确保安全的情况出发, 应该采用双机热备冗余, 减少风险。由于链路负载均衡设备拥有很强大的包处理能力, 能够抵抗网络攻击, 防火墙可放在链路负载均衡设备之前, 也可放置在链路负载均衡设备之后。如果放在负载均衡设备之后, 两台防火墙可工作在双机热备模式, 可是由于我们现有的防火墙只有100Mbps的吞吐能力, 所以对于两条带宽之和大于100Mbps链路来说, 防火墙将成为带宽上的瓶颈。所以我们选择将防火墙放置于负载均衡设备之前, 虽然无法做双机热备, 但一台出问题由于有了链路的负载均衡, 不至于中断与互联网的连接。而且防火墙还能对负载均衡设备起到一定的保护作用。
2.3 链路负载均衡的实现原理
2.3.1 链路健康状态检测
链路负载均衡设备可通过多种方式检测多条链路的健康状况, 一旦发现其中一条链路故障, 会立即将所有用户流量重定向至其它可用链路, 从而实现Internet连接的高可用性。主要的方法有: (1) 全路径健康检查。为了确保ISP链路的畅通, 采用Ping的方法, 不仅仅检查和其相连的路由器的端口是否可达, 还可以检查该链路后续路由节点的连通性, 以确保整个路径的畅通。该方法要求ISP的链路对ICMP开放。 (2) 高级健康检查。针对所有的网络环境 (包括禁止ICMP的ISP) , 一些链路负载均衡设备还提供了丰富的4~7层检查方式, 并可以通过多种检查结果的“与”和“或”运算结果, 最终准确判断链路的健康状况。例如:通过某一链路, 同时检查www.sohu.com和www.sina.com的80端口, 并将检查结果做“或”运算, 只要一个检查通过即可判断这一链路正常。避免网站故障导致链路状态误判的可能性。
2.3.2 流入 (Inbound) 流量的链路选择及负载均衡实现原理
对于互联网用户访问内部服务器流量的负载均衡, 链路负载均衡设备都需要用户的注册DNS服务器配合, 将用户请求的服务器域名的解析功能由注册DNS服务器导向到链路负载均衡设备, 链路负载均衡设备此时就相当于一个智能DNS及NAT设备, 它把内网的服务器IP映射到各条链路的各个地址段的一个地址, 它会通过一系列算法, 选择最优的线路, 然后将域名解析成相应线路的服务器映射的IP地址, 最终完成域名的解析。域名解析的过程也是链路选择和内外网地址转换的过程。
下面以访问www.nbradio.com为例, 描述Inbound流量处理的过程。
假设图3中是Web服务器, Internet域名为www.nbradio.com, 私有地址为IP:172.16.10.2/24。
如图3所示, 在注册DNS服务器上通过别名及二级域名, 把www.nbradio.com的解析跳转指向链路负载均衡设备:
当有Internet用户访问www.nbradio.com时, DNS服务器回应给用户由链路负载均衡设备最终完成的地址解析。链路负载均衡设备可选择运用:基于拓扑的路由 (Topology) 、随机 (Random) 、比率 (Ratio) 、轮询 (Round Robin) 、RTT (Round Trip Times) 、路由跳数 (Hops) 、静态会话保持 (Static Persist) 、最小连接数 (Least Connection) 、包比例 (Packet Rate) 等各种算法及这些算法的综合加权, 来选定当前最适当的ISP线路, 如果选择ISP1, 则将地址解析为221.136.50.246。同样, 如果选择ISP2, 则将地址解析为221.12.43.226。从而完成流入流量的负载均衡。
2.3.3 流出 (Outbound) 流量的链路选择及负载均衡实现原理
对于内网用户访问互联网流量的负载均衡, 链路负载均衡设备能够根据访问目的IP的响应时间、各条链路的负载等等情况, 选择内部用户访问Internet的最佳路径, 以保证用户能够得到最快和最高效的服务和响应。
(1) 静态就近性:用户可在链路负载均衡设备上为某个访问目标定义静态的最佳链路。例如目标IP地址属于电信的, 应选择电信链路;目标IP地址属于网通的, 应选择网通链路。其它非电信、网通的地址在两条链路中通过动态就近性算法进行选择。
(2) 动态就近性:在选择最佳链路时, 链路负载均衡设备可通过检查与目标网络之间的路由节点数、数据传输的延迟、链路的带宽和实时负载等等情况及综合这些因素的加权, 计算出最佳路径。负载均衡的一些基本的算法和Inbound流量的处理类似。
在实际配置中, 通常是把静态就近性和动态就近性结合起来运用, 电信的地址走电信出口, 网通的地址走网通出口, 非电信、网通的地址由动态就近性选择链路。
2.4 服务器的负载均衡原理
服务器的负载均衡都是基于虚拟IP技术, 负载均衡设备把多台提供相同服务的真实服务器构成的服务器群都虚拟为同一个公网的IP地址。当用户向公网的IP地址发出服务请求时, 由负载均衡设备根据服务器当前性能和负载均衡策略确定由哪台服务器响应用户的请求。从负载均衡设备在ISO层的哪一层支持负载均衡上又可分为四层负载均衡设备和七层负载均衡设备。在支持四层负载均衡设备中, 一个目标地址是服务器群VIP (虚拟IP, Virtual IP address) 连接请求的数据包流经负载均衡设备时, 负载均衡设备根据源端和目的IP地址、TCP或UDP端口号和一定的负载均衡策略, 在服务器真实IP和VIP间进行映射, 选取服务器群中最合适的服务器来处理连接请求。而支持七层负载均衡设备可控制应用层服务的内容, 提供了一种对访问流量的高层控制方式, 适合对HTTP服务器群的应用。第七层负载均衡技术通过检查流经的HTTP报头, 根据报头内的信息来执行负载均衡任务。
服务器负载均衡的实现要历经三个关键的环节, 一是通过多种方法对服务器当前的健康状况进行检测, 以便把请求转发到健康的服务器上。二是通过多种负载均衡算法和合适的负载均衡策略, 将用户访问流量均衡分配到各台服务器, 使服务器资源得到充分利用, 提高服务器群整体的性能, 消除和避免负载分布不均、数据流量拥堵、响应时间长的瓶颈。三是对于需要定位到某台服务器进行访问的用户来说, 采用会话保持技术来保证用户会话的持续性。
3 项目的实施
3.1 设备的选择
链路负载均衡设备是非常专业化的产品, 目前国内市场上知名度和占有率都比较高的品牌主要是Radware的LinkProof和F5的LinkController等产品。Radware是以色列的一家公司, 做链路负载均衡设备比较早, 拥有这一领域的几项专利技术, 前几年是这一领域的老大。F5是后起之秀, 起步虽然晚些, 但发展很快, 产品的更新周期短, 近几年在链路及服务器负载均衡领域的占有率已经赶超上来了。由于目前我们互联网进出口总带宽总共也就130M, 平时流量也还没有达到饱和, 两家的中低端产品性能已完全能满足我们的需要, 本着够用, 适当超前, 节省成本的考虑, 我们选择了两家性能指标接近的F5的BIG-LC-1600和Radware的LinkProof 1000进行测试比较。两家的产品在链路负载均衡算法上都有自己的实现技术, 原理上大同小异。在对Inbound流量的负载均衡算法上两者难分高下, 都能实现静、动态就近性。而在对outbound流量的负载均衡上, F5只支持静态就近性, 不支持动态就近性。而Radware支持静、动态就近性。它通过动态就近性探测方法所建的动态路径表, 理论上在最优链路选择的上更胜一筹。但在测试中, 没有明显感受到访问速度相比F5有什么提升。从多种渠道了解的情况看, 两个产品的可靠性、稳定性都很好, 性能都完全能满足我们链路负载均衡的要求。LinkProof 1000是纯链路负载均衡产品, F5相比Radware最大的特色在于它把服务器的负载均衡功能也整合在机器上, F5把服务器负载均衡的理念运用到链路负载均衡中, BIG-LC-1600的标配已经拥有支持4层的服务器负载均衡的功能。而Radware的LinkProof 1000只能做链路的负载均衡, 服务器的负载均衡还要另购产品。两者加起来成本会比较高。考虑到我们的需求和产品性能价格比, 我们最终选择了F5的BIG-LC-1600。
3.2 切换前的准备
为了使项目的改造实施顺利, 对现运行的系统造成的影响最小, 中断服务的时间能够最短, 我们切换前做了大量的前期准备工作, 确保系统的切换万无一失。
(1) IP地址的规划见表1。
(2) F5 BIG-LC-1600的配置:设备支持Https图形界面配置。LC1600的配置较为复杂, 选项非常多, 这是它的缺点, 但另一方面这又使它的扩展性、灵活性非常强, 借助它的iRules, 可以方便、灵活地定义进出流量各种处理策略, 对进出数据包进行路由转发。LC1600配置时, 一些概念不容易理解, 但只要把握住它是把链路看成是服务器来处理, 就能融会贯通。由于篇幅所限, 在这不具体展开了。
(3) 进行项目的切换:由于要对注册DNS的记录进行修改, 而修改后的记录在各处的DNS刷新有个滞后时间, 在这期间使用户解析得到的是原来的地址, 造成无法访问我们的网站。为了减少影响, 我们选择了在深夜时分进行新老系统的切换。我们的nbradio.com域名是在万网进行DNS注册的, 需在万网注册DNS中增加和修改如下记录:
将服务器域名解析由注册DNS跳转到F5来进行动态解析。将各主服务器的公网IP修改为规划的内部IP。至此项目改造全部完成。
4 结束语
通过这次项目改造, 宁波电台连接互联网线路的稳定性, 可靠性、安全性都得到增强, 不用再担心某个ISP运行商链路故障或维修而造成服务中断的情况发生, 链路的带宽得到充分利用, 内外网用户的访问体验也有了明显改善。而服务器负载均衡的实现, 充分挖掘了设备性能, 避免了单点故障而导致的服务中断。项目的改造达到了我们预期的目的。
链路负载均衡 篇2
关键词:不同ISP,多链路负载均衡,可靠性,高效性
1 引言
当前,随着企业用户、政府机构和各高校在Internet上的应用急速增长,单一的Internet服务提供商已不能满足用户对网络稳定性及速率的要求。他们大多选择向两个Internet服务提供商同时租用互联网线路,拥有两条互联网连接链路来解决上述问题。然而,目前我国各网络运营商之间的互联互通还存在问题,具体表现为在同一个ISP的范围内,网站的访问,邮件的收发以及媒体播放等都很流畅快速。当试图去访问位于另一个ISP范围内的网站等资源时,访问质量就下降,甚至无法访问。因此,多链路负载均衡技术便应运而生了。
本文将重点讨论多链路负载均衡技术在建设高负载网络方面的应用,以提高其稳定性和高效性。
2 分析问题
目前,多数拥有两条互联网连接链路的用户的网络建设模型如图1所示。
这样的多链路网络出口建设形式主要依靠BGP来导向多个互联网链路上的流量。BGP是一种区域间的路由协议,旨在使IP路由器将互联网上的数据包从A点导向B点。然而,BGP是路由的核心技术,很难用来实施多归属管理,并且BGP路由不提供一个适当的机制来确保基于链路的动态灵活路由。最为关键的是,中国的各个运营商不会向用户提供BGP路由协议。因此,虽然用户希望通过多条链路使用网络平台和资源来保证网络的稳定性和高效性,但是这样的网络出口建设形式,暴露出以下问题,并亟待解决。
1)多条链路互相之间没有联系,这就导致了两条链路的完全独立,不能互为所用;
2)两条链路分别独立接入,链路的占用可能不平均,带宽不能得到充分的利用;
3)任一条链路的中断都会影响正常的上网工作,缺乏容错机制。
3 解决方案
针对上述问题,我们从分析网内实际存在的3种不同的数据连接请求(DNS解析请求、Inbound数据流、Outbound数据流)出发,巧妙地使用业界成熟的链路负载均衡技术产品,通过反复实验、试运行后提出了如图2所示的解决方案。
3.1 方案概述
在本方案中,我们在网络中心配置两台Omnirange Plus 1000负载均衡交换机,放置在现有因特网接入路由器和东方龙马防火墙之间;两台Omnirange Plus 1000负载均衡交换机组成ACTIVE-ACTIVE负载均衡的群集模式,负责各个网段的对因特网的访问和网络地址转换(NAT),使外网用户可以通过两条链路访问到内网及各专用服务器,内网用户同时可通过两条链路访问因特网,无论哪条因特网连接链路发生问题,都不需要再人工修改配置。
3.2 关键步骤
首先是链路的准备和地址的规划工作。向ISP1和ISP2均申请相应数量的因特网IP地址并且对每一个需要的系统设备均进行分配,同时建立相应的对应表。
当单链路发生故障时,为了确保网站可以继续提供不间断的访问服务,仅仅为Web服务器提供冗余链路的访问保护是不够的,还需要考虑一旦其中一条链路发生故障时,仍需至少有一条可达的链路用于继续提供网站的DNS解析服务才行。
所以,需要在网站系统中配置相应的网络设备如NAT转换等,将两个注册的DNS服务器地址都转换成系统中DNS服务器的实际内网地址。
修改DNS服务器的相关配置,增设对dns2主机的A记录解析,使得dns2.abc.com.cn生效。
为了使多链路负载均衡设备起到根据网民用于访问的链路来选择合适的链路响应功能,需要由多链路负载均衡设备承担实际上的域名解析工作。
因此,对于这个多链路负载均衡设备,先要在对应ISP1和ISP2两个链路上分别建立名为lpcnc以及lptel的两个A记录解析,分配的地址是分属于这两个ISP的因特网地址,作为虚拟DNS(VDNS)。
然后,将Web服务器的A记录解析修改为下面的两条NS记录形式,一条对应到多链路负载均衡设备的ISP1一端,另一个对应ISP2。即把对网站各个主机的地址解析工作由DNS服务器移交给多链路负载均衡设备来完成。
事实上,还需要把所有需要解决互联互通问题的服务器主机的A记录都改写成类似的形式。为叙述简便,这里仅举Web服务器为例。
由于目前ISP间一般不允许流量的互通,因此,接下来,在负载均衡设备OutBound流量的地址管理上,不使用其自动的就近性检测算法技术,而是采用手工建立静态的路径选择表,并配置对应的地址映射,用于识别是ISP1的链路还是ISP2的链路,据此选择不同的OutBound链路和对应的IP地址转换,并启用链路的故障自动检测,用于当其中一条链路发生故障时,将所有访问都自动切换至其他正常的链路上。
4 性能分析
使用上述方案,可以实现多条链路的有效使用,针对内网用户和外网用户,该方案对网络访问的可靠性和高效性均起到了良好的效果。具体表现在:
4.1 内网用户访问因特网流量的负载均衡
当内网用户访问因特网上的其他服务器时,链路负载均衡设备能够自动帮助用户选择两条互联网链路中状态更好的一条;一旦其中任何一条链路发生问题时,另外一条健康的链路将承载所有网络访问,而当发生问题的链路恢复正常后,上网服务自动恢复负载均衡状态。
4.2 外网用户访问网内服务器的负载均衡
当外网用户访问内部服务器时,链路负载均衡设备除了能帮助实现上述效果的同时,还可以通过对链路状态的检测动态修改DNS服务器上的服务器记录对应的IP地址,这样众多的外网用户在访问同一服务器域名时在不同的瞬间将可能获得不同链路的公网地址,从而选择不同的链路访问内网服务器,实现了外网用户访问内部服务器的负载均衡功能。
因此,改造完成后,我们仍采用Tracing Route进行测试,网通链路8hops到达目标,延时为1ms,电信宽带链路、ADSL或拨号上网,经过12hops,延时约2ms,比改造前21~22hop路径缩短了近2/3,延时更是降低了200倍左右,浏览网站时主观感觉流畅了好多,访问不稳定的现象也消除了。
5 结束语
综上所述,使用多链路负载均衡技术对网站系统进行上述改造后,不但解决了不同ISP间互访的瓶颈问题和关键业务应用的不间断访问问题,还可以最大限度地扩展和利用链路的带宽,提供访问流量的调度和均衡,为网站访问提供了更高的可靠性和高效性。因此,在当前的现状下,对于很多大中型网站而言,本方案应该是一个不错的选择。
参考文献
[1]刘玉军.现代网络系统原理与技术[M].北京:清华大学出版社,2007.07.
[2]《网管员世界》杂志社.网管员世界2007超值精华本[M].北京:电子工业出版社,2007.04.
链路负载均衡 篇3
下一代的移动通信系统在城域内或子城域内, 采用卫星来提供有效的高速率 (大约为100Mb/s) , 高质量的多媒体广播/组播业务传输[1]。卫星通信系统因其在空间段所发挥的不可替代的作用, 从而在下一代无线通信系统中得到了更多的关注。
因为单载波频域均衡 (SC-FDE) 和OFDM技术都具有较低的复杂度和有效的抗频率选择性衰落信道的优势, 是无线通信系统中均衡方面的较好解决方案[2]。但是, OFDM系统存在对定时误差、载频同步误差比较敏感, 而且具有较大的峰均功率比PAPR等问题, 直接影响了OFDM技术更大规模的应用前景。而基于频域均衡技术的单载波传输技术SC-FDE作为另外一种解决宽带无线通信系统中的码间干扰问题的方案, 有效地结合了OFDM和单载波传输的优点, 具有较强的克服频率选择性衰落的能力, 并克服了OFDM系统的不足[3]。
1 SC-FDE和OFDM技术
传统的时域均衡技术具有复杂度较高的缺点, 尤其应用在宽带无线通信系统则更加显著。作为具有低复杂度, 能有效抵抗频率选择性衰落传输技术的SC-FDE和OFDM技术, 是目前宽带无线传输研究的核心问题。
1.1 OFDM技术
OFDM系统结构如图1所示。从图1可以看出, OFDM系统主要由调制/解调模块、IFFT/FFT模块、循环前缀 (CP) 处理模块, 三个核心模块组成。在OFDM系统的发送端进行串/并转换, 在每个传输块前插入CP, 而加入CP是为了避免前一传输块和本传输块之间干扰的;在接收端, 去CP后, 所得到的传输块是发送信号与信道冲击响应循环卷积的结果, 因此可以利用FFT进行处理[4]。
OFDM技术作为一种克服选择性衰落的技术, 是将信道在频域上划分成多个子信道, 使每个子信道的频谱特性都近似平坦, 使得多个互相独立的子信道传输信号在接收机中予以合并, 以实现信号的频率分集, 从而克服在频域上多径信道呈现出频率选择性衰落。而且, 同时采用相互正交的子载波作为子信道, 具有较高的频谱利用率。
然而, OFDM技术在卫星通信系统中并不十分合适的主要原因之一就是严重的同步问题, 尤其当OFDM信号的子载波是来自于不同的用户。同时, OFDM信号具有相对高的PAPR值而需要更高的功率放大回退, 增加了用户端的功率需求。
1.2 SC-FDE技术
SC-FDE系统结构如图2所示。
根据图2可以分析出, SC-FDE在系统的组成上, 与OFDM具有相似的模块结构, 而唯一的不同即是在发端不进行频、时域的信号变换, 而在接收端进行均衡后, 再进行频、时域的信号变换。这样, 发送端的复杂度则极大的降低。而且, 在与OFDM性能相同的情况下, SC-FDE具有更低的算法复杂度。而且单载波系统避免了OFDM系统中较高PAPR的问题, 因此, 对用户功放的要求也更低。
图3是本文所考虑的宽带多媒体卫星系统场景, 即在广播/组播的情况下, 信息内容从网关传送给卫星。由于直视路径的中断, 在城区采用地面信号中继器来提供更大范围的覆盖, 而卫星的直视路径在乡村是不存在的。在本文中, 在受到严重的频率选择性衰落的情况下, 分析SC-FDE体制作为在卫星广播系统中采用MMSE均衡方式的性能。此种严重的信道情况是由于地面信号中继器引起的, 而中继器是用来进行信号的简单放大和再传输卫星信号的。我们采用具有大延时特性的信道模型, 并研究在这种长延时扩展的情况下, 接收端采用SC-FDE的误码率性能。
2 宽带卫星系统下行链路性能分析
2.1 卫星信道模型
所研究的卫星信道是线性信道, 可以通过FIR滤波器进行建模。Rician衰落信道描述的是信道中存在直射波分量, 接收信号是由直射波分量和散射分量叠加而成的一种情况。Rician衰落信道模型如图4所示。
2.2 下行链路性能分析
根据图2, 经过调制后的信号可以表示为Xn, 而后映射成K块。在发送端, 假设CP长度为L, 则经过CP插入模块后, 信号的长度为K+L, 用xn表示。假设在接收端有较好的同步实现, 则接收信号可以表示为:
Rn=h0xn+h1 xn -1+wn (1)
(2) 式中, wn为加性高斯白噪声。数组h0, h1的大小为K+L, h为信道的响应。
采用的星上功率放大器具有理想的线性特性[5], 所采用的HPA模型是Rapp’s模型, 关系式如下:
(2) 式中, Rn是信号的幅度, p为非线性的调谐量, 取值范围为2到3之间。
接收端在进行FFT变换之前, 将CP移除, 此时接收信号用rn表示, 均衡在频域依据MMSE法则进行。
系统中采用QPSK调制方式, FFT的大小为512, CP的长度为56, 编码类型为Turbo码, 则在理想的功率放大器工作的前提下, 分别采用SC-FDE和OFDM方式作为卫星通信系统下行链路均衡方式的误块率与信噪比的性能如图5所示。
从图5中可以看出, SC-FDE方式同OFDM相比具有更好的性能和更大的功率有效性, 且SC-FDE本身具有更低的复杂度, 更适合在宽带多媒体卫星系统的下行链路中采用。
3 结论
本文从分析具有低复杂度和较强抗频率选择性衰落的SC-FDE 和OFDM技术差异入手, 进行了下一代卫星通信系统采用SC-FDE技术作为下行链路均衡算法的性能分析, 并验证了SC-FDE在能够克服OFDM的不足的同时, 还具有更强的抗频率选择性衰落的能力。而且, 如果SC-FDE技术在频域均衡后与时域判决反馈均衡相结合, 可以增强系统抗多径干扰的能力。
无线通信技术更加需要卫星通信业务与地面通信相互补充。尤其对于很多发展中国家来说, 采用3G技术的卫星通信系统可大大的提高覆盖面积, 对为偏远地区提供远程服务及高速接入等多媒体业务有着更为普遍的意义。卫星通信产业与3G/4G技术相互融合将成为卫星通信发展的必然趋势。而如何在现有的卫星系统中, 更加合理有效的采用3G/4G的相关技术将是下一步值得研究的方向。
参考文献
[1] Tero O, Ramjee P. An overview of air interface multiple access for IMT-2000/UMTS. IEEE Communication Magazine, 1998:82—95
[2] ITU. Mobile next generation network. Evolution towards 4G. 2006 (6) :1—22
[3] Fisher D, Krinock J, Lee C C, et al.SC-FDE PHY layer system pro-posal for Sub 11GHz BWA (An OFDM Compatible Solution) .Pres-entation IEEE 802.16.3c-01/32, Mar, 2001
[4] Gusmao A, Torres P, Dinis R, et al.A turbo FDE technique for re-duced-CP SC-based block transmission systems.IEEE Transactions onCommunication, 2007;55 (1) :16—20
网络处理器负载均衡 篇4
关键词:网络处理器,负载均衡,流保序,哈希
1 引言
当前, 网络处理器因为同时具有GPP的灵活性和ASIC的执行效率, 可用于多种网络协议处理环境中并支持多种服务类型, 因而得到了广泛应用。目前高性能网络处理器在单芯片中嵌入多个处理单元 (Processor Element, PE) , 多个PE通常组织成并行结构。因此网络处理器的负载均衡问题也成为路由器性能提高的关键因素之一。
2 网络处理器负载均衡的特点及性能度量标准
2.1 特点
由于网络处理器的处理单元采用并行组织结构, 因此网络处理器中必须有一个报文调度器 (packet dispatcher) 来进行极其重要的报文分配。本文着重讨论报文分配机制, 并假定进入输出队列的报文都能无阻塞的被调度到交互网络。
根据网络的传输特性, 适合网络负载均衡的报文分配策略应该满足以下几个基本要求:
低开销、高效率、流保序。
2.2 性能度量标准
(1) 负载分配。从负载均衡的观点来看, 最重要的性能标准就是在多输出链路之间以时间为单位进行的字节分布。一个理想的系统, 负载应该按输出链路的速率比例进行分配。
(2) 队列长度。队列长度标准重视负载分布的差异, 在一个负载较轻的时间段的实际影响远远小于在一个负载较重的时间段的实际影响。一个好的报文分配算法可能不需要在任何时间都有完美的负载分配, 但是它应该能保持队列小且均衡。
(3) 非节约工作状态空闲时间。空闲时间能捕获非节约工作系统的倾斜度:空闲时间标准越长, 系统偏离节约工作越远, 负载均衡的效率也越低。
3 基于哈希的负载均衡方法
哈希已经被广泛地应用于索引和搜索中, 把哈希用于网络负载均衡也是大势所趋。
3.1 直接哈希
直接哈希是负载分配的简单形式。报文分配器将一个哈希函数应用于五元组的一组域, 并用哈希的结果选择输出链路。它执行起来非常简单不需要维持额外的状态。
3.1.1 目的地址哈希
最简单的是以输出链路数N为模对IP目的地址哈希, 用公式表示为:
在这个公式中, 如果N=2k, 那么我们就可以用目的地址的最后k位作为输出链路的索引。这种哈希函数已经被应用于路由器中。
3.1.2 目的地址折叠XOR哈希
折叠XOR已经被应用于许多哈希函数, 并且在其他的应用中已经表明能提供很好的性能, 用公式表示为:
Di代表目的地址的第i个八位字节。选择链路时这个方法利用了更多的IP地址位数
3.1.3 源和目的地址折叠XOR哈希。
这是对前面一种哈希函数的简单修改, 在计算中包括了源地址, 也就是说, XOR对源IP地址和目的IP地址都进行折叠运算。用公式表示为:
Si、Di分别代表源IP地址和目的IP地址的第i个八位字节。
3.1.4 网络校验和
在RFC791中提出的网络校验和算法计算相对简单, 是一个好的哈希函数。通常把五元组作为16位网络校验和计算的输入种子, 输出链路的索引从校验和的结果模N得出。用公式表示为:
i=CheckSum (5-tuple即五元组) mod N
3.1.5 CRC16
16位CRC (循环冗余校验和) 算法已经被作为负载均衡的可能方案提出, 虽然比上面提出的哈希函数复杂一些, CRC16已经在高速系统中被成功实现。在CRC16方案中, 流量分配器对五元组作用CRC16, 然后模N得到输出链路。用公式表示为:
3.1.6 HRW (highest random weight)
最高随机权重算法, 其分配策略是:由固定的函数根据负载请求对象的标识信息和每个处理器的编号, 计算当前负载映射到每个处理器的权重, 并对映射结果进行比较, 将当前负载请求分配给权重最大的处理器。用公式表示为:
权重计算算法可描述为:
3.2 基于表的哈希
直接哈希只能够把流量分成相等的数目分配给多输出路径。然而, 流量负载并不总是想要平均分配。基于表的哈希方法能够既流出流量分配的结果又流出负载配置状况。
基于表的哈希方法首先把流量分配成M个单元, 这M个单元根据分配表映射到N个输出链路, 如图1所示。改变M个单元到输出链路的分配, 一个可以按预先定义的比率分配, 一个可以通过调整分配表来协调流量分配性能。M与N的比率决定了调整的粒度。通常, M比N大1或2倍的数量级, 因此, 能够以一个相当好的粒度分配负载。注意当M=N时是一一对应的映射, 这时基于表的哈希变成了直接哈希。
有两种方法执行基于表的哈希。一种方法是设置N-1个极限, 极限用于把M个单元划分成N个部分。当一个报文到达时, 流量分配器计算哈希, 并将哈希的结果与N-1个极限相比较来确定输出链路, 如图3所示。例如, 我们想分配负载到比率2:1的两条链路上, 我们能简单的设置极限为M/3, 对每个到达的报文我们计算哈希值并与极限比较, 如果哈希值比M/3大, 报文被送给第一个链路, 否则, 报文被送给第二个链路。
另一种比较灵活的方法是将输出链路的索引与M个单元结合, 如图3所示。这种基于索引的方法比基于极限的方法需要更多的存储空间 (M个索引对N-1个极限) 。另一方面, 用基于索引的方法把哈希值映射给输出链路比较简单, 它能够对表进行直接查询, 而基于极限的方法则要将哈希值与N-1个极限进行比较。
既然M个单元中的每一个都能独立的被指派给N个输出链路, 基于索引的方法更加灵活。当负载分配被调整或有新的链路增加或关闭的时候, 对现有流量的调整将最小;相反, 基于极限的方法将引起极大数目的流改变他们的输出链路。例如, 假设有一个新的链路增加到现有的两条负载均衡的链路上, 如果链路平均分配流量, 1/2的流量将被重新分配给不同的输出链路, 而基于索引的方法仅仅1/3的流受到影响。输出链路重分配将潜在地引起被影响流的巨大瞬时报文重定序。
5 结束语
关于网络处理器负载均衡问题的进一步研究方向主要包括以下几个方面:
(1) 并行处理与流水作业的结合。
(2) 对报文进行分类处理。
(3) 保持负载均衡与开销的平衡。
总之, 网络处理器的负载均衡问题对网络处理器的性能提高有着至关重要的意义, 我们将对这一课题进行更加深入的研究。
参考文献
[1]L.Kencl, J.Le Boudec, Adaptive load sharing for network processors, 2002 IEEE INFOCOM, New York, NY, USA, June 2002:545-554.
[2]W.Shi, M.H.MacGregor, P.Gburzynski, Effects of a hash-based scheduler on cache performance in a parallel forwarding system, Communication Networks and Distributed Systems Modeling and SimulationConference (CNDS 2003) , Orlando, FL, USA, January 2003:130-138.
[3]G.Dittmann, A.Herkersdorf, Network processor load balancing forhigh-speed links, 2002 International Symposium on Performance Evaluation of Computer and Telecommunication Systems (SPECTS 2002) , SanDiego, CA, USA, July 2002:727-735.
[4]E.Blanton, M.Allman, On making TCP more robust to packet reordering.ACM Computer Communication Review, January 2002, vol.32, 1:20-30.
[5]L.Kencl, Load Sharing for Multiprocessor Network Nodes.Ph.D.thesis, Swiss Federal Institute of Technology (EPFL) , January 2003.
[6]K.W.Ross, Hash routing for collections of shared Web caches, IEEE Networ., Nov-Dec 1997 vol.11, no.7:.37-44.
[7]R.Jain, A comparison of hashing schemes for address lookup incomputer networks.IEEE Transactions on Communications.October 1992vol.40, no.3:1570-1573.