四种负载均衡技术(精选9篇)
四种负载均衡技术 篇1
当前,无论在企业网、园区网还是在广域网如Internet上,业务量的发展都超出了过去最乐观的估计,新的应用层出不穷,即使按照当时最优配置建设的网络,也很快会感到吃不消,比如电子商务网站,服务器计算负荷会很大;对于读写频繁的应用,比如网络数据库,存储系统面临考验;传输量大的应用,比如视频服务,数据总是堵在网络接口上;访问量大的应用,路由器与防火墙易成瓶颈。想要消除这些瓶颈,升级设备、改变拓扑是“笨办法”,相对取巧一些的,就是采用负载均衡策略,用多个设备共同完成任务。
负载均衡实现的几种方法有:
■基于DNS的负载均衡,它是通过DNS服务中的随机名字解析来实现的,但不能够按照Web服务器的处理能力分配负载,无法完全解决现在网络中面临的问题:如单点故障问题,服务器资源不够用问题等。
■如果是基于IIS,Windows 2003 Server本身就带了负载均衡服务,但这一服务也只是轮流分配,可能会造成额外的网络问题。
■软件方式,通过一台负载均衡服务器进行,上面安装软件。这种方式比较灵活,成本相对也较低。但是软件负载均衡解决方案缺点比较多,因为每台服务器上安装额外的软件运行会消耗系统不定量的资源,越是功能强大的模块,消耗得越多,所以当连接请求特别大的时候,软件本身会成为服务器工作成败的一个关键;软件可扩展性并不是很好,受到操作系统的限制。
■硬件方式,通过专门的负载均衡设备实现。直接在服务器和外部网络间安装负载均衡设备,这种设备我们通常称之为负载均衡器,对于流量的分配可以有多种策略,但基本上都是应用无关的,独立于操作系统。这种方式往往适合大流量、简单应用。
一般而言,硬件负载均衡在功能、性能上优于软件方式。因为它能有效地解决数据流量过大、网络负荷过重的问题。硬件方式更适用于大量设备、大访问量、简单应用。
由上图所示,通过应用负载均衡机,使应用服务超过了一台服务器只能为有限用户提供服务的限制,可以利用多台服务器同时为大量用户提供服务,
当某台服务器出现故障时,负载均衡服务器会自动进行检测并停止将服务请求分发至该服务器,而由其他工作正常的服务器继续提供服务,从而保证了服务的可靠性。由于专门的设备完成专门的任务,独立于操作系统,整体性能得到大量提高,加上多样化的负载均衡策略,智能化的流量管理,可达到最佳的负载均衡需求。
根据图中所示高并发连接数的要求,选用梭子鱼负载均衡机340型号的路由模式进行安装,并采用2台梭子鱼340型号的负载均衡机进行堆叠部署,两台梭子鱼负载均衡机互为备份,并采用“心跳”技术实时监控伙伴设备是否实时可用,以提供秒级的故障切换,从而在负载均衡的同时,最大程度地提高web服务系统的高可用性和可靠性。
梭子鱼负载均衡机结合快速稳定的4层负载均衡解决方案,配置千兆网口和内置IPS功能,提供:
- TCP / UDP服务负载均衡
- IP保持或者不间断服务
- 服务失败自动恢复服务器机制
- 所有负载均衡服务均加载负载入侵检测功能
- 通过web界面操作,无比方便
- 兼具速度、可信度和良好的支持
- 最低端的型号都能够支持100个后端服务器
- 不按照许可证点数收费
- 开放的API支持,对ISP特别有价值
除了强大的负载均衡功能之外,梭子鱼负载均衡机还内置入侵检测(IPS)系统。即使有人已经设法突破了现有的安全防护设施,梭子鱼内嵌IPS功能也可以防止客户的价值不菲的服务器遭受系统漏洞的攻击。梭子鱼负载均衡最好的性能是能够在短短几分钟内完成安装并运行,不需要花费昂贵的实施顾问费用。
★ 例题解析Web服务负载均衡WEB服务器
★ DNS负载均衡原理和设置实操讲解
★ 均衡造句参考
★ 均衡发展标语
★ 义务教育均衡发展检查材料
★ 均衡发展检查汇报材料
★ 教育均衡促发展发言稿
★ 义务教育均衡发展标语
★ 均衡饮食的英语
★ 中学均衡档案建设工作汇报
四种负载均衡技术 篇2
关键词:WMN,自适应,负载均衡,负载均衡算法
1 WMN负载均衡的设计背景与发展趋势
1.1 WMN负载均衡的设计背景
近年来随着无线宽带技术的迅速发展, 无线通信技术被越来越广泛地使用, 无线通信节点迅速增加, 在这种高业务量环境下, 如果网络中某个节点发生拥塞, 成为整个网络的瓶颈节点时, 人们就希望数据包能顺利地“绕过”该节点, 平稳地到达目的节点;同时还希望提高网络资源利用率, 避免出现一部分资源被过度利用, 而另一部分资源却闲置在一边造成资源浪费, 从而达到整个网络的负载均衡, 正是在这种需求下, 负载均衡受到越来越多地关注。
而WMN主要应用于无线宽带接入和大容量数据传输, 侧重于提高整个网络的高吞吐量, 因此很容易出现单节点拥塞现象, 如何提高网络传输容量自然就成为WMN主要的设计目标。
1.2 负载均衡发展趋势
目前WMN组网协议设计的基本思路是:根据WMN的结构特性, 硬件上利用新的无线电技术, 提高频谱空间复用和多信道技术;算法上在参考 (Mobile Ad hoc Network, MANET) 相关协议的同时, 依据现有的有线网络均衡思想, 再根据WMN的特点优化负载均衡算法, 同时还要考虑网络拓扑结构的变化、上层业务数据的速率变化以及节点能量的变化等多个方面因素。
2 现有的负载均衡策略
为了实现无线mesh网的负载均衡, 目前通常采用的策略是:提高硬件技术和改进算法。
2.1 硬件技术对负载均衡的支持
无线mesh网的传输, 采用的是多跳技术, 节点与节点间数据传输不可避免的会出现同频干扰现象。为提高频带利用率, 硬件上采用新的物理层无线电技术, 如:定向智能天线、自适应调制编码、 (Multiple Input Multiple Output, MIMO) (多输入/多输出) 技术、可重配置无线电、感知无线电、软件无线电技术以及多信道系统功率智能控制等技术, 降低节点间同频干扰, 提高了空间频率复用和网络容量, 且降低了整体信号功率。
WMN的优势在于:在不牺牲信道容量的情况下, 在一些AP (Access Point) 信号覆盖不到、信号很弱或者根本不具有直接视距无线链路的用户之间, 通过移动终端多跳转发, 建立非视距连接, 这样可以有效提高信号覆盖, 扩展网络范围。在此架构下, 无线链路间距更短、发射功率更小, 节点间干扰更少, 因此频率复用效率更高。并且距离较近的终端节点可以直接通信, 而无需占用AP的资源, 减少网络整体的负担, 提高网络的总容量。
早期的功率控制研究大多是基于图论的拓扑控制模型。如果两个节点之间的距离是在无线传输范围内, 则两个节点就是邻居节点, 就可以建立一条边。而传输范围取决于信号功率、路径距离、以及接收灵敏度等因素, 因此要在保持连通性的前提下尽量减少节点的度数, 而度数的减少也就意味着节点间的干扰也小了;而最近的研究表明, 基于图论的拓扑控制模型并不能完全刻画节点间的互相干扰问题, 转而采用基于SINR (Signal to Interference plus Noise Ratio) 信号与干扰和噪声比来进行功率控制, 通过感知周边节点的拓扑结构, 采用自适应算法智能控制单节点信号发射功率, 动态调整载波侦听门限值, 从而提高空间复用度。但是降低节点信号功率的同时也可能带来一些问题:比如可能造成数据包传输率的下降, 此外由于信号覆盖面降低, 传输的跳数会增多, 造成时延增大, 还会导致AP邻近节点负载过重的问题, 这些都是今后研究中需要解决的课题。
2.2 基本的网络负载均衡算法
现有的负载均衡算法继承了有线网络的思想, 主要包括以下几种:
(1) 轮转法。
在节点信号覆盖区内的所有节点都具有同等地位, 对这些节点采用顺序选择, 将收到的数据包轮流发送给下一跳节点。因此可以很容易算出, 每个节点被选中概率是1/N。
(2) 散列法。
通过单映射不可逆HASH函数, 以事先定义的规则的映射方式, 将数据包发往下一跳。在该算法中, 如何选择HASH函数, 对预防碰撞影响很大。
(3) 最少连接法。
纪录当前所有活跃节点, 将数据包发给目前具有最少连接数的偏僻节点。
(4) 最短时延法。
记录节点到下一跳节点的时延, 将数据包分配给时延最短的节点。
(5) 权重轮循法。
根据数据包的优先级或者当前的负载状况来建立负载平衡多优先级队列, 每个队列中的每个等待发送的数据包都具有相同处理等级;在同一个队列里的数据包可以按照前面的轮转法或者最少连接法进行均衡, 而队列之间按照优先级的先后顺序进行均衡处理。在这里权重值是基于每个节点传输能力的一个估计。该算法可以看作是对其它算法的一个补充, 一般不单独使用。
(6) 权重随机法。
此种均衡算法类似于加权法, 不过在传输数据包时是个随机选择的过程。
(7) 随机法。
节点队列里的数据包随机传输给邻居内的多个节点。
(8) 动态反馈法。
根据结点的实时负载情况, 不断调整节点间数据包的传输比例来避免个别结点超载时, 依然收到大量数据包, 造成丢包, 从而提高系统整体吞吐率。
2.3 基于无线mesh网的负载均衡算法
2.3.1 预设参数机制
此类算法会预先设定好用于计算负载的相关参数和权系数, 当负载超过预先设定的阈值就执行事先定义的均衡操作, 但是由于是参数是预先设定的, 如参数设置不当, 有可能导致系统性能严重下降, 而参数的设置既是关键点, 也是难点。目前已经有人提出具有负载感知的自适应算法, 通过不断更新负载信息实现自主学习, 并且自动进行参数的最优化, 使网络负载逐步实现均衡。例如:LWR (Load Aware Routing) 算法在网络负载较重时, 中继节点收到源节点发送来的RREQ (Route Request) 时就直接丢弃。这种丢包策略对减少无效数据包的转发, 降低负载具有十分重要的作用。但是该算法只有在收集到足够的负载信息的条件下才能做丢包决策, 否则, 可能会使后续节点无法及时了解网络状态, 导致网络出现“隐藏节点”和“伪断裂”现象。LSR (Load Sensitive on Demand Routing) 算法则通过路由比较函数所得出的权值来选定一条最佳的路由。
2.3.2 基于负载感知机制
负载均衡是一个动态过程, 因此有学者提出了基于流的负载感知路由协议:链路上每个节点都参与负载信息的更新过程。由于路由发现需要进行泛洪, 路由更新需要负载参数传递。泛洪可以获得精确的网络信息, 但要消耗大量的网络资源, 负载参数的频繁传递会使整个网络充斥着大量的控制包, 造成网络资源利用率降低。因此根据路由选择和维护发起点又分为源节点感知、中继节点感知和目的节点感知路由选择。
(1) 源节点感知路由选择。
这类算法采用源节点发起路由选择和路由维护, 中继节点感知网络状态并把负载信息发送给源节点。
AMR (Aggregated Multipath Routing) , 采用请求/响应机制的按需路由算法, 源节点采用类似于DSR (Dynamic Source Routing) 泛洪方式来获取网络状态信息并建立多路径拓扑结构。当网络出现拥塞或者失效时, 源节点通过修改路由, 来避开该链路。该算法由于采用网络图来保留路由状态信息, 复杂度是O (n2) , 因此存储复杂度偏大, 而且路由请求中存有大量冗余信息, 过长的等待期以及路径计算复杂度大都是需要解决的问题。
MSR (Multi Path Source Routing) , 基于启发的、利用加权轮询多路径调度机制实现负载均衡。类似DSDV (Destination-Sequenced Distance Vector) , MSR也是通过源节点沿多条路径周期性发送探测包, 根据反馈信息计算各路径延时并求出权值, 再把负载依据权值, 分配给多条路由。
DLAR (Dynamic Load Aware Routing) , 该算法避免采用MSR周期发送探测包的方式, 改由中继节点, 周期性地将自身缓存中数据包的数目作为负载信息发给邻居节点, 后续节点据此参数来监测负载状态。如果出现拥塞现象, 目的节点通过广播发送请求数据包 (RREQ) 至源节点, 寻找替代路由。为了减少广播次数, 后续的算法中出现了, 由目的节点或者拥塞节点后的中继节点来进行路由维护和选择。
(2) 中继节点及目的节点感知路由选择。
采用中继或目的节点进行备用路由的选择和维护, 比采用源节点选择路由具有更好的灵活性和更高的可靠性。
LBAR (Load Balanced Ad Hoc Routing) , 从源节点到目的节点链路上的结点参数都会周期性的传送到目的节点。当链路发生拥塞或者主路径失效后, 目的节点根据收集的所有可能路径的相关信息选出最佳路径作为备用路由。作为ABR (Associativity Based Routing) 的改进协议, LBAR更能准确细致的反应网络的环境特性。
DLLMR (Dynamic Load-aware Based Load-balanced Routing) , 一种基于DSR的改进算法。源节点利用多条路由, 搜索剩余负载容量的节点来进行路由选择和负载均衡。目的节点向源节点发送RREP (Route Reply) 时, 中继节点根据分组中的负载信息更新自己的路由表, 同时广播寻找更好的路径。
LLDR (Least Loaded Dynamic Routing Protocol) , 由源节点来建立传输路径, 而路由维护由目的节点来完成, 中继节点不发送探测包, 而是采用DF (Dynamic Fragmentation) 机制:在分组中周期性捎带负载信息, 使后续节点能及时了解链路上的负载状况。当负载超过门限, 目的节点会重新选择一条路由
2.3.3硬件与算法相结合的负载均衡机制
采用软件与硬件相结合的方式, 通过自适应技术对负载进行实时监测与控制, 实现信号发射功率与传输性能的最优化, 由于充分利用了无线mesh网的结构特性, 使得这种思想具有重要的现实意义。
MRPLB (Multi Path Routing with Load Balancing) , 一种利用报文粒度的流量分布方法和负载均衡机制共同作用来实现拥塞避免。该算法需要硬件支持来实现对信号发射功率的实时监测, 利用智能控制技术把信号发射功率降低到一个合理的水平, 使节点间干扰更少, 频率复用率更高。
3结束语
本文首先介绍了通过硬件合理控制信号发射功率来降低节点间同频干扰, 提高频带复用率来均衡网络资源;然后分析和比较了当前提出的几种负载均衡路由技术各自的优缺点。通过分析, 笔者认为:目前路由选择机制, 已开始由单纯的源节点路由选择向多节点共同参与路由选择, 这样不但提高了灵活性而且增强了网络的健壮性;此外均衡算法也陆续开始向软、硬件相结合以及智能化方向发展, 由于自适应算法具有自主优化系统参数、自我学习能力、高度的灵活性和对网络负载的敏感性的特点, 都将成为未来无线mesh网络的重点研究方向之一。
参考文献
[1]方旭明.下一代无线因特网技术:无线Mesh网络[M].北京:人民邮电出版社, 2006.
[2]M.JOA-NG, I.U, A peer-to-peer zone-based two-level ink stateroutingfor Mobile ad hoc networks[J].IEEE Journal on SelectedAreas in Communications, special Issue on Wireless Ad hoc Net-works, 1999 (8) .
[3]王彬.无线局域网中的负载均衡技术[J].中兴通讯技术, 2006 (06) .
负载均衡技术实现方法分析 篇3
关键词:负载均衡 链路聚合 均衡策略
TP393.09
Internet的规模每一百天就会增长一倍,客户都希望能够获得不间断可用性及较快的系统反应时间,但是随着网络的业务量的提高、信息量的加重,单一设备根本无法承担。在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费。于是,负载均衡机制应运而生。
负载均衡(Load Balance)建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
根据OSI参考模型,一个网络可以分为七个层面。我们从不同的层面着手,解决负载均衡的方法也就各异。在一般情况下,普遍都是通过传输链路聚合技术、借助更高层网络交换技术和设置服务器集群策略等几个角度来实现。
1.数据链路层均衡技术
传输链路的备份是提高网络系统可用性的重要方法。目前的技术中,以生成树协议(STP)和链路聚合(Link Aggregation)技术应用最为广泛。
1)生成树技术
生成树协议(Spanning Tree)提供了链路间的冗余方案,允许交换机间存在多条链路作为主链路的备份。网络创建时,网络的所有节点间可以存在多条路径,生成树算法计算出最佳路径,在网络中定义了一个树,并且强制其他的路径处于备用状态。
当发现生成树中一部分网络不可达,或发生了某种变化时,生成树算法就会重新计算生成树拓扑,并且通过启动备份路径来重新建立连接。生成树技术要防止局域网中产生环路,因为环路会使网络发生故障。原始生成树协议 IEEE 802.1D通常在50秒内就可以恢复一个链接故障[融合时间=(2xForward_Delay)+Max_Age]。当设计此协议时,这种停机还是可接受的,但是当前的关键任务应用(如语音和视频)却要求更快速的网络融合。为此,IEEE委员会开发了新标准,在IEEE 802.1w中定义的快速生成树协议(RSTP)以减少停机的时间。
2)链路聚合技术
链路聚合技术亦称主干技术(Trunking)或捆绑技术(Bonding),其实质是将两台设备间的数条物理链路“组合”成逻辑上的一条数据通路,称为一条聚合链路,链路聚合成员彼此互为冗余和动态备份。实现的目标是提高链路可用性、线性增加带宽、分担负载、实现自动配置、快速收敛、保证传输质量、对上层用户透明、向下兼容等等。交换机之间多条物理链路组成一条聚合链路。该链路在逻辑上是一个整体,内部的组成和传输数据的细节对上层服务是透明的。
2.高层负载均衡技术技术
高层负载均衡技术通常操作于网络的第四层或第七层。第四层负载均衡将一个Internet上合法注册的IP地址映射为多个内部服务器的IP地址,對每次TCP连接请求动态使用其中一个内部IP地址,达到负载均衡的目的。第七层负载均衡控制应用层服务的内容,提供了一种对访问流量的高层控制方式,适合对HTTP服务器群的应用。
1)DNS负载均衡
DNS负载均衡技术是在DNS服务器中为同一个主机名配置多个IP地址,在应答DNS查询时,DNS服务器对每个查询将以DNS文件中主机记录的IP地址按顺序返回不同的解析结果,将客户端的访问引导到不同的机器上去,使得不同的客户端访问不同的服务器,从而达到负载均衡的目的。
在win2000 server下实现DNS负载均衡的过程是:
在DNS服务配置控制台中打开相应DNS 服务器的“属性”,在“高级”选项卡的“服务器选项”中,选中“启用循环”复选框。
打开正向搜索区域的相应区域(如test.com),新建主机添加主机 (A) 资源记录,记录如下:
www IN A 192.1.1.1
www IN A 192.1.1.2
www IN A 192.1.1.3
可以看到的区别是在NT下一个主机名“www”对应多个IP地址记录。
2)NAT负载均衡
NAT(网络地址转换Network Address Translation)简单地说就是将一个IP地址转换为另一个IP地址,一般用于未经注册的内部地址与合法的、已获注册的Internet IP地址间进行转换。
NAT负载均衡将一个外部IP地址映射为多个内部IP地址,对每次连接请求动态地转换为一个内部服务器的地址,将外部连接请求引到转换得到地址的那个服务器上,从而达到负载均衡的目的。
3)反向代理负载均衡
普通代理方式是代理内部网络用户访问internet上服务器的连接请求,客户端必须指定代理服务器,并将本来要直接发送到internet上服务器的连接请求发送给代理服务器处理。反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。
反向代理负载均衡技术是把将来自internet上的连接请求以反向代理的方式动态地转发给内部网络上的多台服务器进行处理,从而达到负载均衡的目的。
参考书目:
1.华为3COM技术有限公司,华为3COM网络学院教材,2004年12月,P255-259,P273-280
2.丁宇,中文Windows server 2003网络管理与网站构建,冶金工业出版社,2005年2月,P150-210
负载均衡・什么是负载均衡 篇4
负载均衡(Load Balance)
由于目前现有网络的各个核心部分随着业务量的提高,访问量和数据流量的快速增长,其处理能力和计算强度也相应地增大,使得单一的服务器设备根本无法承担。在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升时,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量增长的需求。
针对此情况而衍生出来的一种廉价有效透明的方法以扩展现有网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的.灵活性和可用性的技术就是负载均衡(Load Balance)。
负载均衡技术主要应用
1、DNS负载均衡 最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。
2、代理服务器负载均衡 使用代理服务器,可以将请求转发给内部的服务器,使用这种加速模式显然可以提升静态网页的访问速度。然而,也可以考虑这样一种技术,使用代理服务器将请求均匀转发给多台服务器,从而达到负载均衡的目的。
3、地址转换网关负载均衡 支持负载均衡的地址转换网关,可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。
4、协议内部支持负载均衡 除了这三种负载均衡方式之外,有的协议内部支持与负载均衡相关的功能,例如HTTP协议中的重定向能力等,HTTP运行于TCP连接的最高层。
5、NAT负载均衡 NAT(Network Address Translation 网络地址转换)简单地说就是将一个IP地址转换为另一个IP地址,一般用于未经注册的内部地址与合法的、已获注册的Internet IP地址间进行转换。适用于解决Internet IP地址紧张、不想让网络外部知道内部网络结构等的场合下。
6、反向代理负载均衡 普通代理方式是代理内部网络用户访问internet上服务器的连接请求,客户端必须指定代理服务器,并将本来要直接发送到internet上服务器的连接请求发送给代理服务器处理。反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。反向代理负载均衡技术是把将来自internet上的连接请求以反向代理的方式动态地转发给内部网络上的多台服务器进行处理,从而达到负载均衡的目的。
网络负载均衡的主控内容 篇5
挂起或继续网络负载均衡
您可能需要挂起和继续网络负载均衡(NLB)以覆盖发出的任何远程控制命令。将忽略除resume和query之外的所有后续群集控制命令。可以在整个NLB群集上或在单个主机上执行以下步骤。
暂停或继续网络负载均衡
◆使用Windows界面
◆使用命令提示符窗口
使用Windows界面挂起或继续网络负载均衡的步骤
1.若要打开NLB管理器,请依次单击”开始“、”管理工具“和”网络负载均衡管理器“。还可以通过在命令提示符下键入Nlbmgr来打开NLB管理器。
2.如果NLB管理器尚未列出群集,请连接群集。
3.如果您希望暂停所有群集主机上的群集操作,请右键单击群集,指向”控制主机“,然后单击”挂起“。
如果您希望只暂停特定主机上的群集服务,请右键单击该主机,指向”控制主机“,然后单击”挂起“。
4.如果您希望继续所有群集主机上的群集操作,请右键单击群集,指向”控制主机“,然后单击”继续“,
如果您希望只启动特定主机上的群集服务,请右键单击该主机,指向”控制主机“,然后单击”继续“。
注意事项
◆使用网络负载均衡管理器(NLB)时,您必须是正在配置的主机上的Administrators组的成员,或者您必须被委派了适当的权限。如果您通过从不属于群集的计算机运行NLB管理器来配置群集或主机,则您不必是该计算机Administrator组的成员。
◆暂停NLB与停止处理NLB群集通讯不同,原因是暂停NLB不仅会停止主机上的NLB,而且还会暂停主机上的所有NLB群集控制命令(resume和query命令除外)。停止处理NLB群集通讯会停止主机上的NLB,但不影响其他NLB群集控制命令。
使用命令提示符窗口挂起或继续网络负载均衡的步骤
1.若要打开命令提示符窗口,请单击”开始“,右键单击”命令提示符“,然后单击”以管理员身份运行“或”打开"。
2.键入以下命令之一:
◆若要挂起该主机上的NLB,请键入:
nlb.exesuspend
或者,如果希望挂起所有群集主机上的群集操作,请键入:
nlb.exesuspendglobal
◆若要继续该主机上的NLB,请键入:
nlb.exeresume
或者,如果希望继续所有群集主机上的群集操作,请键入:
多方思考流量负载均衡的方针 篇6
常规负载均衡办法受阻
大家都知道,要解决网站大流量压力的问题,就是通过流量负载均衡的办法来解决,当然,鞋仓网的工程师也想到了这一点。
于是,他们展开以下的行动:
一方面,鞋仓网设立了两个机房数据中心:吴江机房、苏州双线机房。通过两个数据中心来分担数据访问压力,在两个机房之间,通过软件配置的DNS负载均衡来解决两者的工作协同问题。
另一方面,鞋仓网为了加速网站的访问速度,采用了Cache技术。鞋仓网另外购买了多台服务器,并且通过Squid Cache这种开源技术,将这几台服务器配置成机房数据中心的Squid Cache服务器,从而加速网络访问速度。
当此方案实施后,起了一定的效果。但没过多久,网络访问速度依然很慢。这是什么原因呢?
据Array Networks市场总监陈凯介绍到:鞋仓网之所以出现这样的问题,主要是因为一般的软件做流量负载均衡并不能解决真正的大流量压力问题。
软DNS负载均衡无力
其中,DNS负载均衡由于是软件编写的DNS,无法保证网站机房的高可用性:由于DNS无法实现对IDC站点和应用内容的健康检查,所以当某个IDC的链路或IDC内的应用出现故障时,DNS软件无法得知IDC的状况,仍然会把用户请求发送到该IDC去,从而导致部分用户出现访问不到页面的状况。如此,鞋仓网就无法真正实现吴江机房、苏州双线机房两个机房的广域网负载均衡。
Squid Cache服务器效果不佳
另外,当使用Squid服务器做Cache服务时,每台服务器缓存的内容都是一样的,这样就造成了缓存的浪费,不利于提高服务器的使用效率。如果能够根据用户的访问,在每台服务器上分别缓存不同的内容,则可缓存的内容数量就会大大增加,同时使用N+1或N+M的方式来进行容灾,会大大提高工作效率,同时也能极大提高业务应用的可靠性。
硬件专业负载均衡才是良药?
在常规负载均衡解决不的情况下,鞋仓网只好求助于专业的负载均衡设备供应商,
在这种情况下,Array Networks向鞋仓网提供了综合的流量负载均衡解决方案
鞋仓网采用Array NetworksTMX产品完成对内部系统的应用加速和高可靠性保障,通过Array NetworksTMX的服务器负载均衡功能实现对后台21台搜索服务器的负载均衡;通过应用Array NetworksTMX产品中丰富的SLB算法、连接复用技术和Cache功能能够帮助用户提高响应速度和高可用性。
Array Networks为鞋仓网提供的广域网WEB应用加速服务器负载解决方案,一共采用两台TMX配置,确保服务的高可用性。
TMX根据负载情况决定将流量分担到哪一台服务器,保障每个用户的请求都能获得最优的响应质量。如果任何一台服务器出现故障时,ArrayTMX的智能健康检测机制都可以随时了解到相关状况,在处理后续的流量时,将不会再向有故障的服务器发送用户请求,这一切对用户都是透明的,用户不会因此受到任何影响。
四大网站流量问题被解决
鞋仓网通过部署Array NetworksTMX负载均衡解决方案之后,一下解决了其原有的各种问题,总结起来,主要表现为以下几个方面:
1、实现了吴江机房、苏州双线机房有效负载均衡
通过TMX的GSLB广域网负载均衡功能和高性能,对客户请求快速响应并合理分配到苏州和吴江两个站点进行响应。
2、本地服务器群的负载均衡
TMX的SLB服务器负载均衡技术实现本地多台服务器流量负载均衡,TMX可以智能寻找最佳服务器从而保证客户得到响应最快服务器所提供的最佳服务,提高网站的高可靠性、响应能力。
3、Squid Cache效果不佳问题
TMX通过HaseURL算法实现将不同的内容的访问分发到不同的Squid上面,将不同的内容Cache到不同Squid服务器上面,充分利用Squid的cache能力,充分发挥每一台Squid服务器的效能,进而提高用户访问的响应速度。
4、优化了网络访问方式
浅析负载均衡技术的分类及应用 篇7
随着计算机及网络技术的快速发展和企业信息化程度的不断提高, 当前, 无论在因特网还是企业内部网上, 数据量的发展都快速超出网络建设时的预期。而负载均衡正是在网络现有结构之上, 提供了一种有效、透明、具有高可靠性的方法, 扩展了服务器、网络设备、链路的带宽, 加强了网络数据处理能力, 提高了网络的灵活性和可用性。
各类负载均衡技术
目前有多种不同的负载均衡技术可以满足不同的应用需求。从负载均衡所采用的设备对象上可分为软、硬件负载均衡;从应用的物理结构上可分为本地、全局负载均衡;从应用的网络层次上有第二层负载均衡 (链路负载均衡) 、第四-七层负载均衡。现代负载均衡设备多同时提供了多种实现负载均衡的方式, 以适应不同的应用环境, 例如本地负载均衡可以做服务器负载均衡或链路负载均衡, 全局负载均衡可以做DNS (域名服务) 负载均衡、第四-七层负载均衡等, 服务器负载均衡也同时涉及第四-七层负载均衡等。
服务器负载均衡
服务器负载均衡, 就是对一组服务器提供负载均衡业务。这一组服务器可以处于同一个局域网络内, 也可以处于不同局域网络内。这一组服务器同时对外提供一组 (或多组) 相同 (或相似) 的服务。服务器负载均衡是数据中心最常见的组网模型。
服务器负载均衡包括以下几个基本元素:
※LB (负载均衡) Device:负责分发各种服务请求到多个Server的设备。
※Server:负责响应和处理各种服务请求的服务器。
※VSIP (虚服务IP地址) :对外提供的虚拟IP, 供用户请求服务时使用。
※Server IP:服务器的IP地址, 供LB Device分发服务请求时使用。
依据转发方式, 服务器负载均衡分为NAT (网络地址转换) 方式和DR (直接路由) 方式。两种方式的处理思路相同:LB设备提供VSIP, 用户访问VSIP请求服务后, LB设备根据调度算法分发请求到各个实服务。而在具体的处理方式上有所区别:
NAT方式:LB设备分发服务请求时, 进行目的IP地址转换 (目的IP地址为实服务的IP) , 通过路由将报文转发给各个实服务。
DR方式:LB设备分发服务请求时, 不改变目的IP地址, 而将报文的目的MAC替换为实服务的MAC后直接把报文转发给实服务。
NAT方式典型组网如图1所示。
客户端将到VSIP的请求发送给服务器群前端的负载均衡设备, 负载均衡设备上的虚服务接收客户端请求, 依次根据持续性功能、调度算法, 选择真实服务器, 再通过网络地址转换, 用真实服务器地址重写请求报文的目标地址后, 将请求发送给选定的真实服务器;真实服务器的响应报文通过负载均衡设备时, 报文的源地址被还原为虚服务的VSIP, 再返回给客户, 完成整个负载调度过程。
DR方式典型组网如图2所示。
DR方式的服务器负载均衡时, 除了LB设备上配置了VSIP, 真实服务器也都配置了VSIP, 配置的VSIP要求不能响应ARP请求, 例如在环回接口上配置VSIP。实服务除了VSIP, 还需要配置一个真实IP, 用于和LB通信, LB设备和真实服务器在同一个链路域内。发送给VSIP的报文, 由LB分发给相应的真实服务器, 从真实服务器返回给客户端的报文直接通过交换机返回。
网关负载均衡
防火墙网关、VPN网关等各类网关设备, 因为业务处理的复杂性, 往往成为网络瓶颈。以防火墙网关为例:防火墙作为网络部署的“警卫”, 在网络中不可或缺, 但其往往不得不面临这样的尴尬:网络防卫越严格, 需要越仔细盘查过往的报文, 从而导致转发性能越低, 成为网络瓶颈。
在这种情况, 如果废弃现有设备去做大量的硬件升级, 必将造成资源浪费, 随着业务量的不断提升, 设备也将频繁升级。频繁升级的高成本是相当可怕的。因此将网关设备等同于服务器, 组建网关集群的方案应运而生:将多个网关设备并联到网络中, 从而形成集群, 提高网络处理能力。
※网关负载均衡包括以下几个基本元素:
※LB Device:负责分发请求发起方的网络流量到多个网关设备。LB Device又分为一级和二级。如图7所示, 如果请求发起方的网络流量方向为Host A>Host B, 则LB Device A为一级, LB Device B为二级;如果请求发起方的网络流量方向为Host B>Host A, 则LB Device B为一级, LB Device A为二级。
※网关设备:正常处理数据的网关设备, 如:SSL VPN网关, IPsec网关, 防火墙网关等。
以防火墙网关负载均衡为例, 组网应用如图3所示。
2.3服务器负载均衡和网关负载均衡融合
网关负载均衡也可以和服务器负载均衡融合使用, 以防火墙网关和服务器负载均衡综合组网为例, 具体组网如图4所示。
图4中Cluster A为防火墙负载均衡的集群, Cluster B为NAT方式服务器负载均衡的集群。综合组网的工作流程就是防火墙、服务器负载均衡流程的叠加。这样的组网方式既避免了防火墙成为网络中的瓶颈, 也提高了各种网络服务 (如HTTP、FTP) 的性能和可用性。
链路负载均衡
链路负载均衡技术主要用于多运营商出口的网络结构, 它通过动态算法, 能够在多条链路中进行负载均衡, 算法配置简单, 且具有自适应能力。链路负载均衡根据业务流量方向可以分为Outbound链路负载均衡和Inbound链路负载均衡两种情况。
1、Outbound链路负载均衡
内网和外网之间存在多条链路时, 通过Outbound链路负载均衡可以实现在多条链路上分担内网用户访问外网服务器的流量。Outbound链路负载均衡的典型组网如图5所示。
Outbound链路负载均衡包括以下几个基本元素:
※LB device:负责将内网到外网流量分发到多条物理链路的设备。
※物理链路:运营商提供的实际链路。
※VSIP:对外提供的虚服务IP, 即用户发送报文的目的网段。
Outbound链路负载均衡中VSIP为内网用户发送报文的目的网段。用户将访问VSIP的报文发送到负载均衡设备后, 负载均衡设备依次根据持续性功能、ACL策略、就近性算法、调度算法选择最佳的物理链路, 并将内网访问外网的业务流量分发到该链路。
2、Inbound链路负载均衡
内网和外网之间存在多条链路时, 通过Inbound链路负载均衡可以实现在多条链路上分担外网用户访问内网服务器的流量。Inbound链路负载均衡的典型组网如图6所示。
Inbound链路负载均衡包括以下几个基本元素:
※LB device:负责引导外网流量通过不同物理链路转发到内网, 从而实现流量在多条物理链路上分担的设备。同时, LB device还需要作为待解析域名的权威名称服务器。
※物理链路:运营商提供的实际链路。
※本地DNS服务器:负责解析外网用户发送的DNS请求、并将该请求转发给权威名称服务器——LB device的本地DNS服务器。
Inbound链路负载均衡中, 负载均衡设备作为权威名称服务器记录域名与内网服务器IP地址的映射关系。一个域名可以映射为多个IP地址, 其中每个IP地址对应一条物理链路。
外网用户通过域名方式访问内网服务器时, 本地DNS服务器将域名解析请求转发给权威名称服务器——负载均衡设备, 负载均衡设备依次根据持续性功能、ACL策略、就近性算法选择最佳的物理链路, 并将通过该链路与外网连接的接口IP地址作为DNS域名解析结果反馈给外网用户, 外网用户通过该链路访问内网服务器。
全局负载均衡
全局负载均衡是指对放置在不同的地理位置、有不同网络结构的服务器群间作负载均衡。全局负载均衡有以下的特点:
※实现地理位置无关性, 能够远距离为用户提供完全的透明服务。
※除了能避免服务器、数据中心等的单点失效, 也能避免由于ISP专线故障引起的单点失效。
※解决网络拥塞问题, 提高服务器响应速度, 服务就近提供, 达到更好的访问质量。
全局负载均衡技术可以归纳为以下几类:
※基于DNS的全局负载均衡
大多数使用负载均衡技术的应用都通过域名来访问目的主机, 在用户发出应用连接请求时, 首先必须通过DNS请求获得服务器的IP地址, 基于DNS的全局负载均衡正是在返回DNS解析结果的过程中进行智能决策, 从而给用户返回一个最佳的服务IP。
※基于应用重定向的全局负载均衡
基于应用重定向的全局负载均衡是在负载均衡设备收到用户应用请求并选择最佳服务IP后, 通过应用层协议将用户请求重定向到所选择的最佳服务IP。这种方式只适用于支持应用重定向的协议 (如HTTP、MMS) , 且性能较差。
※基于IP地址伪装 (三角传输) 的全局负载均衡
有个别负载均衡设备厂商采用这种技术来实现全局负载均衡。当用户应用请求到达一台负载均衡设备时, 这台负载均衡设备计算出对于该用户最佳的服务IP (定义在另一台同一厂商负载均衡设备上) 并将用户请求转发给该IP。第二台负载均衡设备直接将响应返回用户, 但必须将源地址修改为第一台负载均衡设备的服务IP。这种方式要求所有站点必须为同一厂家的负载均衡设备, 另外地址伪装的数据包会可能被互联网中的路由设备过滤掉。因为所有用户请求都要经过广域网三角方式传输而不是发到最佳的负载均衡设备, 用户访问效果和性能都比较差。
※基于主机路由注入的全局负载均衡
在多个站点定义相同的服务IP, 并由负载均衡设备或路由器将该IP的主机路由发送出去, 这样网络中会存在多条到达该主机地址的路由。由于路由设备总是选择最近 (Metric最小) 的路由转发数据, 用户的访问请求总是被转发到最近的负载均衡设备。这种方式要在不同站点广播相同的主机路由, 由于运营商的限制问题很难实现。另外这种方式策略非常简单, 只能根据最短路由选择, 客户无法定义灵活的选择策略。
根据上面的分析, 后面的三种方式都有很多局限性或性能较差, 而基于DNS的GSLB, 其丰富的策略、可扩展的性能、适用任何IP应用协议、不受互联网访问策略影响等优势使其成为最主流的全局负载均衡技术。
负载均衡的部署方式
负载均衡设备通常以直联和旁挂两种方式部署在网络中。
1、直联方式
直联方式, 即LB设备直接部署在网络的主干中, 服务器和客户端之间的负载均衡报文直接由LB设备进行路由。
2、旁挂模式
旁挂模式指LB设备不作为服务器和客户端之间的路由设备, 而是旁挂在路由设备上。在DR方式中, LB设备只能使用旁挂模式。
旁挂模式中, 用于中转的路由交换设备上的配置至关重要。
从客户端至服务器的流量如果要达到LB设备, 必须在路由交换设备上设置到VSIP的路由。
从服务器到客户端的流量如果不必经过LB设备, 则可以通过中转设备直接返回客户端, 如果需要返回LB, 则有几种方式:
※服务器和LB在同一个二层网络, 服务器设置其网关为LB设备。
※中转设备上配置策略路由, 将从服务器返回的流量定向到LB设备。
※LB设备在转发客户端流量时进行源NAT。
负载均衡技术的应用方式
企业园区网应用
在企业园区网络中, 为了实现对企业资源服务器的快速访问, 也需要采用负载均衡设备分担企业数据访问流量。在这种应用环境下, 可以将负载均衡设备串接在网络中, 服务器通过网络设备连接到负载均衡设备, 服务器网关指向LB。
负载均衡设备直联服务器部署模式的优点是:
※部署简单, 是负载均衡设备的经典应用模式。
※通过交换机连接负载均衡设备和服务器群, 解决LB设备端口数量限制带来的扩展性问题。
数据中心和大型门户网站应用
数据中心和大型门户网站是负载均衡设备主要的应用场景。LB设备与汇聚层交换机之间有两条链路或链路聚合组, 这两条链路 (组) 分别为L3链路和L2链路, 服务器网关指向LB设备, 对于需要负载均衡的流量, 汇聚层将VSIP的下一跳指向LB, 而LB的缺省路由指向汇聚层交换机。
旁挂部署模式的优点如下:
※数据路径清晰, 易于运行维护、故障定位;
※可以使用手工链路聚合, 链路带宽易于拓展, 并提供链路高可靠性及其链路负载均衡能力;
※LB设备旁挂, 易于LB升级和扩展。根据用户服务器扩展情况, 升级更高性能的LB设备或者增加LB设备;
※业务部署灵活, 对不需要负载均衡的流量可以旁路LB, 避免对LB增加不必要负荷;
※降低了对汇聚层交换机的要求, 有助于网络稳定运行。
容灾系统中应用
容灾备份系统是指在相隔较远的两地, 建立两套或多套功能相同的IT系统, 互相之间可以进行健康状态监视和功能切换, 当一处系统因意外 (如火灾、地震等) 停止工作时, 应用系统可以切换到另一处, 使得该系统功能可以继续正常工作。负载均衡技术可以为灾备系统的实现提供很好的灵活性、可靠性 (如图11) 。
部署方式:
每个数据中心部署一台全局负载均衡。该全局负载均衡则可以代表这个数据中心来进行地理位置判定、运营商判定、以及对其他全局负载均衡的信息进行分析和对比。
一般情况下, 全局负载均衡因为只需要进行一个域名的解析工作, 不需要与其他网络之间通讯, 所以只需要旁挂部署即可。
在单个全局负载均衡上除需要配置好自身的IP地址、默认网关之类的基础信息外, 还需要配置一个域名所对应的所有IP地址 (多个数据中心和运营商) 。并且设备与设备之间通过公网进行私有协议通讯。彼此之间对服务器的健康检查结果共享。
冗余切换:
在出现某一个数据中心出现问题了的时候, 设备间通过健康检查以及信息共享。彼此会迅速得出判断, 哪些IP地址不能再被解析出去, 从而在用户方面的访问一直是透明无影响的。
链路负载均衡的应用
路负载均衡设备通常用在多链路接入的情况, 接入两家ISP运营商的链路为普通的静态路由链路, 可通过一台或两台专用的链路负载均衡设备来实现多条链路的智能选择 (如图12) 。
部署方式:
※将入侵检测与防御设备 (IPS) 放置在整个互联网出口的最前端, 抵挡来自互联网的各种DOS/DDOS等入侵和拒绝服务攻击。
※将两条互联网线路通过两台接入交换机分别分出的两条链路串接到两台多链路负载均衡器上, 并将广域网负载均衡器 (GTM) 旁挂到两台接入交换机上 (广域网负载均衡器在这种模式下需要有两条线路及两家ISP的公网IP地址) 。
考虑到防火墙为单台, 并一般不具备多出口与多线路选择功能, 因此在两台多链路负载均衡器后端, 可使用一台2层交换机来作为汇聚使用, 出口主备多链路负载均衡器连接内网的线路先接入到这台2层交换机上。而此时, 整个系统的NAT (网络地址转换) 工作则由位于出口的多链路负载均衡器来承担, 防火墙采取路由模式, 只做访问策略控制。
方案特点:
※部署维护简单
由于多链路负载均衡技术已经较为成熟, 并且使用普遍, 相对BGP路由器的方式来说部署和维护都较为简单。
※建设成本较低
相对于BGP网络出口建设来说, 建设成本较低
结束语
负载均衡新机会 篇8
你是否觉得网络负载均衡,跟你没有关系呢?
今天,每当你打一次手机,上主要门户网站看一次新闻,进行一次网上银行交易,你的访问信息就会经过负载均衡设备,它在后台保证了巨量的网络应用访问。负载均衡,英文名称为Load Balance,其意思就是将负载(工作任务)进行平衡、分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务。它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。需要说明的是:负载均衡设备不是基础网络设备,而是一种性能优化设备。对于网络应用而言,并不是一开始就需要负载均衡,当网络应用的访问量不断增长,单个处理单元无法满足负载需求时,网络应用流量将要出现瓶颈时,负载均衡才会起到作用。
近几年来,网络负载均衡技术首先在电信、移动、银行、大型网站等单位进行了应用,因为其网络流量瓶颈的现象最突出。这也就是为何我们每通一次电话,就会经过负载均衡设备的原因。另外,在很多企业,随着企业关键网络应用业务的发展,负载均衡的应用需求也越来越大了。
Foundry最早提出了四层网络负载均衡的概念,当时的负载均衡技术主要实现四层的交换。因为Foundry是传统的交换机设备厂商,它将此项技术集成在了自己的交换机设备里。从此,网络负载均衡市场诞生了。
网络负载均衡是伴随互联网发展的全新技术,它使得一系列以核心新技术起家的小企业得到了快速发展。其中就包括F5、Radware、Array等系列新兴企业。当然,思科、北电等传统网络厂商也进入了这个市场。
据F5总裁John McAdam介绍:Internet的规模每一百天就会增长一倍,网络应用流量也越来越大。网络的各个核心部分随着业务量的提高、访问量和数据流量的快速增长,其处理能力和计算强度也相应增大,使得单一设备根本无法承担。如果将负载均衡这项技术应用在网络上,就一定会有一个大的发展。
几年的发展证明,网络负载均衡市场是一个巨大的技术商机。据Gartner 2007的调查数据显示,在网络应用交付(网络负载均衡)市场,F5占38.3%,而思科以27.2%位居第二。
网络负载均衡的机会在于网络应用的扩张,网络流量的增大,所以,它非常依赖于网络的发展。
互联网泡沫时代所引导的客户经济,开始体现出了真正的经济效益,各种增值业务如网上银行、电信运营商的短信增值业务,也在这个时期开始蓬勃发展,并产生出了巨大的经济效益,接踵而至的就是各种各样的网络应用流量瓶颈问题开始凸显,网络游戏最为典型。在中国,南北互通问题导致不少企业的网络流量瓶颈问题更显突出,证券交易的“堵单”现象、企业电子商务的网络应用、视频网站流媒体形成的巨大访问量,需要提供更高的网络流量处理能力,这种种问题,并不是单纯升级传统的路由、交换设备而能解决的,对于四层负载均衡交换机的压力也会更大。
以应用为导向的方案越来越明显了,综合多种技术手段的需求越来越强,“应用交付、Advanced ADC”概念,这是网络负载均衡概念的扩充。我们可以这样形象地理解:基于网络二层、三层的是路由交换,而基于网络七层的则是“应用交换”,应用交付是完全基于网络应用的系统解决方案,它将关键应用与基础网络设备关联起来。
四种负载均衡技术 篇9
DNS软件包的安装、根域的构建、localhost的构建、负载均衡的实现、正向子域委派的实现
项目描述:1、可以根据环境完成DNS的架设
实验步骤:
步骤一:Dns软件包的安装
AS3中软件包的位置为:第三张光盘/RedHat/RPMS
AS3中软件包的名称:
AS3中软件包安装的截图:
www.xxlinux.com
确定软件包的安装效果
编辑推荐负载均衡技术基础专题
当前,无论在企业网、园区网还是在广域网上,即使按照当时最优配置建设的网络,业务量的发展都超出了过去..
减压新方法:缓存服务器负载均衡Websphere MQ负载均衡的强化分析基础和进阶的eigrp负载均衡设定EIGRP负载均衡过程全解Python负载均衡的尝试
步骤二:DNS负载均衡的基本搭建
根域的构建方法:
Localhost正向和反向域的构建方法
在客户端进行测试的效果为:
编辑推荐负载均衡技术基础专题
当前,无论在企业网、园区网还是在广域网上,即使按照当时最优配置建设的网络,业务量的发展都超出了过去..
减压新方法:缓存服务器负载均衡Websphere MQ负载均衡的强化分析基础和进阶的eigrp负载均衡设定EIGRP负载均衡过程全解Python负载均衡的尝试
步骤三:DNS负载均衡
何为负载均衡,负载均衡的作用?
一个域名对应多个IP地址,
提高用户对服务器的访问速度
负载均衡的实现(图)
编辑推荐负载均衡技术基础专题
当前,无论在企业网、园区网还是在广域网上,即使按照当时最优配置建设的网络,业务量的发展都超出了过去..
减压新方法:缓存服务器负载均衡Websphere MQ负载均衡的强化分析基础和进阶的eigrp负载均衡设定EIGRP负载均衡过程全解Python负载均衡的尝试
步骤四:DNS的子域委派
为什么需要子域委派?
方便管理 提高DNS的解析性能,实现通信负载
正向子域委派的实现(图)
编辑推荐负载均衡技术基础专题
当前,无论在企业网、园区网还是在广域网上,即使按照当时最优配置建设的网络,业务量的发展都超出了过去..
减压新方法:缓存服务器负载均衡Websphere MQ负载均衡的强化分析基础和进阶的eigrp负载均衡设定EIGRP负载均衡过程全解Python负载均衡的尝试
反向子域委派有几种模型?
有两种
1:所有的子域在同一网段。
2:所有的不在一个网段
两种反向子域委派的大概实现思路是怎样的?
不同子网段(主配置文件/etc/named.conf)
★ 归根究底,探讨数据流负载均衡
★ 例题解析Web服务负载均衡WEB服务器
★ 管理心理学实操手册
★ 实操活动总结报告范文
★ 会计实操的心得体会
★ 银行实操实习报告
★ 会计实操工作总结体会
★ 技校实操教学改革论文
★ 集团公司管控实操:财务管控