带宽性能

2024-09-17

带宽性能(共6篇)

带宽性能 篇1

0 引言

随着IEEE802.17弹性分组环技术被标准化并商用,环形网络技术又重新得到了重视和新的认识。弹性分组环从属寄存器插入环,其最大的特点(尤其是与其它环形技术对比)是具有空间重利用能力,在带宽利用效率方面具有较大的优势,再加上也是业界第一次为基于分组的业务而优化的网络体系结构,可以用以太网甚至更低的成本提供电信级的可靠性、优化的分组传输特性,是城域网、电信级以太网技术发展的重要方向[1]。对于这种具有空间重利用能力的环网,传统对环网的带宽及公平策略方面的方法无法适应,相应的研究也缺乏。我们曾对双环的弹性分组环进行过相关的分析,并将其和其他环形网络技术进行对比[2],本文尝试对更一般的单环寄存器插入环的带宽及其公平策略进行更广泛、深入的分析。

1 总线环、令牌环、时隙环及寄存器插入环

1.1 总线环(争用环)

总线环的媒体访问主要使用和总线一样的ALOHA、CSMA及它们的改进等协议,其总吞吐量不会超过总线的带宽,并且在负载重的时候会和一般总线一样存在由于冲突严重导致吞吐量剧减的问题,所以带宽利用率较低。

1.2 令牌环

令牌环的媒体访问控制是通过相邻站点间传递令牌来实现的。环上的每个站点,只有当令牌传送到它的位置时,才能利用环路发送信息或者从环路接收信息。由于使用了令牌控制避免冲突,在负载重的时候效率也较高。由于令牌环将整个环的带宽作为一个整体,某个时刻最多只能有一个站点访问环,总吞吐量不会超过环的带宽。

1.3 时隙环

时隙环的媒体访问控制方式时采用许多小的固定时隙实现的:这些时隙在环内环行一周,当时隙空时,任何站点都可以占用它。这种操作方式类似传送信元的传送带,信元由一个站点传送到另一个站点。

时隙环允许多个站点同时访问媒体,传输数据,具有一定的空间重利用能力;但任一时刻,每个站点只能有一个逻辑小分组在环中流动;不允许占用同一个时隙连续传送一个以上的逻辑小分组;时隙中有效数据成分少:如果某一时刻只有少数站点要求发送数据,则多个时隙无法被利用;再加上仍然采用源站点剥离数据的办法,线路带宽利用率仍然不高,在实践中也较少被采用。

1.4 寄存器插入环

寄存器插入环的在相邻站点间采用点到点的逻辑连接方式,寄存器环的站点接收到上游发送过来的业务分组的时候,首先由接收交换RS(receive switch)检查其帧头的目的地址是否和本站点匹配:如果是,则把它接收剥离下来;如果不是,则把业务分组送到转发寄存器/缓存TB(transit register/buffer)。和传输寄存器/缓存Tx(transmit registers/buffers)里本站点的进入业务分组进行排队,等待传输交换TS(transmit switch)转发到下游站点。如图1所示。

寄存器插入环这种相邻站点间采用点到点的逻辑连接方式,再加上传输分组在目的站点剥离使得其具有空间重利用的能力:单播(unicast)业务只是顺着环在源和目的之间的站点上依次通过,只使用源与目的站点间的线路,并不锁定整个环,其它站点间的通信可以同时进行,在空间上没有重复的业务可以互不影响地利用各自线路的带宽。通过空间重利用,寄存器插入环好像在环上“增加”了总带宽,从而得到了更多的可利用带宽,和前面的三种环网(以下均称为传统环网)相比具有极大的优势。弹性分组环正是充分利用并发挥寄存器插入环的这一重要特性,在城域网技术中得到重视和认可。

2 存器插入环的带宽性能分析

2.1 寄存器插入环的阻塞条件分析

考察正常情况下单个寄存器插入环:假设环上有N(一般N>=2)个站点,其编号分别是0,1,…,N-2,N-1(编号的加减以N为模);根据寄存器环的特点,在正常情况,每个站点向一个方向(即下游)发送业务,即第i个站点向第j个站点发送业务(j=i+1,i+2,…,i+N-1)。

其第i个站点的本地进入业务(Ingress Traffc)平均带宽(以下简称带宽)为ITi;从上游站点接收到的业务(Received Traffic)的带宽为RTi,其中目的地为i站点的业务被站点接收,并从环上剥离下来,我们将其称为剥离业务(striP Traffic),带宽为PTi,目的地不是本地的业务则转发往下游,称之转发业务(Transit Traffic),带宽为TTi,则有(仅考虑单播情况):

而发往下游站点的发送业务(Send Triffic)带宽为STi。为了使模型不至于太复杂,不考虑进入业务和转发业务之间的相互影响以及缓存的因素,即认为发送业务为进入业务和转发业务之和:

设第i个环段(即第i站点到第i+1站点之间的链路)的带宽容量为Ci;一般情况下各环段的容量是相同的,即就是光纤的带宽容量,也是本地进入业务的最大带宽:

如果发送业务带宽大于环段带宽容量:

则发生阻塞。

在没有阻塞的条件下,即STi≤C时,则所有站点的发送业务和下一站点的接收业务相等:

在STi

环段带宽利用率受到物理限制,最大值为1。

而整环的总进入业务带宽和总发送业务和相等:

为了和传统环网进行对比,而整环的总吞吐量定义为:

由于寄存器插入环的环段带宽一共为NC,所以总吞吐量可以大于1,最大值为N。

假设第i个站点进入业务中发往第j个站点的业务带宽为Rij,占第i个站点进入业务带宽的比例为pij,则有:

其中:

于是有(不考虑时延问题):

式(10)说明,第i环段上的业务除了第i站点的进入业务外,还包括该环段其它上游站点向该环段下游发送的业务,当然这些业务也都经过该环段。当式(11)的值大于环段带宽容量C时则发生阻塞。

2.2 几种业务模式下寄存器的带宽性能分析

(1)“环形”业务模式

如图2所示,所谓“环形”模式是指:每个站点仅向其相邻的下游站点发送业务。在这种模式下,由于寄存器环可以空间重利用,这些业务互不干扰,所以可以完全利用各环段的带宽容量,即这些业务的带宽都可以到达环段带宽容量C,各环段信道利用率都到达最大值1;这样,寄存器环的每个单环的总进入业务可以到环段带宽容量的站点数(N)倍,即NC,此时环的吞吐量为N,也是寄存器能到达的最大吞吐量是传统环网的N倍。同时也看到,寄存器插入环最适合在这种业务模式(如图2所示)下使用。

(2)星型业务模式

如图3所示,星型业务模式的特点是:(N-1)个站点都只向某一核心(设为i+1)站点传输业务。这时候在第i环段环路形成带宽瓶颈。第i环段的带宽根据节点进行公平分配,每个节点的业务带宽为C/(i-1)。这样寄存器插入环的总进入业务最大只能到达光纤带宽容量C,此时环的吞吐量为1。而环段i的信道利用率为1,环段i-1的信道利用率为(i-2)/(i-1),依次递减,环段i+1的信道利用率降到1/(i-1)。可见在星型业务模式下,寄存器插入环的吞吐量和环段带宽利用率和传统环网相比并无优势。

(3)“网状”业务模式

“网状”业务模式如图4所示。

“网状(Mesh)”/或均匀(uniform)业务模式的特点是:每个站点(设第i个)向其它(第i+1,i+2,…,i+N-1个)站点都发送业务,并且占第i个站点进入业务带宽的比例相等,即:

于是由式(11)可得环段i里的业务成分:

如果每个环段的带宽被各站点平分,则环段i最大带宽为C,且被各站点平分,于是由式(11)有:

再考虑到第i-1、i-2…环段公平的约束,所有环段对各站点公平的条件下有:

于是,整环的进入业务总和为:

由式(8)得环的总吞吐量为:

环段的带宽利用率为:

可见,在“网状”业务模式下,寄存器插入环的吞吐量最大值为2(N=2时),然后随着N的增大而减小,当站点数目较多时,吞吐量降到接近1。环段的带宽利用率为吞吐量的一半,具有相同的变化规律。当站点数目较多时,降到接近1/2。这样寄存器插入环和传统环网相比,优势并不大。

但是如果使用双环(如弹性分组环),单个环的吞吐量为2,环段带宽利用率为(N+2)/2N[2],和传统环网相比具有很大的优势。再加上具有保护功能等优点,所以现在环网应用以双环为主。

3 寄存器插入环的公平策略分析及基于流的公平策略

以上的分析是基于站点的公平策略:每个环段的带宽被各站点平分。传统环网里整个环是一个共享媒体,当一个站点访问环时,便锁定整个环,所以基于站点的公平对传统环网是必要的也是合适的。

但对于具有空间重利用能力的寄存器插入环,这种传统基于站点的公平则不能充分利用可用带宽:寄存器插入环在空间上没有重复的业务可以互不影响地利用各自线路的带宽,一个环段上不同的站点的业务流并不相同,如果仍然采用各站点均匀分配环段带宽这种基于站点的公平则是不合适的。以网状模式为例:由式(11),站点i的所有(一共N-1个)业务流都经过第i环段,而站点(i+2)仅有一个业务流经过第i环段。如果采用基于站点的公平,站点i和站点(i+1)在环段i上享有相同的带宽,这对站点i显然是不公平的。

在这种模式下,一个比较合理的分配带宽策略是:各站点根据其在环段上业务流数目分配环段带宽,这就是基于业务流的公平。

在“网状”业务模式下,以环段i为例,由式(11),第i、i-1、…、(i+3)、(i+2)站点在环段i上的业务流数分别是N-1、N-2、…、2、1个,环段上总共有N-1+(N-2)+…+2+1=N(N-1)/2个业务流。基于业务流的公平策略下,每个业务流应该分得相同的环段带宽C/(N(N-1)/2)=2C/(N2-N),而各站点在某环段上的带宽和业务流数目成正比,于是第i、i-1、…、(i+3)、(i+2)站点在环段i上的带宽分别是(N-1)2C/(N2-N)、(N-2)2C/(N2-N)、…、4C/(N2-N)、2C/(N2-N)。

这样每个站点的进入带宽都是:

环的吞吐量为:

环段带宽利用率为:

在站点数N较大时,基于流公平的吞吐量和环段带宽利用率均达到是基于站点公平的大约2倍。而对于使用双环的弹性分组环,基于流的公平策略下的单环吞吐量为4N/(N+2),进一步增大(N较大时约为4),环段带宽利用率也到达1[2]。

如图5所示,在“网状”业务模式下:基于流的公平策略可以取得比基于站点的公平策略更大的吞吐量及环段带宽利用,是更适合于寄存器插入环的公平策略;并且基于流的公平策略下的环段带宽利用率到达物理极限的最大值1,也说明基于流的公平策略是寄存器插入环的最优策略。

同样地,基于流公平的“环形”和星型业务模式的带宽利用率和基于站点公平的结果是一样的。这是由于这两种业务模式下,每个站点都只有一个业务流,所以基于流的公平也是基于站点的公平。但实际情况下,在规划组建城域网的时候,一般在设置站点的时候都考虑到站点间的业务应该接近平衡,这样业务模式较接近于“网状”业务模式,从而更适合于使用基于流的公平策略。

而目前寄存器插入环采用的公平策略以及国内外研究者的改进方案本质上仍然是基于站点的[3,4,5,6],所以基于流的公平策略及其算法将会是寄存器插入环未来的重要突破方向。

4 结论

通过建立寄存器插入环基本带宽模型,对其带宽利用率及公平策略进行的分析表明:寄存器插入环在“环形”业务模式下带宽利用率最高;而在星型业务模式下和传统环网相比则无优势。在比较接近实际情况的“网状”业务模式下,基于站点公平的吞吐量可以到达传统环网的N/2(N-1)倍(单环),而基于流的公平策略的吞吐量可以到达基于站点公平的近2倍,并且环段带宽利用率到达物理极限的最大值1,是寄存器插入环的最优策略;同时,双环结构比单环结构具有更大的带宽利用效率。这些结论对于寄存器插入环网络的设计和规划以及公平算法的研究都极具意义。

参考文献

[1]周胜源,敖发良,陈名松.弹性分组环的媒体访问控制[J].桂林电子工业学院学报,2003,4(2).

[2]陈名松,周胜源,敖发良.弹性分组环的带宽利用率及公平策略分析[J].计算机工程与应用,2006,7(21).

[3]周晓波,等.弹性分组环公平性分析及其改进算法[J].清华大学学报:自然科学版,2004,(4).

[4]孙谦,等.弹性分组环的带宽分配机制研究[J].现代有线传输, 2003,9.

[5]Violeta Gambiroza,et al.Design,Analysis,and Implementation of DVSR: A Fair High-Performance Protocol f7r Packet Rings[J].IEEE/ACM TRANSACTIONS ON NETWORKING,FEB 2004.

[6]Israel Cidon,et al.Improved Fairness Algorithms for Rings with Spatial Reuse[J].IEEE/ACM transactions on networking,Apr 1997.

带宽性能 篇2

目前,随着吉比特网络走出实验室,进入实际应用阶段,其技术得到进一步发展。技术的发展促使吉比特网络在主干网中使用,逐步形成高带宽时延乘积网络。高带宽时延乘积网络表现出许多不同的特征,除了带宽高、时延长外,最明显的是网络不能满足某些TCP连接达到稳定状态时需要的最小丢包率。例如,对一个标准的包的大小为1500bytes、RTT为100ms的TCP连接,若要在带宽为10gbps的网络中达到稳定的状态,则平均需要一个83333 segments的拥塞窗口,并且在5,000,000,000个包中只能有一个包丢失,或者说,平均1.6个小时中至多只能产生一次拥塞[1]。对当前的高带宽时延乘积网络,这个要求显然很难满足。

毫无疑问,计算机和通信技术的不断进步将推动网络的发展,但如何有效的利用现有网络也是目前面临的难题。类似网格计算等应用如要在科学研究中发挥巨大的作用,就要求其使用的网络能高效的进行远距离超大数据集传输[2]。可实践统计数据表明,在已有的高带宽时延乘积网络中,需要大量数据的应用往往使用带宽的效率很低,只能获得很小的可用带宽,无法满足其传输超大数据集的要求。造成这种现象的根本原因是当前网络中使用的传输协议依然是TCP协议。这个针对过去每秒几K字节的网络而设计的协议,虽然在高带宽时延乘积网络中显示了它诸多的缺点,但由于它比较容易实施以及一些涉及网络经营商的经济问题,TCP协议仍被广泛应用,因此由它带来的影响不可避免的存在于当今的高带宽时延乘积网络中。

本文首先使用NS2[3]仿真平台仿真高带宽时延乘积网络中TCP的带宽使用效率。结果表明在这种环境中使用TCP不能有效利用可用带宽来传输数据,绝大部分带宽被浪费。然后详细分析拥塞控制机制造成TCP带宽利用率低的原因。

1 性能仿真

1.1 仿真环境设置

文献[4]指出,网络仿真研究中的参数设置都存在一些隐含假设,由此得到的仿真结果可能影响对问题的研究。为此,在进行仿真研究时,必须正确设置所用的仿真参数。该文研究的是在高带宽时延乘积网络中TCP带宽的使用效率。由于真实的Internet网络结构是十分庞大复杂的,为了使仿真的网络能够尽可能的反映真实网络的物理性能,我们选择图1所示的网络结构进行仿真。S表示源端,D表示目的端,仿真时使用了15个源端和15个目的端,它们与路由器连接的链路带宽是1Gbps。路由器R1和R2使用去尾(Drop Tail)丢弃策略,它们之间的链路L带宽为10Gbps,其利用率是本文主要关心的对象。为了跟其它网络中TCP使用带宽效率相比,我们还对链路L的带宽分别为100Mbps、622Mbps、2.5Gbps等进行了仿真。

在图1中,所有的TCP流都经过链路L,那么在a处会形成网络瓶颈,有可能发生网络拥塞。为了避免产生全局同步现象,设置每个TCP流有不同的起始时间、终止时间和不同的数据传输量。该文在仿真中设置了三种类型的TCP数据流:1)10个源端和目的端之间产生长时间的FTP流,整个仿真过程中持续不断的发送数据。2)3个源端和目的端之间产生短暂的FTP流,在较短时间内传输大量的数据。3)2个源端和目的端之间随机产生小型的WEB流。后两种数据流的出现将有可能引起链路L发生拥塞。该文还关注第一种数据流的传输过程,并在后面小节对其进行分析。整个仿真过程持续1小时。

1.2 仿真结果

图2显示了不同带宽的链路L的带宽利用率。当链路带宽为100Mbps,利用率为88%;当链路带宽为622Mbps,利用率为83%;当链路带宽为10Gbps,利用率为40%。可以看出链路L的带宽在增大,但其利用率却在减小。图3显示了10Gbps链路的利用率随时间变化情况。可以看出,建立连接后,随着时间的增加,利用率增大,但其最大仅为40%。说明在高带宽时延乘积网络中,绝大部分带宽被浪费,没能得到利用。

图4和图5是仿真过程中一个长时间的FTP流的拥塞窗口及其吞吐量的变化图。拥塞窗口的几次突变是由单个或多个丢包引起的,间接导致发送速率的变化,吞吐量也因此受到影响。该流的RTT时间是114ms。图6是该数据流前50秒拥塞窗口变化情况,可以清楚的看出慢启动阶段拥塞窗口的增长速度比在拥塞避免阶段要快,但数据流很快结束慢启动进入拥塞避免阶段。图7是该数据流前50秒内发送的数据包个数和收到的ACK个数随时间变化情况。两个数不相等,说明目的端并不是对收到的每个数据包都发ACK,而是使用延迟ACK对数据包进行确认。

2 结果分析

上述图2显示的链路利用率的变化并不是因为仿真过程中传输数据量的设置引起的,而是由所使用的TCP协议造成的。TCP协议使用了两种影响带宽利用的控制技术:流量控制和拥塞控制。流量控制使目的端可以限制源端发送的数据量,防止源端发送的数据使目的端过载。拥塞控制是为了避免网络过载影响端系统使用网络而采取的调节数据流量的手段。如今,目的端、源端具有几乎相同的处理能力,流量控制影响不大,因此拥塞控制成为造成高带宽时延乘积网络带宽利用率低的主要因素。TCP协议使用一种基于窗口的和式增加积式减少(Additive Increase Multiplicative Decrease,AIMD)的拥塞控制机制,其通过调整拥塞窗口(Congestion Window,CW)来限制每次能够发送的最大分组数,控制发送速率,达到调节数据流量的目的。TCP协议的拥塞窗口调整机制如下[5]:

如果a、b、c都以最大段长度(Maximum Segment Size,MSS)为单位,则加性因子a=1,乘性因子b=0.5,慢启动加性因子c=1。下面分析这种控制机制对TCP使用带宽的影响。

2.1 达到高发送速率需要时间长

一个新建立的TCP连接,假设没有收到重复的ACK和重传时钟超时信号,其发送速率将在慢启动和拥塞避免阶段随着CW的增加不断增大。CW的增加速度影响着发送速率增大的速度。从CW的调整公式(3)和(1)得知,慢启动阶段CW呈指数增加,拥塞避免阶段CW呈线性增加。虽然CW在慢启动阶段增加的速度比拥塞避免阶段要快,但因为慢启动域值设得太小,TCP连接很快结束慢启动进入拥塞避免阶段,从而减慢了CW的增加速度,限制发送速率的增大。拥塞避免阶段中CW的增加方式让TCP连接需要很长时间才使发送速率达到最大。如图6所示,在1.455秒连接结束慢启动进入拥塞避免阶段,CW增加速度减慢。如图4所示,CW经过26分54秒才达到最大,这时发送速率也相应的达到最大。

2.2 丢包时发送速率减得太快

虽然现有的TCP协议使用了快速重传机制,能够通过收到几个相同的ACK判断发生丢包,减少等待超时重传丢包的时间。但其检测到丢包时使用公式(2)的窗口调整方式将CW减半,并在重传丢失的数据包之后进入拥塞避免阶段,导致发送速率恢复时间过长。这种不考虑网络实际状况而盲目执行积式减少CW的调整方式使TCP流不能长时间使用高发送速率。如图4显示,在1728秒后由于发生多次丢包,CW多次减半,到3420秒时CW才恢复原值,恢复时间为28分12秒。

2.3 延迟ACK减慢发送速率增大的速度

无论是在慢启动还是拥塞避免阶段,CW都是在源端收到ACK时增加的,ACK的发送方式将影响发送速率的增大。公式(1)成立的条件是目的端对收到的每个数据包都发ACK。根据公式(1),可以推导出公式(4),用于计算TCP连接在拥塞避免阶段CW到达某个值所需要的时间。

其中,T是所需时间;CW1是CW增加前的值,CW2是要增加到的值,单位都是字节;a是在拥塞避免阶段每个RTT时间内CW增加的值,和公式(1)中的a相等,是一个MSS的大小。在高带宽时延乘积网络中,MSS等于1460字节。根据公式(4),计算得到上述的TCP流从65535字节(慢启动和拥塞避免分界点)增加到377410字节需要时间为24.35秒。但如图6显示,该增加过程需要时间为48.54秒,大于计算值。这是因为目的端不是对收到的每个数据包都发ACK(可从图7得知),即延迟ACK造成的。由此可见,虽然延迟ACK能够减少ACK数量,但延迟确认减慢了CW的增加速度,延长了发送速率增大的时间。

2.4 对丢包过于敏感

网络中存在两种类型的丢包:随机丢包和拥塞丢包。第一种丢包本不会对网络的使用造成太大的影响,可TCP只是简单使用丢包作为网络拥塞的判断依据,没有关心丢包的原因,造成TCP连接对丢包不加区分的采取公式(2)调整CW,带来一些与网络实际情况不符的控制结果。因此对随机丢包和拥塞丢包都十分敏感的TCP连接,采用CW积式减少方式加剧了对发送速率的影响。并且,这种敏感特性造成TCP流不稳定。图5显示了TCP流吞吐量振荡的情况。

在高带宽时延乘积网络中,一个流如要最大的利用带宽,必须要有高的发送速率和小的丢失率[6]。从上面的分析得知,TCP协议使用一种基于窗口的AIMD拥塞控制机制调整CW,间接控制发送速率。但这种机制对CW的调整存在上述四个问题,使流长时间以低发送速率发送数据,从而影响带宽的使用。

3 结束语

通过对高带宽时延乘积网络中TCP的性能进行仿真,说明在该网络环境中使用TCP传输数据不能有效利用网络带宽。并详细分析了TCP协议影响带宽使用的原因是,TCP使用的拥塞控制机制对丢包过于敏感、使用延迟ACK、丢包时发送速率减得太快等策略,使流长时间以低速率发送数据。已有的理论分析指出,TCP不适合在高带宽时延乘积网络中使用。随着新应用新需求的发展,人们期望在高带宽时延乘积网络中能有好的并且易于推广的协议出现,从而引发了基于速率的拥塞控制和在应用层进行拥塞控制两类研究热潮[6,7]。我们下一步的工作是要研究如何更好的使用基于速率的方式进行拥塞控制。

参考文献

[1]Mascolo,S,Casetti C,Gerla,et al.TCP Westwood:End-to-End Bandwidth Estimation for Efficient Transport over Wired and WirelessNetworks[J].MOBICOM 2002.

[2]Julian J,Bunn John C,Doyle Steven H,et al.Ultrascale Network Protocols for Computing and Science in the 21st Century[DB/OL].

[3]The Network Simulator,ns-2[EB/OL].http://www.isi.edu/nsnam/ns/index.html.

[4]Sally Floyd,Eddie Kohler.Internet Research Needs Better Models[Z].HotNets-I,2002.

[5]谢希仁,计算机网络[M].5版.北京:电子工业出版社,2010:205-212.

[6]胡忠胜,TFRC拥塞控制研究[D].桂林:广西师范大学,2012.

带宽性能 篇3

根据傅里叶变换原理, 任意一个信号均可以分解为多个正弦波, 其中偶次倍频信号能量为零, 奇次谐波的功率谱能量随着谐波次数的增加而逐渐下降。

如图1所示为一高速信号的功率谱密度示意图。其中纵轴表示信号的功率, 水平轴表示比特率 (1/2为一次谐波位置, 3/2为3次谐波位置等等) 。图中的0, 10, 20, ……100对应的曲线, 表示信号的速率一定, 但是信号的上升时间分别占信号位宽 (Unit Inter val) 的不同比例时 (0%, 10%, 20%, ……100%) 的功率谱密度趋势图。可见信号的边沿越陡上升时间越小, 信号的能量下降得就越慢, 此时就需要使用更高带宽的示波器来测量信号的更高次谐波, 才能够保证信号的真实性, 图中红色虚线即表示信号上升沿很陡时候的功率谱曲线, 而蓝色虚线表示信号上升沿时间约为信号位宽100%时的功率谱曲线。而对于标准的高速串行信号来说, 信号的上升时间一般为信号位宽的30%, 其主要能量集中在5次谐波以内。通常来说选择示波器带宽一般有如下两个经验:一是对于非标准信号, 如时钟信号, 一定要看其上升时间的长短, 根据F=0.35/Tr来估算信号的能量分布范围, 然后选择3~5倍于该值的示波器带宽来测量信号;二是对于标准的串行数据信号, 则选择示波器带宽能够测量到其速率的5次谐波即可。

比如说要测量一个12Gbps的标准串行信号, 需要多高的示波器带宽算是比较理想的呢?12Gbps的信号其1次谐波为6GHz, 3次谐波为18GHz, 5次谐波为30GHz, 而由于信号的能量是围绕谐波频点位置的两侧进行分布的, 因此20GHz带宽的示波器不能够捕获到3次谐波的所有能量, 如图1中垂直红线所示, 25GHz带宽的示波器能够捕获到所有的3次谐波能量, 如图1中垂直黄线所示, 30GHz能够捕获到所有的3次谐波以及5次谐波的一半, 如图1中的垂直绿线所示, 45GHz则能够捕获到完整的7次谐波成分。

30GHz以上高带宽示波器的应用前景

SAS 12Gbps

SAS 12Gbps的标准还没有正式推出, 但是随着高速信号发展的趋势以及存储等领域的需求, 相信会很快推出正式的标准。根据前文分析, 如果要完全捕获到5次谐波的所有成分, 则至少需要36GHz的示波器带宽。

FC 16Gbps

如果需要完全捕获到5次谐波的所有成分, 则至少需要48GHz的示波器带宽。

应用于相干光通信领域的CEI25Gbps及CEI 28Gbps的串行信号

CEI-25规范定义了芯片间28Gbps信号速率的应用以及背板上25Gbps信号速率的应用。鉴于行业的需求, 整个元器件级的基础结构将进一步升级以支持更高的系统容量, OIF组织授权PLL工作组开始25Gbps即CEI-25项目的研究。该项目定义了芯片间28Gbps信号速率的应用以及背板上25Gbps信号速率的应用;此类信号速率将使得在更窄的接口上 (四路) 传输100Gbps带宽的信号, 比如100Gbps以太网;此类接口将允许更小的接口尺寸, 更低的器件引脚数量, 连接器以及光模块数量, 更低的功率浪费, 以及无需时钟的接口。

对于25Gbps的信号, 如果要捕获完整的5次谐波, 则需要75GHz的示波器带宽, 如果要捕获完整的3次谐波的信号, 则需要50GHz带宽的示波器。

在相干光通信信号测量中, 未来还将有速率高达56Gbps的串行信号, 目前正处于实验室级的研发过程中, 如图2所示。

Ka波段 (35GHz-94GHz) 雷达信号的测量

通过高带宽示波器直接检测射频信号, 可以避免因使用检波器等带来的失真和噪声, 而且雷达信号的测试通常还会需要测量多通道之间的相位关系, 因此不仅需要高带宽示波器, 而且还需要多通道示波器。

业内实现高带宽示波器的方法

示波器的核心有三个部分:一是前端模拟放大器, 二是高速采样芯片, 三是采集存储器;这三个部分决定了示波器的三大最重要的指标:带宽, 采样率, 采集存储深度。示波器的最高带宽最主要的决定因素是前端模拟芯片的工艺, 也就是说芯片的工艺决定了示波器带宽的提升。目前高带宽示波器厂家为了获得高带宽示波器, 主要采用两种工艺, 一种是磷化铟 (InP) , 一种是锗化硅 (SiGe) , 前者一直处于实验室级的应用, 没有得到广泛的商业应用, 而后者则有非常广泛的商业应用, 是相当成熟的工艺技术。目前IBM的8HP锗化硅工艺是第四代锗化硅工艺, 速率接近上一代的两倍, 可实现晶体管最高速率为200GHz。当前基于磷化铟工艺技术实现的前端放大器芯片最高带宽为32GHz, 基于8HP锗化硅工艺有两家, 一家可实现36GHz, 另外一家为33GHz。因此当前业内完全基于芯片的示波器最高带宽为36GHz, 这是美国力科公司 (LeCroy) 刚刚发布的芯片组及最新LabMaster 10Zi系列示波器产品。

由于工艺水平的限制, 芯片带宽很难达到非常高, 从而也满足不了当前一些高速信号测试的需要。如前文所述, 36GHz的示波器带宽也只能测量到12Gbps信号的全部5次谐波。而要测量更高速率如28Gbps、56Gbps的信号则无能为力。

因此示波器厂家也发明了一些专利技术以进一步提升示波器的带宽。

一种是基于软件DSP的方法, 通过拉伸示波器的前端频响曲线实现示波器带宽的提升, 此方法在20GHz带宽以下示波器中有使用, 高于20GHz带宽的示波器目前还未见有使用。此方法由于通过软件对信号输入的后期进行处理, 所以在拉伸带宽的同时, 噪声也被放大。而且信号可能会产生明显的失真现象。如图4 (左) 所示为将一个16GHz模拟带宽通过DSP拉伸的方法达到20GHz带宽, 图中红色滚降曲线为初始的16GHz示波器的前端频响曲线, 蓝色滚降曲线为通过DSP算法将原始的16GHz频响曲线拉伸后的结果, 从图中可见, 带宽被拉伸的同时, 示波器的底噪 (Noise Level) 也被明显的增强了, 如图中绿色曲线所示, 此时如果测试10GHz的正弦波, 那么在20GHz位置会有明显的二次倍频及20GHz的频点。也就是说, 如果测试10GHz的正弦波, 则会产生失真, 如图4 (右) 所示, 红色为正确的10GHz正弦波信号, 蓝色的为使用DSP拉伸得到的20GHz带宽示波器测量得到的正弦波。

另外一种方法是通过通道资源复用的方法, 即力科公司的DBI专利技术 (数字带宽交叉复用技术) , 该技术通过硬件射频模拟的方法可实现将芯片级模拟带宽提升至少一倍。力科公司最早在2005年就发明了该项专利技术, 使用在当前的最新产品上的DBI技术已经是第七代成熟的技术。其大致原理如下图5所示, 图中的放大器 (Ampli er) 的模拟带宽为36GHz, 当增加一个DBI射频模块后, 可以将图中的两个放大器的数字带宽复用, 从而使模拟带宽达到60GHz, DBI射频模块的主要作用是将输入的高频信号通过特制的低通滤波器和高通滤波器分成两部分, 一部分为0~36GHz的信号成分, 一部分为高于36GHz的成分, 高于36GHz的信号成分在通过本振混频到0~36GHz频率区间, 这样两部分信号就可以分别送入具有36GHz模拟带宽的通道进行测试, 最终再将处理后的信号合并组合到一起得到一个完整的高速信号。

力科公司的LabMaster 10Zi特点及主要应用领域

基于8HP锗化硅工艺的芯片组的突破以及DBI专利技术, 力科公司最新推出的新款示波器LabMaster 10Zi具有一系列行业领先的技术和指标, 不仅适合于超高速信号如相干光通信应用中的高速信号的测量, 也适合多通道信号的时序、相位差等的测量。主要特点如下:

1、最高硬件模拟带宽可达60GHz;

2、最高采样率可达160GS/s;

3、最高可分析存储深度1024MS;

4、前端芯片组模拟带宽可达36GHz;

5、36GHz或以下芯片级模拟带宽使用时, 采样率可达80GS/s;

6、36GHz或以下芯片级模拟带宽使用时, 最大通道数为20通道;

7、60GHz或者50GHz带宽使用时, 最大通道数为10通道;

8、配置成传统的四通道实时示波器时, 每个通道的芯片级模拟带宽均可达到36GHz, 采样率可达80GS/s;

9、30GHz触发带宽;

10、100fs (RMS) 抖动噪底;

11、最大通道数范围以内, 通道数量可以自由组合配置;

12、集成力科的传统优势:强大的分析与调试能力, 快速的分析处理和响应速度, 全面的异常捕获能力, 完善的串行数据测试解决方案等。

参考文献

[1]Peter J, Pupalaikis.Digital Bandwidth Interleaving[M].LeCroy, 2010-04

[2]LeCroy10Zi datasheet[DB].LeCroy, 2011-11

[3]IEEE.802.3ba以太网应用规范[S/OL].http://www.ieee802.org/3/ba/

[4]Yoshi.LeCroy LabMaster应用介绍[DB].LeCroy, 2010-10

[5]SAS3Spec[DB].Working Draft American National Standard, 2011-11

安永:释放带宽的力量 篇4

罗奕智认为, 目前市场条件仍极具挑战性, 但具备实力的仍是大型运营商。在经济不确定的时期, 电信业被视为一个波动平缓的防守型行业, 但近年来电信业已经发生了重大转变。

过去语音市场发生了很多不同的变化, 现在已经变得比较稳定。但不管在固网还是在移动方面, 宽带领域的在位运营商实力仍然很强, 这些电信业的转变并没有对他们没有形成很大的冲击。

罗奕智对2006年至2009年的电信业发展状况进行了分析, 以欧洲运营商为例, 英国电信2006~2009年宽带市场份额由原来的33%增长到35%, 荷兰皇家电信也从41%增长到44%。可以看出, 整个电信业稳中有升。他表示, 从在位运营商和新兴运营商波动情况来看, 在位运营商波动明显比较低, 原因可能是市场环境有问题或者不太稳定时, 通信行业永远都会被看成历史公用事业。

在2006年, 电信运营商关心更多的是如何拥有和掌控一个客户, 而现在的运营商则意识到提供客户更多的选择和自主权是更好的手段。因此, 当前在位运营商重点关心的有两个问题, 一个是客户, 他们认为客户是最重要的, 从客户得到最多的价值是在位运营商战略目标里排名最高的一项。另一个是业务创新, 新业务成为在位运营商的一个手段, 他们希望可以为客户提供更好的产品和服务。移动互联网、移动支付等都已经成为在位运营商挖掘客户价值的重要手段。

对未来电信运营业的格局, 罗奕智表示, “2006年大家都比较关心一些新技术, 到了2009年大家可能关心的是合作、联盟、提高市场份额的做法。我们估计三年之后的2012年会有更多的改变, 这些改变很多都是一些业务模式的创新, 通过改变原来收入来源的方向而实现的。”

罗奕智表示, 在改变过程中, 我们发现整合具有周期性。在欧美不同的国家里, 同一个地区的固移整合是他们实现整合的第一步, 之后他们会有另外一个新的方向, 跨地区, 跨地域, 跨行业整合, 特别是发展中的国家很多都关心并购活动, 这增加了运营商在临近地区的并购活动。运营商对其它领域, 比如IT软件、媒体等领域也寻求一些新的产品领域, 从而促进跨行业的整合。

罗奕智认为, 融合的道路是循序渐进的, 运营商都是基于自己主打的产品, 再往外延伸, 比如, 他们都会把重点放在家庭固话和个人移动电话, 延伸到其他家庭成员的移动电话上, 又或者是移动宽带基础上加入固网宽带的能力, 作为一个补充。

为带宽的井喷做好准备 篇5

不同网络环境对数据通信的需求增长可解读为对带宽的需求。首先,在城域网中,“最初的规划者”对带宽的要求日益增加,这些领域会是第一批实现100G网络通信的。高性能电脑(HPC)应用显示在各行各业内,对100G网络的需求早已存在。而在数据中心中,服务器和存储设备推动了10G以及更高网络的需求。网络以及交换机主干可能在四年内彰显其对40G和100G网络应用需求。

1 无损耗的以太网

一个修正后的以太网协议,被称作数据中心桥接(Data Centre Bridging),已经被电力学工程师协会IEEE定义,这将会是一个无损耗的以太网,设计成不会丢包和超时的协议。它通过光纤以太网FCo E定义了一个在数据中心中光网络传输的以太网构造。整个ICT系统的维护和管理费用,将因此得以降低,因为网管人员不再需要管理以太网、光纤链路和Infiniband三个完全独立的网络架构。

协议的标准统称为数据中心桥接(Data Centre Bridging),包括流量优先权控制、拥塞通知、最短路径桥接、链路层路由和加强的传输路径选择。这创造了较低的延时,排除了信息拥塞,同时增加了网络的效率。另一个IEEE工作组已经建立了支持40G和100G网速标准化的HSE协议(高速以太网),同时,符合这些标准的产品也能够在市场上找到。这些符合新标准的产品包括twinax,支持40G的多模和单模光缆及支持100G的单模光缆。

对40G网络标准来说,采用铜缆双绞线传输的方式还有提升的空间,因为目前twinax的传输距离只有7m。这就是说,设备的热负荷能得到更好的拓展,从而达到更有效的线缆管理。与光缆相比,采用铜缆的优势主要表现在节约电缆敷设和设备使用上。双绞线同时能实现与老旧设备的“自动接口”,对于老旧系统,铜缆可以满足各代以太网速率的需求。

2 10GBase-T的问题

10GBase-T的发展道路并不是很顺利。最初,人们的设想是用6类非屏蔽线缆来支撑10G网络。这个想法太过有挑战性,因此,新的增强型6类线缆标准被定义。而线缆对相邻线缆产生的外部串扰所造成的影响过于敏感,导致了第一代的10GBase-T设备耗能极大,延时也很大,使得设备费用极高。直到现在,随着第三代设备的推出,这个问题看来已经得到了解决并且在发展上有所突破。

3 高速的双绞线

从这个经验中我们了解到,通过使用屏蔽线来节约能耗,降低延时及电子设备费用的呼声在不断增加。在佩恩州大学的独立研究表明,标准化的超7类铜缆布线因为其信号损耗极低,且在大部分频段内对环境噪音的免疫,因此能支持40G网络。由于90%服务器之间的连接距离都在50m之内,需要一个协议能够桥接这些距离。增强型6类被设计成支持10G传输的最大距离为100m,但是对于长度在40~50m之内的连接,可以通过其他的线缆来节省交换设备中的电子元器件费用。

4 范例替换

在结构化布线的历史上,我们第一次意识到升级更高性能的网络需要一种完全不同的线缆介质,40G以太网或100G以太网的连接需要8芯多模光缆的支持,每芯光缆传输10G甚至是25G的信号。这同样意味着,一种新型的连接器类型MPO被开发出来。

对于双绞线的连接,RJ45标准接口极有可能会被标准化的GG45接口所取代。GG45模块完全兼容RJ45模块在老旧设备上的使用,并且能支持带宽达到40G或者更高的网络。

各公司组织将会在他们的提案中提出一种新型的最优化的网络基础布线方案,从而在升级网络带宽时无需再更换所有的服务器或者其他设备。

改进数据中心的基础架构,以满足日益增加的更高的需求,是一个巨大的挑战。大部分公司要求数据中心实行不间断运行,对于重新布线和增补而言,施工时间短。一个布线系统的寿命大概在10~15年,也就是说,数据中心管理者需要确保基础架构适应未来科技发展的要求,并且能支持今后的网络带宽融合战略。最需要考量的是支持40G和100G的电缆是不同的,必须先考虑今后系统的更新策略。

高带宽传输网络搭建探讨 篇6

为满足市场需求, 各地广电运营商已经开始了互动电视和高带宽接入的建设。广州珠江数码集团有限公司作为广州地区最大的有线电视网络运营商, 已经明确把互动电视和高带宽接入定位为未来的主营业务, 至今已经发展了18万互动用户, 并全网开展6M和10M的高带宽接入。本文结合广电网络现状, 从业务需求入手, 对构建能支持高带宽业务发展的网络展开探讨。

1 互动平台概况

互动前端平台作为系统网络搭建的第一核心要素, 其传输模式、编码格式、节目内容和双向网络建设的通道容量息息相关。珠江数码建立了基于Mediaroom的互动电视平台, 平台根据广州实际情况开发集成业务, 再通过IP网络进行分发, 以实现交互式数字电视服务, 给用户提供多种高质量业务服务。互动的流媒体业务包含节目时移、回看、点播和各类应用。这些数据通过城域网传输到各分前端, 通过本地CMTS按用户需求分发到各机顶盒。目前系统已经提供高清直播频道19套、标清直播频道90套的直播服务、45套节目4小时时移及72小时频道回看服务。节目内容采用H.264的编码格式, 高清节目带宽9M, 标清节目带宽4M。

在互动电视中, 直播节目采用了组播的模式, 目前采用DOCISIS 3.0技术进行覆盖, 全网采用了一台CMTS进行节目分发, 配置16个直播 (组播) 专用频点, 广播至全网用户;点播业务经部署在各分前端的分散CMTS上联至城域网, 用户共享点播CMTS带宽。整个互动平台的架构如图1所示。

2 用户行为分析

互动电视打破了传统的单向视频服务传输模式, 提供以用户为中心的多种交互性业务, 如点播、时移和回看等。在双向数字网络传输中, 各类交互性业务均单独占用网络资源, 用户行为直接影响网络建设。

为更好了解用户行为, 笔者通过互动电视平台实施全网数据采集, 提取上线用户数量、开机时间、收视内容、占用流量和出口负荷等数据, 整理出用户开机率、开机并发率和户均占用带宽这三个关键数据, 如表1所示。

用户开机率反映了互动用户收看电视的比例, 由数据来看用户开机集中在每晚的八点至十点, 周日晚上为收视高峰, 周平均开机率为59.75%, 季度峰值曾达到69.85%, 建议选择70%作为开机率的设计模型参数。

开机并发率代表了在线用户点播节目单独占用带宽的机率, 本周的峰值为10.77%, 该数据和市场策略及节目内容密切相关, 在免费试看推广期间, 并发率曾一度上升到30%, 建议选择正常推广时期的峰值15%作为设计模型参数。

户均带宽是全网点播高清和标清节目的带宽平均值, 从表1可以得出峰值为4.25M, 考虑到高清内容视频点播的逐步增加, 建议每户分配5M作为设计模型参数。

除高清业务外, 高带宽接入和三屏融合等业务也在全面开展。为满足业务需求, 网络建设需有一定的超前性, 向户均带宽30M发展。

3 基于DOCSIS技术的解决方案

在全国各地的有线电视网络中, 同轴电缆仍是信号传输的承载主体, 鉴于充分发掘利用同轴网络资源, DOCSIS技术是主流选择。目前DOCSIS技术已经进入了V3.0时代, DOCSIS 3.0的最大亮点是数据传输带宽的扩充, 通过上下行多个信道的捆绑技术, 已具备直接与FTTH竞争的带宽优势。新一代的DOCSIS 3.1标准已在讨论和制定中, 大数据量和高密度仍将是趋势。对于已部署CMTS的网络, 建议可通过以下三种方式进行网络优化。

3.1 宽带和互动双业务共用一台CMTS

为确保业务的稳定开展, 在珠江数码早期的网络建设中, 宽带和互动业务分别部署在不同的CMTS上。随着用户量的增加和用户习惯的改变, 宽带CMTS上行带宽资源不足, 而互动CMTS的下行带宽资源也不足, 为提高频点资源利用率, 同时满足单一终端 (CM3.0) 发放的市场需求, 对全网CMTS可实施融合改造, 如图2所示。首先完成CMTS双业务融合系统的配置, 再对前端射频分配网络进行逐步改造, 并完成单台CMTS割接。

3.2 增加原有光发射机分配CMTS频点

在广电传统的网络结构中, 一个光发射机覆盖4个光站, 每个光站覆盖用户规模各地略有区别, 珠江数码多数光站已按覆盖400户规划改造, 部分未改造光站仍保留在1000户。在这样的网络环境下, 一个光发射机覆盖用户至少1600户, 互动业务下, 分配CMTS下行频点2个或4个, 能最高支持100Mbps或200Mbps的下行流量, 支持互动业务40户同时点播, 满足互动业务400户报装, 即不超出25%的互动报装率。对于双向业务发展较好的楼盘, 报装率已达30%或者更高, 在此情况下, 快速扩容的方式便是增加CMTS下行频点资源。

利用目前现有机房CMTS机框, 快速更换高密度板块进行改造升级, 可使得单一物理口对应频点升至32个, 鉴于频率资源有限, 一般能使用到12个下行频点, 可使得互动报装率提升至75%, 改造模式如图3所示。

3.3 减少发射机所带光站数量

从固定资产的折旧来看, 前端设备一般在10年左右, 无论是从设备性能还是资产保值的角度来看, 原有的CMTS仍有很大的利用价值。使用低密度的CMTS, 可通过降低单位频点覆盖的双向用户数量来实现。

方案一, 可通过光站分配网络的分割改造, 降低单位光机覆盖用户规模, 如把原有光机覆盖400户的分配网络分割至200户, 或者100户乃至更低, 但改造周期长、改造成本高;方案二, 调整前端单台光发射机所带光机数量, 如将1:4改造为1:1, 可使得网络支持能力提升4倍, 方案如图4所示。

4 基于C-DOCSIS技术的网络解决方案

随着高带宽业务的全面展开, 特别是用户渗透率的逐步提高, 网络支持要尽快从广覆盖提升到单位地域内高带宽覆盖。在这种情况下, 现有的DOCSIS技术出现了两个困境:一方面是网络投资大幅度增加, 当双向业务渗透率超出25%时, CMTS硬件投入在大幅度增加, 而CMTS的生产一直被少数国外厂家垄断, 价格居高不下;另一方面是现有机房资源紧张, 面对不断增加的CMTS及射频分配设备, 原有分前端机房无论是空间还是电力容量都较难有太大的扩容空间, 而新建机房寻址难度大且建设周期较长。

为此, 我们在寻求一种迅速提升接入带宽, 无需增加机房负荷, 成本相对较低, 并且能兼容原有终端产品的双向解决方案。在2012年8月, 广电总局正式发布了《NGB宽带接入系统C-DOCSIS技术规范》 (GY/T 266-2012) , 给双向网络的建设提供了一个新的解决方案。

4.1 C-DOCSIS部署规划

C-DOCSIS系统由C-DOCSIS头端、C-DOCSIS终端、配置系统和网管系统组成, 并根据模块组成的不同, 分成集成式和分布式。在考虑到光纤资源不够丰富和网络FTTH演变的发展, 我们按照分布式搭建, C-DOCSIS接入技术将ITU-T J.222的物理层与数据链路层的接口 (即为C-CMTS) 从分中心机房下移至有线电视光节点处, 向下通过射频接口与同轴电缆分配网络相连, 向上通过PON或以太网与汇聚网络相接。接口下移后的组网模式, 由于C-CMTS所在的位置, 决定了它和光节点设备的融合方式, 整个系统由OLT、C-CMTS和终端CM组成, OLT与C-CMTS之间通过EPON光分配网 (ODN) 连接, C-CMTS与终端之间通过同轴电缆分配网连接, C-CMTS兼容所有DOCSIS2.0/3.0规格的CM。

从2012年12月开始, 珠江数码开始规模部署C-CMTS, OLT一般安装在分前端机房内, 上链三层汇聚交换机, 通过三层汇聚交换机接入城域网。对覆盖400户以内的光机改造, 采用C-CMTS模式在光机同地部署, 如图5所示。

对于覆盖用户仍较多的光机, 如部分光机覆盖仍在1000户左右, 在网络改造时, 实施一次到位改造方式, 在光机处安装光分路, C-CMTS部署点进一步延伸至下一级放大器, 确保C-CMTS覆盖用户在400户以内, 如图6所示。对于大型小区, 建议设立本地接入间机房或野外综合地箱, 就近安装OLT、交换机和EDFA等设备, 进一步降低对骨干光纤网络的占用。

4.2 C-CMTS在测试和应用中的优化部分

C-CMTS设备采用模块化设计 (如上联模块、内置光机模块、射频放大模块等) , 支持灵活的功能配置以及关键模块的维修、升级。

C-CMTS设备的供电方式可采用60V或220V供电, 考虑到C-CMTS下一级仍较多使用双向放大器, 设备应提供向下馈电能力。基于C-CMTS系统每个射频端口的下连射频放大器级联一般不超过2级, 每端馈电的最大电流通过能力达到3A或6A即可, 同时, 每路主输出应支持单独跳线馈电、自恢复保险、防雷接闪器, 不采用单独供电输出口。

C-CMTS的每一路射频端口均应具备独立的上行、下行信号测试口, 设备内C-DOCSIS信号与DVB信号混合前, 均应具备独立的信号测试口, 所有测试口按-20d B衰减设计。

C-CMTS产品16个连续频道带宽为128MHz。光接收机在全频段范围内输出信号的预均衡量一般在12d B以内, 如果全频段 (862MHz或1GHz) 预均衡量为12d B, 则任意128MHz连续频段的预均衡量则不会超过2d B (128MHz连续频段放置在低端110~238MHz时均衡量最大) , 因此建议C-CMTS系统应规划为16个连续频道, 这样不必为每路射频通道设置C-CMTS信号均衡器。

整机产品应该具有一定的浪涌防护能力 (通常指标为:5k V、10/700μs) , 以适应雷雨季节的可靠使用。

C-CMTS产品基本上属于野外安装的类型, 宜使用全密封铸铝外壳以加强其散热能力, 并实现对雨、盐雾、酸雾等外部环境的防护 (内部接头需要密闭环境的防护) 。

为方便C-CMTS产品野外安装及维护, 单边RF射频信号口 (输出或输入) 按合计不超过2路设计。内置光接收机C-CMTS设备, RF射频信号输出最多4路, 外挂光站的C-CMTS设备, RF射频信号输出最多2路。

C-CMTS设备应采用光缆引入口能适配尾纤和尾缆设计, 并在内部配置小型的盘纤盒。

4.3 C-CMTS仍然存在的不足

任何一种技术解决方案都有自身的局限性和不足, C-CMTS也不例外, 特别是在没有经过大规模应用和部署的情况下, 还有很多方面需要调整改进。珠江数码在实施和应用过程中, 主要遇到的问题有:

(1) 产品的稳定性和实用性有待提高。作为一款新产品, C-CMTS在硬件设计、性能测试、稳定性等方面没有经过大规模应用的考验, 珠江数码从实验室测试, 到试点小区推广, 再到全网部署了900台, 在一年多的实施中, 不断向厂家提出改进建议和需求。例如射频端口间距过密、输出电平偏低、缺乏内置光接收模块、业务流处理能力偏低等问题, 以及增加测试端口、匹配多品牌CM等建议。目前这些均一一得到解决, 但随着大规模的推进, 发现新问题和解决难题的工作仍将会同步推进。

(2) 产品配套的运维管理手段有待完善。C-CMTS方案将原机房内CMTS设备下移到光机位置, 改变了原有的以CMTS设备为核心的集中维护方式, 在CMTS上的检测仪表和网管软件均需做同步调整。目前是对CMTS的管理模式移植到C-CMTS上来完善运维管理, 检测仪表采用了9581SST的监控管理模式下移至光站, 网管软件同步完善对终端CM的管理, 并实施了综合网管建设。

(3) 单台C-CMTS支持并并发流过低。C-CMTS的分布式下移的部署降低了前端机房压力, 大幅提高了单个接入点带宽, 16个下行频点可达800M。但在目前实际应用中, 仅支持300个终端上线, 对于双向业务未能全面发展的区域, 频点带宽利用率偏低, 造成一定程度上的投资浪费。

5 结束语

上一篇:现代大众传媒下一篇:温度自动识别