超高速交换(通用7篇)
超高速交换 篇1
摘要:网络带宽已经跨过了10M/100M/1000M, 当前的10G、N×10G的高速带宽正成为网络建设的基本规格。随着8×10G性能的需求日趋强烈, 超高速网络 (40/100G平台) 技术已经开始在当前的数据中心部署使用。
关键词:超高速交换,浪涌缓存,交换网络
0.引言
云计算网络的性能要求超过常规应用数据中心, 这样的要求使得网络平台构建上性能的考虑区别于传统的认识, 深入认识云的底层特质。网络的交换容量和网络浪涌的吸收容量即是云计算 (或大型数据中心) 网络的性能关注点要同时关注的两方面。
超高速交换网络之前的几个概念
线速
指的是线路数据传送的实际速率能够达到名义值, 比如千兆端口能够实际吞吐量到千兆, 这在交换机是比较轻松的事, 但是早期的高端路由器端口如果能够达到千兆实际转发速率, 那是非常了不起的 (不过现在已经稀疏平常了) 。
超线速
如千兆端口能够吞吐的流量超过一千兆 (一般也就超出一点点) , 这种交换机与标准线速设备对接后容易产生丢包甚至将标准交换机“堵死”。在数据中心环境下极少数情况也允许满足超线速的组网, 只是对交换机有特殊要求。
全线速
交换机的所有端口能够同时达到线速转发。这个能力也体现了交换机的性能, 对于某些性能较低的设备, 称为达到全线速转发, 是指达到了设备的最高性能而已, 有可能离该交换机的端口容量总和还远着呢。
“无阻塞”全线速
有时候在全线速前面再定义一个“无阻塞”, 其实是强化交换机的全线速能力, 指的是对交换的任意大小字节的报文均能够达到全线速的能力, 所有端口都以线速接收帧, 并能无延迟地处理被称为“无阻塞 (Nonblocking) ”, 之所以这样叫是因为设备内部没有等待处理的报文 (没有阻塞) 。但是无阻塞有时也会遇到挑战, 在很小的概率下 (即实际测试中极不容易出现) , 确实能够构造特定测试例使得交换机产生阻塞, 这是因为传统交换架构下理论上也能分析出阻塞的可能性。
1. 超高速交换网络
传统交换架构, 非真正意义的“无阻塞”
在“数据中心级交换机”概念出现以前 (这个概念也是随着云计算发展而产生的, 此前只有核心交换机、高端交换机的概念) , 盒式交换机一般是单芯片, 机架式交换机则主要是“交换网+IO芯片”结构, 比较先进的交换网一般采用crossbar, 架构如图1所示。
传统高端设备以交换线卡连接Crossbar高性能交换网, 数据在Crossbar内部选路基于实现配置好的规则, 同一数据流在内部的运转路径是确定的 (HASH算法) , 因此存在特殊情况下在交换不同级层上会发生阻塞的现象, 如图1的数据流1和2在第一级、数据流3和4在第二级的阻塞 (情景有点类似于等价路由或链路捆绑的流量不完全均衡性) 。这种架构的交换网容量并不大, 一般以支持10GE为主。
这种非真正意义的“无阻塞”在一般性数据中心并不会遇到挑战, 但在大型互联网数据中心, 随着近年来ISP业务不断丰富、业务规模不断扩大和实际带宽消耗迅猛增长, 已经出现了传统交换架构在互联网数据中心难以满足性能需求的现状。
无阻塞交换, 云计算核心交换平台的关键且基本的要求
到了新一代交换平台产生的时代, 数据中心级核心交换平台的能力已经确定在10Tbps的级别, 交换系统的架构产生了本质的变化, 这种变化是为了应对云计算超高速100G、以及实现今后10T环境下的完全无阻塞所带来的挑战而变革产生的架构, 也就是CLOS架构。
那么, 完全无阻塞的意义就是对一个交换架构无论是理论分析还是实测, 都能够达到真正的无阻塞交换 (如果不能全线速, 完全无阻塞也用处不大了) 。
完全无阻塞的概念, 也是在云计算环境下开始逐步强调的, 因为云计算中心应用密度比之传统数据中心高得多, 流量情况更为复杂, 数据性能要求更为严格, 如果在交换平台核心不能满足完全无阻塞的交换条件, 瞬时引起的阻塞必然会导致网络流量异常, 即使是理论上小概率的瞬时阻塞, 也可能在云计算网络中反复出现。
这对大型网络来说, 是存在隐患的, 因为不断增长的业务和流量可能因为核心平台的隐患而有所限制 (莫名其妙的情况下发现网络偶然不畅) , 这种潜在问题有时是无法分析清楚的, 特别是已经在运行的网络。
因此, 完全意义上的无阻塞交换, 是云计算核心交换平台的关键而基本的要求。
新一代交换架构三级CLOS&CELL交换可支持完全无阻塞交换, 是完全遵循复杂业务流要求的, 能够将大规模密集流量在交换系统内部均匀交换, 避免了阻塞带来的性能恶化与严重下降。
其实现基本原理如图2所示, 在系统内部采用动态选路方式 (线卡、交换网保存内部数据转发路径信息, 如果出现路径不可用或网板、线卡故障, 选路信息动态改变, 这一切操作由硬件系统内完成) , 业务线卡接收到的数据包文, 进行等长切片处理形成定长信元, 每个信元加载动态选路的标记头 (长度不够的信元会进行内部填充) 。
如何构造无阻塞交换网络
云计算需要超大的计算能力和网络交换能力, 通过网络来组织数千台至上万台服务器的协同计算, 因此云计算的支撑网络也提出了无阻塞的方向。
首先看如何构造大规模的线速网络, 如图3所示。从两个方向来扩展, 在层次上, 每一层的交换设备上行所有链路带宽与下行的所有链路带宽相等, 在同一层次, 按照下一层设备的上行端口数扩展, 如此直到最高层 (目前主流构造两层到三层网络结构) 。
构造线速交换网络比较简单, 但是要达到无阻塞, 当前的技术实现还不够彻底, 因为在网络级别只能使用链路负载均衡技术实现对带宽的充分利用。如图4所示, 实现方式主要有两种。
Round robin方式:将数据流依次向可用链路均匀转发 (可以基于统计速率、也可以基于逐包方式) , 一般来说, 当服务器之间全部使用定长报文 (如1500字节) 交互数据, 基本就构成了一个“完全无阻塞交换网络” (是定长数据交换条件下) , 但是存在的问题是, 同一数据流的不同报文可能经过不同网络路径到达目的地, 经过网络大规模流量浪涌后会存在严重的乱序问题。
HASH方式:使用网络设备的硬件负载均衡算法, 基于数据流的二三层地址信息和四层端口号信息得到不同链路的选路信息, 能够保证同一数据流经过相同路径到达目的地, 避免乱序, 但是不同数据流因为流量大小有差异, 使得网络不同链路难以完全均衡, 不过在当前技术条件下, 不均衡度已经极小, 十分接近完全无阻塞交换网络了。
2. 浪涌, 云计算环境下的一个网络现象
在云计算环境下, 性能无疑成为最为关注的核心要素, 但是, 有了超高速的交换性能, 不一定表示网络能够达到理想的效果, 还需要关注网络浪涌的吸收容量, 我们从分析端口流量情况和网络实际流量情况入手。
端口流量
图5是进行毫秒级网络流量研究时得到的流量图, 不妨称之为微观流量视图 (事实上早在2000年左右, 运营商的研究机构已经在622M骨干网发现了这个现象) 。在秒级、分钟级以上的宏观时间尺度下, 流量A和B的采样曲线十分平滑, 这是因为流量观测的累积平均效果造成的, 当采样尺度缩小到毫秒级。
我们发现, 从端口得到的流量曲线发生了变化, 最高的流量值可能达到平均流量的2-3倍 (当然, 也有更低的曲线值) 。
这个问题的本质来源于交换机的线速转发特性 (实际上核心、高端交换机内部还有更大的加速比, 即内部交换通道速率一般远高于对外的端口速率, 但我们不必过于复杂化) 。
线速转发的机制, 使得交换机在接收或者发送任意一个报文的时候, 都不同于我们观察到的结果 (我们看到的都是一段时间内的平均速率) , 任一个报文都是以千兆或万兆速率在转发, 而且持续达到线速后, 报文之间的转发时间间隔 (或称帧间隙) 达到了最小值。
以图6为例作一个不太严格的分析, 在千兆端口下, 假定转发的报文大小为端口MTU级, 即报文为1500字节, 计算出的串行化时延约为12微秒, 由于报文之间还有帧间隙, 为简单起见, 假设为8微秒 (实际帧间隙非常之小) , 那么一个报文的转发到链路时间为20微秒。
也就是说, 要体现交换机线速转发, 端口上每20微秒就发送一个1500字节报文。隐含的事实是, 任何一个1500字节的报文都以20微秒的标准在交换端口转发出来, 所用带宽均为1Gbps。
那么如果网络中我们观测到一个端口流量是500Mbps, 该如何来理解这个信息呢?
如图7所示, 最理想的情况当然是每40微秒转发一个报文, 这样网络流量最平稳, 最恶劣的情况是, 在观测周期内, 前半段时间流量20微秒的密集 (即持续千兆速率转发) , 后半段时间无数据转发。当然, 正常情况下是界于二者之间非常随机的。
网络的实际流量
网络是由多个网络设备组成的, 网络的流量难以有很合适的描述模型, 不同的网络业务模型、性能要求都不一样, 我们只分析网络数据流的走向情况。
先看一个全线速、完全无阻塞交换机的数据流向, 包含两种情况, 如图8所示。不论是A还是B, 对单个网络节点而言, 即使是全线速无阻塞的性能, 也面临着在短时间的高带宽向低带宽的数据流向, 相对而言情况A比较容易确定, 情况B比较复杂。
因此分析网络的实际流量, 其本质上网络节点的流量并不是均衡的, 也就是说, 网络实际流量并不是完全按照网络设备的无阻塞架构来转发的, 总是会造成一个瞬时拥塞, 即进入交换机的带宽比出交换的带宽要高, 如数据中心内部多台服务器向少数服务器传送数据的情况。
如图9所示, 左边两种情况都不会影响业务性能, 但是最右边引起瞬时拥塞, 如果产生丢包, 必然对上层应用产生影响, 特别是云计算环境下, 数据流量超大, 拥塞的数据被丢掉后必然使得整个云平台的性能和可用性大为降低。
这种恶劣的影响并非网络设备交换性能不够产生的, 实质上是网络流量的不可控可变带宽比产生瞬时收敛造成的 (如多个万兆到少数万兆、万兆到千兆等) 。
基于以上两方面的分析, 我们确定云计算环境下的一个网络现象——浪涌 (在一般网络条件下称为流量突发, burst) , 密集的高速流量, 瞬时的收敛性数据传输与同步特点。比之一般网络的突发更为严峻的是云计算网络一旦发生拥塞丢包, 所需要处理的数据量比常规条件下大得多。
如图10所示, 网络端口的平均流量并不高, 但是从两个端口向一个端口的流量由于疏密不均, 造成了突发。在入端口方向, 由于交换线速转发的特点, 宏观平缓数据流在不同毫秒级范围内度量结果也不一样 (340pps~800pps的成倍关系) , 当这两个端口流量要向同一端口输出时, 是不是会造成更为恶劣的流量突发——浪涌情况?
突发毕竟是瞬时的, 一般情况下认为是毫秒级的或亚秒级的 (所以叫瞬时拥塞) , 而平均流量并没有达到所用的带宽, 如果是持续的拥塞, 则应该是带宽需要扩容了。
对网络节点的突发分析也适用于整个云计算网络, 即使是无阻塞的网络架构, 其上承载的浪涌突发数据流也是不定向的, 整个网络的浪涌吸收能力决定了云计算的密集数据吞吐、交互、处理能力。
3. 云计算核心交换网络的缓存结构
对于交换机而言, 缓存方式也有不同的机制:出端口和入端口缓存。传统技术实现多以出端口缓存为主, 这种机制使得所有数据流的突发在出端口处被缓存, 缓存的大小即是网络最大可能的突发值。
新一代云网络的核心交换平台一般采用入端口缓存 (如图11所示) , 一般结合虚拟输出队列 (Vo Q) 技术, 在每个入端口方向配置大容量缓存, 在出端口配置较小缓存, 使用专用流量管理器件TM (traffic manager) 进行内部流量管理, 并采用credit来控制每个端口入方向的数据向出端口的突发, 每个出端口向其它入端口分配credit数量, 当出端口在线速向外转发数据时, 如果入方向过来的数据速度较快, 在达到或超过出端口设定的突发门限时, 出端口不再为入端口分配credit, 从而使得入端口的数据缓存在本地的大容量buffer中, 当出端口 (保持线速对外转发) 的排队下降到门限以下, 继续向入端口分配credit, 使得缓存的数据得以继续转发。
因此入端口缓存机制下, 各端口的数据在出端口拥塞时都能在本地缓存, 因而缓存容量是与入端口数成正比的线性关系。这种线性比例的缓存能力, 能够自适应于云计算的不定向浪涌流量, 交换缓存架构能够自动调节不同方向的瞬时流量拥塞压力, 是当前云计算网络的主要应用技术。
而对于时延与缓存, 很多人一谈到大缓存设备, 立即联想到大的交换时延, 而低时延必然是小缓存, 其实, 两者之间并没有必然的联系, 一切取决于网络的应用情况。
对于交换而言, 一般的存储转发时延是几个微秒, 与缓存大小并无绝对关系, 如图12所示, 对于无拥塞的轻载网络A, 数据进入交换机缓存后立即进行查表转发, 大缓存和小缓存的效果是一样的, 当出现瞬时拥塞后如B, 大缓存能够避免丢包 (重传引起的时延比缓存的时延大多了) , 而小缓存在大规模突发流量下如C, 必然对突发的缓存量少, 会丢弃报文。
但并不是所有应用都需要大缓存 (毕竟成本不一样) , 因此考虑到时延的网络平台需要根据应用的具体情况构建, 一般情况下建议实测来选择建网方案。
4. 浪涌缓存模型分析---多大缓存合适?
有不少研究曾经着重于网络到底需要多大的缓存, 最著名莫过于图13这个公式了, 该公式更多地被应用到路由器作为广域链路连接时的缓存大小确定, 其目的是为了充分利用昂贵的广域网带宽。
其中, Buffer指缓存大小, 单位Byte;BW数据传送带宽;RTT (Round-Trip Time) 往返时延, 在网络中它是一个重要的性能指标, 它表示从发送端发送数据开始, 到发送端收到来自接收端的确认 (接收端收到数据后便立即发送确认) , 总共经历的时延。
数据中心的缓存如何来建模呢?
数据中心与广域网有显著区别, 内部带宽可以是足够的 (高速交换) , 但是突发浪涌很严重, 那么缓存主要不是用来充分利用带宽的, 而是用来吸收浪涌的。
这里的模型并不具有严格的学术意义, 但是, 用户如果能够在日常注意收集数据中心的相关业务数据, 对于自身的缓存需求建模和网络性能分析是很有参考意义的, 下文描述的模型有助于分析某些应用中的问题。
·动态收敛比:N
如图14所示, 在云计算网络中, 由于整个网络都可能是无阻塞的, 从表面上是看不到收敛的, 但是计算的交互并不是我们想象的那样完全均衡的按照我们想象进行无阻塞交换, 而是经常发生诸如数十个计算节点与几个计算节点进行数据传输, 或者如同搜索一样, 几台服务器从数百台服务器获取搜索结果, 这都会在网络中造成瞬时 (我们在毫秒级考量的尺度) 的数据通道带宽不一致, 引起短时的拥塞。因此这种问题的分析也就是数据的入方向 (Ingress) 带宽高于出方向 (Egress) 带宽的情况才有意义 (其它情况基本不会影响上层业务的品质) 。
简单起见, 假设端口的带宽BW是固定的 (千兆或万兆) , 流量的入端口数为Mi, 出端口数为Me, 要求Mi大于Me, 那么:
·突发数据量和网络传送时间:D和T
我们再来定义两个指标, 如图15所示, 对于构建云计算网络的用户来说, Tm是由业务层面提供的参考数据, D也应由业务层面给出, 但一般难有具体值, 需要经过分析来获取, 后文将给出两个分析案例。
实际的数据传送时间为t, t必须小于等于Tm才能满足业务要求, 那么:
·临界缓存值:buffer0
我们再定义一个临界缓存值buffer0, 是指能够刚好满足突发要求的最小缓存值, 即在数据D的突发量下, buffer0刚好能够容纳这些数据 (因为在缓存容纳数据的同时, 出端口还在往外转发数据) , 如图16所示。
我们借用水池漏水的题目, 蓄水池的大小是buffer0, 粗水管以BH的速率往水池里灌水, 细水管以BL的速率往外流水, 问题:
a.当水池装满后, 粗水管一共灌了多少水?
求突发量D与buffer0、入出带宽BH和BL的关系。
b.如果当水池满后就停止灌水, 那么从最开始灌水, 到水池的水流干, 一共要多长时间?
求突发量D下, 数据传送时间t与buffer0和带宽关系 (是否满足应用的需求) 。
通过对以上问题的求解 (由于篇幅有限, 这里求解过程略去) , 我们得出当网络的出带宽等于入带宽时, 是不需要buffer的。同样, 根据公式分析, 在发生瞬时拥塞的条件下, 增加出口带宽 (入带宽不变) 可以减少对buffer的要求。
临界缓存与收敛比的关系如图17所示, 出带宽增加, 不仅收敛比减小, buffer0的要求降低, 同时根据t=D/BL得知相同突发数据量的传送时间大幅降低。反过来也根据模型得出, 收敛比减小出方向带宽增加时可突发的数据量比原有收敛比要大。
如果网络的收敛比不变、缓存也不变, 但是随着业务量的突发严重, 要求更大的突发量, 该如何调整?根据模型公式分析, 需要应用层进行调整, 即对数据突发进行平缓处理 (避免突发过于集中超过buffer0导致大量丢包) , 同时增加Tm的值, 即允许网络传输时间更长。
上述公式比较离散, 分析问题时需要根据条件不断转化, 虽然云计算环境非常复杂, 但是只要在网络规划、运行过程中不断收集参数, 对浪涌的分析与优化是可行的。
实例分析一:网络搜索
应用的基本描述:
·查询服务器向200台响应服务器发起请求;
·每台响应服务器发出60KB的数据, 折合1.5KB报文约40个, 响应服务器在最短时间向网卡发送数据, 时间非常短 (1-2毫秒) , 可认为所有服务器发生了瞬时突发;
·查询服务器将所有请求收到的时间规定在40-60毫秒内, 我们设为50毫秒;
·当时使用的这个设备缓存大, 但是缓存分配的个数只有4K个单元, 且均分到不同端口, 因此随着应用的负载增加, 逐步出现检索丢包的现象。
从上面的一些数据, 可以得到:
突发数据量D=200×60KB=12MB;
业务响应要求时间Tm=50毫秒;
网络收敛比是200千兆端口数据发向1个千兆端口, 但是最严重的地方在于查询服务器所在的交换机两个万兆流量打入A所在的千兆端口, 不妨设定收敛比为N=20G:1G=20;
那么平均要求的传输带宽是12MB/50毫秒=1.9G, 说明现有的带宽1G根本不能满足业务需求。
现在应用进行调整, 将60KB数据降低到30KB, 此时D=200×30KB=6MB, 1G带宽是可以满足要求的, 现在来看缓存的要求, 根据模型公式, buffer0= (1-1/20) *6MB=5.7MB, 按照1.5KB一个报文, buffer0至少需要缓存报文个数为5.7MB/1.5KB=3.8K个, 因此一个设备的缓存不仅要求大小为5.7MB, 可缓存的报文个数还要在4千个左右。
为了优化性能, 可以选择两种方式来改进。
第一种是将缓存的所有单元全部分配给查询服务器单端口, 这样能够满足突发所需的缓存需求。但是对于负载增加, 入信息增加到60KB、服务器群增加的扩展性有很大限制。
第二种, 将查询服务器改为万兆, 此时收敛比N=2, 如果在现有缓存能力 (4K个报文32MB容量) 下, 可以突发的数据量D=buffer0×N/ (N-1) =4K×1.5KB×2=12MB, 比原来突发量升了1倍。
而业务响应时间t=D/BL=12MB/10G=9.6毫秒, 远小于50毫秒的上限, 而同步可传输的数据量是原来的10倍 (带宽增加了10倍) 。如果应用层进行调整, 平缓突发如分组或分时 (以9.6毫秒为参考) , 那么在50毫秒的响应时间条件下可获取更大的突发能力。
实例分析二:校园网数据中心应用
·20000学生规模, 300台左右服务器;
·两台接入设备使用VRRP方式运行在三层主备模式;
·上行各为一个千兆, 两台设备之间为两个千兆互联;
·右边设备为Master, 使用了一块4:1收敛的交换线卡上行, 缓存<500KB, 其它线卡缓存;
·问题是每学期学生集中选课时网络异常, 但是平均流量很小, 不足200Mbps;
·当人为进行A和B链路切换 (数据流从B上) , VRRP主备不倒换时, 故障消失, 平均流量依然为200Mbps左右。
经过现场诊断和深入分析, 解决方法为将右侧Master上行线卡更换为全线速、大缓存的线卡, 运行至今未见问题出现。
问题分析:
选课一般时间比较集中, 2万名学生选课假定10%的同时在线率, 说明服务器要对外处理8000个会话, 假定每个报文为512B (报文大小不一, 只能假设一个) , 则突发数据量可假定为D=2000×512B=1MB, 即D=1MB。
收敛比, 按照数据流从A链路上行, N=20:1=20 (假定只有同时20台服务器对外工作, 其它服务器可能还提供别的服务, 也对网络突发是有贡献的) 。
因此buffer0= (1-1/20) ×1MB=0.95MB, 说明缓存要求显然高于现有网络运行产品的要求。
那么, 为什么数据流绕行B链路上行能够缓解突发呢?
首先是Master向Slave发送端口的带宽增加了1倍, 即相同时间内转发的数据流会更多, 超过带宽要求的数据量会下降, 而且由于收敛比下降了一半, 对缓存的要求也降低。
根据模型公式, 原来带宽是1G, 在缓存满时已经传输的数据量是
带宽到2G后, 缓存满时已经传输的数据量是, 说明原有缓存满后, 已经传输的数据量超过了原来的两倍, 这样就极大降低了突发。从slave的角度, 收敛比只有2:1, 也能够缓解缓存的要求, 同时数据流经过了Master和slave设备, 经过了两级网络缓存, 进一步改善了突发。
5. 结束语
云计算是前所未有的性能密集型IT业务模式已经是不争的事实, 云计算的发展将直接依托于超高速网络, 并依赖于超高速交换技术实现服务交付。然而超高速交换本身还不足以解决所有问题, 围绕超高速网络环境下的多种关键技术还有待于无缝集成。
高速射频交换矩阵设计 篇2
近几十年来,电子系统已经改变了传统的将不断出现的功能设备逐渐堆积式的向前发展模式,而是沿着网络化、综合化、模块化、通用化和智能化的方向发展。1992年,Mitola在美国电信系统会上首次提出软件无线电的概念[1],用应用软件代替传统无线电系统中以硬件为主的设计,实现波形产生、处理、加密、调制解调和其他通信系统功能。通过可重构现场应用软件, 实现动态修改通信功能。软件无线电的核心内容之一是宽带数字接收机[2],它是通过中频直接采样,把目标信号的原始信息不失真地记录下来,利用各种数字信号处理的方法和频谱分析工具进行处理。由于目前技术手段的限制,还无法实现在天线端宽带接收[3],宽带功放设计也只是刚刚起步,远未达到实际使用的程度。所以必须对不同频段分开设计天线和功放,由统一的射频收发通道到功放和天线必须经过射频交换矩阵[4]。
射频交换矩阵广泛使用在卫星系统[5,6,7]、微波测试系统中[8,9,10]以及智能天线系统[11,12,13,14],目前可以实现的带宽[15,16]可达到0~60 GHz,其实现手段也从机械与半导体开关相结合发展到微机电系统(MEMS)[17,18]。目前国内在通信系统中采用射频交换矩阵的尚未见于文献,随着国内软件无线电和综合化发展,越来越多的通信系统的射频交换矩阵研究已经展开。
本文提出一种L波段可编程高速24×16射频交换矩阵,采用级联方式,在满足设计指标的前提下,达到工程实用要求,有效地降低了设备复杂性,提高了灵活性和可维修性。
1 射频交换矩阵设计原理
设计和配置射频交换矩阵时,应充分考虑测试需求和测试方法,选择合适的开关类型和拓扑结构,才能实现高性价比的射频交换矩阵。一般来说,射频交换矩阵的设计应遵循以下原则[11,12,13,15,16,17,18]:
(1)根据系统参数选择合适的开关种类;
(2)选用高性能微波开关,插入损耗、驻波比小,隔离度高,可靠性、重复性好;
(3)选用高性能微波电缆,插入损耗、驻波比小;
(4)避免使用衰减器,若测量过程中必须使用衰减器,尽量使用小衰减器;
(5)尽量使用多掷开关代替双掷开关,减少微波开关使用数量;
(6)将微波开关矩阵设计为一个单独系统,对所有开关以及微波开关矩阵输入/输出端口物理位置进行固定,减少人为因素的影响。
按照以上原则设计射频交换矩阵,以n × n开关矩阵为例,它是由n只输入单刀n掷开关和n只输出单刀n掷开关彼此选择端口两两相连所构成的。通过分别控制输入/输出单刀开关可自由组合,n个输入端口与n个输出端口可以任意选通,但同一时间1个输入端口只能对应1个输出端口,即同一时间有n路通道,只是通道的输入/输出端口可变,有:
式中假设pi,j= 1代表选通,则选通原则为:
总单元个数为:
式中CSPNT为构建单刀多掷开关的单元个数:
由式(3)、式(4)可得:
则射频交换矩阵总差损可以近似为所有开关元素和单刀多掷开关在驻波比好的时候的总和:
式中:ILSE和ILSPNT分别是开关元素和单刀多掷开关的差损;ILIT是连接损耗:
射频交换矩阵的可靠性为[8]:
2 高速射频交换矩阵设计方案
由于目前技术手段的限制,国内尚不具备微机电系统实现射频交换矩阵的器件。按照设计原则(1),可供选用的开关有两种:Ga As FET单片开关和PIN开关。 Ga As FET开关具有开关速度快,驱动功耗低的特点,应用频带宽,可以从DC~18 GHz,控制信号与射频信号通道隔离好,易于单片集成,系列化程度好,但功率容量相对来说较小;PIN开关的功率容量较好,插损小、隔离度高,结构设计较灵活,可靠性高,易于级联。但需要较大的控制电流,控制信号直接在射频信号通道中,为了抑制射频信号从控制端泄漏,需要在控制端串接大电感或电阻,开关速度略低。PIN开关的驱动都需要驱动电路及信号变换的门电路,这些低频电路又对泄漏的射频信号起到了很大的衰减作用,一般为40~50 d B,因此射频信号泄漏到模块输入控制接口的信号应小于-80 d B。 从开关速度指标看两种开关均可满足要求。但对射频矩阵来说,按照设计原则(2),其小的插入损耗是设计的重点,选择开关的主要依据是采用最小插损的开关。
L波段的单刀多掷Ga As FET单片开关较少,且插损较大,单级开关隔离度只有40 d B左右,要达到80 d B的隔离度要求,在每个通道上还要在增加一级单刀单掷开关,这样开关的插损更大,根据设计原则(1)~(6),因此选择使用PIN二极管开关。从减小体积考虑,设计用24个单刀16掷开关级联16个单刀24掷开关来组成需要的24×16开关矩阵。
串联PIN二极管的插入损耗IL和隔离度ISO的计算公式为:
并联PIN二极管的 插入损耗 和隔离度 的计算公 式为:
式中:Rs为PIN二极管正向偏置时导通电阻;C为PIN二极管反向偏置时的电容;Z0为特性阻抗50 Ω;f为应用频率。
将式(9)、式(11)代入式(7),结合开关性能,串并联结构的PIN开关更容易实现低插损和高隔离,因此选用串并联电路结构组成开关矩阵。
基于开关的射频矩阵24×16开关矩阵采用24个单刀16掷开关级联16个单刀24掷开关来组成需要的24×16开关矩阵。其中单刀24掷开关采用一个单刀6掷开关级联6个单刀4掷开关再级联24个单刀2掷开关实现,单刀6掷开关选用Hittite公司生产的HMC252,单刀4掷开关选用Hittite公司生产的HMC345,单刀2掷开关选用Hittite公司生产的HMC190。主要指标如下:
HMC252:插损小于1 d B,隔离度大于40 d B,开关速度小于150 ns;
HMC345:插损小于2 d B,隔离度大于50 d B,开关速度小于120 ns;
HMC190:插损小于0.5 d B,隔离度大于25 d B,开关速度小于20 ns。
因此单刀24掷开关总插损应小于3.5 d B,隔离度大于60 d B。单刀24掷开关设计如图1所示。
单刀16掷开关采用一个单刀4掷开关再级联4个单刀4掷开关实现,单刀4掷开关选用Hittite公司生产的HMC241,主要指标如下:
HMC241:插损小于0.8 d B,隔离度大于40 d B,开关速度小于150 ns。
单刀16掷开关总插损应小于2 d B。单刀16掷开关设计如图2所示。
3 高速射频交换矩阵主要技术指标论证和测试
开关本身插损小于5.5 d B,考虑到开关级联失配及接头、电缆等损耗,预计实际插损应小于6 d B。开关矩阵路间插损不一致性小于0.3 d B,除了开关本身插损不一致性外,还由于开关之间连接为同轴电缆,电缆长度也影响了开关的插损一致性,因此通过增加通道中固定衰减器来调整开关插损一致性。选择最小固定衰减器的损耗为0.15 d B(型号为BW100系列单片固定衰减器),可以精确调试开关通道插损。PIN二极管为电流控制器件,其承受功率能力主要取决于工作频率及PIN二极管物理参数及偏置电流,PIN二极管载流子寿命大于200 ns,偏置电流大于15 m A,则开关的P1 d B在工作频率范围内大于15 d Bm。
射频矩阵性能指标主要测试性能如下:
( 1 )射频通路( 24入16出);
()驻波比:;
( 3 )插损: ≤5 d B ;
( 4 )隔离度: ≥60 d B ;
( 5 )开关速度: ≤5 μs ;
(6)24个输入端口可指向任何16个输出端口。
由于篇幅限制,表1中仅列出1路入16路出的测试结果。
4 结论
本文提出了一种L波段程控24×16高速射频交换矩阵设计方法,解决了目前尚无宽带接收天线和宽带功放的情况下,用软件无线电的方法实现宽带数字接收机的问题。解决方案为对于不同频段分开设计天线和功放,由统一的射频收发通道经过射频矩阵到功放和天线。经过理论分析和实践验证证明该设计可以满足要求,实现了基于软件无线电的宽带数字接收机。
摘要:提出应用于通信系统中的基于单刀多掷开关(SPNT)的高速射频矩阵设计,分析射频矩阵设计原理,给出一个L波段的高速射频矩阵详细设计方案,通过实际测试检验,设计满足了预期指标。在目前电子设备综合化发展的趋势下,可以提供良好的射频综合化功能,为电子设备的小型化综合化提供了解决思路。
高速智能型数据处理交换机 篇3
已申请专利
项目简介:
本项目旨在开发一种智能型、高速的数据处理交换机。它应用于第三代 (3G) 和第四代 (4G) 无线网络通讯。这种数据处理交换机基于INTEL生产的IXP1200芯片, 辅以一套开放式的操作系统, 并由一套自发研制的网络数据交换软件所控制。它的数据转换速率可达到10GBPS。本数据处理交换机的智能化主要体现在以下几个方面:1、数字缓存系统:本数据处理交换机提供缓存功能以提高数据传输的有效性。2、内容选择模块:本数据处理交换机能够提供不同协议之间文本内容的相互转换。3、语音识别与文本转换:本数据处理交换机还能提供语音识别和文字转换语言的功能。在第三代和第四代无线通讯中, 数据打包技术及数据传输技术起着十分重要的作用。高速且具有智能化功能的数据处理交换机将有着巨大的市场。
主要市场:
超高速交换 篇4
楼道以太网交换机位于城域网宽带接入网中的最底层, 下连LAN用户, 上连园区交换机, 完成公众用户业务的接入。为解决用户精确定位、业务安全隔离及端到端QoS等诸多问题, 以实现城域网资源有效规划, 位于接入层的楼道交换机至关重要。
新特性增添活力
随着运营商家庭网关业务的部署, 支持1:1和N:1 VLAN转换功能的楼道交换机引起关注。VLAN映射其主要的功能是将用户报文中的私网VLAN Tag替换为公网的VLAN Tag, 使其按照公网的网络规划进行传输。为了区分不同的用户, 需要在楼道交换机处用不同的V L A N来承载不同用户的相同业务 (包括PC、IPTV和VoIP) , 即进行1:1 VLAN映射。但汇聚层网络接入设备可提供的VLAN数量有限, 因此需要在园区交换机上来进行VLAN的汇聚, 用一个VLAN来承载原本由多个VLAN承载的不同用户的相同业务, 即进行N:1 VLAN映射。通过VLAN映射技术, 可以精确定位用户的地理位置和业务类型, 为运营商实现用户及业务控制提供了精细化的手段。
IPTV等组播类业务正在逐渐步入人们的生活。在楼道交换机方面, 除了传统的IGMP snooping, 像IGMPproxy、IGMP filter、垮VLAN组播复制、组播快速离开、组播预览、基于端口的组播速率限制和流量统计等功能受到欢迎。
在安全方面, 如大ACL表项, 安全M AC、端口隔离、M AC地址学习数目限制、IP Source Guard等安全技术, Radius、IEEE 802.1X认证、SSH等功能为网络提供强有力的保护措施。
新业务刺激POE交换机市场
随着WLAN、VoIP、网络视频监控等新业务的飞速发展, 大量的Wireless LAN AP、IP Phone、IP Camera等基于IP的终端出现在我们生活周围。这些设备通常数量众多、位置特殊、数据/电源线布线复杂、设备取电困难, 其实施部署不仅消耗人力物力, 增加建网成本, 而且拖延了建设时间。PoE (以太网供电) 技术则通过在标准的以太网数据线缆上对所连接的网络设备进行远程供电的方法, 消除了在每一台IP网络终端设备上都安装单独的电源设备的问题, 能够极大地减少部署终端设备的布线和管理成本, 推动了相关领域的发展。
支持IEEE802.3af标准及最新的IEEE802.3at标准, 支持智能的电源管理功能, 包括端口功率配置、设备电源优先级配置、使能/禁止端口供电、功率过载保护、过温保护等功能。并且使用5类双绞线供应超过30W的功率, 支持有较高功率要求的新型802.11n设备、IP网络视频电话、PTZ高端摄像机等设备, 将使楼道交换机具有更广泛的应用环境。
IPv6将是主流选择
全球IPv4地址约在2011年上半年分配完毕, A PNIC地址池也将在2012年耗尽。电信运营商的IP地址需求量逐年增加。未来几年, 中国的电信运营商很有可能申请不到足量IPv4地址, 将对网络和业务的发展造成制约。因此设备商必须从设备和网络层面为引入IPv6做好准备。
目前三大运营商包括教育网已经在骨干层提供对IPv6的支持, 不仅如此, 教育网已可以在部分区域提供纯IPv6的网络及应用。各运营商下一步的工作是将对IPv6的支持下移至城域网的宽带接入网。2010年三大运营商已启动以太网交换机集采前的测试工作, 明确提出了对IPv6的要求。业内主流观点认为“考虑到设备成熟情况, 近期IPv6接入宜采用双栈接入方式, 未来几年纯IPv6流量相对较小。”
在楼道交换机方面, M L D Snooping、IPv6 telnet/SSH、DHCPv6 Snooping、IPv6 ACL、SNMP v1/v2/v3 for IPv6、FTPv6/TFTPv6等功能成为IPv6相关需求。
稳定性能是主打“战力”
随着FTTx的发展, 以太网交换机市场受到EPON的冲击。但在IP城域网建设和企业网建设中, 楼道交换机由于其功能丰富、价格较低、部署灵活、操作简单、技术可靠, 仍然有着广阔的应用前景和市场空间。在产品日益同质化的今天, 烽火网络推出的新一代楼道交换机F-engine S2200ME系列, 依托多年交换机市场耕耘的经验, 将丰富的功能特性、可靠性、可维护性、绿色节能等深入贯彻到设计理念当中。不仅完善支持VLAN映射、组播、ACL、QoS、安全等功能, 而且支持业内最高等级的电源和全端口防雷。
由于楼道交换机部署在用户侧, 设备实际运行在小区设备间、楼宇地下室、竖井、居民楼道、简易民房以及室外机柜等非正规通信机房, 所处环境的温湿度、空气洁净度、接地条件等指标难以达到正规通信机房的标准, 其工作环境相对恶劣, 雷电、电压波动、温度变化都给交换机带来严峻的考验, 其中雷电是设备故障的主要“杀手”。在南方雷雨多发地区, 楼道交换机被雷击损坏的现象频繁发生, 雷击严重的地区故障率高达20%以上。损坏部位主要为:交换机的电源端口、上联电口及用户数据线端口等部位。
另外, 随着WLAN项目建设如火如荼, 支持POE功能的楼道交换机也在逐步大量部署, 由于POE交换机工作线缆中具有更为复杂的电信号, 其面临的雷电影响更为严峻。因此, 楼道交换机的电源及端口防雷能力成为关注的焦点。防雷等级高于6KV量级、防雷接口种类丰富、防雷端口数量多的产品将越来越受到用户的青睐。
超高速交换 篇5
高速串行接口是系统互联的核心,业内使用较多的是应用于嵌入式系统互联的串行Rapid IO协议、应用于PCI系统互联的PCI Express协议以及存储中广泛使用的Fibre光纤协议。在数据采集存储应用中,多种接口的应用使得存储系统越来越复杂,然而针对某些特定的以磁盘为存储媒介的系统,PCI Express协议仍然占据优势。标准的数据采集存储系统结构图如图1。
由图1可知,Fibre采集卡控制磁盘阵列的文件系统,PCIE转存卡接收数据采集设备的数据。2块板卡插在服务器提供的PCIE插槽上,通过PCIE协议交换数据。Fibre采集卡是成熟的硬件设备,而针对不同的数据采集设备只需要提供不同接口的PCIE转存卡。因此针对于应用最广泛的Rapid IO和光纤接口协议,实现PCIExpress到Rapid IO以及光纤协议的数据交换就非常有意义。
本文以光纤存储为背景,用Xilinx公司的XC5LX50T实现4X模式串行Rapid IO到4XPCIE的数据交换以及2X模式的光纤接口到4X模式的PCIE的数据交换。本文给出了整个交换模块的原理框图并解决了Rocket IO模块设计上的关键问题。
1 XC5LX50T及Rocker IO模块的主要特点
XC5LX50T是Xilinx稳定可靠的第五代FPGA中最有代表性的一款芯片,其内部集成一个可以用于Endpoint的PCIE硬核,该硬核可以支持1X模式、4X模式以及8X模式,并且遵循PCI Express Base Specification1.1协议,每一路的数据率为2.5 Gb/s,总的最大理论带宽为2 Gb/s(8 B编码后的带宽)。
XC5LX50T提供了12个用于高速串行的Rocket IO收发器,不同于前几代的产品,XC5LX50T的收发器可以支持6 Gb/s以上的数据率而且设计更为简单,工作更加稳定,其低功耗特性更加理想。Rocket IO模块可以支持串行Rapid IO、xaui、fibre channel等标准协议。由于性能稳定、传输带宽高等特点,串行Rapid IO已经成为嵌入式系统中最理想的互联协议之一,尤其在军事以及国防这些对于高速互联需求日益迫切的领域中,串行Rapid IO逐渐成为最为主流的数据交换协议。
光纤由于其带宽高、传输稳定以及接口简单等特点,被广泛应用于很多领域,例如光线存储、系统互联。XC5LX50T的Rocket IO提供自定义的光纤协议,最高支持3.125 Gb/s。
有些领域中存在着将Rapid IO协议的数据上传至有标准PCIE接口的服务器中进行处理的应用,也存在着将光纤接口的数据通过有PCIE标准协议的服务器存储到fibre channel协议的磁盘阵列中的应用。因此本文所设计的交换模块在嵌入式系统的应用中是十分必要的。
2 高速串行交换模块的基本功能
图2为交换模块功能图。
(1)4X串行Rapid IO数据与4XPCI Express数据的交换。这种交换模式分为主动和被动2种,主动模式指数据通过Rapid IO协议输入到交换模块中,经过交流耦合电路和协议转换FPGA以PCIE协议传输到另一模块。被动模式指数据通过PCIE协议输入到交换模块中,经过协议转换FPGA以串行Rapid IO协议传输到另一模块。
(2)2 bit光纤接口数据与4XPCI Exress数据的交换。这种交换模式同样分为主动和被动2种,主动模式指数据通过光纤接口输入到交换模块中,经过交流耦合电路以及协议转换FPGA以PCIE协议传输到另一模块。被动模式指数据通过PCIE协议输入到交换模块中,经过协议转换FPGA以自定义光纤协议通过光纤接口传输到另一模块。
3 高速串行交换模块的基本原理
3.1 Rapid IO协议到PCIE协议的转换
Rapid IO协议到PCIE协议交换分为3个步骤:
(1)根据串行Rapid IO协议将打包数据解析;
(2)将解析的数据缓存在乒乓使用的存储器中,可以使用片外ZBTSRAM也可以使用片内RAM资源;
(3)数据根据PCIE协议规定的方式打包,并按照PCIE协议发送出去。
Rapid IO与PCIE交换原理图如图3。
3.2 光纤协议到PCIE协议的转换
光纤协议使用的自定协议较Rapid IO协议简单得多,因此实现原理也简单很多。从光纤协议到PCIE协议交换分为3个步骤:
(1)根据光纤自定义协议将打包数据提取;
(2)将解析的数据缓存在乒乓使用的存储器中,可以使用片外ZBTSRAM也可以使用片内RAM资源;
(3)数据根据PCIE协议规定的方式打包,并按照PCIE协议发送出去。
光纤与PCIE交换原理图见图4。
4 交换模块实现的关键技术
在此交换模块中,关键技术集中在PCIE的DMA实现上,本节将讨论存储器写模式下的TLP结构以及基于FPGA实现的PCIE的DMA写操作核心状态机的设计与实现。
4.1 TLP结构简介
PCIE设备之间以数据包形式传送信息,最主要类型的数据包是处理层数据包TLP。其包格式如图5。
事务是在PCIE请求者和完成者之间进行的操作,包括存储器事务、IO事务、配置事务和消息事务。本文讨论的DMA读写操作是针对存储器空间的操作,存储器写操作TLP头的格式如图6。
4.2 PCIE的DMA写操作的设计与实现
PCIE的DMA写操作实现的主要方法是将TLP包头中的各个字段正确填充,并将数据按照64 bit或者32 bit并行放在TLP包头后,按照64 bit或者32 bit并行传输给PCIE硬核,由硬核以PCIE协议串行传输给其他设备。PCIE的写操作封装在TX模块的状态机中。在本设计中规定一次DMA写操作分为65 536次包传输,每次包传输的最大载荷为128 B,一次写操作的传输数据为8 MB。其状态机转换模型如图7(CPLD指返回完成包)。
实际上FPGA在PCIE硬核中实现了8个TLP存储空间,因此当发送模块将8个以上的TLP包传输给硬核后,硬核可能会堵塞,因此发送模块与硬核之间的交互非常必要。
5 测试结果
此测试包括3种模式。
(1)单纯测试4路PCI Express的DMA上传以及下传速度。
(2)数据从Rocket IO接口以2 bit自定义光纤协议与4XPCI Express协议进行交换。
(3)数据从Infiniband接口以4XRapid IO协议与4XP-CI Express协议进行交换。
具体结果见表1。
本文分析了3种应用比较广泛的系统互联协议,并给出在FPGA内部实现3种协议交换的技术特点。详细描述了多协议交换模块的系统结构以及实现原理。
本文的创新点在于通过FPGA的方式实现了多种主流高速串行协议的转换。通过将各种协议的端口独立化,简化了协议转化工作,使整个模块更易于更新维护。在FPGA提供的PCIE硬核的基础上构建了用户层的封装并实现了DMA数据传输。该交换模块已在某雷达信号存储与回放系统中得到应用,带宽是传统存储带宽的2~3倍。
注:RC表示主控机中的PCI Express设备。这里表示主板上的北桥芯片。EP表示PCI空间中的端点,这里表示FPGA板卡。
参考文献
[1]BUDRUK R著.PCI Express系统体系结构标准教材[M].田玉敏,王崧,张波,译.北京:电子工业出版社,2005.
[2]马鸣锦,朱剑冰,何红旗,等.PCI、PCI-X和PCI Express的原理及体系结构[M].北京:清华大学出版社,2006.
[3]闫振兴.基于FPGA的PCI Express接口的设计玉实现[D].北京:北京理工大学出版社,2009.
[4]PCI-SIG.PCI Express Base Specification Revision1.1[M].2003.
[5]Xilinx INC.LogiCoreTM IP EndPoint Block Plus v1.9for PCI Express Revision9.0.2008.
[6]Xilinx INC.Virtex-5FPGA RocketIO GTP Transceiver Revision1.4.2009.
[7]PADS-PowerLogic和PowerPCB使用教程[M].北京:电子工业出版社,2004.
超高速交换 篇6
通信网络建设是高速公路信息化建设的重要组成部分,更是信息化建设中具有战略意义的基础部分。目前高速公路运营单位的语音网络普遍采用基于TDM的程控交换技术,因其提供的功能过于单一,不能满足用户的多业务需求,尤其是多媒体业务。另一方面,运营单位也都建立了内部的数据网络,能够完成企业日常运作的信息化,但也存在着功能单一、网络利用率不高、无法跟传统语音网融合的问题,不能满足运营单位要将语音、数据、视频及多媒体业务融合到数据网上开展的需求,明显制约了高速公路的信息化发展。 基于数据与数据、数据与话音、数据与图象、图象与话音的业务整合,已经成为通信发展的必然趋势。软交换网络采用分布式的架构,具备业务提供和呼叫控制相分离、呼叫控制与承载的分离等优点,可以有效避免TDM交换固有的缺点,以软交换技术为核心的下一代网络(NGN)可以提供一个话音、数据和多媒体等业务的综合服务平台,具有灵活多变的附加功能和充足的发展空间,并能和企业信息化、办公自动化等系统有机结合,为今后的发展奠定良好基础,从而进一步提高企业自身的核心竞争力,提高效率,提高管理水平和服务水平,降低企业运行成本。
所以,为更深入的推进山东高速的信息化战略,合理有效的整合公司的信息技术资源,统一管理企业的各项业务和信息资源,为公司的经营战略提供更有效的服务。我们结合2012年公司通信专网建设项目,探讨将软交换技术的应用作为下一阶段的建设方案,以保证山东高速信息化平台的先进性、稳定性和可持续发展。
2 软交换技术简介
软交换的概念最早起源于美国企业网应用。在企业网络环境下,用户可采用基于以太网的电话,再通过一套基于PC服务器的呼叫控制软件(Call Manager、Call Server),实现PBX功能(IP PBX)。对于这样一套设备,系统不需单独铺设网络,而通过与局域网共享来实现管理与维护的统一,综合成本远低于传统的PBX。受到IP PBX成功的启发,业界提出了这样一种思想:将传统的交换设备部件化,分为呼叫控制与媒体处理,二者之间采用标准协议(MGCP、H248),呼叫控制实际上是运行于通用硬件平台上的纯软件,媒体处理将TDM转换为基于IP的媒体流。于是,SoftSwitch(软交换)技术应运而生,由于这一体系具有伸缩性强、接口标准、业务开放等特点,发展极为迅速。
软交换是一种功能实体,为下一代网络NGN提供具有实时性要求的业务的呼叫控制和连接控制功能,是下一代网络呼叫与控制的核心。 简单地看,软交换是实现传统程控交换机的“呼叫控制”功能的实体,但传统的“呼叫控制”功能是和业务结合在一起的,不同的业务所需要的呼叫控制功能不同,而软交换是与业务无关的,这要求软交换提供的呼叫控制功能是各种业务的基本呼叫控制。
以“分离交换和控制”为核心思想的软交换打破了传统的通信网络结构,为数据和话音的融合并催生大量新业务做好了充足准备。软交换被赋予“下一代网络核心”的历史意义。软交换网络在企业中的应用具体表现在以下几个方面:
(1)网络结构清晰简洁、一次投入即可在数据网上构建完整的端到端的语音及多媒体网络。
(2)软交换体系的集中控制、分布式体系、以数据网为承载网的特征使得网络的建设占用最少的设备空间,节省企业内部大量的配套机房、供电、配线等投资。
(3)构建在数据网上的VOIP网,充分利用了数据网的资源,大量节约投资。可大大加快网络建设速度,提高向最终用户提供业务的速度与服务质量。以数据网为承载网的融合网络大幅降低了整体网络的运行维护成本。
(4)完整的统一业务平台可方便地提供各类智能及增值业务,新型智能平台生成业务更加便捷、快速,业务提供成本更加低廉。
(5)采取IP分组交换方式,方便地支持视频终端、各类新型智能终端的接入,在同一网络上方便地为用户提供丰富多彩的多媒体业务服务,避免了传统的因提供单一业务而建设相应网络的弊端。
(6)软交换系统配置灵活,功能块网元可以分布在整个网络中,也可集中起来,适合不同企业情况的需求,组网规模根据需要可灵活选择。设备采用开放式标准接口,易于和不同网关、交换机、网络节点通信,兼容性、互操作性、互通性好,能有效地继承原网络的业务,实现PSTN等网络与NGN无缝融合。
对于软交换的网络系统结构如图1所示:
3 建设目标与设计原则
3.1 系统现状
山东高速股份有限公司下辖多个分公司,分布于山东省境内各地市。公司总部和各分公司都已建设了独立的内部通信网络,包括语音通信、数据通信以及部分视频业务等,目前语音业务所使用的技术为传统程控交换下联接入网的组合方式,均以程控交换为基础通过SDH传输通道建立中继连接,各收费站等分散站点均采用接入网形式接入各管理处及总部,以此实现总部、下辖各管理处及各站点之间的通信。
目前语音通信网络结构如图2所示:
如图2,各站点程控交换机及接入网设备基于SDH的传输网络,通过数字中继进行连接。股份公司与总中心进行连接,总中心与鲁南、鲁西、鲁东分中心连接,济南、淄博、潍坊、青岛四个分中心程控交换机依次连接与总中心互通。四个分中心分别下挂OLT接入网设备,每个OLT设备下挂数个ONU为收费站等远端站点提供语音通信业务。
鉴于现阶段《高速公路IP业务综合应用规划项目》已启动,明确要求建设山东高速公路IP电话系统,不再考虑程控交换系统建设方案。
考虑信息安全及系统可扩展性,IP电话系统远期可能与综合网互联,并且现阶段IP电话系统承载在收费数据网络上,所以不建议采用。
从系统可靠性、系统容量、系统可扩展性、标准性、可管理性的角度考虑,软交换平台组网优于IP PBX设备组网,软交换平台组网方式可实现远期所管辖所有路段的电话接入,并可在分中心与股份公司语音数据传输通路断开的情况下,分中心所辖电话也可互通。接入网升级为接入网关(MSAG),有利于保护现有投资,便于网管,并且在路段向上语音数据链路断开的情况下,可实现各路段独立的电话交换。
3.2 建设目标
软交换系统可以以语音通信网络为切入点,实现现有网络向NGN(下一代网络)的过渡。首先先将在股份公司构建软交换平台设备,实现语音通信向软交换的过渡,逐步实现网络融合,而目前根据路段语音业务需求分析,并结合路段接入网、数据网现状,将青银路作为首个向软交换过渡的路段。将青银路所有语音用户平滑过渡为软交换设备用户,在实现原有功能的情况下,开放各种新业务接口。
利用总中心程控交换机通过E1方式与股份公司软交换设备的媒体网关进行对接,将其他各站点原接入设备ONU升级改造为软交换接入网关MSAG设备,之后与软交换中心平台对接。
3.3 网络建设原则
3.3.1 标准化与开放性
应建立一个开放式、遵循国际标准的网络系统。支持国际通用的网络协议、国际标准的开放协议,有利于保证与其他网络之间的平滑连接互通,充分利用现有设备资源节省成本,充分发挥现有通信网络的作用以及利于将来网络的扩展。
3.3.2 性能和先进性
网络应有较高兼容性和业务扩展能力,可以满足企业目前需求的同时具备广泛的业务接口,可以满足将来数据网络等其他主要通信业务应用网络融合。
3.3.3 高可靠性
网络要求具有高可靠性,高稳定性。在网络设计中应选用高可靠性通信产品,合理设计网络架构,制定可靠的网络备份策略,保证网络具有故障自愈能力,核心与主要汇聚设备都支持冗余备份。
3.3.4 安全性
制定统一的骨干网安全策略,整体考虑网络平台的安全性。网络中应采取多种技术从内部和外部同时控制用户对网络资源的访问。可以用身份认验证、VLAN划分等技术有效地将不同的用户群体隔离开,同时也能够利用防火墙控制外部人员对网络的访问;网络系统还应具备高度的数据安全性和保密性,能够防止非法侵入和信息泄漏。
3.3.5 可扩展性
网络设计必须为今后的扩充留有足够的余地,保证今后其他路段向软交换过渡的需求以及根据未来业务的增长和变化,网络可以平滑的扩充和升级,尽可能减少对网络架构的调整。
3.3.6 可管理性
能对网络进行集中检测、分权管理,统一分配用户资源。选用先进的网络管理平台,具有对设备、用户的管理、业务操作、监控告警等功能。通过网管平台实现整个网络的控制管理。
4 系统组成
4.1 网络结构
在股份公司部署软交换平台设备,包括SS(软交换机)设备(1套)、网管系统、媒体网关(1套)、话务台、计费等设备,用于实现整个路段的电话交换。网络结构如图3所示。
4.2 网络改造内容
在股份公司新增1台三层以太网交换机,承载信息中心软交换平台设备,与股份公司的核心交换机(2012通信专网项目)通过1000M电口连接。
媒体网关与总中心的程控交换设备通过基干中继连接,与PSTN通过ISDN PRI 2M中继通路连接。
升级路段接入网ONU设备(计20套),进行软件升级,并增加相应的板卡,作为接入网关MSAG设备,在各路段分中心各设置1套网管终端(含软件),实现对于接入网关设备的管理。利用各分中心的综合网三层以太网交换机(H3C 7506E),作为路段语音数据汇聚设备,并通过传输系统(2012通信专网项目),实现与股份公司软交换系统的连接。在济南分中心的干线传输设备上增加10/100M板卡1块,承载以太网业务。
在各路段分中心各设置1台接入网关设备、1部IP电话,其中IP电话作为分中心指令电话总机。
分中心的电话通过接入网关设备引出。
通过股份公司软交换平台设备,借助部分综合网设备、干线传输系统(2012通信专网项目)及升级后的接入网为本路管理、养护、服务机构提供语音交换服务,包括业务电话、指令电话等。
封存各分中心T600 OLT接入设备。
至此,高速股份的软交换平台和青银路软交换IP承载网基本搭建连接完毕,青银路语音话机用户全部过渡到软交换平台用户,除保持原有业务不变以外,开放了诸多的软交换新业务接口,也具备了更全面的用户功能。
5 结束语
本次软交换系统平台及网络的构建,为今后的业务扩容、业务种类的扩展以及其他路段向软交换系统过渡提供了平台,也为以后数据、视频等网络与软交换网络的融合奠定了基础。从而确保在下一代网络(NGN)时代到来的今天,山东高速股份信息化建设能与时俱进,提供更为先进、优质、全面的信息化服务。
参考文献
[1]唐航,向东方.基于软交换解决方案的企业通信技术研究.网络和应用,2009.
[2]马岚.软交换技术及其应用[J].电子技术应用,2003.
[3]卢美莲,程时端.软交换技术.中兴通讯技术,2002.
超高速交换 篇7
以高速公路为主骨架的覆盖全国范围的高等级公路网络正在逐步形成, 对高速公路隧道、收费站及路段的监控管理已经成为高速公路管理的一项重要内容。 作为数据传输的重要一环, 工业以太网交换机在高速公路监控系统网络中的稳定性、可靠性、安全性成为不可或缺的关键因素。 而视频监控系统的新一轮变革, 使得速公路视频监控系统对视频质量、数量都有了更高的要求。 本文主要针对高速公路视频监控技术应用与以太网交换机联网系统方面进行分析。
2 系统组成与分类
高速公路视频监控系统从结构上划分, 一般可分为外场监控、收费站、高速公路路段监控分中心和省监控中心。 外场视频到监控分中心的传输网络则有多种方式。 随着视频监控系统的技术发展, 视频监控系统的方案也由最初的模拟矩阵系统、编解码器系统, 到现在日渐普及的纯高清视频监控系统等。 ( 图1)
视频监控系统视频传输的几种常用方式与比较:
2.1 模拟视频监控系统。 采用模拟视频光端机将收费站的视频信号通过专用光纤传输到监控分中心, 同样的方式再由分中心传输到省中心, 模拟视频监控网络是一个相对独立的子系统。 优点:图像采用数字非压缩方式传输, 清晰度高;模拟矩阵现在一般都可实现三级级联, 可以满足当前的视频联网问题;整体成本相对较低。 缺点:视频信号经过每个节点时, 均需进行A/D、D/A变换, 联网级数有限;收费站距离监控中心距离较远时, 光端机需要通过级联方式实现传输, 增加视频损耗;采用光端机点对点传输, 占用大量光纤资源[1]。
2.2 基于光纤网络的全数字视频监控系统。 全数字音、视频传输是集当代视频压缩技术、数字通信技术、光通信技术、计算机技术于一体, 目前数字视频传输方式有以下几种[2]:
2.2.1 通过光纤传输采用数字非压缩技术 ( 接口为HD- SDI) :视频信号不经过任何压缩技术处理, HD- SDI是在1.485Gbps的信号速率条件下传输的接口规格。 HD- SDI视频拥有最佳的视频质量, 主要是前端模拟视频信号转化为数字信号后或采用数字摄像机直接传输。 优点:视频质量非常高, 传输距离较远。 缺点:每路图像占用较大的带宽, 一般只有十几路, 点对点传输组网能力低。
2.2.2 通过光纤传输采用数字压缩技术 ( IP网络方式) , 接口一般为DVI或HDMI。 压缩方式一般采用H.264, 传输带宽在4M—8M。 相对于前者, 数字压缩编码的高清视频在存储容量方面大大降低, 节省光纤布线成本。 将前端模拟视频信号采用标准的图像压缩技术进行压缩编码, 经过复用设备将信号发送到光通信系统传输。
2.2.3 通过SDH传输利用收费系统的宽带综合业务接入网络的以太网口以IP通信方式传送视频[3]:此方法是以SDH作为IP数据的物理传输网络, 采用MPEG- 2 压缩算法对模拟视频信号进行数字压缩编码, 通过10/100M Base- T接口接入。 使用PPP协议作为数据链层协议对IP数据包进行封装, 然后按字节同步方式把封装好后的IP数据映射到SDH的同步净荷中去传输。 优点:图像质量高, 抗干扰性强, 易加密, 适合于远距离传输, 扩容方便且便于多级视频监控组网, 能满足高速公路视频干线传输。 缺点:100M以太网传输图像的实际带宽利用率只有40%左右, 一副MPEG- 2 标准的图像占3- 4M, 100M以太网仅可同时传输十几路。
2.3 模拟- 数字混合视频监控系统。 模拟视频监控网络是一种技术成熟、高性价比的传统方式, 而数字视频监控网络则代表未来的发展趋势: 模拟- 数字混合视频监控网络则主要是高速公路路段分中心从站级到分中心近距离的视频监控系统采用模拟方式传输, 监控分中心到省监控中心的远距离传输采用数字视频传输技术, 模数混合各取所长[4]。
3 高清视频的网络应用
3.1 高清视频的概念。在传统的高速公路视频监控系统模式中, 由于图像清晰度最高只能达到D1 的标准 ( 720×576) 。在实际运用中无法提供更加清晰地视频, 极大的影响了发生事故时的事故原因调查的及时性和准确性。
对同一个监控对象而言, 高清视频可以得到监控对象更多的细节情况, 可有效解决现有标清监控系统存在的看不清的问题。
从另一个方面来看, 采用高清摄像机时, 我们可以得到更为广角的镜头, 对2 倍或4 倍于标清摄像机所监控的范围进行监控。 从运营成本及后期维护方面来看都是一种趋势。
3.2 高清视频监控解决方案。 根据前面对高速公路视频监控的整体特点分析, 可以看出IP高清的定义可以以720P或1080P作为参考的基准。 图2 方案是模拟视频与高清视频的混合模式, 由图可知, 前端的模拟高清通过摄像头配合后端数字硬盘录像机DVR的方案组成。而IP高清方式的方案, 基于H.264 编码方式的较低带宽利用率、系统架构更加灵活、兼容性好, 同时在系统建设时可分步、分级逐步实施, 不会影响其他区域, 可适应不同类型项目的复杂环境和特殊功能需求。 ( 图2)
3.3 视频监控系统的IP地址设置与VLAN划分。 视频监控系统是基于IP网络技术的网络系统, 系统中心的编解码器、网络管理单元、视频控制计算机、视频管理服务器等设备都必须指定唯一的IP地址。 一般由省监控中心统一规划。 每个路段的网段均不相同, 必须通过分中心 ( 或收费站) 的三层以太网交换机进行VLAN划分。 且在交换机中设置路由路径及组播参数等内容对视频监控系统的传输方向等进行限制。 ( 图3)
4 高清视频与交换机的发展方向
高速公路高清网络视频监控解决方案的实施将极大的改善目前交通事故的处理效率、路况维护速度。 工业以太网交换机在网络通信的今天, 已经成功应用于各个行业, 其与IP高清视频在高速公路的应用, 势必引领未来该行业的视频监控的发展方向。 ( 图4)
结束语
通过以上对高速公路视频监控系统整体的研究与分析, 对于视频清晰度的定义、组网方式、功能特性等有了较深入的认知。 在后期高速公路视频监控项目的实际选用方案上会更加着眼于新技术起点, 为布线、扩容、节省成本有了理论上的支撑依据。
参考文献
[1]赵峰.高速公路视频联网系统研究与分析:108-109.
[2]吴鄂昌, 王继强.湖北宜黄高速公路联网收费数字CCTV监控系统介绍[J].交通标准化, 2004 (4) :78-80.
[3]崔伟, 王自来, 徐夏楠.瀑周界界高速公路SDH光纤通信传输系统设计, 2006 (2) :22-25.
[4]彭芬.高速公路视频监控系统的设计与应用, 2006:3.