城域数据骨干网

2024-10-02

城域数据骨干网(精选5篇)

城域数据骨干网 篇1

以“云”为核心的全新架构将驱使传统的数据中心、IT服务方式发生根本性改变, 其所带来的不仅仅是网络侧的“提速”, 原本的骨干网、城域网甚至接入网架构也将发生变化。

信息爆炸的时代将通信业推向了新技术变革的前夜, 当丰富的信息资源以各种方式、各类终端呈现在人们面前时, 无所不在的网络成为了重要一环。

“能够明显体会到, 家庭带宽的需求正在不断增长, 从传统的1M逐渐向10M、20M提速;在企业客户方面, 电子化办公日趋普及, 企业专网所承载的业务也是越来越多, 原本的企业10M专线已经无法负荷, 很多企业客户需求都趋向100M甚至是1000M。”中国联通政企客户部一位客户经理这样告诉记者。

业务的丰富势必引发网络“提速”, 而另一个更大的动力还在于, 以云计算为代表的新一代IT运营模式的出现。这种“云”为核心的全新架构将驱使传统的数据中心、IT服务方式发生根本性改变, 其所带来的不仅仅是网络侧的“提速”, 原本的骨干网、城域网甚至接入网架构也将发生变化。

不难看到, 这一轮新技术浪潮将先从数据中心网络开始, 并将迅速扩展到IP骨干网和城域接入网。百度、淘宝、腾讯、搜狐、新浪、盛大、世纪互联等云计算领先企业已经规模部署新一代数据中心解决方案。近期, 中国电信也启动了云计算核心交换机集采测试, 正在为大规模发展云计算进行准备。

重塑数据中心“流量模型”

这种改变其本质上, 来自于“云”的物理载体——数据中心。可以看到, 云计算带来的IT转变的核心都发生在数据中心中, 比如资源共享、IT自动化、网络虚拟化等等, 也正是这些特性改变了传统数据中心的流量模型。

H3C运营商解决方案部部长孙晖告诉记者, 当下正大规模应用的“云桌面”就是云业务改变IDC流量模型的典型一例。

“在过去, 企业员工桌面PC中的流量, 除了与其他用户进行类似P2P的流量交互外, 大部分都是面向服务器的纵向流量, 比如用户PC与企业的邮件服务器、办公服务器等形成的纵向汇聚型模型。然而, 云桌面的本质是将桌面PC作为瘦终端, 仅作输入输出之用。所有的数据处理工作都被转移至后台数据中心, 并对应一台虚机运行业务。原本存在于局域网内的纵向流量逐渐减少, 员工PC与服务器的交互基本都在数据中心内部完成了, 由此也形成了众多新的内部横向流量。”

这种改变无疑对数据中心是一种挑战。如果说一些中小型企业采用云桌面, 将原本流量并不大的办公业务移至后台, 还不足以对原数据中心内部网络构成威胁的话, 那么类似电信运营商这种拥有众多分支机构的大型企业而言, 所涉及的网管系统、增值系统、BOSS系统以及OA系统等众多支撑系统之间的海量数据交互, 绝对需要运营商重新审视自身的数据中心网络了。

“在构建新一代的数据中心时, 运营商需求针对云化业务做出网络改造, 以适应未来发生在数据中心内部、大规模的不定向网络流量的冲击, 逐渐完善IDC内部网络的浪涌缓存、网络虚拟化、统一交换以及超万兆安全服务等一系列能力。”孙晖表示。

城域网趋向“数据中心化”

同时, 数据中心的定义边界也在不断外延, 家庭网关、媒体中心以及具备存储能力的融合终端正在以家庭为单位, 形成一个个“微型”的数据中心。在未来泛在的互通网络中, 城域网将逐渐数据中心化。

这种趋势依赖于时下终端的网络化、智能化以及跨界融合的发展特征——电视机接上网线就可以点播节目;家庭媒体中心具备强大的存储能力, 一方面存储网络侧的推送业务, 同时也能存放电影和游戏, 并作为家庭中各类终端的统一网关。

“这些家庭多媒体设备都有一个特点, 就是24小时在线, 并且长时间运行一些P2P的下载任务, 按照P2P的就近原则, 数据流量将更多地在用户与用户之间进行, 每个家庭也就形成了一个个小型的数据中心, 我们甚至可以泛在化地认为, 运营商的城域网络将逐渐变成由无数个小型数据中心汇聚起来的一个云间互通网络。”H3C数据网络发展部部长涂尧如是说。

在政企客户方面,数据大集中正在将城域专线带宽需求从过去的2M向10M/100M快速发展,接口标准已经统一为以太网,因此中国在今后3~5年内将迎来高速以太专线业务的黄金发展期。

由于上海电信较早认识到了高速以太专线业务的迅猛需求,在短短3-4年的时间内,以太网专线已经占据了它的企业互联专线数目和收入的重要部分。

上海电信已经建立了一个完全覆盖整个上海市区及郊县、承载调速以太专线业务的CE城域以太网。其用户覆盖金融、政府、大型吴跨国企业等高价值行业,目前已部署超过7000多条高速以太专线。特别是在金融行业的规模应用,充分证明了CE技术不但速率有10倍以上提升,而且其安全性、可靠性完全可以媲美SDH/MSTP等电路交换技术。

骨干网中的“骨干网”

运营商的骨干网在这一轮云化浪潮中也将难以独善其身, 涂尧告诉记者, 由于传统的数据中心通常存在于各城域网或骨干网的某些节点中, 由于云化数据中心的兴起, 为了保障各数据中心间高速的流量互通, 在原有骨干网的基础上将有可能再分裂出一张专门用于数据中心互联的小型骨干网, 这一点在众多电信项目中已经能够明显地预见到。

这个骨干网中的“骨干网”, 其主要为了实现一定区域内各数据中心的高速互联, 意在将这些处于物理分散状态的IDC集中起来, 以便实现更多内容的互动和同步, 而这种需求已经被一些大型的互联网公司所提出。

类似新浪、百度等大型的互联网公司, 在全国范围内各个网络节点都建有数据中心, 为了形成良好的用户感知, 实现不同地域存储的数据同步且高速的交互, 大型互联网公司都需要“高速云间专线。而”高速云间专线”只是未来大型云计算承载网需求的一种,运营商还需要考虑跨越多个数据中心的网络虚拟化技术,承载网与云管理平台的联动等需求。

城域骨干传送网波分网络结构探讨 篇2

随着智能手持终端的广泛普及, 网上娱乐、网上购物、IPTV、远程控制等新业务大量出现, 通信网络承载的业务已经从传统的语音业务向数据业务转变, 4G网络和FTTH网络正在成为近期中国三大运营商建设的最重要网络设施, 业务与网络的变化也促使城域传送网从以往承载小颗粒TDM电路快速向承载大颗粒IP化电路演进。与话音业务时代相比较, 数据业务时代用户ARPU值正在变得越来越低, 在竞争激烈的市场环境中, 如何引进新技术、降低运营成本和提高市场竞争力是所有运营商面临的首要问题, 如何正确建设城域骨干传送网, 成为各个通信运营商关心的热点话题。

2 波分网络在城域骨干传送网中的定位

2.1 城域传送网结构简介

城域传送网主要负责各类业务接入并传送到相应的业务节点或省内/ 省际出口节点。城域传送网分为有线接入网和城域骨干传送网两部分。城域骨干传送网一般分为核心层和汇聚层。核心层负责提供核心机房间的各类业务调度, 汇聚层负责一定区域内各类业务的汇聚和疏导, 核心层/ 汇聚层应具备较大的业务汇聚能力及多业务传送能力。有线接入网负责汇聚节点以下到基站和各类客户的业务提供接入, 有线接入网应具备丰富的业务接入端口能力。

城域传送网网络结构如图1 所示:

2.2 波分网络在城域骨干传送网中的定位

传统的WDM波分网络主要是帮助运营商解决传送网光纤资源紧张、系统容量不足和长距离通信问题, 但是, 传统的WDM系统在网络恢复和业务接入灵活性方面也存在明显不足, 而OTN波分系统把传统WDM波分系统长距离和大容量优势与SDH网络高灵活与完善的OAM机制优势相融合, 即解决了不同颗粒业务的承载, 也提供了高可靠的保护措施。OTN设备的单波道速率正在从10G向100G过渡, 但OTN无法满足业务多样性的接入需求, OTN网络在城域骨干传送网中主要承载GE以上大颗粒业务并为高速率PTN系统组网提供通道, OTN/PTN叠加网络结构在一段时间内将是城域骨干传送网建设的主流方式。

高宽带、分组化、智能化是未来光通信网络建设和发展的主导方向, 正在研发中的POTN技术融合了WDM/OTN/SDH/PTN各技术的优点, 传送网又向智能光网络迈进了坚实的一步, 并将成为下一代传送网的核心技术。

3 城域骨干传送网波分网络结构探讨

波分网络是现阶段城域传送网承载大颗粒业务的理想平台, 但波分网络存在多种结构, 每种结构都存在相应的优势和缺点, 在城域骨干传送网建设中, 应根据不同的场景需要, 选择适合的网络结构。

3.1 独立波分环网络结构

以核心局所为中心与汇聚机房分别组成独立波分环, 网络结构简单, 是波分网络初期建设和中小型地市普遍采用的建设方案。

如图2, 各个波分环之间相对独立, 环间资源不能复用, 网络资源总体有效利用率低。各个波分环分别与核心局所组成环型网, 安全性高, 但占用核心机房空间、机房电源、光纤资源多, 投资较大, 容易造成基础资源枯竭。网络建设受限的往往不是资金而是基础资源, 该网络结构对后期新技术引进和网络建设影响较大;跨环间的业务调度需要手工操作完成, OTN交叉能力强的优势没有得到充分发挥, 无法适应快速建网、快速提供业务的要求。

3.2 调度环与双跨环网络结构

以核心局所为节点组成核心调度环, 以汇聚机房为节点分别与核心调度环上的两个局所组成波分环, 网络结构清晰;是波分网络近期建设和大中型地市普遍采用的建设方案。

如图3, 核心局所间组成核心调度环 (或网状网) , 负责局所间的业务调度, 各波分环通过双跨方式与核心调度环相连接, 安全性高, 可以节约核心机房空间、机房电源资源、光纤资源等, 投资较少, 有利于后期引进新技术和网络建设。该结构充分利用OTN交叉能力强的优势, 各节点通过核心调度环实现全网业务调度, 网络资源总体有效利用率高。

3.3 网状网与栅格网网络结构

核心局所间也可以组成网状网, 网状网是指点点互联, 又称为Mesh网络。汇聚机房按一定的地理区域进行划分, 并在区域内组成栅格网 (相邻的点彼此互联) 。受到光缆建设条件的限制, 城市主城区宜组成密集栅格网 (各个汇聚机房分别与相邻的3~4 个汇聚机房相连) , 郊县宜组成大栅格网。在每个区域内选择条件适合的汇聚机房与2~3 个核心局所组成栅格网, 虽然这种网络结构比较复杂, 但随着业务与网络IP化进程的加速, 它将成为波分网络远期建设和大型城市采用的目标网建设方案。

为满足IP化业务的爆发式增长, 传输设备速率正在大幅提高, 传送网环型结构已经无法满足IP类业务发展需要。智能光网络会成为下一代传送网网络演进的最终目标, 网络数据配置智能化将主要依靠软件升级完成, 而网络抗多点失效要依靠多节点、多路径实现, 所以, 加强汇聚机房布局和栅格状光缆网建设是当前需要循序渐进部署的工作, 也是传送网向未来目标网演进所必须的资源储备。节点的多路径导致网络结构更加复杂, 此时波分网络的管理与业务配置需要引入ASON功能, 同时, 波分网络也由传统的按环路建设改变为按段落建设, 有利于工程工期和成本的控制。随着可重构光分插复用 (ROADM) 和ASON技术的不断完善和应用, 网状网与栅格网网络结构正在展现前所未有的发展空间。

栅格网具有快速建网和提供业务、智能业务调度、抗多节点失效等特点, 网络优势十分明显, 更适合IP类业务的发展需要。但随着网络节点的不断增加也给网络管理带来复杂性, 甚至难以管理, 所以特大型城市和大型城市可把城市划分多个区域, 把一个区域内的节点组成栅格光缆结构, 满足未来传送网向栅格网演进需要。

结束语

按目标网络结构建设现在, 用现在的建设保障未来, 符合城域传送网建设的发展规律。加强核心局所间光缆网状网结构和汇聚机房间光缆栅格网结构建设是非常必要的, 一方面可以满足现有技术组成环网结构需要, 让现有PTN/OTN环网路由选择更丰富, 业务更安全;另一方面也可满足未来城域骨干传送网向理想目标网络结构演进的需要。可以预计, 骨干层网状网与栅格网网络结构, 并结合ASON技术的应用将成为城域传送网演进发展的最终目标。

参考文献

[1]张骞.石鹏.新一代传送网OTN[M].北京:北京邮电大学出版社, 2003.

[2]张海懿.OTN技术演进标准[J].电信技术, 2009, 3 (5) :45-48.

[3]曹子午.OTN技术在城域传送网核心、汇聚层的应用研究[M].北京:北京邮电大学, 2011.

城域数据骨干网 篇3

网络流量的指数级增长,导致网络数据的处理越加复杂,特别是在跨区域大型企业、政府等部门对新业务的需求越来越大的情况下,现有城域网络各方面的瓶颈越来越突出,而且随着NGN、IPTV等基于IP的话音与视频业务的发展,对城域网与接入网的功能与性能又提出了许多更高更新的要求:高带宽、高可靠性、高Qo S、低延时和灵活的扩展性。网络处理器(network processor,NP)作为新一代的高性能路由器的核心设备,在数据传输处理方面有许多特别的优势,它不但拥有ASIC处理器的高速高带宽,而且具有非常强的灵活性,同时在流量管理、Qo S、OAM等技术也有独特的优势。

2. 城域网技术概述

从横向划分,承载网通常可以分为骨干网、城域网与接入网,城域网位于骨干网与接入网的交汇处,是通信网中最复杂的应用环境,各种业务和各种协议都在此汇聚、分流和进出骨干网。多种交换技术和业务网络并存的局面是城域网建设所面对的最主要问题。而基于IP/MPLS技术建设多业务综合承载网络已经被全球运营商认同。

在城域网络中,骨干层通过出口路由器实现与两张骨干网的连接完成高速的数据转发,并充当IP城域网出口设备。汇聚层作为IP城域网骨干区域向下的延伸,与骨干层构成了核心路由区域,并充当三层MPLS VPN(Multi-Propocol Label Switching VirtualPrivate Network)的P设备。汇聚层BAS(宽带接入服务器)和路由器以上运行三层网络,以下视具体的情况运行三层或二层网络。接入层负责用户接入,采用二层网络。

3. NP-3网络处理器概述

Ezchip公司的NP-3处理器,是一款高灵活性的网络处理器。它提供10G线速的包处理能力及良好的带宽控制能力。通过编程能实现如二层交换、Q-in-Q、PBT、T-MPLS、VPLS、MPLS、IPV4/IPV6等多种功能。同时该芯片集成了一个流量控制器,能提供较强的流量管理功能。

NP-3的数据处理流图如图1。

TOPparse解析和提取各种数据帧的帧头、地址、端口、协议等作为查表的关键字。同时也可利用硬件或软件解析报文,过滤非法的畸形报文、攻击报文。

TOPsearch使用TOPparse提取出的关键字查找相关的路由表、会话表、策略表、统计计数表等。

TOPresolve根据TOPsearchI查找表所得的结果进行判断和决策。同时可以通过高学(high learning)更新会话状态信息等。

TOPserach II可选,在TOPresolve完成后,进行比较简单的额外数据表查找。

TOPmodify对报文的内容进行修改并发送到不同的路径上。

4. 城域网关键技术分析及NP-3平台下的数据转发实现

4.1 网络结构及关键技术分析

典型的城域网由服务商骨干网络(service provider backbone network,SP-BN)和多个服务商网络(service provider network,SP-N)构成,服务商网络之间通过骨干网连接,用户之间则通过服务商网络连接到骨干网,如图2所示,图中SP-BN通过MPLS协议连接,而SP-N通过Q-in-Q(IEEE802.1ad)协议连接。本文将基于该网络实例进行研究讨论。

在城域网网络中涉及的三类关键服务:

4.1.1 点到点二层VPN服务(VPWS)

两个单独的用户站点之间可通过本服务实现二层连接,预先配置好一个统一的服务ID(service ID),建立一条通过SP-N和SP-BN的链路。数据帧只需通过预先配置好的service ID进行转发,如图2中的Client A与Client B之间的二层服务。

4.1.2 点到多点二层VPN服务(VPLS)

本服务提供了多个站点之间的二层连接,相当于构建了一个虚拟的局域网,数据帧的转发基于service ID和报文的目的MAC地址(destination MAC address,DA),如图2中的Client A、Client B、Client C之间的二层服务。

4.1.3 点到多点路由服务(L3VPN)

本服务提供了多个站点之间的三层连接,同时也能够实现本城域网络与外网的连接。在各个用户站点看来,SP-N就是一个虚拟的私有IP网络。数据帧的转发基于service ID和目的IP地址(destination IP address,DIP),如图2中的Client A、Client B、Client C之间的三层服务

4.1.4 NP-3硬件支持

NP-3的TOPparse模块能实现硬件快速分析和提取数据报文对应OSI七层网络模型的关键字段,包括MAC地址信息,VLAN标记,以太帧类型,MPLS标签,IP地址,端口,HTTP,UTL等等。在本设计中,重点是对含有多个VLAN标记和MPLS标签的复杂城域网服务的快速处理,NP-3能实现至少4级标签栈的解析,对跨越多重网络结构的复杂服务有强大的支持能力。

NP-3处理器上的关键数据转发处理流程分析

NP-3处理器的数据转发处理能力强,而对于控制协议的处理能力就较弱。在NP-3上,对数据帧的处理依赖于以下三个因素:端口的配置,数据帧的格式以及网络所提供的服务。根据设备的位置,端口的配置又分为四种模式:C-tagged模式,聚合模式,Q-in-Q模式,MPLS模式。

首先确定有几下几类数据帧:标准以太网帧,Q-in-Q帧,MPLS封装的IP帧,各帧的结构如下。

(1)标准以太网帧,有三种类型

(2)Q-in-Q帧有两种类型

(3)MPLS封装的IP帧,有两种类型

(4)TOPparse

TOPparse阶段,分析报文内容,确定报文类型:标准以太报文,Q-in-Q报文,还是MPLS报文。然后根据报文中的TAG数或标签数确定在TOPsearch I阶段查表的KEY,不同的服务KEY的内容不同,查的表也不同,KEY的构成如图3所示。

(5)TOPsearch I

在TOPsearch I阶段,根据TOPparse确定的关键字KEY查表,最终确定服务的类型,根据不同的服务类型,又会进行不同的查表处理,如图4所示。

在NP-3上,所有的查表过程都是通过硬件实现,同时支持多级查表,能有效解决一般的CPU查表速度慢和简单的缺点。

(6)TOPresolve

在TOPresolve阶段,分析查表结果进行决策,根据不同的服务类型和设备的配置与其在网络中的位置,确定对传输隧道的操作及在TOPmodify中代码执行的分支,若是要更新隧道,就要通过TOPresolve的高学功能,通过硬件的学习机制,完成表项的快速更新,如图5所示。

NP-3的硬件快速学习功能,能使设备快速适应新的网络结构,缩短设备的调整与恢复时间。

(7)TOPmodify:

TOPmodify阶段的主要操作是根据不同情况修改报文,如图6所示,插入新的隧道信息,去除已有的隧道信息,VLAN的删除、增加、交换等。在完成报文的修改后,输出至网络。

4.3 编码实现及仿真结果

根据上面的分析流程编写微码,在Ezchip公司特有的仿真平台Ezmde上进行仿真测试,利用Testcenter工具进行抓包,试验结果显示能达到10G的线速数据转发速率,并能很好地实现各类服务。综上所述,NP-3处理器主要具有以下优势:

(1)相对其它的网络处理器产品,NP-3芯片成本比较低;

(2)NP-3对数据的处理性能比较高,特别是针对一般的CPU,它的高速低开销硬件查表及学习功能大大提高了数据的处理速率;

(3)具有全面的硬件报文业务分析功能,简化了开发的难度,NP-3只需要少量的编码就能实现复杂的功能,有效缩短开发周期;

(4)相对ASIC芯片,NP-3有极强的灵活性,通过对硬件的编码不需要任何新的硬件就能快速实现服务的升级以及增加新功能。

5. 结束语

NP体系可通过微码升级支持新业务,快速提供新功能,适应能力强和扩展能力较好,使其成为最主要的业务路由器架构之一。正因为NP具有扩展性好、组网方式灵活,可提供电信级的可靠性、具有完备的OAM等特点,使其成为了路由器设备主要发展方向之一。同时由于使用NP组成的核心路由器在高速端口密度、端口性能可扩展能力方面有比较大的局限性,这就要求设计者综合各方面的情况进行规划,才能发挥网络处理器的最大效能。

参考文献

[1]NP-3用户手册.

[2]白雪娇.宽带IP城域网现状及优化分析[J].科技传播,2010,10.

[3]程炳远.关于IP城域网建设的探讨[J].民营科技,2010,8.

[4]郭立.城域网传输的技术分析[J].河南科技,2009,10.

[5]赵慧玲.城域网技术的研究[J].中国新通信了(技术版),2008,2.

城域数据骨干网 篇4

随着I T技术的飞速发展和教育信息化的普及, 各地陆续建立起教育城域网数据中心, 相应的软、硬件资源得到极大的丰富。基于传统I T架构模式下的教育数据中心, 各种问题也在使用中不断暴露。

首先, 资源利用率低, 闲置率高, 运行效率低。其次, 应用越多, 服务器越多, 机房空间日渐紧张。最后, 应急处理响应时间慢, 服务保障差。此外, 服务器数量越大, 闲置的数量越多, 数据中心运维成本就越高。

二、服务器虚拟化技术

虚拟化技术正是解决数据中心问题、优化数据中心业务的必由之路。服务器虚拟化是一种软件技术, 将服务器物理资源抽象成逻辑资源, 让一台服务器变成几台甚至上百台相互隔离的虚拟服务器, 通过区分资源的优先次序, 并随时随地将物理服务器资源分配给最需要的虚拟服务器来简化管理和提高效率, 用户不再受限于物理上的界限, 而是让C P U、内存、磁盘、I/O等硬件变成可以动态管理的“资源池”, 从而提高资源的利用率, 简化系统管理, 实现服务器整合, 让I T对业务的变化更具适应力。

三、刀片服务器与虚拟技术的结合

刀片服务器是在标准高度的机架式机箱内插装多个卡式的服务器单元, 实现高可用和高密度。每一块“刀片”实际上就是一块系统主板, 类似于一个个独立的服务器。在这种模式下, 每一块“刀片”运行自己的系统, 服务于指定的不同用户群, 相互之间没有关联。当刀片服务器出现问题时, 管理员可以立即更换并马上启用。

此外, 由于刀片服务器共用一套电源、冷却设备、管理硬件、布线系统和基础设施, 当刀片达到一定数量时可以极大地降低每台服务器的建设成本, 节省机房空间, 同时产生的热量较相同密度的机架式服务器少, 节省了能源消耗的成本, 也减少了冷却系统的耗电量。

从虚拟技术的角度, 刀片服务器在某种程度上更符合虚拟化技术的思维方式, 也更有利于虚拟化技术的部署和应用, 因此刀片是用于服务器虚拟化部署的最佳平台。

四、刀片虚拟化技术在教育城域网数据中心的应用

广州市越秀区教育城域网数据中心建设于2 0 0 2年, 当时设计以采用机架服务器为主, 面向全区中小学及公众提供教育网站、电子邮件、D N S、O A办公自动化、学区支撑平台等共2 0多个应用系统服务。随着区域教育信息化应用建设的不断发展, 常年有若干资源系统需要供区内学校试用比较。根据经验, 部分应用占用服务器的资源不到2 0%, 这造成部分服务器资源的浪费。为此, 我们在2 0 0 9年的数据中心升级改造中采购了一台I B M B l a d e C e nter H刀片机箱、3块HS21刀片服务器和5块H S 2 2刀片服务器, 并配置了一套5 T B容量的I B M D S 4 8 0 0存储系统, 实施过程中尝试采用虚拟化技术对部分应用进行整合。

1. 硬件环境结构及准备工作

在数据中心部署的刀片中心、刀片服务器、存储系统结构如图。其中, H S 2 1、H S 2 2刀片服务器通过4 G B的光纤通道交换模块与D S 4 8 0 0存储相连。

一台配置8G内存、2个E5450 3.0G CPU的HS21刀片将作为虚拟化平台的物理主机。由于刀片服务器只内置了2块146G硬盘, 所以我们将内置硬盘划分成两个分区, 分别用于安装虚拟化平台管理程序和作为Datastore, 存放常用操作系统的安装光盘映像, 而虚拟机文件统一存放在存储系统中。因此我们在D S 4 8 0 0上划分出一块4 0 0 G的逻辑存储空间, 并和这台H S 2 1刀片的h o s t H B A卡进行绑定。

2. 搭建虚拟化平台

在虚拟化平台的选择上, 因为我们数据中心需要用到的操作系统既有W i n d o w s S e r v e r系列, 也有L i n u x和U N I X系列, 所以我们选择了V M w a r e E S X i 3.5。从V M w a r e网站下载了V M w a r e E S X i3.5, 安装光盘的I S O映像, 刻录成光盘并用其启动服务器, 开始在H S 2 1刀片裸机上安装V M w a r e E S X i 3.5, 安装完毕后需要设置管理员密码和配置I P地址。V M w a r e E S X i主机上并不能直接管理和维护虚拟服务器, 我们还需要在另外一台P C上通过H T T P S访问E S X i主机, 下载并安装好V M w a r e Infrastructure Client工具。至此, 我们可以通过V I C l i e n t远程管理V M w a r e E S X i。

3. 整合资源规划与实施

接下来需要根据应用系统使用情况和服务器利用率, 对现有应用和服务器进行综合考虑, 决定哪些需要进行虚拟化, 并对即将部署的虚拟服务器的资源进行规划, 确定出数据中心初步的虚拟化环境服务器及虚拟机的资源规划 (如表) 。

在现实的数据中心应用中, 往往还需要根据服务器安全等级把网络划分成多个区域, 不同服务器放在不同的区域中。同样, 在V M w a r e E S X i中每个虚拟服务器都可以配置一个或多个虚拟网卡, 且每个网卡都有其独立的I P地址和M A C地址, 我们可以借助虚拟网络连接功能, 使用虚拟交换机在E S X i主机内创建一个虚拟网络。我们在虚拟交换机中根据实际的安全等级需要配置了多个p o r t g r o u p, 对应若干个V L A N, 同时连接E S X i主机的物理交换机端口启用T r u n k。使用虚拟局域网后, 可以在数据中心原有的物理局域网的上层覆盖一个逻辑局域网来隔离网络流量, 以实现虚拟服务器的安全性和负载分离。

依据规划, 创建虚拟服务器, 安装配置相应的操作平台和应用软件。安装虚拟服务器操作系统时, 虚拟服务器的光驱尽量采用光盘映像方式, 这样安装的速度会较使用E S X i主机光驱或者V I C l i e n t所在的客户机光驱快很多。在V I C l i e n t中, 可以通过“O p e n C o n s o l e”远程操作和管理指定的虚拟服务器。最后, 还必须在虚拟服务器的系统中安装“V m w a r e T o o l s”工具包。

4. 虚拟化效果实现

云计算环境下的数据骨干网建设 篇5

在这个环境中所有的运营商, 无论是传统的运营商还是有线运营商, 都存在一个问题, 即如何构造主干网来满足不断增长的用户对数据的需求。换句话来说, 我们传统媒体, 无论是传统的有线、传统的电视, 乃至于真正数据业务, 无一例外都在向数字转换, 所以骨干网建设就成为了用户他们非常关心的一个内容。

移动通信、视频和云计算正改变着通讯的根本面貌, 这些应用模式改变带来网络数据流量大量增长。但是在这个数字时代带来的流量海量增长的同时, 运营商已经看到流量和收益的严重不符。我们的流量在快速增长, 但是收益增长却很平凡, 或者说基本不增长。大家都知道第一个分销苹果的运营商, 流量增长了几倍, 收益并没有获得这么高的增长, 可能一倍都没有到, 可能你要花100块钱去挣1块钱, 这是一个非常严重的事情。因为任何一个运营商最终目的是要挣钱, 这就跟挣钱初衷产生了差距。

1 运营商面临的问题

一是流量爆炸性增长, 这个包括了刚才我们讲到移动通信的变化以及云计算的增长。数据网络有一个很大问题就是流量不确定性, 它随着人们兴趣的改变, 流量突发很难预测, 也没有固定的模型, 这都是传统网络规划很难解决的。另外, 网络平台扩展架构价格非常高, 我们构建一个国家骨干网的传输价格非常昂贵, 如果想无限满足用户的要求, 付出的成本也是非常可观的。另外一个问题, 任何行业, 包括运营商行业也是如此, 在建设的时候, 得有一些固定模式和结构。这些结构由于管理条块很难打破。比如任何运营商都有非常多的网络重复建设, 比的网络承载A服务、有的承载B服务, 这样不够经济, 利用率比。有些传统业务, 比如电路交换还要固定占有, 不能共享带宽, 这都是现有结构上缺陷。还有网络维护、运营方面的一些问因此多个维护组织机构、不同维护系统, 乃至由此造成的网络率低下都会造成运维费上升。

运营商还有一个问题是需要解决的, 就是盈利问题。因为数流量的不确定性, 运营商迫切需要一个技术能够充分利用网源, 让海啸式的不确定流量变成很平稳的流量, 这实际上是商盈利的源泉。

2 骨干网解决方案

面临这么多的新兴应用, 各种各样的问题, 以及运营商所需要解决的盈利问题, 我们需要去适应计算环境的变化、云计算的环境变化以及连接模式的变化, 就是流向移动模式。还有, 我们要适应任何人到任何人之间的连接, 还要应对流量增长新的模式。

我们有非常多的选择, 尤其是骨干网。我们可以用更大的IT路由器来解决上述问题, 当然这种方式就会带来更高的投资成本, 以及运维成本, 因为这样的方式较之现在的网络没有任何改变, 只是容量变大了。这个问题已经在国内运营商已经遇到了, 但是这种模式已经普遍受到了运营商的质疑, 如果我们不对现有模式进行改革, 就没有办法更好适应新媒体的这种需求。

现在的设备其实已经非常大了, 如果再去建造更大的设备, 无论是从技术的复杂度, 还是从投资的成本都是非常难以承受的, 无论是厂家还是运营商都是难以承受的, 需要更大投资, 更多维护工作量, 因此这条路是很难走通的。

另外一个选择是由传统厂家提出的, 既然IT设备做大很困难, 而且成本很高, 为什么不用光网络提供交叉互联。实际上这个模式的购买成本也是很高的, 光网络层下面还需要IP智能层, 由于核心路由器被拿掉, 因此IP智能层就带来了高昂成本。另外, 在运营上需要两拨人去独立运营网络, 这样成本也会增加。另外还有一个致命问题, 光层是以Wlan为主, 如果不能尽可能多地去使用一个Wlan就会为带来整个带宽的浪费, 因此这是一个非常不经济的办法。

因此, 我们瞻博希望组成一个融合的解决方案, 迁移到超级核心, 将MPLS和传输层面组成一个融合的解决方案。在我们DWDM系统上提供一个新设备, 这个设备可以提高整个光网利用率, 可以提高将近一半, 只占用45-65%传统光交换所占据的设备能力。

DWDM技术可以提高非常好的复用以及安全保护的功能, 这个设备本身提供了非常好的交换能力, 把光交换和应用联系在一起。从管理层面可以看出来, 有网管能力进行规划, 并且降低整个网络成本。过去我们设备里面都是有分类设备构造, 比如有接入路由器、核心路由器、光电网转换、光交换的设备以及传输的光纤, 现在我们把这些设备融合在一起, 这样的话就可以大大降低整个成本, 也降低了设备之间互联接口成本 (这个成本非常高昂, 有的时候要占到整个光网建设的60%) 。

同时, 系统内部又有非常好的交换芯片来满足DWDM交换路由的交换能力, 这个设备有很多业界领先技术, 包括非常领先的交换芯片, 以及非常好的MPS技术, 同时又可以很好和光融合, 是成本低、有高效的网络。我们有自己知识产权, 我们制作自己的芯片和解决方案。

TDM设备已经开始逐步的向光网直接进行融合, 我们也认为未来3年整个骨干网演化方式也会向这个方式来进行演化。这个也就带来了整个网络上面成本的巨大节省, 以及容量巨大的增加来满足新兴业务不断增长的要求。瞻博作为一个专业IT厂家, 我们非常有信心, 我们认为在光网与IT网融合领域有一个非常好的前景。

比如我们的设备PTX5000和9000, 这个PTX实际上是一个非常大的MPS路由器。这个设备单槽容量可以超过48个G, 是市场上现有设备容量的3~4倍, 单个设备可以达到8T或者16T, 每一T功耗只有2.5瓦 (现在市场上平均值在4到6瓦之间) , 能在很大程度上满足运营商对节能降耗的需求。可以使运营商整个网络投资成本节省一半左右。同时我们这个设备可以提供业界最新的接口标准, 包括40G和100G容量以太网口, 这个设备是我们Juniper自己研制的, 其复杂性早就超过因特尔, 也采用世界上最先进半导体工艺。

只有通过核心技术创新我们才能为运营商提供高可扩展, 我们用这种新兴产品、新兴技术为运营商面临的挑战提供各种各样的解决方案, 包括用超大容量来满足运营商对流量增长方面需求, 采用单一的体系结构或者说网络结构来满足运营商网络融合需求, 为单一维护平台来简化运营商的操作。

上一篇:联动功能下一篇:纸质出版物论文