数据管理中心

2024-06-11

数据管理中心(共12篇)

数据管理中心 篇1

摘要:本文主要针对我院原有信息系统数据存储存在的问题,提出了“双活”数据存储方案。通过对存储系统拓扑结构的改造,成功实现了传统数据中心向“双活”云数据中心的转型,保证了医院信息系统工作的稳定性和可扩展性。

关键词:医院信息系统,“双活”数据中心,存储器,网络安全

0 前言

随着医学的不断发展,医院规模不断扩大,药品种类也不断增加,就医的人数也逐年增长,传统的医疗体系已经很难满足这些需求。医院信息化作为医院现代化的重要特征之一,是现代医院建设的基础环节,也是医院医疗、卫生教育等顺利进行的保证[1]。为此,我院对医院原网络拓扑结构进行了改造,报告如下。

1 西京医院原有信息化应用系统的不足

我院原有的网络系统的存储设备分散使用,直接导致存储空间不能共享,无法实现均衡分配,造成了管理和维护的复杂性。医院信息系统(HIS)对于核心业务配置为2台DS4700 存储器,该存储最多仅有4 G缓存,采用4Gb FC的连接带宽,属于相对较低性能的存储设备。随着业务高峰的出现,以及就医人数的不断增加,该存储器会因为本身处理能力的限制出现响应延迟,从而降低业务系统的效率。核心HIS数据利用Oracle数据库的远程复制功能实现数据的冗灾,它是通过数据库同步日志的方式来保证2台存储器数据的一致性。虽然实现起来比较简单,但是在使用过程中会因为主机日志逻辑错误或者传递不畅导致备份存储器的数据不可用,而且数据不能实现实时备份,也不能在发生灾难时实现业务功能的无缝连接。西京医院网络系统原状态的拓扑图,见图1。

为了解决上述的问题,医院数据中心向“双活”云数据中心转型成为网络改造的重点,并且需要在转型工程中对应用数据进行虚拟化管理从而实现数据实时备份,使得西京医院信息系统的处理能力进一步增强,效率进一步提高[2]。

2 “双活”云数据中心的概念

“双活”数据中心完全不同于1 个数据中心和1 个灾备中心的模式。“双活”数据中心是2 个数据中心都处于运行状态,互为备份,即一个数据中心投入运行,另一个数据中心也处于就位状态,当灾难或者突发事件等因素造成医院主数据中心瘫痪,另一个灾备中心就会启动。在转型传统的同城数据中心时,需要全盘考虑数据中心的应用层、数据库层、存储层,才能保证在满足保证系统性能的基础上,完成云数据中心的转型。在云计算的基础上,通过服务器虚拟化软件和存储系统虚拟化方案的结合,可以成功实现跨数据中心应用和数据自由流动的功能,从而增强应用系统的灵活性,更加充分的体现双活的理念[3,4]。

3 HIS数据中心向“双活”数据中心的转型

遵循国家大力发展医疗事业的趋势,“双活”数据中心有着高效、安全、低成本的突出优势,因此,果断地将传统主备型数据中心升级为“双活”数据中心是势在必行的选择,是医疗事业向前进步的标志[5]。

西京医院改造涉及的服务器共计13 台,其中桌面虚拟化服务器5 台,虚拟化服务器5 台,HIS服务器3 台;存储设备4 台;光纤交换机6 台;服务器虚拟化应用数量67 个。改造后的网络状态拓扑图,见图2。

4 转型方案实施过程

(1) 将HIS数据迁移到EMC的VMAX10K, 通过IBM小机完成。

(2)将原存储在IBM DS5100 上的大量应用数据迁移到EMC的VNX5600,通过VMware完成。

(3)将DS5100 纳入VPLEX为核心的“双活”体系,以达到利旧于新的低成本运行目的。

4.1 设备改造

新增设备:2 台EMC VNX 5600、1 台EMC VMAX 10K。 以VMAX 10K取代原DS4700 作为HIS的专用存储,在两个数据中心各配置1 个VPLEX存储虚拟化引擎,将VNX5600 存储设备实现虚拟化,实现跨距离双活。将主要应用数据迁移至EMC VNX 5600 存储设备中进行管理,确保业务系统7×24 h不间断运行,确保任何设备故障均不影响业务的正常运行。

4.2 “双活”数据中心的实验运转

经过充分的论证和准备工作,在实践过程中先将HIS数据由以前的DS4700 顺利迁移到VMAX10K上, 同时以VPLEX作为平台对新存储做双活之后,又将DS3524 和DS5100 上的大量VMware镜像文件和数据迁移到VNX5600上,实现了两个机房VNX5600 的数据同步。经过测试比对,改造后的网络存储系统的性能大大提高,见表1。

5 结语

现有的数据中心存储体系和改造前相比,具有以下优势[6,7]:

(1)充分利用资源,提高了系统运行效率。在“双活”数据中心下,对于前端用户来讲就是一个逻辑的大中心,能够充分利用数据资源,避免了1 个数据中心常年处于闲置的状态而造成数据浪费。

(2)增强了存储数据的安全性。使用最新技术做“双活”配置,实现了跨数据中心服务器自由流动,不仅增强了系统的灵活性,而且使得存储设备数据的安全性得到了大幅提高。改造前的系统随着业务高峰的出现,会发生存储响应延迟现象;改造后的系统,运用虚拟化技术,将生产资源和容灾资源放在同一的资源池里,在业务高峰时或者业务突发时,可以将容灾资源动态分配给生产资源。与此同时,由于虚拟机、存储实现虚拟化,可以最大程度地降低由于系统故障而产生的各种危险性。在发生灾难时,也能保证业务的连续性,实时的实现数据的迁移[8,9,10]。

由于使用了最新的同步技术做“双活”配置,使存储设备数据的安全性大幅提升,未来西京医院信息化系统升级改造的基础已初步构建成型。

参考文献

[1]张扬,郭森,季平.基于SAPERP信息系统的双活数据中心研究[J].电力信息化,2013,(1):87-91.

[2]邓维,刘方明,金海,等.云计算数据中心的新能源应用:研究现状与趋势[J].计算机学报,2013,(3):582-598.

[3]王智明.云数据中心资源调度机制研究[D].北京:北京邮电大学,2012.

[4]马飞.云数据中心中虚拟机放置和实时迁移研究[D].北京:北京交通大学,2013.

[5]李宏伟,肖伟.存储虚拟化技术在双活数据中心中的应用[J].邮电设计技术,2013,(9):9-13.

[6]叶燕.HIS系统与医保系统数据交换平台的设计与实现[D].兰州:兰州大学,2014.

[7]梁景雯.基于云计算技术的医院信息系统[D].济南:山东大学,2012.

[8]朱仁道.基于数据挖掘技术的HIS系统研究[D].安徽:安徽理工大学,2009.

[9]骆骁.HIS系统在医院财务管理中的作用——论HIS系统的财务数据管理[J].中国管理信息化,2010,17:14-16.

[10]赵浩宇.区域医疗信息化平台数据交换方案设计[J].中国医疗设备,2014,29(9):44-45.

数据管理中心 篇2

中国工商银行股份有限公司数据中心(上海)副总经理 胡德斌

中国工商银行股份有限公司(以下简称“工行”)自2006年上市以来连续实施“优质服务年”、“奥运服务年”和“服务提升年”等接力式服务改进计划,并将2010年确定为“服务价值年”、2011年确定为“改革流程、改进服务年”。在全行持续不断抓服务促发展的战略下,数据中心秉持“科技要服务业务、科技要服务基层、科技要服务价值”的指导方针,在如何提高数据中心服务能力、创造数据中心服务价值方面进行了探索。

一、树立服务意识是做好数据中心工作的思想保障

银行是服务型企业,服务能力的高低决定了银行的地位和发展前景。科技是现代银行业的支撑,是打造银行核心竞争力的重要手段。从外部看,银行通过金融产品为客户提供服务;从内部看,科技通过系统运维为业务服务。银行数据中心的核心职责是提供金融产品的运行维护平台,同时也是科技为业务服务的直接窗口,其服务能力间接决定了银行为客户的服务能力。因此,数据中心的员工只有不断地增强服务意识、树立牢固的服务观念,才能使数据中心“安全、平稳、高效”的工作目标落到实处,从而有力地推动全行的业务改革与发展。1.服务意识的培养和形成

服务意识是指在日常工作中员工所体现的主动、热情和周到的意识。服务意识是自觉做好服务工作的一种观念和愿望。服务意识的培养首先要使员工认识到服务的重要性,认识到服务对数据中心、对员工自身发展所带来的益处。服务意识应发自员工内心,逐步形成习惯。此外,服务流程、规范和技巧也需要不断地提炼和总结,这对服务意识的培养和形成有极大的推动作用。

2.服务的根本是坚守本职工作

服务是指履行职责,为别人着想,为他人做事。履职能力的高低决定了服务质量的好坏,因此,数据中心的员工只有掌握运行维护所需的专业技能,加深对相关专业的了解,才能提供优质、高效的服务。现在客户对银行服务的要求越来越高,银行系统中断几秒钟都可能遭到客户投诉、媒体曝光,影响银行声誉。要保障银行应用系统平稳运行,就需要银行科技人员练好内功,既要了解系统架构,又要了解业务流程。

3.处理好管理与服务的关系

管理为了服务,服务促进管理。对内强调管理的目的是培养服务意识,提炼服务流程,规范服务方法,评价服务效果。对外强调服务的目的是要做到“以客户为中心”。随着现代服务业的崛起以及社会化、国际化的发展,服务的意识和观念拓展到各个领域,“我为人人,人人为我”的观念深入人心。对于数据中心的员工来讲,只有树立以客户为中心的理念,急别人之所急,想别人之所想,才能提供让客户满意的服务。同时,在每一次服务的互动中,提升自身的修养和技能,体现岗位价值和自身价值。

4.服务的特性要求有追求卓越的精神 服务最明显的两个特性是无形性和同时性。无形性是指没有实际的物质存在,服务追求的是一个结果;同时性表现在服务是一种过程,是正在生产的产品,而且在生产出来的同时就消失了。服务的特性决定了对服务的控制和管理是有难度 的,同时性和无形性导致了控制的乏力。但也并不是说服务是不能管理的,对服务的管理需要把所做的工作归结为标准的程序和产品。服务的特性也决定了提升服务质量的无止境,其价值与服务提供者的意愿、能力、态度、方法等密切相关。只有具备追求卓越的精神,才能在服务启动之前充分准备、精心谋划、多想办法、多下功夫,才能从根本上改进服务,才能取得实实在在的成效。

二、提升服务能力是做好数据中心工作的质量保障

GartnerGroup调查发现,数据中心日常运行维护经常出现的问题中:技术或产品(包括硬件、软件、网络、电力失常及自然灾害等)方面的问题占20%,流程失误占40%,人员失误占40%。其中,流程失误包括变更管理失误、性能容量管理缺乏规划等。人员失误主要包括缺乏专业技能、违反运维流程和工作失职等。由此说明,数据中心运维问题,更多的不是来自技术,而是来自自身的服务能力,即数据中心运维水平取决于“流程、工具和人员”的成熟度。为此,提升数据中心的服务能力是做好数据中心运维工作的关键,应从以下方面着手。1.关注流程建设,推动运行维护管理水平提升 数据中心运行维护的流程建设有两方面。一是基本职责方面,主要包括事件管理、变更管理、应急管理、版本管理和配置管理等工作流程;二是能力提升方面,主要包括性能容量管理、数据管理、可用性管理和业务连续性管理等工作流程。基本职责的主要任务是如何确保总行、分行以及第三方合作单位获得满意的运行服务,保证业务的连续运行。能力提升的主要任务在于关注业务部门的服务需求,同时根据这些需求设计合理的资源组合、服务目标以提供更具价值的服务。可以说,银行业数据中心经过十年的快速发展,基本确立了服务流程的体系框架,下一步是如何将这些流程进一步深化,创立业界的最佳实践。

2.关注工具建设,推动运行维护效率提升

数据中心运行维护的工具建设主要有五方面。一是监控工具建设。通过自动化的手段,在第一时间识别出运行维护过程中的风险隐患,防范未然。如系统的性能变化、事件的影响程度、业务量的突变等。二是操作工具建设。实现运行操作自动化,替代手工操作,降低劳动强度和操作风险,避免人为误操作给业务正常运行带来影响。三是安装工具建设。实现版本投产的自动化安装,减少停机时间和安装风险,努力降低新业务推广给正常业务运行带来的负面冲击。四是安全工具建设。实现用户及密钥资源管理、入侵防护检测、漏洞扫描、安全补丁分发,提高安全控制覆盖面、提高工作效率。五是配置管理工具建设。实现软、硬件配置变更控制,能够主动提醒变化要素,减少由配置不当引发的生产事件。

工行数据中心的系统可用率连续几年保持在99.95%以上。从指标上看,与国外一流数据中心的运行效果不相上下。但通过对比发现,我们实现的效果是通过大量的人力投入而取得的,人工监控、手工操作和安装的占比还相对较高。而国外一流数据中心往往是通过工具自动化的手段来实现这一目标的。因此,加大工具的研发、使用和推广是提升运行维护效率的有效途径。

3.关注队伍建设,提升运行维护技能

数据中心的队伍建设应从三方面着手。一是要重点培养专业领军人才。如生产调度专家、基础架构专家、管理流程专家、系统专家、网络专家、设备专家和运行专家。这些专家必须要有丰富的一线生产经验,能够解决运行维护中的“疑难杂症”,并对本专业前沿领域有一定认知。二是要加大运维工程师的队伍建设。重点是贴近生产一线,强调技术维护、工具使用、流程制度和监控操作等基础技能运用和发挥。三是要关注后备人才的培养。既要以德为先,又要注重实际能力。

当然,要实现上述目标,数据中心要在工作机制上给予必要的保障。特别是要在员工中建立起“公平、公正、公开”的竞争环境,营造“和谐、合作、宽松”的工作氛围,弘扬“诚心、务实、拼搏、创新”的科技文化。这些软环境的建设是缓解员工压力、尊重创造、尊重人才的基础。

三、创造服务价值是数据中心可持续发展的必要条件

数据中心作为信息科技为业务服务的直接窗口,应通过多种途径和方法做好服务工作,提升自身价值,进而有效地支撑全行业务的快速发展,有效地支撑工行国际化步伐推进。数据中心服务价值的提升可从以下几方面着手。

一是注重业务需求,善于总结归纳。业务部门对数据中心的需求很多,如营业机构撤并、拆分、分行特色数据移行、紧急数据变更等。数据中心不仅要把每一项需求保质保量完成好,而且要善于归纳总结、举一反三,分析需求的风险点,提炼出需求的共性,形成系统化的、建设性的意见反馈给业务部门,变个案操作为规范操作,提高风险控制能力。

二是关注数据挖掘,从运行的角度发现价值。数据中心掌握着全行的运行数据,不但包括正常的业务数据,还包括待清理和归档的数据,可从比业务视角更全面的角度挖掘和分析客户、账户、交易、数据分布等信息,为管理层决策提供数据参考。

三是关注技术支持,帮助分行提高能力。数据中心掌握的技术、管理资源比分行专业、广泛得多。将技术和资源优势转化为成果、转化为生产力,并传导给分行,从而提升全行的生产运行管理水平,体现了数据中心为分行创造的服务价值。如在数据备份管理的方法和实践方面,将检查工具和备份策略部署到分行,可以提升全行的数据备份质量。

数据中心管理酝酿变革 篇3

“和IT系统曾经的局面相似,数据中心的管理工具也需要整合,而更为重要的趋势是,要打通数据中心的基础设施管理与IT设备管理之间的鸿沟,把这两者的管理集成起来。”艾默生网络能源Avocent业务总裁Steve Hassell在日前举行的艾默生网络能源全球分析师及媒体大会上表示。本报记者与来自全球的50多位分析师及媒体记者代表参加了本次交流会,如何改善数据中心的管理、降低管理成本是本次大会的核心话题。

管理面临诸多挑战

现代数据中心的发展趋势是高容量、高密度化,为了节省成本,在同样的空间内部署的IT设备越来越多,因此对电力、制冷的要求越来越高,需要更为高效、更为精确的制冷,还需要更能随需应变的供电。同时,IT需求变化的幅度也越来越大,要求数据中心基础设施能灵活地响应新的变化,这些都挑战数据中心管理者的管理能力。

“总体说,数据中心的管理者要面对四个关键问题,即可用性、效率、容量和密度,其核心问题是在提高能源利用效率的同时,保证数据中心的可用性。” Steve Hassell在接受本报记者采访时表示,除此之外,不太景气的经济形势或者市场压力还要求数据中心不断降低管理成本,另外,还有法规遵从问题等。

“我们认为,数据中心环境从来没有像现在这样复杂,也从来没有像现在这样频繁地变化过。而现在很多管理人员还再依靠Excel表、Viso或者是自己开发的简单工具来进行规划和管理,这些工具是难以应对日益复杂的管理需求的。”Steve Hassell认为,即使是有些数据中心已经应用了专业的管理工具,此类管理工具也面临着升级的需求。

在本次大会上,艾默生网络能源公布了一项调查的结果也可以佐证Steve Hassell的上述观点。这次调查的对象来自美国各行业超过240名数据中心专业人士。调查结果显示,尽管数据中心正在积极地努力改善数据中心的基础设施管理,但仍缺乏对于提高可用性、可靠性、效率和管理能力至关重要的洞察力。在这项调查中,受访者认为有三个因素是优化数据中心性能的主要障碍:缺乏对系统使用情况的了解、缺乏有效的能效战略以及管理系统中的功能缺失。

在Steve Hassell看来,管理工具升级的关键之一是要打通IT管理与基础设施管理之间的联系。因为IT设备和系统每一点改变(包括新增、撤出等)都会影响到基础设施部分。而实际上IT设备和负载是不断变化的,这也就意味着,基础设施管理需要根据IT系统和设备的变化不断改变基础设施的供应能力,包括空间、制冷和电力供应等。

整合IT管理与基础设施管理的好处显而易见。首先,把原本彼此紧密相关的信息集成到一起,可以降低数据中心的管理和运营成本、节省时间,同时能够基于这些信息做出更合理的决策;其次,能够更好地利用现存的IT和基础设施资源,优化数据中心的性能,提高可用性。

Trellis:

新一代管理平台

Trellis是Avocent正在研发的新一代数据中心的管理平台,它代表了Avocent对数据中心管理未来发展方向的预测和把握。从某种程度上说,也反映了艾默生网络能源收购Avocent之后对它的重新定位,即从传统的KVM技术供应商转型为全面的数据中心管理解决方案提供商。实际上,Trellis已经成为艾默生网络能源整体市场战略的一部分,是其倡导的DCIM(数据中心基础设施管理)的具体实现。根据艾默生高级执行副总裁Charlie Peters的说法,收购Avocent的一个很重要原因在于,就是希望能在Avocent的技术基础之上整合基础设施和IT设备的管理。

据艾默生网络能源Avocent业务CTO Baz Khuti介绍,Trellis是首个能实现对数据中心基础实施和IT设备统一管理的集成DCIM平台,它整合并扩展了艾默生网络能源旗下的诸多产品,包括Liebert SiteScan、Avocent Data Center Planner以及Aperture管理关键解决方案现有的功能。Trellis平台由软件、硬件及其服务构成,它通过一个单一、完整的、可视化的信息源,帮助数据中心管理者在满足效率、可用性、容量利用率等要求时做出更为合理的决策。

谈及推出Trellis的原因时Steve Hassell表示,区别于市场上现有的数据中心管理工具,Trellis将能缓解数据中心管理者在保证高可用性、支持更高利用率的同时降低管理成本的压力。

“虽然虚拟化技术的应用可以缓解这一压力,但是,虚拟化应用的同时带来了另外一个问题,就是让我们预测IT系统对物理设施的需求更难了。为此,我们不得不预留更多电力、空间、制冷和计算能力,这又导致了资源利用率的降低。”Steve Hassell表示,Trellis平台形成了一个闭环的控制系统,如同一个具有自我调节功能的生态系统一样,它不仅知道数据中心每个元素的当前状态,还知道这些元素一旦改变会对其他元素造成什么影响。

值得一提的是,Trellis平台也凝聚了Avocent中国工程师的心血,Avocent在深圳和成都的研发中心都参与了该平台的研发。

Steve Hassell还透露了Trellis的产品路线图:今年10月份,会有测试版推出。明年年初Trellis 1.0正式上市,明年5月份推出Trellis 1.5,Trellis 2.0将在2013年第一季度推出。预计随着Trellis的正式推出,数据中心管理工具相关厂商肯定会积极跟进,这必将会推动数据中心管理水平的提高。

采访手记

中国正在吸引越来越多的跨国企业目光。作为新兴经济体的中国经济蓬勃发展带动了IT产业的整体向好,而风起云涌的云计算市场更是IT产业中的一大亮点。

艾默生网络能源Avocent业务总裁Steve Hassell在接受本报记者采访时也表示,Avocent非常看好中国高速发展的云计算市场,中国也将是Avocent最为关注的市场之一。事实上,中国媒体也是本次大会惟一受邀请参会的亚太区媒体,据此也可以看出中国市场在Avocent管理层心中的地位。

数据管理中心 篇4

传统数据中心主要存在以下问题:

传统结构下,由于多种技术之间的孤立性(LAN与SAN),使得数据中心服务器总是提供多个对外10接口:用于数据计算与交互的LAN接口以及数据访问的存储接口,某些特殊环境如特定HPC (高性能计算)环境下的超低时延接口。服务器的多个10接口导致了数据中心环境下多个独立运行的网络同时存在,不仅使得数据中心布线复杂,不同的网络、接口形体造成的异构还直接增加了额外人员的运行维护、培训管理等高昂成本投入,特别是存储网络的低兼容性特点,使得数据中心的业务扩展往往存在约束。

由于传统应用对IT资源的独占性(如单个应用独占服务器),使得数据中心的业务密度低,造成有限的物理空间难以满足业务快速发展要求,而已有的系统则资源利用效率低下。而且,传统业务模式下,由于规模小,业务遵循按需规划,企业应用部署过程复杂、周期漫长,难以满足IT灵活的运行要求。

不仅如此,当传统数据中心中有成千上万台服务器的时候,数据中心的复杂度和管理成本急剧上升。

传统数据中心面临的另外一个问题就是可靠性。当一台服务器的可靠性达到99.99%时,这意味着一年的故障时间约为53分钟。但是,假设数据中心中有一万台这样的服务器,那么要维护高可靠性就会变成一种挑战。虽然我们可以通过硬件的冗余设计来提高单台服务器的可靠性,但是这种方式的成本比较高,而且随着服务器数量的增加,这种方式的有效性将会随之降低。

云计算数据中心与传统数据中心相比,呈现出以下四点不同:

1 组网模型不同

网络成为数据中心资源的交换枢纽。传统数据中心分为IP数据网络、存储网络、服务器集群网络。但随着数据中心规模的逐步增大,带来了一些问题:

(1)每个服务器需要多个专用适配器(网卡),同时也需要不同的布线系统。

(2)机房需要支持更多设备:空间、耗电、制冷。

(3)多套网络无法统一管理,需要不同的维护人员。

(4)部署/配置/管理/运维更加困难。

如图1所示,在云计算数据中心网络中,存储FC/网络IP等业务最终都将承载在以太网上,采用国际标准FCoE (FC over Ethernet,以太网数据包内部FC帧与IP数据分离设计)的设计方式。FCoE磁盘阵列可直接连接到数据中心交换机上。同时,由于以太网数据包内部FC帧与IP数据分离设计,可有效保证存储网络的安全。

通过FCoE,每台服务器不再需要多张网卡,只需要一个FCoE网卡就可以与前端的客户进行IP通信、后端的存储通过光纤进行通讯,有效解决了管理人员分工不同、空间/能耗、不同的布线系统等问题。

2 流量模型不同

云计算数据中心在流量模型上与传统数据中心有非常大的区别,以往通过B/S或者C/S提供服务的模式将大量的数据集中在网络的出口上,进而使出口成为整体网络的瓶颈。而在基于云计算的下一代数据中心中,由于资源的虚拟化,以及各类设备之间实现数据交互,使设备之间的横向数据流量将占到总流量的70%以上,如图2所示。

为了满足这种突增的数据量,用于数据中心的网络设备必须具备较高的端口容量和接口密度。伴随云计算的产生,IEEE802.3ba 40G/100G标准也于2010年正式获批通过,成为云计算数据中心网络部署的新标准。

3 虚拟化,让云成为一个统一管理的“大池塘”

虚拟化技术最早来自IBM大型机的分区技术,这种操作系统虚拟机技术使得用户可在一台主机上运行多个操作系统,同时运行多个独立的商业应用。随着X86架构服务器的使用越来越广泛,基于X86架构服务器的虚拟化技术一经问世,便开始引导了通用服务器的虚拟化变革历程。VMWare、XEN、微软等厂家在软件体系层面开始引领服务器虚拟化潮流。

服务器虚拟化的直接效果是导致数据中心具有更高的应用密度,在相同物理空间内逻辑服务器(虚拟机)的数量比物理服务器大大增加。由此,服务器的总体业务处理量上升,使得服务器对外吞吐流量增大。

虚拟化计算技术已经逐步成为云计算服务的主要支撑技术,特别是在计算能力租赁、调度的云计算服务领域起着非常关键的作用。在大规模计算资源集中的云计算数据中心内,以X86架构为基准的不同服务器资源,通过虚拟化技术将整个数据中心的计算资源统一抽象出来,形成可以按一定粒度分配的计算资源池,如图3所示。虚拟化后的资源池屏蔽了各种物理服务器的差异,形成了统一的、云内部标准化的逻辑CPU、逻辑内存、逻辑存储空间、逻辑网络接口,任何用户使用的虚拟化资源在调度、供应、度量上都具有一致性。

虚拟化技术不仅能够消除大规模异构服务器的差异化,而且其形成的计算池可以具有超级的计算能力(如图4所示),一个云计算中心物理服务器达到数万台是一个很正常的规模。一台物理服务器上运行的虚拟机数量是动态变化的,当前一般是4~20,某些高密度的虚拟机可以达到100:1的虚拟比(即一台物理服务器上运行1 00个虚拟机)。在CPU性能不断增强(主频提升、多核多路)、当前各种硬件虚拟化(CPU指令级虚拟化、内存虚拟化、桥片虚拟化、网卡虚拟化)的辅助下,物理服务器上运行的虚拟机数量会迅猛增加。一个大型的云计算数据中心运行数十万个虚拟机是可预见的,当前的云计算IDC在业务规划时已经在考虑这些因素。

虚拟化以后,不再是一个个独立的服务器,数据中心将成为一个大的“池塘”,里面有着各种应用。但在这种环境下,网络需要与服务器资源充分联动,为云计算网络提供按需、可分配的资源。

4 节能减排,绿色成为重要关注点

对于数据中心管理者本身而言,能耗问题已成为其最为关心的问题。持续增长的电能费用是整个数据中心生命周期内最主要的支出成本之一。

云计算数据中心主要从网络架构和网络设备本身两个层面来实现节能减排:

(1)网络架构层面

1)通过FCOE建立数据中心融合网络,实现IP/存储数据统一交换,大幅减少服务器网卡和布线数量,消除光交换机的使用,从而大幅减少设备及散热系统的电能消耗。

2)通过40G/100G以太网接口组建两层扁平化网络,进一步减少网络端口数量,降低单位数据流传输能耗。

(2)网络设备层面

1)智能电源管理:采用高效的电源系统架构设计(DC-DC电源转换模块),实现高达95%的电源转换效率,有效节能。独有的电源监控功能,保证用户可根据实际使用状况按需安装电源。支持线卡顺序上电(降低线卡同时上电带来的电源冲击,提高设备寿命,降低电磁辐射),可切断指定线卡电源,隔离故障/空闲线卡,降低系统功耗。

2)智能风扇设计:采用高效的温控调速风扇,支持无级调速。系统可自动收集线卡温度,根据设备实际情况计算风扇调速曲线,并将调速命令下发到风扇框。系统支持风扇状态监控(转速监控、故障告警等),可以根据环境温度、线卡配置自动分区调速,降低设备功耗和运行噪声,有效降低环境噪音并延长风扇寿命。

3)端口自动检测:当某槽位未配置线卡或端口未连接线缆时,系统可以自动关闭相应的内部端口,节省整机功耗。

财富管理中心管理模式 篇5

财富管理中心的设立和管理,可以借鉴一下私人银行运营的模式,现行的私人银行的管理模式有以下几种情况:

目前各家商业银行私人银行发展轨迹和经营模式不同,大体可归纳为五类:

(一)持牌经营的总分部专业化模式(工行)。私人银行部定位为总行直属机构(总行一级部室级),对内参照总行一级部室管理,对外作为总行经营性直属机构运作。实行相对独立的管理模式,业务单独核算,在授权范围内开展私人银行业务。

(二)总行主导管理推进、分行主导业务发展模式(建行)。私人银行部在总分行均为一级部室,总行重点负责业务组织管理,主要依托各分行进行业务拓展和客户服务。

(三)总行二级部建制、分行一级部+独立的服务网点拓展模式(中行、招行)。两家行均在总行个金部下设私人银行二级部统一管理推进,分行设立一级部室实施管理推进职能并利用独立的私人银行服务网点和专职队伍开展直接营销和经营。

(四)中外资合作推进模式(中信银行)。总行设立私人银行部(准一级部室)负责全行35家分行业务推动,下设北京、上海和深圳3家独立核算的分部专业经营。积极探索与西班牙国民银行以股权划分形式建立独立的私人银行公司。

重塑数据中心 篇6

4月17日,万国数据深圳福田数据中心正式开业。这座建筑面积1.5万平米、可容纳2400个机柜的数据中心已经是万国数据在全国的第17座数据中心了,其总面积超过了15万平米。新建的这家数据中心,服务对象除了针对深圳的用户外,还瞄准了整个华南地区和香港,据说还没开业,就已经被客户签下了一半面积。

在云计算、大数据以及移动互联这些新兴应用的推动下,今天的数据中心市场依然是那么火爆。

谁是数据中心变革的推手?

如此兴盛的数据中心市场,其背后仰仗的是今天无处不在的信息和令人难以置信的信息增长量。看看每个人口袋里装着的智能手机,以及手里拎着的笔记本电脑和各种Pad,再想想正炙手可热的可穿戴式设备甚至汽车车载智能系统,我们的生活已经离不开这些设备了,而在它们的背后同样离不开的正是那些数据中心。我们已经对数据中心产生了依赖。

在刚结束不久的英特尔IDF14上,记者注意到这样一组数据:现在每400个移动电话就需要有一个服务器来管理它的内容,每120个平板电脑就需要一个服务器做支持,每20个数字图像采集器就需要一个服务器来支撑,每6个监视器就需要一个服务器来服务……由此我们可以看出数据中心与我们的生产、生活以及目前正火热的物联网、智能交通、智能安防等社会智能化的发展是如此地密不可分。

淘宝5年前开始发起的购物节“双11”在去年达到了新的水平,在短短的24小时中,淘宝实现了57亿美元的销售额,这一业绩与前一年相比达到85%的增长。让我们看看57亿美元背后的数字:峰值时有1700万个同时购物的人,支付宝每分钟需要支持7900个交易或支付交易,同时产生了1.52亿个需要送货的包裹。

如此“可怕”的数字需要背靠强大的数据中心。

上海市卫生局拥有4700多家医院的信息,每天都要产生1600万份病历。如何利用这些数据,提高医院的利用率,并通过数据分析改进对慢性病的跟踪,这些同样需要数据中心的技术支持。

2013年,中国“天河二号”成为全球排名首位的超级计算机,这个使用了4.8万颗英特尔至强融核协处理器和3.2万颗英特尔至强处理器的超级计算机,峰值性能可达54.9PFLOPS(每秒54.9千万亿次浮点运算)。利用它强大的计算能力,在大气污染模拟、高铁过隧道时的空气动力学效应以及小蛋白分子动力学上都取得了可喜的成绩。

正是基于目前这些热门领域对数据中心需求的分析,英特尔公司高级副总裁、数据中心事业部总经理柏安娜女士提出,对未来数据中心的业务发展至关重要的将是云计算、大数据和高性能计算这三个领域,它们未来的广阔前景将是数据中心的增长点。我们相信,这应该也是业界的共识。

数据中心驱动业务创新

面对纷繁复杂的市场变化,要抓住稍纵即逝的发展机遇,企业需要更快的响应速度、更高效可靠的运营管理和更准确的商业洞察。而作为重要的业务支撑和推动力量,IT技术扮演着越来越重要的角色。在这个过程中,作为IT的基础设施,数据中心的作用毋庸置疑。

数据中心是一整套复杂的设施。它不仅仅包括计算机系统(例如服务器、系统软件等)和其他与之配套的设备(如通信和存储系统等),还包含冗余的数据通信连接、供配电及制冷设备、监控设备以及各种安全装置,可以说数据中心是推进新一代信息技术产业发展的关键资源。

同时,云计算、物联网、大数据、基于移动互联的应用和HPC的迅速发展,SNS、电子商务、视频等业务的大规模增加给数据中心带来了持续的需求。例如在物联网等新兴领域,数据中心正在成为“改变者”的角色。

罗克佳华公司坐落在太原市南郊国家级高新技术产业区,他们将物联网应用与云计算服务完美结合,开创了“云+端”的技术模式。在罗克佳华的厂区内,建有一个规模为300台物理服务器的云计算数据中心,为全国各地的用户提供矿山运营、能效监管系统运营、电厂脱硝和脱硫运营、合同能源管理运营等服务。在罗克佳华董事长李玮看来,数据中心已经成为公司业务发展的重要推动力量甚至是创新力量。

“随着物联网技术的发展,连接网络的传感器必然会带来海量的数据,如果不能将这些数据处理好的话,那根本就不能算实施了物联网。”李玮说,罗克佳华正在积极采用云计算的模式来实现对各种数据的处理,即以物联网和数据技术为核心,采用“现场设备+异地云”的架构模式。现场设备即各种现场数据采集设备,“异地云”即罗克佳华建设的云计算数据中心。

在和用户签订相关协议后,用户将各种有效数据采集并上传到罗克佳华的数据中心,后者利用数据挖掘手段进行处理和分析。据悉,罗克佳华目前正在与一些大型电厂合作,通过云计算实时分析电厂脱硫、脱硝过程中各种反应物的添加量,以实现精细化的实时添加,帮助这些电厂降低脱硫、脱硝过程中的能耗。

“未来我们的目标是建设全亚洲最大的物联网数据中心,达到2万台物理服务器的规模,面向更多的服务领域。”李玮说。

前面提到的上海市卫生局,面对每天产生的1600万份病历,他们采用了基于英特尔的大数据解决方案,实现了病例的实时、系统性获取,通过这些数据分析出每位病人是否需要进行复查并采取下一步治疗措施,从而使得医院病例的复查率降低到30%,大大提高了上海卫生局的工作效率,也节约了医疗资源。

中国约有1000万辆卡车,它们是物流组成中的重要部分,急需更高效的路线和车辆调配优化,以降低成本。郑州市为了降低物流成本以及卡车运输中的事故率,部署了英特尔的智能交通解决方案,对卡车运输进行实时规划、实时监控、远程处理,提高了卡车和货物的匹配率,缩短了行驶时间,并降低了20%的严重事故发生率。这一系统构建在具有强大计算能力的数据中心里,平均每500辆卡车就需要1个至强处理器默默无闻的支持。

LSI公司高级副总裁兼数据中心解决方案事业部总经理Tom Swinford认为,数据中心从未像今天这样对企业业务产生如此巨大的影响。同时,企业必须寻求创新的技术和方案,以快速应对大数据的获取、整合和管理,从而帮助企业做出决策。

数据中心需要变革

我们必须承认,今天无论是云计算还是大数据,亦或是物联网、互联网应用,都已经超出了传统数据中心所能承受的负载,数据中心需要变革,需要创新,需要顺应发展趋势。

日前, Gartner公司研究总监Fabrizio Biscotti就表示,以物联网业务为例,这样的新兴应用,必然会对数据中心的发展提出更高的挑战。“物联网的部署会产生大量需要实时进行处理和分析的数据。而实时处理大量物联网数据将增加数据中心工作负载的比例,使得提供商面临安全性、容量和分析方面的新挑战。”

“由于设备数目庞大,再加上物联网数据超级大的规模、速度和结构,尤其是在安全领域、数据存储管理、服务器和数据中心网络方面,实时业务流程面临风险。数据中心经理需要在这些方面具有更多的前瞻性管理能力,以期能够积极配合与物联网相关的业务重点。”Gartner公司副总裁、著名分析师Joe Skorupa也说。

艾默生网络能源大中华区总包事业部副总裁丁麒钢在接受媒体采访时曾经表示,在巨大的市场变化情形之下,数据中心产业链正面临着一场革新。这场革新以促进产业链层次扁平化整合为基调,强化设备制造商、方案设计方、工程实施商、运营商之间的合作,重视全局规划和建设,淡化了基础设施与IT设施的界限,并以此达到“灵活变化、快速响应、智能运行、高资产利用率、低TCO的目标”。在此影响下,重视资源优化整合、进一步提高资源利用率、多层次的市场竞争以及实现无人值守运行,将成为未来数据中心发展的主要趋势。

云为数据中心提供了更灵活、高效、快速的响应能力。过去几年中,公有云迅猛发展,大量的数据中心在全球建立,而在这一领域中,使用者的需求已经从过去单纯的对云空间、运算速度的需求转变为智能化云计算平台。用户希望能够得到一个更为智能化,能够动态高效调控的云计算平台。英特尔公司高级副总裁、数据中心事业部总经理柏安娜说,英特尔期望从软件架构上寻求突破,将架构系统从静态变成动态,让封闭的架构变得更加开放。她介绍说,在云计算平台的架构上,英特尔提供了一个协调层,让云计算平台能够提供自动的调控功能,这个协调层可以将底层和应用层进行有机的结合。

世界上七大云服务提供商中有三个来自中国,他们是腾讯、阿里巴巴和百度。英特尔则是他们共同的合作伙伴,通过密切的合作,英特尔在后端提供架构上的支持。柏安娜在IDF14的演讲上说:“英特尔在架构上设立的这个协调层能够依靠软件帮助云计算平台更加动态、更加高效、更加以需求为基础来提供服务。”前面说到的淘宝“双11”活动中,传统的服务器与带宽很难应对那么大的计算峰值和交易,而英特尔与华为合作,在服务器和技术上帮助阿里巴巴通过云平台实现了创纪录的销售业绩。

英特尔认为,与用户转变IT运营思路相对应,包括数据中心在内的IT技术,也必须扭转创新思路,从用户的实际业务需求、与之相关的具体软件和IT服务出发,来打造产品、技术和解决方案。“英特尔正倾尽全力,在数据中心领域推动这一转变”,柏安娜表示:“目前英特尔最主要的尝试,就是推动迎合软件定义基础设施趋势的创新。”

她指出,英特尔对于数据中心环境下软件定义基础设施的理解,主要是指对数据中心IT基础设施的主要组成部分——服务器、存储和网络设备进行以软件定义为导向的创新,让它们能够构建于通用、可扩展且高效的架构之上,成为可按用户软件和服务需求进行灵活组合和调配,易于协调部署,并能实现自动供给的IT资源池。

数据管理中心 篇7

随着网络应用的不断发展以及应用系统的升级和扩展,数据中心的应用服务器及其他网络设备也逐年增加,随之而来的资源利用率偏低、运维效率偏低、资源成本提高、备份与灾难性恢复等复杂问题,已成为制约数据中心发展的重大障碍,传统的“单一设备单一应用”数据中心IT架构已经不能满足业务发展的需求,进而需要一种新的数据中心架构来适应业务需求的发展。

虚拟化技术的出现,则在一定程度上解决了传统数据中心的部分问题,从而使传统的数据中心建设过度到了虚拟化数据中心阶段。虚拟化技术是将各种计算及存储资源充分整合和高效利用的关键技术。从应用领域来划分,虚拟化分服务器虚拟化、存储虚拟化、应用虚拟化、平台虚拟化、桌面虚拟化。服务器虚拟化技术是当前IT行业应用非常广泛且比较成熟的信息技术。通过虚拟化数据中心建设,提高了运维管理效率、降低运维成本,且通过建立智能化、自动化、资源整合配置体系架构满足了业务差异化和低成本的需求,实现资源的集约共享。

随着科学技术的发展,移动设备、社交网络、应用的多样性,以及云计算和大数据时代的演进,改变了IT服务的交付和消费方式,也改变了当今的IT格局。因此数据中心建设也从虚拟化时代演进到云计算时代。云计算是一种全新的计算理念,通过将大量计算机资源整合在一个个计算集群中,并使这些计算集群分布式地承担各种计算请求,使得用户能够按需获取集群中的各种计算资源、存储资源、网络资源以及便捷的信息资源服务。

随着云计算的发展,相继出现了软件定义计算技术、软件定义网络、软件定义存储等新技术,使数据中心中硬件基础设施利用服务器虚拟化、存储虚拟化及网络虚拟化技术将硬件基础设施抽象组合成虚拟的逻辑设施,采用云计算模型将计算能力和逻辑设施通过网络来提供服务,并从基础资源以及服务的精细化运营角度出发,实现Iaa S、Paas以及Saa S多种服务模式的灵活多变的业务交付方式,进而满足和适应新业务快速发展的需要,这也促成了一个新的技术方向——软件定义的数据中心,为此以软件定义理念为核心的软件定义数据中心走向前台,正在让我们以一种前所未有的方式连接、汇聚和配置计算资源。

2 什么是软件定义的数据中心

软件定义的数据中心,从最直观的定义来看,就是虚拟化、软件化数据中心的其一切资源。虚拟化是从服务器虚拟化开始的,服务器虚拟化技术目前已非常成熟。如果我们把服务器看作是一个微型的数据中心,那么我们可以通过服务器的虚拟化来理解软件定义的数据中心。服务器虚拟化是将服务器物理资源抽象成逻辑资源,让一台服务器变成几台甚至上百台相互隔离的虚拟服务器,不再受限于物理上的界限,而是让CPU、内存、磁盘、I/O等硬件变成可以动态管理的“资源池”,从而提高资源的利用率,简化系统管理,实现服务器整合,让IT对业务的变化更具适应力。软件定义的数据中心也采用了类似的理念,它将网络、存储、计算、安全等基础设施和可用服务进行池化、聚合,并可通过策略驱动的智能软件进行管理,从而使数据中心服务不再受到专用硬件的束缚,摆脱传统1T复杂而不灵活的困境。此方法可使计算、存储、网络连接、安全保护和可用性服务池化、聚合以及作为软件交付,并可通过策略驱动的智能软件进行管理。因此,客户可以获得针对云计算时代优化的数据中心,从而实现无可比拟的业务敏捷性并为所有应用提供最佳SLA,并可大幅简化操作以及降低成本。

软件定义的数据中心核心在于对CPU、内存、I/O等硬件资源进行解耦与重构,让数据中心计算、存储、网络、安全资源的全虚拟化、全自动化成为现实,并通过软件定义实现业务感知的按需资源组合与配置,实现系统的弹性伸缩和超大规模持续扩展,真正实现数据中心像计算机一样运行和管理,更好的支撑用户在云计算、大数据时代的业务运营和增长。

3 如何构建软件定义数据中心

构建一个软件定义的数据中心,主要包括两个核心要点:第一步虚拟化数据中心的一切资源;第二步,通过一个统一的管理平台对这些资源进行管理。软件定义的数据中心,首先要做的事情就是虚拟化数据中心的一切物理资源,通过虚拟化的技术,构建一个由虚拟资源组成的资源池,不仅仅是对服务器进行虚拟化,还包括存储虚拟化和网络虚拟化等。当前,许多用户的数据中心环境是异构的,既包括虚拟化的设备,也包括一些因某种原因不能被虚拟化的物理设备;既包括私有云,也包括公有云。因此,软件定义的数据中心一定要能够支持异构云环境。

软件定义网络(SDN)概念的提出早于软件定义的数据中心,其核心理念是将网络设备控制面与数据面分离开来,从而实现了网络流量的灵活控制,为核心网络及应用的创新提供了良好的平台。软件定义网络技术实现了从虚拟网卡、虚拟交换机、接人交换机到核心交换机的控制系统与传输机制的分离,使得满足计算需要的各种虚拟网络无处不在。透过这些虚拟的网络,将用户眼中传统的数据中心变成了软件定义的数据中心。要建设的软件定义数据中心网络系统需要立足于成熟的交换、路由模式之上,以网络虚拟化设备、软件为主,积极使用支持软件定义网络(SDN)功能的设备,构建满足多种不同类型用户服务需要的软件定义数据中心的网络系统。

软件定义存储(SDS)是软件定义的数据中心的基本组件,它从虚拟层、纯软件层介入,对物理存储的集成和控制。虚拟化环境中的计算机资源按需分配,因此这种环境需要动态进行存储分配。软件定义的存储通过对存储资源进行抽象化处理来支持池化、复制和按需分发,从而解决了这一难题。这使存储层具备了与虚拟化计算类似的敏捷性:聚合、灵活、高效并能够弹性横向扩展,全面降低了存储基础架构的成本和管理的复杂性。软件定义的存储有几个明显特征:以应用为中心的策略,可实现存储使用自动化——软件定义的存储支持对异构存储池中的所有资源实施一致的策略,使存储的使用像为每个应用或虚拟机指定容量、性能和可用性要求那样简单。这种基于策略的自动化最大限度地利用了底层存储资源,同时将管理开销降至最低;与硬件无关的虚拟化数据服务——数据服务作为虚拟数据服务在软件中交付,并按虚拟机进行调配和管理;通过硬盘和固态磁盘虚拟化确保数据持久性——随着服务器功能的增多,软件定义的存储解决方案可让企业利用廉价的行业标准计算硬件来扩大其存储资源,同利用固态磁盘和硬盘作为虚拟机的共享存储,可获得高性能、内置的恢复能力和动态可扩展性。

软件定义软件:传统的数据中心,应用服务器采用竖井的方式,每台服务器上运行一个应用程序,服务器硬件以及上面的操作系统和应用以紧耦合的方式捆绑在一起。这种模式导致服务器的CPU和内存等物理计算资源利用率低。在典型的x86服务器部署中,平均只有总容量的10%到15%得到利用,计算资源浪费严重。而另一方面,为支持不断增长的业务和应用需求,企业需要大量的服务器购置或者更新换代。软件定义的计算便是为了解决这一矛盾。但是,软件定义计算目前没有统一的概念定义,目前分布式计算以及云计算都属于软件定义计算的范畴。

当现有数据中心经过服务器虚拟化、存储虚拟化和网络虚拟化技术的应用,将数据中心提供的计算资源基础设施产品,变成了虚拟的、逻辑的、可通过网络直接获取的基础设施服务。数据中心的管理人员可以通过一个统一集中的管理系统实现对这种服务的定制、发布、度量、控制、运维等各种管理操作,进而完成了数据中心业务的云化。

4 结束语

数据中心标识管理 篇8

1.1 项目主要内容及关键技术

数据中心建设是当前热点, 其建设跨越多个专业, 从建筑、消防、给排水、暖通、配电、新风等建筑建设部分, 到布线、数据、交换等信息化建设部分, 以及到后期的运维管理等完整全生命周期内各个阶段。本次研究是在设计和建设运营阶段, 对数据中心内部众多的设备、管路、线路按照一定标准设置不同的标识, 以及不同标识对维护、管路人员带来的心理影响。关键技术是研究国内相关标识的强制性和推荐性标准, 最终形成设计院或用户内部数据中心标识管理文档标准。

1.2 技术创新点

针对数据中心设计和运营阶段, 独创性地提出综合标识管理标准, 结合企业UI设计, 形成独立体系。以理论分析为主, 在理论分析的基础上, 结合其他行业相关标准, 分析不同标识、不同标准之间的冲突, 最终得出最优标识系统。

2 标识管理基本要求

随着信息化的高速发展, 作为支持信息化应用的核心物理平台, 数据中心的建设越来越得到用户的重视。特别是一些对信息化需求较大的用户, 如政务机关、金融行业、大型企业等, 在投入大量资金采用先进的设备、技术建设数据中心的同时, 已不仅仅满足于对数据信息的存储、整合、网络传输等基本结构的高标准要求, 更加重视数据中心的维护, 以更好发挥其高性能优势。

机房的标识管理是信息系统标准化建设的一个重要环节, 标识管理要从实际应用出发, 参考国际、国内或者行业标准的要求, 解决在机房什么位置上、用什么样材料和颜色标签的问题, 最终的目的是提高运维水平和管理层次, 推广企业的UI形象。

2.1 标识管理各阶段要求

1) 标识管理的初级阶段

只解决有和没有的问题, 不考虑材料和方式。常用材料包括纸加透明胶条、扣取纸等, 一般采用手写的方式, 使用寿命和标签的成本一样低。初级阶段, 开始对整个信息系统的局部制作标签, 标签材料以合成纸为主, 初步要求具有防水功能, 采用标签打印机进行打印, 材料和形式都比较单一, 多为长条状的粘贴标签。

2) 标识管理的中级阶段

按照GB 50312-2007《综合布线系统工程验收规范》, 要求标签具有唯一性、形式具有统一性, 标签书写应清晰、端正, 标签的材质要有耐磨、防水功能。这对于一个庞大的综合布线系统来说, 要求得比较宽泛, 对标签没有量化的要求。

3) 标识管理的高级阶段

(1) 标识管理不仅仅是标识单独的产品, 而是一套标识管理系统, 管理系统包括“标”和“识”两部分。标识管理系统的设计要与企业形象推广相结合, 根据国际上EIA/TIA606 《商业及建筑物电信基础结构的管理标准》、UL969 和Ro HS的要求进行设计。

(2) 标识管理系统的“标”的含义为:统一颜色、统一标签形式、统一打印方式和编码规则, 并根据不同的标注位置来选择最适合的材料。标识管理系统的“识”即标识系统的管理, 最原始的方式是中英文和数字结合的方式, 为了更方便管理可以通过可视化机房的资源管理软件, 结合一维码、二维码和智能识别终端, 实现标识管理系统“账”、“物”、“卡”有机地结合起来, 方便资产管理和日常运维工作。

2.2 标识组成及分类

数据中心各个组成部分, 如图1 所示。

根据数据中心标识对象不同, 可分为设备类、管线类以及安全指示类几部分, 具体分类如下。

1) 设备类

消防设备、配电设备、电源设备、空调设备、给排水设备、综合布线设备、智能化设备、新风排烟设备等部分。

2) 管线类

消防水管线、消防气体管线、消防控制管线、低压配电管线、高压配电管线、信号类管线、走线架、支架等部分。

3) 安全指示类

安全指示、疏散指示、机房标识、区域标识等部分。

根据标识悬挂方式不同, 可以分为粘贴式和悬挂式。

粘贴式标识是较传统的标识, 应用广泛。符合标准的粘贴式标识应该满足如下条件:在标准数据中心环境下, 字迹清晰、明确, 粘贴牢固;抗水、抗油、抗化学品擦拭, 标签工作年限在室内可达10 ~ 15 年 (除人为破坏外) 。同时, 根据实际应用的经验, 还要求标识材质尽可能柔软, 可以更好贴合设备的烤漆不平滑表面;标识粘胶层可移除性强, 标识本身应为整体结构, 如遇更换标识的情况可以整体移除, 不留残迹污染设备表面。

悬挂式标识是补充类别, 多用于不适合粘贴的环境, 如服务器等无粘贴表面的设备、较粗线缆等。符合标准的悬挂式标识应该满足如下条件:字迹清晰、明确、耐撕扯;抗水、抗油、抗化学品擦拭, 标签工作年限在室内可达10 ~ 15 年。

2.3 标识设计基本原则

2.3.1 需满足行业相关标准要求

目前, 消防系统、电力系统、工业管道等已有较为详细的规范, 规定了各个不同设备、管路的标识要求。因此, 在设计数据中心标识时候, 必须满足这些规范要求, 不得和这些规范冲突。这些规定范围外的设备、管线可按照企业内部标准进行标识。

2.3.2 需满足唯一性原则

对各个设备编号需满足唯一性原则, 否则, 无法在记录、查找故障、沟通交流时确定对象。在目前大型数据中心, 有多栋建筑, 每栋建筑有多层, 不同建筑不同楼层内各个功能分区也类似, 这就要求必须将相关信息都包含在内, 从而满足唯一性要求。

2.3.3 需满足便于查看原则

标识对象很多, 体积和位置差别也很大。如有的冷却塔, 高达10 多米;有的配线架, 只有1U高度 (44.45mm) 。对象性质不同, 观察距离不同, 这也要求标识颜色、字体、色环等不同因素, 必须能够便于让维护人员查看, 否则, 标识就不起作用。

2.3.4 简洁原则

很多场所标识系统面积有限, 且信息量大。因此, 需要在有限面积上, 尽可能地包括必要的信息, 因而编码必须要简洁, 一般采用字母+ 数字的方式进行编码。

3 标识管理具体要求

3.1 材质要求

标识应打印, 应保持清晰、完整。字迹清晰、明确, 粘贴牢固;抗水、抗油、抗化学品擦拭, 标签工作年限在室内可达10 ~ 15 年。

标识能达到环保Ro HS指令要求。

标识能满足环境的要求, 比如潮湿、高温、紫外线等环境因素。应该具有与所标识的设施相同或更长的使用寿命。通常选择聚酯、乙烯基或聚烯烃等材料。

有触电可能的场所应使用绝缘材料。

标识应无孔洞和影响使用的任何疵病。

3.2 安装要求

应根据标识对象不同使用不同的安装方式:对于设备类标识, 应在设备相关部位粘贴安装;对于管路、线缆标识, 应直接将标识印刷标明在管路和线缆上;对于安全指示等标识, 可粘贴在表面, 如不能粘贴则需悬挂安装, 安装高度一般不小于2m。

3.3 安放位置要求

1) 设备位置:位于设备表面左上方或右上方。

2) 管路位置:标识的场所应该包括所有管道的起点、终点、交叉点、转弯处、阀门和穿墙孔两侧等的管道上和其他需要标识的部位。如图2 所示。

3) 疏散指示位置: 疏散走道的疏散指示标志灯具, 宜设置在走道及转角处地面1.0m以下墙面、柱上或地面上, 且间距不应大于20m ;安全出口标志灯宜安装在疏散门口的上方。如图3 所示。

3.4 标识形状

根据标识作用不同, 参考消防设备标识, 可将数据中心内的标识分为指示、警告和指令类3 类。

1) 指示类标识是提示设备名称或者指示方位, 采用方形标识, 或长方形标识。如图4 所示。

2) 警告类标识是警告相关人员需注意, 采用三角形标识。如图5 所示。

3) 指令类是指示操作人员必须做或者禁止做的内容, 采用圆形标识。如图6 所示。

3.5 字体尺寸

对于数据中心类各个设备来讲, 观察具体距离不同, 所需要尺寸不同。

参照消防设备指示要求, 各个不同类型设备所需要字体尺寸的大小如图5 所示 (D为观察距离) 。

对于观察距离, 根据数据中心特殊性, 暂定观察距离如表1 所示。

管路部分需采用颜色和色环来表示, 如图6所示。

2 个标识之间的距离不大于10m。

3.6 底纹要求

红色传递禁止、停止、危险或提示消防设备、设施的信息。

蓝色传递必须遵守规定的指令性信息。

黄色传递注意、警告的信息。

绿色传递安全的提示性信息。

使用对比色要求如表2所示。

3.7 安全指示类标识

对于疏散类指示标识, 可参照国家相关标准。

1) 定位

包括建筑、楼层、房间类别以及相同房间顺序号。定位需满足唯一性要求。编号以字母和数字组合而成。每个功能分区之间采用“-”分隔。

2) 房间编码

房间编码原则:各个功能分区中文名称见国家标准GB50174。对于常规功能分区, 采用拼音首字母2 位标识;对于大家熟悉的功能房间, 如UPS间等采用英文编码方式, 英文编码为3 位 (见表3) 。

3) 区域划分

在设备区域地面划分安全区域, 如图7、图8 所示。

3.8 管线类标识

管线类标识要求见表4。

对于保温涂沥青的防腐管道, 均不涂色。

线缆:编号应包括起点、终点、端口号等要素。在综合布线系统中, 配线架区域空间有限, 往往不能将全部信息显示在标识上。可以采用RFID或条形码的方式对设备进行编码编号, 在需要详细信息的时候可以采用手持设备进行读写, 这样可以兼顾显示面积和信息量, 这样既能方便维护, 又能全面显示信息。

3.9 设备类标识

设备类标识包括消防设备、配电设备、电源设备、空调设备、给排水设备、综合布线设备、智能化设备、新风排烟设备等部分。

设备类编号一般规则为:定位-字母-编号。

1) 定位

包括建筑、房间、楼层以及相同房间顺序号。定位详见指示类要求。如设备位置不唯一, 则前缀需加以定位;如唯一位置, 则不需要。如冷却塔全部设置在屋顶, 大家一般对此没有歧义, 则不需要加定位, 只需要加设备顺序号即可。对于定位, 需要区分大小, 对于建筑, 它参考的是园区内的建筑数量。对楼层, 对应的是建筑;对于机房, 对应的是楼层;对于机柜, 对应的是机房;对于配线架设备, 对应的是机柜。即需要前一级准确定位才能确定本设备的唯一定位。

2) 设备字母定义 (见表5)

3) 编号

对于数量比较少的设备, 如油机、冷水机组、冷却塔等采用顺序编号。

对于数量较多的设备, 如机柜采用行列的方式。一般来讲, 行要比列要多一些。因此, 列采用字母编号, 行采用数字编号。如B20, 标识B列第20 号机柜。机柜编号顺序是将头柜视为0 号柜的顺序编号。如图9 所示。

4 市场前景

当前数据中心市场巨大, 尤其是大型数据中心, 对设计单位和施工单位要求更高。在当前技术基本成熟, 模式基本固定的情况下, 更多的建设单位已经逐步从重建设转为重运营的模式。运营效率的高低将会长时间影响数据中心的收益。

在设计院争取项目时, 已经利用了数据中心标识管理这个体系。在客户尤其是政企客户看来更具有吸引力。因为, 每个政企客户建设数据中心不是专门运营的, 而是为企业内部更好的服务, 会有很多同行单位和下属单位前来学习和观摩。使用数据中心标识管理, 除了提升管理效率外, 还能在很大程度上和企业标识联系一起, 从而在整体上达到一个比较好的显示和宣传效果, 这些正是目前数据中心建设所欠缺的。在某省会城市市政府级别数据中心已经初步使用了此体系, 正准备在一个新建3000 机架数据中心内实施。在另外一个海关金关工程二期项目——某省级海关实施的机房改造项目, 客户也表示出浓厚的兴趣, 在原先机房已有的UI标识下, 重新统一编码替换。此项目正在实施中。

5 结束语

数据管理中心 篇9

近期, 华为IT产品线数据中心解决方案负责人向记者阐释了华为数据中心的敏捷之道。另外, 在今年北京通信展上, 华为也展示了其端到端的融合数据中心解决方案, 包括华为统一管理、高端服务器、海量存储、数据中心网络、模块化数据中心等最新发布的解决方案。

企业面临IT统一管理问题

快速扩展的企业, 面临着原有IT系统、新建IT系统、异构设备的统一管理难题。“华为推出的ManageOne数据中心管理解决方案, 集业务运营和IT基础架构运维于一体, 提供数据中心全面的运营和服务管理解决方案。”陈世峻表示。

据介绍, 华为ManageOne数据中心管理解决方案支持多数据中心集中管理, 有如下三个特性:首先, 是业界首个除服务器、存储等传统设备外, 结合通讯和机房能源等物理设备进行统一管理, 实现数据中心内的融合管理;其次, 支持传统数据中心与云数据中心的综合, 支持业界异构产品和异构云平台的管理, 使客户能够享受云技术带来的价值之外还能保护已有投资;另外, 华为数据中心管理解决方案针对行业业务特征, 提供可定义可客户化的数据中心管理。

通过部署华为ManageOne数据中心管理解决方案, 企业的IT人员能够通过统一的管理门户, 对企业集团数据中心、区域中心数据中心以及分支机构数据中心进行分权分域的统一管理, 提升管理效率, 降低运维成本, 保护IT投资, 真正实现简化管理, 敏捷运营。

新方案满足用户不同需求

微数据中心理念已经被提出多年, 针对企业快速扩展, 建立分支机构的IT设施而研制, 一些企业也较早推出了相应方案。据介绍, 华为提供的Micro DC解决方案是一个实现微型数据中心总集成的解决方案, 它预集成了机柜、供配电设备、传感器、散热、网络、安全、服务器设备与集成管理软件, 是业界惟一可以实现机房环境与IT基础设施统一监控管理的产品。

针对企业数据中心扩容为何不选公有云服务, 华为表示, 通过多年与客户的交流, 华为发现, 现实中用户的需求并不相同, 许多客户非常看好微数据中心方案, 因此华为开始以该方案帮助客户解决IT面临的问题。

数据管理中心 篇10

【记】首先请肖主任介绍一下湖北电力信通中心的历史。

【肖】湖北电力信通中心的前身—湖北电力计算中心成立于1985年, 是全国电力系统成立最早、规模最大的计算中心。1990年电力计算中心改名为电力信息中心, 2000年电力信息中心和电力调度中心通信部分合并, 组成现在的电力信通中心。

湖北电力信通中心是湖北省电力公司的信息通信建设、运行及管理单位, 有员工125人, 分成13个部室, 其中有7个生产部室, 6个管理部室。7个生产部室中, 负责通信方面的有3个, 分别是:通信运行部、工程部、客户服务部;负责信息化建设与运维方面的4个部门包括:网络运行部、信息开发部、ERP运维与管理部、维保部。6个管理部室分别是:办公室、生产计划部、财务部、思想政治工作部、物资部、人力资源部。

【记】提到数据中心, 不能不提SG186工程, 请肖主任介绍一下湖北电力SG186工程建设过程中的特点和特色。

【肖】“十一五”期间国家电网公司信息化建设一路高歌猛进, 信息化建设水平整体飞跃上升, 取得了突破性的成果。从信息化的角度来看, 整个“十一五”期间, 国家电网公司系统内大多数企业的信息化建设都经历了从无到有、从“孤岛”到“大集成、大共享”模式的转变, 应该说这个转变是极为深刻的。

湖北省电力公司作为SG186工程的参与者, 紧跟国家电网公司整体战略部署, 完全按照国家电网公司SG186工程的整体要求, 全面进行了基本建设, 以较高的分数通过SG186工程的竣工验收。湖北省电力公司目前的ERP系统、办公系统、生产管理系统、营销系统, 几乎覆盖企业所有的生产、经营、管理过程, 从安全生产到企业管理等各个方面全面实现了信息化。

总的来说, 湖北省电力公司SG186工程有以下5个特点:

(1) 制定整体规划。规划是指导一切工作的指针, 好的规划能为工作的开展提供良好的条件和基础。我们举全省之力、汇集体智慧所制定的“十一五”湖北省电力公司信息化发展规划, 受到国家电网公司的高度评价。同时, 湖北省电力公司还参与了西藏等网省公司的信息化发展规划制定和其他省市的规划评审。

(2) 担当多个试点。因为SG186工程必须遵循“统一领导、统一标准、统一规划、统一开发实施”的原则, 因此必须进行试点工作。否则, 开始信息化工程建设以后, 一旦软件出现一个漏洞, 推广到其他省市就是无数个漏洞。国家电网公司SG186工程试点的任务就是系统开发、系统完善和摸索经验。只有在这些任务完成之后, 才能在全国进行推广。湖北省电力公司承担试点任务的系统是营销系统、电力市场交易系统等。目前国家电网公司推广的输变电管理系统 (PMS) , 大量借鉴了湖北省电力公司的试点经验。这些试点工程的实施, 为国家电网公司SG186工程的顺利完成做出了积极的贡献。

(3) 重视制度建设。湖北电力信通中心的机房建设及运行管理规范不仅是国家电网公司的第一个相关内容的规范, 而且还是第一个经过很多年实践检验的规范。目前国家电网公司已经采纳了该规范, 并作为企业标准在系统内推广。在电力信息技术监督方面, 湖北省电力公司率先制定了电力信息技术监督相关标准, 该标准最后被湖北省计量局采纳, 作为地方标准进行了发布。

(4) 参与标准制定。湖北电力信通中心牵头制定的检修标准, 已经进行了3次修订, 目前正在接受国家电网公司审查。与此同时, 湖北电力还参与了许多相关标准的制定。这些标准的制定及发布, 为国家电网公司整个信息系统保障体系的建设、完善奠定了基础。

(5) 高效推广实施ERP。众所周知, 企业在实施ERP时所遇到的困难和阻力是难以想象的。作为国家电网公司ERP推广建设单位, 湖北省电力公司在开始实施ERP时就明确了以下3个目标:第一, 克服一切困难, 排除诸多障碍, 全面尽快实施ERP系统;第二, 一切从节约成本出发;第三, 培养一支技术过硬的ERP系统实施队伍。从ERP系统推广实施到现在的一年多时间来看, 已经基本实现了这3个目标。首先, ERP系统已经全部应用到了县级供电公司, 在全国电力企业ERP系统应用中走在前列;其次, 从节省成本出发, ERP系统主要的开发、配置、实施全部由企业自己完成, 可以节省上千万元的成本;最后, 从队伍建设方面来说, 因为湖北省电力公司从一开始就成立了强有力的技术支持组, 培养了大批ERP建设的中坚力量, 为ERP系统在各单位的顺利实施及终端的日常维护提供了人员的保证, 同时也为业务的受理、变更提供了技术储备。

【记】您认为数据中心和SG186工程之间的联系是什么?

【肖】关于数据中心, 我认为如果把SG186工程比作“皇冠”的话, 那么数据中心就是“皇冠”上的“明珠”。因为信息化建设的终极目的是为企业的经营管理决策提供技术及数据的支撑。提高企业的辅助决策能力是很困难的一件事, 除了需要有一系列的数学模型和分析工具以外, 还要有一个性能良好的数据中心, 提供大量真实可靠的数据, 辅助决策。从这个角度来说, 我们加大力度建设SG186工程, 其中的一个明确目的就是为了满足企业领导的决策需要。从湖北省电力公司的企业实际出发, 我们构建了湖北省电力公司的数据中心。该数据中心是在国家电网公司典型设计、统一部署的基础上, 结合湖北省电力公司的实际和特点开发的一套系统, 解决了数据中心从无到有的问题。数据中心建设下一阶段的目标是深化应用, 为领导决策提供可信任的辅助决策信息。

【记】建设一个数据中心, 需要哪些支持或者支撑条件?

【肖】构建一个好的数据中心, 首先要有一个良好的平台支持, 这个平台包括硬件平台和基础软件平台;其次要有一个良好、稳定的数据源;第三要有一个很好的数据仓库。数据中心的关键技术是数据仓库, 没有一个好的数据仓库, 数据中心的产品质量就会大打折扣。而数据仓库建设的好与坏, 关键不在数据平台本身, 而在于数据资源规划。数据资源规划的好坏直接决定了数据仓库的好坏, 进而在很大程度上决定了数据中心提供的产品质量。

数据中心建设的另一个关键是展现工具。由于数据中心的访问量和数据量都很大, 所以必须保证数据中心服务器的良好性能, 使其能够支撑不间断的运行, 同时还要保证交换机性能可靠, 因为数据中心I/O的工作量很大, 要求24h连续不间断运行, 对运行可靠性、网络连接方面的要求非常高。目前湖北省电力公司数据中心基本实现全IP网络, 在网络核心、骨干上都采用了万兆交换机, 并全部更换为H3C的设备。其中最核心的设备采用了国内首款基于100G平台开发的交换机S12518, 每个端口的交换容量都达到了1万兆, 并且性能表现稳定。目前, 湖北电力正在按照国家电网公司典型设计要求, 在国家电网公司统一部署下, 大规模开展数据库构建工作。

【记】在网络设备上湖北省电力公司选择了H3C的产品, 主要基于怎样的考虑?

【肖】在数据中心建设之前, 我们进行了广泛深入的调研和考察, 在此基础上反复对比与斟酌。在对网络设备的选择上, 主要考虑了以下几方面因素:第一是产品的可靠性如何, 能否满足连续不间断的7×24h运行要求;第二是产品是否在国内具有较为成熟的应用经验, 应用效果如何;第三是产品的成熟性如何, 是否有良好的发展前景;最后还要考虑产品的售后与维护支持是否及时、完善。综合以上几个因素, 我们最终选择了H3C的产品。到目前为止, H3C的网络设备运行一直非常稳定。除了信息内网数据中心之外, 湖北省电力公司下属地市公司的绝大部分主干网以及部分城域网都使用了H3C的网络设备, 目前都运行正常, 性能稳定。

【记】湖北省电力公司的数据中心和国家电网公司的数据中心是否属于数据大集中?

【肖】数据中心总体来讲是国家电网公司统一部署的。前期国家电网公司推出了一个典型设计, 这个典型设计规定了基本的概念和关键指标, 但是业务系统在各个省公司推广的时候只规定了基本的模块, 各省电力公司可以在其他模块的功能上进行进一步的开发, 也就是说除了必须具备基本的功能外, 各省电力公司业务系统的推广仍然存在差异性。如有的省公司水电比较多, 有的省公司火电比较多, 各省公司在安全生产、设备管理等方面都有差异性, 但是总体框架上是一致的。

另外在具体应用时, 各省公司数据中心的数据要与国家电网公司相应的系统进行互联。数据中心是一个数据交换的平台, 如国家电网公司的生产系统需要抽取全国20多个子系统的数据, 而操作的平台就是数据中心。各省公司生产系统的数据, 也要通过数据中心进行导入和导出, 然后向国家电网公司相应的数据中心进行切换、导入, 国家电网公司的数据中心再向各个相应的业务子系统发放数据, 这一过程被称为数据的纵向贯通。去年湖北省电力公司已经实现了省公司数据中心与国家电网公司总部数据中心的数据纵向贯通目标。现在所有的业务系统数据都可以通过这套体系向国家电网公司总部进行上发。

【记】目前湖北省电力公司的数据中心建设是否为智能电网建设的一部分?

【肖】不是。从目前来看, 数据中心建设还远远未达到智能电网所要求的水平。但是将来数据中心的数据一定会涵盖智能电网所建立的新系统或者是其所要求的数据, 数据中心也将为智能电网的建设实施提供更多服务。智能电网目前还处于制度的建设阶段, 要有系列的标准和规范做支撑。要实现智能电网建设目标, 还需要更新很多产品, 包括电网控制产品, 特别是配网部分终端用户的用电信息采集产品。同时, 还要有很多支撑智能电网的大系统, 如新能源的接入系统、网上交易结算系统等。智能电网的一些关键技术还处于摸索和建设阶段。目前智能电网建设还处于初期阶段, 数据中心直接为智能电网服务还需要一个过程。

【记】在建设绿色数据中心方面, 湖北省电力公司有哪些具体措施和经验?

建立大数据中心 实现数据共享 篇11

刘捷认为,建立大数据中心可以帮助政府部门快速建设社会信用体系。目前,整个社会信用体系的缺失,某种程度上阻碍了社会经济发展。尤其是对于滴滴出行、Airbnb等分享经济,信用体系的缺失增加了人们参与这些分享经济模式的风险。

2015年9月5日,国务院印发了《促进大数据发展行动纲要》,最核心的内容,就是要推动各个部门跨地区、跨行业地进行数据资源共享和开放。随后,“互联网+政务服务”出现在2016年政府工作报告中,更进一步地推动了各地政府数据开放共享的需求。

神州信息助理总裁刘捷在会上指出,数据开放共享对政府部门来说,是能为市民提供均等化服务的手段,是通过事项的推动能更好服务于企业的方式,是能为领导者提供各种可视化综合统计信息的途径,是辅助城市经济发展转型、消除信息孤岛的根本途径。他提倡通过建立大数据中心,来实现数据共享。

刘捷称,目前数据的来源,包括了基础库、专题库,以及互联网数据、物联网数据等在内的社会数据。他将整个大数据中心的数据分成四个层次:一是原始数据,即没有经过加工的,存在错误的、不一致信息的数据;二是信息,即原始数据经过清晰、加工比对后,形成的有价值的数据;三是知识,是对信息的重构,面向市民、企业、城市管理者分别提供有主题的数据服务;四是决策,即通过大数据平台,接受不同渠道的请求,调动平台内的信息与知识进行分析、判断,从而做出决策。

建设大数据中心可以分为四个阶段。第一,是数据生产、加工处理阶段;第二,是资产管理阶段,信息资产的管理是要建设城市数据的总框架;第三,是政务协同阶段,能促进政府各个部门更好地使用和管理这些数据;第四,是公共共享阶段,包括政府各个部门之间的共享,以及面向公众、面向企业的共享。

对于大数据中心建成之后,该如何去运用和使用,很多地方政府都有着疑问和困惑,对此刘捷谈了自己的想法。

首先,大数据中心可以帮助政府部门快速建设社会信用体系。目前,整个社会信用体系的缺失,某种程度上阻碍了社会经济发展。尤其是对于滴滴出行、Airbnb等分享经济,信用体系的缺失增加了人们参与这些分享经济模式的风险。通过大数据中心,搜集资质类、许可类等各方面的信息,就能够建立起面向个人、企业以及政府部门的信用查询、管理体系,从而推动社会经济发展。

其次,大数据平台能够更好地提供均等化公共服务。比如,过去办理老年卡需要老人到处跑部门办理,而通过大数据平台,可以把办理老年证所需的信息推送给民政局及相关部门,待办理完结后再把相应的证件邮寄给老人,使之更加便利。

数据管理中心 篇12

数据中心主楼的地下1层是冷水储存, 地上1层是配电和冷水机组, 2到6层是数据中心主机房以及相应的功能区, 包括配电房、电池房、UPS房等。主楼隔壁的另一栋楼做柴油发电, 共2层, 发电楼隔壁还有一个油库, 用来存储柴油发电的油品。该项目建成后将为平安集团以及其下属各个机构提供集中的数据处理和交换服务。

用户对此数据中心的建设十分重视, 在土建开始前就已经对数据中心的总体设计方向达成一致, 以便土建设计和建设时完全满足数据中心的需求, 从而避免了让旧有的数据中心去适应土建的设计弊端。其总体设计方向是:

◆按照A级等级去建造;

◆满足最新的国际国内标准和本地规范;

◆采用主流技术和产品;

◆体现本工程的特殊性和特点。

针对以上总体设计方向, 用户规定, 在数据中心机房内的综合布线应遵循最新的国内GB 50174-2008标准和国际TIA 942A标准, 采用主流产品, 即铜缆采用CMP增压级高阻燃的Cat.6A非屏蔽铜缆, 光缆采用OFNP增压级高阻燃的MPO预端接OM4光缆, 以此来体现数据中心的安全可靠和绿色环保。

因此, 该数据中心在机房内的综合布线着重于以下四点进行设计和配置。

1 高安全可靠性

每个设备机柜配线 (EDA) 都通过铜缆和光缆集中铺设到LAN和SAN的配接区进行跳接。集中布线架构提供了最简单和最有效的线缆连接, 集中的跳接则提供了高效的布线管理和安全性, 而集中的网络设备则提供最佳的冗余备份和可靠性。由于用户从数据中心土建的初期已经考虑到了机房内的配电、冷通和布线的空间需求, 所以集中布线带来的线缆密集情况得到了完善的解决。

2 先进性

铜缆采用主流的康普SYSTIMAX Cat.6A万兆非屏蔽双绞线 (如图1所示) , 提供了100m以内性价比最高的带宽, 适合LAN/NAS的应用, 能够满足目前虚拟计算的高带宽、高性能要求。

光缆采用的是主流的康普SYSTIMAX LasrSPEED 550 OM4激光优化多模光缆 (如图2所示) , 该光缆专为IEEE 802.3ba高速以太网设计, 是最适合数据中心使用的、性价比最高的光缆配置。OM4光缆满足10G传输550m和40G/100G传输150m距离, 用户LAN/SAN的通信链路设计可以完全不用考虑长度和跳接次数的限制, 从而设计最佳的网络拓扑结构。

同时光缆配接不再采用传统的熔接方式, 而采用了先进的SYSTIMAX InstaPATCH Plus预端接光缆 (如图3所示) 。MPO预端接取代传统的LC熔接, 代表了数据中心内光缆高速通信的发展趋势。目前的40G/100G传输也是基于MPO连接头的12芯光纤的并行传输特性。因此, 用户采用MPO预连接能够为日后云计算的爆发性网络带宽增长做好准备, 同时也可以从目前的串行传输平滑升级到并行传输。

3 高防火等级

网络物理层的另一个关键需求是防火安全。根据GB 50174-2008标准A级机房的要求如表1所示, 用户采用CMP/OFNP增压级的高阻燃外皮, 这种外皮具有很强的防火性, 在燃烧冒烟解体之前可以忍受高达800℃以上的温度, 同时这种外皮也是一种高效的绝缘体, 能够提供更加高速的数据传输性能。

4 扩展性

EDA配置了足够的铜缆配线架和光缆配线箱, 不论目前设备是铜缆还是光缆应用, 都预留了铜缆和光缆的连接, 以满足日后LAN和SAN的扩展以及新的网络传输协议的出现, 如图4所示。

独立机柜的小型机和存储主机采用高扩展性的区域布线箱设计, 安装在架空地板下, 为临近的独立机柜提供了足够数量的跳线连接并预留了未来的扩展。避免由于各个设备厂商生产非标准独立机柜而导致不方便安装配线架的弊端。用户考虑美观因素和日常维护的便捷, 不采用桥架上的配线方案, 如图5所示。

上一篇:相关因素治疗下一篇:小学数学高效教学