数据中心

2024-08-02

数据中心(通用12篇)

数据中心 篇1

摘要:本文主要针对我院原有信息系统数据存储存在的问题,提出了“双活”数据存储方案。通过对存储系统拓扑结构的改造,成功实现了传统数据中心向“双活”云数据中心的转型,保证了医院信息系统工作的稳定性和可扩展性。

关键词:医院信息系统,“双活”数据中心,存储器,网络安全

0 前言

随着医学的不断发展,医院规模不断扩大,药品种类也不断增加,就医的人数也逐年增长,传统的医疗体系已经很难满足这些需求。医院信息化作为医院现代化的重要特征之一,是现代医院建设的基础环节,也是医院医疗、卫生教育等顺利进行的保证[1]。为此,我院对医院原网络拓扑结构进行了改造,报告如下。

1 西京医院原有信息化应用系统的不足

我院原有的网络系统的存储设备分散使用,直接导致存储空间不能共享,无法实现均衡分配,造成了管理和维护的复杂性。医院信息系统(HIS)对于核心业务配置为2台DS4700 存储器,该存储最多仅有4 G缓存,采用4Gb FC的连接带宽,属于相对较低性能的存储设备。随着业务高峰的出现,以及就医人数的不断增加,该存储器会因为本身处理能力的限制出现响应延迟,从而降低业务系统的效率。核心HIS数据利用Oracle数据库的远程复制功能实现数据的冗灾,它是通过数据库同步日志的方式来保证2台存储器数据的一致性。虽然实现起来比较简单,但是在使用过程中会因为主机日志逻辑错误或者传递不畅导致备份存储器的数据不可用,而且数据不能实现实时备份,也不能在发生灾难时实现业务功能的无缝连接。西京医院网络系统原状态的拓扑图,见图1。

为了解决上述的问题,医院数据中心向“双活”云数据中心转型成为网络改造的重点,并且需要在转型工程中对应用数据进行虚拟化管理从而实现数据实时备份,使得西京医院信息系统的处理能力进一步增强,效率进一步提高[2]。

2 “双活”云数据中心的概念

“双活”数据中心完全不同于1 个数据中心和1 个灾备中心的模式。“双活”数据中心是2 个数据中心都处于运行状态,互为备份,即一个数据中心投入运行,另一个数据中心也处于就位状态,当灾难或者突发事件等因素造成医院主数据中心瘫痪,另一个灾备中心就会启动。在转型传统的同城数据中心时,需要全盘考虑数据中心的应用层、数据库层、存储层,才能保证在满足保证系统性能的基础上,完成云数据中心的转型。在云计算的基础上,通过服务器虚拟化软件和存储系统虚拟化方案的结合,可以成功实现跨数据中心应用和数据自由流动的功能,从而增强应用系统的灵活性,更加充分的体现双活的理念[3,4]。

3 HIS数据中心向“双活”数据中心的转型

遵循国家大力发展医疗事业的趋势,“双活”数据中心有着高效、安全、低成本的突出优势,因此,果断地将传统主备型数据中心升级为“双活”数据中心是势在必行的选择,是医疗事业向前进步的标志[5]。

西京医院改造涉及的服务器共计13 台,其中桌面虚拟化服务器5 台,虚拟化服务器5 台,HIS服务器3 台;存储设备4 台;光纤交换机6 台;服务器虚拟化应用数量67 个。改造后的网络状态拓扑图,见图2。

4 转型方案实施过程

(1) 将HIS数据迁移到EMC的VMAX10K, 通过IBM小机完成。

(2)将原存储在IBM DS5100 上的大量应用数据迁移到EMC的VNX5600,通过VMware完成。

(3)将DS5100 纳入VPLEX为核心的“双活”体系,以达到利旧于新的低成本运行目的。

4.1 设备改造

新增设备:2 台EMC VNX 5600、1 台EMC VMAX 10K。 以VMAX 10K取代原DS4700 作为HIS的专用存储,在两个数据中心各配置1 个VPLEX存储虚拟化引擎,将VNX5600 存储设备实现虚拟化,实现跨距离双活。将主要应用数据迁移至EMC VNX 5600 存储设备中进行管理,确保业务系统7×24 h不间断运行,确保任何设备故障均不影响业务的正常运行。

4.2 “双活”数据中心的实验运转

经过充分的论证和准备工作,在实践过程中先将HIS数据由以前的DS4700 顺利迁移到VMAX10K上, 同时以VPLEX作为平台对新存储做双活之后,又将DS3524 和DS5100 上的大量VMware镜像文件和数据迁移到VNX5600上,实现了两个机房VNX5600 的数据同步。经过测试比对,改造后的网络存储系统的性能大大提高,见表1。

5 结语

现有的数据中心存储体系和改造前相比,具有以下优势[6,7]:

(1)充分利用资源,提高了系统运行效率。在“双活”数据中心下,对于前端用户来讲就是一个逻辑的大中心,能够充分利用数据资源,避免了1 个数据中心常年处于闲置的状态而造成数据浪费。

(2)增强了存储数据的安全性。使用最新技术做“双活”配置,实现了跨数据中心服务器自由流动,不仅增强了系统的灵活性,而且使得存储设备数据的安全性得到了大幅提高。改造前的系统随着业务高峰的出现,会发生存储响应延迟现象;改造后的系统,运用虚拟化技术,将生产资源和容灾资源放在同一的资源池里,在业务高峰时或者业务突发时,可以将容灾资源动态分配给生产资源。与此同时,由于虚拟机、存储实现虚拟化,可以最大程度地降低由于系统故障而产生的各种危险性。在发生灾难时,也能保证业务的连续性,实时的实现数据的迁移[8,9,10]。

由于使用了最新的同步技术做“双活”配置,使存储设备数据的安全性大幅提升,未来西京医院信息化系统升级改造的基础已初步构建成型。

参考文献

[1]张扬,郭森,季平.基于SAPERP信息系统的双活数据中心研究[J].电力信息化,2013,(1):87-91.

[2]邓维,刘方明,金海,等.云计算数据中心的新能源应用:研究现状与趋势[J].计算机学报,2013,(3):582-598.

[3]王智明.云数据中心资源调度机制研究[D].北京:北京邮电大学,2012.

[4]马飞.云数据中心中虚拟机放置和实时迁移研究[D].北京:北京交通大学,2013.

[5]李宏伟,肖伟.存储虚拟化技术在双活数据中心中的应用[J].邮电设计技术,2013,(9):9-13.

[6]叶燕.HIS系统与医保系统数据交换平台的设计与实现[D].兰州:兰州大学,2014.

[7]梁景雯.基于云计算技术的医院信息系统[D].济南:山东大学,2012.

[8]朱仁道.基于数据挖掘技术的HIS系统研究[D].安徽:安徽理工大学,2009.

[9]骆骁.HIS系统在医院财务管理中的作用——论HIS系统的财务数据管理[J].中国管理信息化,2010,17:14-16.

[10]赵浩宇.区域医疗信息化平台数据交换方案设计[J].中国医疗设备,2014,29(9):44-45.

数据中心 篇2

数据中心服务质量管理

为规范数据中心服务标准,针对不同客户群提供差异化服务,促进效益的提升,真正实行“优质优价”,按照地理位置、硬件设施、网络条件、服务水平、人员配备等因素,可将数据中心分为五星级、四星级、三星级、二星级、一星级5个服务等级。星级标准体系的建立充分吸取了国际上星级制度的成功经验,以星(★)的多少来标定一家数据中心机房的硬件档次和服务水平,既巧妙地避开了各国语言文字不同的障碍,而且可以使客户一目了然地对数据中心机房的各方面有一个全面的了解。因此星级制度在数据中心行业发展过程中越来越为社会所接受,成为较全面的考核评价体系。

2.1 等级设置原则

2.1.1 数据中心服务等级设置的基本原则

在等级设置时,根据数据中心机房的软硬件设施和人员配置情况,以及由此产生的服务水平差异,每个等级的产品可以是一处独立的机房,也可以是机房的一部分。各等级的划分条件和特点如下。

(1)五星级数据中心代表最高服务水平,通过严格的专业标准认证,提供全业务服务,价格及服务体系在国内处于领先水平。可作为对数据安全有严格要求的政府部门、金融企业、外资企业等重点客户的数据(灾备)中心。

(2)四星级数据中心主要面向政府机关、大型企业、知名ISP(互联网接入服务商)/ICP(互联网信息服务商),提供高质量的服务和优先保证的资源,价格高于市场平均水平。

数据中心系统工程及应用

(3)三星级数据中心主要面向中小型企业、ISP/ICP,提供较好的产品服务,价格处于市场平均水平。

(4)二星级数据中心提供基础业务和一般性服务,能够满足客户的一般业务需求,价格可略低于市场平均水平。

(5)一星级数据中心主要面向零散客户,价格较低。不同等级的数据中心对应相应地区的资费档次标准。

2.1.2 数据中心需具备的基本条件

应符合数据中心机房的建设规范,具备并符合机房功能、机房建筑、机房环境、供电系统、空调系统、布线系统、网络系统、KVM系统、网管系统、网络安全系统、数据存储备份系统等基本条件。典型数据中心机房如图2-1所示。

图2-1 中国联通高端数据中心机房内部图

1.机房功能

数据中心机房按功能划分为:客户接待室(区)、客户操作室、监控室、核心设备区、普通客户托管区、VIP客户托管区、客户测试室、大客户休息室,其中前5个功能区是不可缺少的部分,其他分区可根据需要设置。此外,还有支撑功能分区,如电池室、UPS室、油机室、高压室、低压室、钢瓶间等。

第2章 数据中心服务质量管理

2.机房建筑条件

数据中心机房应设置在交通通信方便、配套设施齐全、安全可靠、自然环境清洁的地点。建筑抗震性强,防雷击、能防御重大洪涝灾害。地面荷载能力为6~10kN/m2(UPS室地面荷载能力为16kN/m2)。机房设备区(核心机房、普通客户托管区、VIP客户托管区、电源室)必须采用气体消防系统,并具有完整的消防警示、紧急撤离通道和疏散指示。

3.机房环境条件

数据中心机房应在明显处设置服务等级的标识。机房装饰风格简洁明快,装修严禁采用易燃材料,地板应具有良好的防静电、防老化、耐火及防龟裂性能。分区之间采用钢笼或其他轻质材料分隔,不阻碍空调系统的空气循环。VIP机房在服从机房整体规划和装饰风格的条件下,可根据客户的要求进行个性化装饰。

机房应具有独立的出入口。机房不同的功能分区入口处应设置门禁系统,根据工作人员身份设置权限,在系统中保存出入记录。机房外应有保安人员或门卫24h值班,机房应设置全方位实时图像监控系统,定期保存图像记录。

数据中心机房应采用上走线方式,机房应设置上走线架和光纤尾纤专用线槽,交流电缆、直流电缆、信号电缆严禁交叉混走,应有清晰标识。机房内主要走道宽度≥1.5m,次要走道宽度≥0.8m,机架列间间距≥1.0m。机房内应设置包含供电系统、网络组织、管理制度、服务人员名录等内容的图板。

4.供电系统

数据中心机房应具有稳定可靠的市电保障,市电引入等级不低于二类。应配置性能可靠的柴油发电机。

(1)直流电源供电的质量指标

直流电源电压变动范围,脉动电压和全程最大允许压降应符合表2-1要求。数据中心系统工程及应用

注:①-48V电压的离散频率杂音电压允许值即有效值。a.3.4~150kHz,≤5mV有效值; b.150~200kHz,≤3mV有效值; c.200~500kHz,≤2mV有效值; d.500kHz~30MHz,≤1mV有效值。② 此项针对带尾电池的-24V电源供电系统

直流供电回路接头压降(直流配电屏以外的接头)应符合下列要求,或温升不超过50℃。000A 以下,每百安培≤5mV。1 000A 以上,每百安培≤3mV。(2)交流电源供电的质量指标

交流市电电源供电标准应符合表 2-2 的要求。

第2章 数据中心服务质量管理

(3)交流油机电源供电的质量指标

交流油机电源供电标准应符合表2-3的要求。

5.空调系统

机房温度变化范围为18~25℃,湿度变化范围为40%~70%,室内空气每小时循环次数≥30~60次。机房内灰尘粒子应为非导电、非导磁及无腐蚀的粒子。核心网络机房和数据机房必须采用恒温恒湿机房专用空调,其他机房宜采用舒适型空调。空调的供电系统应具有和设备电源同等的重要性和可靠性。

6.网络系统

数据中心核心网络设备必须保证冗余性,采用双归链路上行;网络设备需支持端口限速功能、端口汇聚功能、基于SNMP协议的端口管理、基本QoS功能、接口卡热插拔等。

维护人员应7×24h实时监测数据中心网络设备运行情况,做到及时检修、及时发现故障、及时汇报,遇到重大故障按照上报流程及时报告,及时排除故障。发现故障、及时汇报,遇到重大故障按照上报流程及时报告,及时排除故障。

7.布线系统

在数据中心各功能区统一设置综合布线系统。综合布线系统应采用双星型拓扑结构,该结构下的每个分支子系统都是相对独立的单元,对每个分支单元系统改动都不影响其他子系统。综合布线系统选用的电缆、光缆、各种连接电 19 数据中心系统工程及应用

缆、跳线,以及配线设备等所有硬件设施,均应符合标准规定,布线整齐、规范、编号统一。

8.KVM系统

网络原则上需设置KVM系统,但不对所有机房做硬性要求。采用KVM切换设备组成客户主机切换管理系统,达到对托管机房内各台主机的管理,并提供相互独立的客户操作区域。所有的客户可以互不干扰地使用设备管理菜单,方便地操作自身的任意一台设备,并可循环扫描自身的所有设备。

9.网管系统

数据中心须有一个功能完善的网络运营支持系统,其功能包括:库存管理、IP地址管理、业务管理、客户管理、故障管理、网络集中监视、流量流向监控分析、网络统计报表等。网络管理系统支持多种操作平台,并能够与多种通用网管平台集成,实现从设备级到网络级全方位的网络管理,支持企业网络和运营商网络。

10.网络安全系统

数据中心系统核心网络要求有充分的安全措施,以保障网络服务的可用性和网络信息的完整性。数据中心网络安全至少覆盖防火墙、入侵检测、防范DDoS攻击、病毒防范、漏洞扫描、管理安全服务等。

11.数据存储备份系统

数据中心原则上需设置数据存储备份系统,为有需求的用户提供备份磁盘空间。数据中心宜采用SAN(Storage Area Networking)模式建设数据存储备份系统。

12.网络设备和配套设备的维护项目和维护周期

第2章 数据中心服务质量管理

数据中心维护人员应定期巡视机房,对机房环境、温度、湿度、设备运行等进行登记和监视。维护人员对机房内的设施、设备及工具负有管理责任,在巡视检查机房时,应对机房内通信设备、用户设备认真检查,发现问题及时与相关人员联系处理。

2.2 各星级服务的参考标准

2.2.1 五星级数据中心标准

五星级数据中心除满足2.1.2节的全部要求外,还应满足以下几方面的要求。

1.认证条件

数据中心机房通过ISO27001标准认证(或其他同级标准认证)。

2.机房条件

机房位于城市中心城区内,交通便利(专门作为灾备中心的数据中心可位于其他交通方便的地区);机房托管面积≥5 000m2,机房地面荷载能力≥10kN/m2,室内净高≥3.2m;位于2楼及2楼以上的机房应具有客梯和货梯,货梯载重量≥2.0t;具有核心机房、电源机房、托管机房、监控室、接待区、客户操作室、客户测试室、客户休息室等功能分区;7×24h保安巡逻服务,具有完善的入室登记制度;7×24h视频监控系统,监控录像保存时间≥3个月;机房设置门禁系统,门禁记录保存时间≥1年。

3.电源空调

数据中心系统工程及应用

市电引入等级:一类市电;油机配置:n台主用机组;UPS 电源:(从两套1+1并机UPS电源系统)双路电源引入;电池后备时间≥1h;接地和过电压保护系统设置完善。

机房温度变化范围为21~25℃,湿度变化范围为40%~70%,空调系统具有备用机组。电源及空调节能要求达到绿色环保指标要求。

4.数据网络

所在城市具有国际出口网络接入,便捷发展国际业务的条件,数据中心出口直连骨干网、省网或城域网核心层节点,出口带宽≥40Gbit/s;网络设备和线路全部采用冗余配置;具有支持本机房所有设备接入的数字式KVM系统;具有包括防火墙、漏洞扫描、DDoS防范、入侵检测、病毒防范、管理安全服务等功能在内的数据中心网络安全系统;具有功能完善的数据中心网络管理系统、网络流量流向分析系统。

5.运行维护

拥有高素质的专业维护力量,具有行业内CCIE(CCNP、CCNA)以及同等级资格认证人员;具有向客户提供所有代理维护和增值服务的能力,能够为客户提供网络安全、数据应用、运行维护等增值服务不少于10种,如流量监测、流量清洗、网络安全、内容加速服务、网络建站服务、网络(系统主机)监测、KVM远程管理等增值产品服务;具有完善的运行监控设备和监控体系;具有运行日志记录制度,日志保存时间≥1年;具有标准化维护操作流程;具有设备、电路及软件系统定期检测维护制度,对性能不满足需要的设备及材料及时进行更换。

6.客户服务

设有专职的客户经理和技术支撑工程师;市场及客户服务人员应了解数据中心的基本构成和技术原理;具有完善的市场和客户服务管理制度;建立完善 22

第2章 数据中心服务质量管理 的标准化业务处理流程;合同签订后3个工作日内,为客户开通数据中心业务及数据中心内部网络线路(重要客户开通时限为1个工作日);定期回访客户,了解客户对数据中心产品的需求和建议,月访问率100%;设置客户服务热线电话,提供7×24h客户服务;具有故障处理制度和标准作业流程,在客户设备出现故障时,为客户提供紧急故障恢复所需要的服务和资源;具有客户服务质量定期分析和流程改进制度;每月客户满意率≥99%,客户投诉处理满意率100%。

2.2.2 四星级数据中心标准

四星级数据中心标准除满足2.1.2节的要求外,还应满足以下几方面的要求。

1.机房条件

机房位于城区内,交通便利;机房托管面积≥3 000m2,机房地面荷载能力≥8kN/m2,室内净高≥3.2m;设在3楼以上的机房具有客梯和货梯,货梯载重量≥2.0t;具有核心机房、电源机房、托管机房、监控室、接待区、客户操作室、客户测试室、客户休息室等功能分区;7×24h保安巡逻服务,具有完善的入室登记制度;7×24h视频监控系统,监控录像保存时间≥2个月;机房设置门禁系统,门禁记录保存时间≥1年。

2.电源空调

市电引入等级:一类市电;油机配置:n台主用机组;UPS电源(从同一套1+1 并机UPS电源系统)双路电源引入;电池后备时间:单机后备≥1h;接地和过电电压系统设置完善;机房温度变化范围为21~25℃,湿度变化范围为40%~70%,空调系统具有备用机组。电源及空调节能要求达到绿色环保指标要求。

数据中心系统工程及应用

3.数据网络

数据中心出口接入省网或城域网核心层节点,出口带宽≥20Gbit/s;网络设备和线路全部采用冗余配置;具有数字式KVM系统;具有包括防火墙、漏洞扫描、入侵检测、病毒防范功能在内的数据中心网络安全系统;具有功能完善的网络管理系统。

4.运行维护

拥有高素质的专业维护力量,具有行业内CCIE(CCNP、CCNA)以及同等级资格认证人员;具有向客户提供所有代理维护和增值服务的能力,能够为客户提供网络安全、数据应用、运行维护等增值服务不少于5种;具有完善的运行监控设备和监控体系;具有运行日志记录制度,日志保存时间≥1年;具有标准化维护操作流程;具有设备、电路及软件系统定期检测维护制度,定期检查,对性能不满足需要的设备及材料及时进行更换。

5.客户服务

设置有专职的客户经理和技术支撑工程师;市场及客户服务人员应了解数据中心的基本构成和技术原理;具有完善的市场和客户服务管理制度;具有标准化业务处理流程;合同签订后3 个工作日内,为客户开通数据中心业务及数据中心内部网络线路(重要客户开通时限为1个工作日);定期回访客户,了解客户对数据中心产品的需求和建议,季度访问率100%;设置客户服务热线电话,提供7×24h客户服务;在客户设备出现故障时,为客户提供紧急故障恢复所需要的服务和资源;具有客户服务质量定期分析和流程改进制度;每月客户满意率≥98%,客户投诉处理满意率100%。

2.2.3 三星级数据中心标准

三星级数据中心除满足2.1.2节的基本要求外,还应满足以下几方面的要求。

第2章 数据中心服务质量管理

1.机房条件

机房位于城区内;机房托管面积≥1 000m2,机房地面荷载能力≥8kN/m2,室内净高≥3.2m;设在3楼以上的机房具有客梯和货梯,货梯载重量≥2.0t;具有核心机房、电源机房、托管机房、监控室、接待区、客户操作室、客户测试室、客户休息室等功能分区;机房设置门卫,具有完善的入室登记制度;7×24h视频监控系统,监控录像保存时间≥1个月;机房设置门禁系统,门禁记录保存时间≥9个月。

2.电源空调

市电引入等级:一类市电;油机配置:n台主用机组;UPS电源(从同一套1+1 并机UPS电源系统)双路电源引入;电池后备时间:单机后备≥0.5h;接地和过电电压系统设置完善;机房温度变化范围为21~25℃,湿度变化范围为40%~70%,空调系统具有备用机组。

3.数据网络

数据中心出口接入省网或城域网汇聚层节点,出口带宽≥10Gbit/s;网络设备和线路采用冗余配置;具有包括防火墙、病毒防范功能的基本网络安全系统;具有支持基本功能(库存管理、IP地址管理、故障告警等)的管理系统。

4.运行维护

拥有专业维护人员,具有向客户提供所有代理维护和增值服务的能力,能够为客户提供网络安全、数据应用、运行维护等增值服务不少于3种;具有运行监控设备和监控体系;具有运行日志记录制度,日志保存时间≥9个月;具有标准化维护操作流程;具有设备、电路及软件系统定期检测维护制度,定期检查,对性能不满足需要的设备及材料及时进行更换。

数据中心系统工程及应用

5.客户服务

设置有客户经理和技术支撑工程师(可兼职);市场及客户服务人员应了解数据中心的基本构成和技术原理;具有完善的市场和客户服务管理制度;具有标准化业务处理流程;合同签订后5个工作日内,为客户开通数据中心业务及数据中心内部网络线路(重要客户开通时限为2个工作日);定期回访客户,了解客户对数据中心产品的需求和建议,设置客户服务热线电话,提供7×24h客户服务;具有客户服务质量定期分析和流程改进制度;每月客户满意率≥95%,客户投诉处理满意率100%。

2.2.4 二星级数据中心标准

二星级数据中心除满足2.1.2节的基本要求外,还应满足以下几方面的要求。

1.机房条件

机房地面荷载能力≥6kN/m2,设在3楼以上的机房需设置客梯;具有客户接待室、客户操作室、监控室、UPS室、设备区、普通客户托管区等功能分区;机房设置门卫,具有完善的入室登记制度;7×24h视频监控系统,监控录像保存时间≥2周;机房设置门禁系统,门禁记录保存时间≥6个月。

2.电源空调

市电引入等级:二类市电;油机配置:n主1备配置;UPS电源:(从同一套2+1并机UPS电源系统)双路电源引入;电池后备时间:单机后备≥0.5h;接地和过电压保护系统设置完善;机房温度、湿度符合机房标准。

3.数据网络

数据中心出口接入城域网汇聚层或接入层节点;网络设备和线路采用冗余配置;具有基本的网络管理系统。

第2章 数据中心服务质量管理

4.运行维护

具有向客户提供基本代理维护的能力;具有运行监控设备和监控体系;具有运行日志记录制度,日志保存时间≥6个月;具有标准化维护操作流程;具有设备、电路及软件系统定期检测维护制度。

5.客户服务

具有完善的市场和客户服务管理制度;具有标准化业务处理流程;合同签订后5个工作日内,为客户开通数据中心业务及数据中心内部网络线路(重要客户开通时限为2个工作日);定期回访客户,了解客户对数据中心产品的需求和建议,年访问率90%;设置客户服务热线电话,提供5×8h客户服务;具有故障处理制度和标准作业流程。

2.2.5 一星级数据中心标准

一星级数据中心除满足2.1.2节的基本要求外,还应满足以下几方面的要求。

1.机房条件

机房地面荷载能力≥6kN/m2,设在3楼以上的机房需设置客梯;具有监控室、UPS室、设备区、普通客户托管区等功能分区;机房设置门卫,具有完善的入室登记制度。

2.电源空调

市电引入等级:二类市电;油机配置:n主1备配置;UPS电源:(从同一套2+1并机UPS 电源系统)双路电源引入;电池后备时间:单机后备≥0.5h;接地和过电压保护系统设置完善;机房温度、湿度基本符合机房标准。

3.数据网络

数据中心系统工程及应用

数据中心出口接入城域网汇聚层或接入层节点。

4.运行维护

具有运行日志记录制度,日志保存时间≥6个月;具有标准化维护操作流程;具有设备、电路及软件系统定期检测维护制度;定期检查。

5.客户服务

具有标准化业务处理流程;合同签订后5个工作日内,为客户开通数据中心业务及数据中心内部网络线路(重要客户开通时限为2个工作日);定期回访客户,了解客户对数据中心产品的需求和建议;设置有客户服务热线电话。

各星级数据中心主要指标见表2-4。

重塑数据中心 篇3

4月17日,万国数据深圳福田数据中心正式开业。这座建筑面积1.5万平米、可容纳2400个机柜的数据中心已经是万国数据在全国的第17座数据中心了,其总面积超过了15万平米。新建的这家数据中心,服务对象除了针对深圳的用户外,还瞄准了整个华南地区和香港,据说还没开业,就已经被客户签下了一半面积。

在云计算、大数据以及移动互联这些新兴应用的推动下,今天的数据中心市场依然是那么火爆。

谁是数据中心变革的推手?

如此兴盛的数据中心市场,其背后仰仗的是今天无处不在的信息和令人难以置信的信息增长量。看看每个人口袋里装着的智能手机,以及手里拎着的笔记本电脑和各种Pad,再想想正炙手可热的可穿戴式设备甚至汽车车载智能系统,我们的生活已经离不开这些设备了,而在它们的背后同样离不开的正是那些数据中心。我们已经对数据中心产生了依赖。

在刚结束不久的英特尔IDF14上,记者注意到这样一组数据:现在每400个移动电话就需要有一个服务器来管理它的内容,每120个平板电脑就需要一个服务器做支持,每20个数字图像采集器就需要一个服务器来支撑,每6个监视器就需要一个服务器来服务……由此我们可以看出数据中心与我们的生产、生活以及目前正火热的物联网、智能交通、智能安防等社会智能化的发展是如此地密不可分。

淘宝5年前开始发起的购物节“双11”在去年达到了新的水平,在短短的24小时中,淘宝实现了57亿美元的销售额,这一业绩与前一年相比达到85%的增长。让我们看看57亿美元背后的数字:峰值时有1700万个同时购物的人,支付宝每分钟需要支持7900个交易或支付交易,同时产生了1.52亿个需要送货的包裹。

如此“可怕”的数字需要背靠强大的数据中心。

上海市卫生局拥有4700多家医院的信息,每天都要产生1600万份病历。如何利用这些数据,提高医院的利用率,并通过数据分析改进对慢性病的跟踪,这些同样需要数据中心的技术支持。

2013年,中国“天河二号”成为全球排名首位的超级计算机,这个使用了4.8万颗英特尔至强融核协处理器和3.2万颗英特尔至强处理器的超级计算机,峰值性能可达54.9PFLOPS(每秒54.9千万亿次浮点运算)。利用它强大的计算能力,在大气污染模拟、高铁过隧道时的空气动力学效应以及小蛋白分子动力学上都取得了可喜的成绩。

正是基于目前这些热门领域对数据中心需求的分析,英特尔公司高级副总裁、数据中心事业部总经理柏安娜女士提出,对未来数据中心的业务发展至关重要的将是云计算、大数据和高性能计算这三个领域,它们未来的广阔前景将是数据中心的增长点。我们相信,这应该也是业界的共识。

数据中心驱动业务创新

面对纷繁复杂的市场变化,要抓住稍纵即逝的发展机遇,企业需要更快的响应速度、更高效可靠的运营管理和更准确的商业洞察。而作为重要的业务支撑和推动力量,IT技术扮演着越来越重要的角色。在这个过程中,作为IT的基础设施,数据中心的作用毋庸置疑。

数据中心是一整套复杂的设施。它不仅仅包括计算机系统(例如服务器、系统软件等)和其他与之配套的设备(如通信和存储系统等),还包含冗余的数据通信连接、供配电及制冷设备、监控设备以及各种安全装置,可以说数据中心是推进新一代信息技术产业发展的关键资源。

同时,云计算、物联网、大数据、基于移动互联的应用和HPC的迅速发展,SNS、电子商务、视频等业务的大规模增加给数据中心带来了持续的需求。例如在物联网等新兴领域,数据中心正在成为“改变者”的角色。

罗克佳华公司坐落在太原市南郊国家级高新技术产业区,他们将物联网应用与云计算服务完美结合,开创了“云+端”的技术模式。在罗克佳华的厂区内,建有一个规模为300台物理服务器的云计算数据中心,为全国各地的用户提供矿山运营、能效监管系统运营、电厂脱硝和脱硫运营、合同能源管理运营等服务。在罗克佳华董事长李玮看来,数据中心已经成为公司业务发展的重要推动力量甚至是创新力量。

“随着物联网技术的发展,连接网络的传感器必然会带来海量的数据,如果不能将这些数据处理好的话,那根本就不能算实施了物联网。”李玮说,罗克佳华正在积极采用云计算的模式来实现对各种数据的处理,即以物联网和数据技术为核心,采用“现场设备+异地云”的架构模式。现场设备即各种现场数据采集设备,“异地云”即罗克佳华建设的云计算数据中心。

在和用户签订相关协议后,用户将各种有效数据采集并上传到罗克佳华的数据中心,后者利用数据挖掘手段进行处理和分析。据悉,罗克佳华目前正在与一些大型电厂合作,通过云计算实时分析电厂脱硫、脱硝过程中各种反应物的添加量,以实现精细化的实时添加,帮助这些电厂降低脱硫、脱硝过程中的能耗。

“未来我们的目标是建设全亚洲最大的物联网数据中心,达到2万台物理服务器的规模,面向更多的服务领域。”李玮说。

前面提到的上海市卫生局,面对每天产生的1600万份病历,他们采用了基于英特尔的大数据解决方案,实现了病例的实时、系统性获取,通过这些数据分析出每位病人是否需要进行复查并采取下一步治疗措施,从而使得医院病例的复查率降低到30%,大大提高了上海卫生局的工作效率,也节约了医疗资源。

中国约有1000万辆卡车,它们是物流组成中的重要部分,急需更高效的路线和车辆调配优化,以降低成本。郑州市为了降低物流成本以及卡车运输中的事故率,部署了英特尔的智能交通解决方案,对卡车运输进行实时规划、实时监控、远程处理,提高了卡车和货物的匹配率,缩短了行驶时间,并降低了20%的严重事故发生率。这一系统构建在具有强大计算能力的数据中心里,平均每500辆卡车就需要1个至强处理器默默无闻的支持。

LSI公司高级副总裁兼数据中心解决方案事业部总经理Tom Swinford认为,数据中心从未像今天这样对企业业务产生如此巨大的影响。同时,企业必须寻求创新的技术和方案,以快速应对大数据的获取、整合和管理,从而帮助企业做出决策。

数据中心需要变革

我们必须承认,今天无论是云计算还是大数据,亦或是物联网、互联网应用,都已经超出了传统数据中心所能承受的负载,数据中心需要变革,需要创新,需要顺应发展趋势。

日前, Gartner公司研究总监Fabrizio Biscotti就表示,以物联网业务为例,这样的新兴应用,必然会对数据中心的发展提出更高的挑战。“物联网的部署会产生大量需要实时进行处理和分析的数据。而实时处理大量物联网数据将增加数据中心工作负载的比例,使得提供商面临安全性、容量和分析方面的新挑战。”

“由于设备数目庞大,再加上物联网数据超级大的规模、速度和结构,尤其是在安全领域、数据存储管理、服务器和数据中心网络方面,实时业务流程面临风险。数据中心经理需要在这些方面具有更多的前瞻性管理能力,以期能够积极配合与物联网相关的业务重点。”Gartner公司副总裁、著名分析师Joe Skorupa也说。

艾默生网络能源大中华区总包事业部副总裁丁麒钢在接受媒体采访时曾经表示,在巨大的市场变化情形之下,数据中心产业链正面临着一场革新。这场革新以促进产业链层次扁平化整合为基调,强化设备制造商、方案设计方、工程实施商、运营商之间的合作,重视全局规划和建设,淡化了基础设施与IT设施的界限,并以此达到“灵活变化、快速响应、智能运行、高资产利用率、低TCO的目标”。在此影响下,重视资源优化整合、进一步提高资源利用率、多层次的市场竞争以及实现无人值守运行,将成为未来数据中心发展的主要趋势。

云为数据中心提供了更灵活、高效、快速的响应能力。过去几年中,公有云迅猛发展,大量的数据中心在全球建立,而在这一领域中,使用者的需求已经从过去单纯的对云空间、运算速度的需求转变为智能化云计算平台。用户希望能够得到一个更为智能化,能够动态高效调控的云计算平台。英特尔公司高级副总裁、数据中心事业部总经理柏安娜说,英特尔期望从软件架构上寻求突破,将架构系统从静态变成动态,让封闭的架构变得更加开放。她介绍说,在云计算平台的架构上,英特尔提供了一个协调层,让云计算平台能够提供自动的调控功能,这个协调层可以将底层和应用层进行有机的结合。

世界上七大云服务提供商中有三个来自中国,他们是腾讯、阿里巴巴和百度。英特尔则是他们共同的合作伙伴,通过密切的合作,英特尔在后端提供架构上的支持。柏安娜在IDF14的演讲上说:“英特尔在架构上设立的这个协调层能够依靠软件帮助云计算平台更加动态、更加高效、更加以需求为基础来提供服务。”前面说到的淘宝“双11”活动中,传统的服务器与带宽很难应对那么大的计算峰值和交易,而英特尔与华为合作,在服务器和技术上帮助阿里巴巴通过云平台实现了创纪录的销售业绩。

英特尔认为,与用户转变IT运营思路相对应,包括数据中心在内的IT技术,也必须扭转创新思路,从用户的实际业务需求、与之相关的具体软件和IT服务出发,来打造产品、技术和解决方案。“英特尔正倾尽全力,在数据中心领域推动这一转变”,柏安娜表示:“目前英特尔最主要的尝试,就是推动迎合软件定义基础设施趋势的创新。”

她指出,英特尔对于数据中心环境下软件定义基础设施的理解,主要是指对数据中心IT基础设施的主要组成部分——服务器、存储和网络设备进行以软件定义为导向的创新,让它们能够构建于通用、可扩展且高效的架构之上,成为可按用户软件和服务需求进行灵活组合和调配,易于协调部署,并能实现自动供给的IT资源池。

数据中心 篇4

传统数据中心主要存在以下问题:

传统结构下,由于多种技术之间的孤立性(LAN与SAN),使得数据中心服务器总是提供多个对外10接口:用于数据计算与交互的LAN接口以及数据访问的存储接口,某些特殊环境如特定HPC (高性能计算)环境下的超低时延接口。服务器的多个10接口导致了数据中心环境下多个独立运行的网络同时存在,不仅使得数据中心布线复杂,不同的网络、接口形体造成的异构还直接增加了额外人员的运行维护、培训管理等高昂成本投入,特别是存储网络的低兼容性特点,使得数据中心的业务扩展往往存在约束。

由于传统应用对IT资源的独占性(如单个应用独占服务器),使得数据中心的业务密度低,造成有限的物理空间难以满足业务快速发展要求,而已有的系统则资源利用效率低下。而且,传统业务模式下,由于规模小,业务遵循按需规划,企业应用部署过程复杂、周期漫长,难以满足IT灵活的运行要求。

不仅如此,当传统数据中心中有成千上万台服务器的时候,数据中心的复杂度和管理成本急剧上升。

传统数据中心面临的另外一个问题就是可靠性。当一台服务器的可靠性达到99.99%时,这意味着一年的故障时间约为53分钟。但是,假设数据中心中有一万台这样的服务器,那么要维护高可靠性就会变成一种挑战。虽然我们可以通过硬件的冗余设计来提高单台服务器的可靠性,但是这种方式的成本比较高,而且随着服务器数量的增加,这种方式的有效性将会随之降低。

云计算数据中心与传统数据中心相比,呈现出以下四点不同:

1 组网模型不同

网络成为数据中心资源的交换枢纽。传统数据中心分为IP数据网络、存储网络、服务器集群网络。但随着数据中心规模的逐步增大,带来了一些问题:

(1)每个服务器需要多个专用适配器(网卡),同时也需要不同的布线系统。

(2)机房需要支持更多设备:空间、耗电、制冷。

(3)多套网络无法统一管理,需要不同的维护人员。

(4)部署/配置/管理/运维更加困难。

如图1所示,在云计算数据中心网络中,存储FC/网络IP等业务最终都将承载在以太网上,采用国际标准FCoE (FC over Ethernet,以太网数据包内部FC帧与IP数据分离设计)的设计方式。FCoE磁盘阵列可直接连接到数据中心交换机上。同时,由于以太网数据包内部FC帧与IP数据分离设计,可有效保证存储网络的安全。

通过FCoE,每台服务器不再需要多张网卡,只需要一个FCoE网卡就可以与前端的客户进行IP通信、后端的存储通过光纤进行通讯,有效解决了管理人员分工不同、空间/能耗、不同的布线系统等问题。

2 流量模型不同

云计算数据中心在流量模型上与传统数据中心有非常大的区别,以往通过B/S或者C/S提供服务的模式将大量的数据集中在网络的出口上,进而使出口成为整体网络的瓶颈。而在基于云计算的下一代数据中心中,由于资源的虚拟化,以及各类设备之间实现数据交互,使设备之间的横向数据流量将占到总流量的70%以上,如图2所示。

为了满足这种突增的数据量,用于数据中心的网络设备必须具备较高的端口容量和接口密度。伴随云计算的产生,IEEE802.3ba 40G/100G标准也于2010年正式获批通过,成为云计算数据中心网络部署的新标准。

3 虚拟化,让云成为一个统一管理的“大池塘”

虚拟化技术最早来自IBM大型机的分区技术,这种操作系统虚拟机技术使得用户可在一台主机上运行多个操作系统,同时运行多个独立的商业应用。随着X86架构服务器的使用越来越广泛,基于X86架构服务器的虚拟化技术一经问世,便开始引导了通用服务器的虚拟化变革历程。VMWare、XEN、微软等厂家在软件体系层面开始引领服务器虚拟化潮流。

服务器虚拟化的直接效果是导致数据中心具有更高的应用密度,在相同物理空间内逻辑服务器(虚拟机)的数量比物理服务器大大增加。由此,服务器的总体业务处理量上升,使得服务器对外吞吐流量增大。

虚拟化计算技术已经逐步成为云计算服务的主要支撑技术,特别是在计算能力租赁、调度的云计算服务领域起着非常关键的作用。在大规模计算资源集中的云计算数据中心内,以X86架构为基准的不同服务器资源,通过虚拟化技术将整个数据中心的计算资源统一抽象出来,形成可以按一定粒度分配的计算资源池,如图3所示。虚拟化后的资源池屏蔽了各种物理服务器的差异,形成了统一的、云内部标准化的逻辑CPU、逻辑内存、逻辑存储空间、逻辑网络接口,任何用户使用的虚拟化资源在调度、供应、度量上都具有一致性。

虚拟化技术不仅能够消除大规模异构服务器的差异化,而且其形成的计算池可以具有超级的计算能力(如图4所示),一个云计算中心物理服务器达到数万台是一个很正常的规模。一台物理服务器上运行的虚拟机数量是动态变化的,当前一般是4~20,某些高密度的虚拟机可以达到100:1的虚拟比(即一台物理服务器上运行1 00个虚拟机)。在CPU性能不断增强(主频提升、多核多路)、当前各种硬件虚拟化(CPU指令级虚拟化、内存虚拟化、桥片虚拟化、网卡虚拟化)的辅助下,物理服务器上运行的虚拟机数量会迅猛增加。一个大型的云计算数据中心运行数十万个虚拟机是可预见的,当前的云计算IDC在业务规划时已经在考虑这些因素。

虚拟化以后,不再是一个个独立的服务器,数据中心将成为一个大的“池塘”,里面有着各种应用。但在这种环境下,网络需要与服务器资源充分联动,为云计算网络提供按需、可分配的资源。

4 节能减排,绿色成为重要关注点

对于数据中心管理者本身而言,能耗问题已成为其最为关心的问题。持续增长的电能费用是整个数据中心生命周期内最主要的支出成本之一。

云计算数据中心主要从网络架构和网络设备本身两个层面来实现节能减排:

(1)网络架构层面

1)通过FCOE建立数据中心融合网络,实现IP/存储数据统一交换,大幅减少服务器网卡和布线数量,消除光交换机的使用,从而大幅减少设备及散热系统的电能消耗。

2)通过40G/100G以太网接口组建两层扁平化网络,进一步减少网络端口数量,降低单位数据流传输能耗。

(2)网络设备层面

1)智能电源管理:采用高效的电源系统架构设计(DC-DC电源转换模块),实现高达95%的电源转换效率,有效节能。独有的电源监控功能,保证用户可根据实际使用状况按需安装电源。支持线卡顺序上电(降低线卡同时上电带来的电源冲击,提高设备寿命,降低电磁辐射),可切断指定线卡电源,隔离故障/空闲线卡,降低系统功耗。

2)智能风扇设计:采用高效的温控调速风扇,支持无级调速。系统可自动收集线卡温度,根据设备实际情况计算风扇调速曲线,并将调速命令下发到风扇框。系统支持风扇状态监控(转速监控、故障告警等),可以根据环境温度、线卡配置自动分区调速,降低设备功耗和运行噪声,有效降低环境噪音并延长风扇寿命。

3)端口自动检测:当某槽位未配置线卡或端口未连接线缆时,系统可以自动关闭相应的内部端口,节省整机功耗。

数据中心机房建设标准 篇5

一、装修及承重 ?机房装饰装修

机房工程是智能建筑的一部分(机房资质-建筑智能化资质),也能建筑安装工程的一个分支。因此既有建筑安装工程的一般性,也有其特性;即执行建筑行业相关标准、规范,也有本行业独有的标准、规范。机房工程是一门综合性很强的科学技术和系统工程,涵盖了电气系统、空调及送排风系统、安防系统、机房综合监控系统、计算机操作管理系统、综合布线系统、KVM切换系统、消防系统(火灾自动报警和自动灭火)等。因此,机房基础装修不是简单的建筑装修,它是一个复杂的电子环境空间,应选用气密性好、不起尘、易清洁、符合环保要求、在温度和湿度变化作用下不变形、具有表面静电耗散性能的材料,不得使用强吸湿性材料及未经表面改性处理的高分子绝缘材料作为面层,所以,它需要有专业技术资质、专业设计、专业施工、专业检测的机房工程公司完成。机房装饰装修环境标准规范要求见下表:

项目技术要求备注 A级B级C级

主机房温度要求(开机时)23℃±1℃18~28℃不得结露 主机房相对湿度要求(开机时)40%~55%RH35%~75%RH 主机房温度要求(停机时)5~35℃

主机房相对湿度要求(停机时)40%~70%RH20%~80%RH 主机房和辅助区温度变化率(开、停机时)<5℃/h<10℃/h 辅助区温度、相对湿度(开机时)18~28℃、35%~75%RH 辅助区温度、相对湿度(开机时)5~35℃、20%~80%RH 不间断电源系统电池室温度15℃~25℃

空气含尘浓度(静态下测试)每升空气中大于0.5μm的尘粒数应少于18000粒

?机房承重加固

机房内设备密度较大,对建筑楼板承重有特殊要求,在机房选址和设计时应该核实机房位置的建筑承重。对于个别机房功能区间需考虑做楼板的承重加固,特别是UPS及电池、精密空调等大型设备,重量较大,应安装设备承重散力支架或加固处理达到功能要求。机房布局时要重点考虑大型设备的承重,尽量把重型设备放置在机房的承重梁上。机房规划时建筑承重可参照以下标准规范设计:

项目技术要求备注 A级B级C级

抗震设防分类不应低于乙类不应低于丙类不应低于丙类

主机房活荷载标准值组合值系数Ψ=0.9 8~10 KN/m2组合值系数Ψ=0.9 组合值系数Ψ=0.8根据机柜的摆放密度确定荷载值

主机房吊挂荷载1.2 KN/m2 UPS室使用荷载标准值8~10 KN/m2 电池室使用荷载标准值16 KN/m2 监控中心活荷载标准值6 KN/m2 钢瓶间使用荷载标准值8 KN/m2 电磁屏蔽室使用荷载标准值8~10 KN/m2 主机房外墙设采光墙不宜--防静电活动地板的高度不宜小于400mm作为空调静压箱时

备注:重力学(牛顿定律)换算的关系,1Kg=9.8N 1000N=1KN;因此,1KN=1000÷9.8≈102.04 Kg。

?机房基础装修内容 ?天面

机房天面处理方式分为两种,分别是吊顶和无吊顶。吊顶的基本功能是防火、防尘、防潮、吸音、美观、方便灯具安装等作用。天花吊顶可根据材质可分为:轻钢龙骨石膏板天花、铝合金天花、夹板(胶合板)天花、钢板天花、矿棉板天花等。在计算机机房的装修中,通常采用形长条铝扣板天花或方形镀漆铝扣板微孔天花。微孔铝扣板天花吊顶具有防火防尘、降噪、屏蔽的效果。无吊顶时就应注意天花上各种管线布置整洁,以及防尘、防潮处理。

?地面

机房导静电地面是机房重要的防护措施,通常采用架高抗静电地板或敷设抗静电PVC地板胶;铺设架高防静电地板不仅是有导静电的作用,机房采用下送风时,就是一个送风的静压箱,起到冷气流配送的功能;当机房采用上走线而机房采用上送风时可采用抗静电PVC地板胶。

?墙面

机房墙面及隔断选用防火防尘材料,另还要考虑保温、易清洁、防静电、屏蔽、美观、自重轻等要求;机房墙面及隔断一般采用彩钢板,隔断可采用双层防火玻璃,可方便机房参观;隔断天花内要采用石膏板封堵到天花顶,管道缝隙可采用防火泥进行封堵,使机房形成一个独立密闭的物理空间。

?其它

机房装饰装修应考虑节能、防火、防尘、防静电、防水、防鼠虫等措施,封堵机房与其他区域、其他楼层相通的孔洞,在使用或施工过程中新开的孔洞及时进行封堵,所有进机房的管、槽之间的空隙均采取密封措施。

二、机柜及PDU ?概述

天安源作为专业的机房设备与工程公司,在国内第一个将NCPI理念引入到机房,以专业、技术领先的优势著称,超越和区别于国内同行业。在机房行业领域里,经过多年的工程实施,基于对IT用户应用的深刻理解,自主研发、设计IT机柜产品,冠名“NCPI”品牌,致力于为用户提供更好满足IT应用的机柜产品和整体解决方案。

?机柜

NCPI品牌机柜具有以下四大优越特性: ?标准化,兼容所有主流厂商的IT设备

NCPI机柜具有灵活、中立的结构设计,使其能安装来自各个不同厂商的机架式服务器、网络设备产品,适应用户在一个机柜中选装各种最好性能产品的需要。基于IEC297-3和EIA310-D标准的NCPI智能机柜。

?支持高可用、冗余的机柜级电力系统

NCPI机柜专业的电源分配设计,为机柜应用提供各种类型可靠的电源分配方案,并提供独特的机柜级负载电流指示及电源远程监视及远程负载控制等功能。

?先进的热量管理,跨越机柜生命周期

热密度的急剧加大,使得机柜热点成为用户现在最头疼的问题。NCPI智能机柜前后超级网孔门(64%的通风率)设计可以满足到每柜约4KW的负载发热,而负载超过4KW之后,无需换柜,简单加装智能温湿以监控仪(2.0)和联动ADU,热负载可达6-8KW/柜,如果负载继续增加,仍然无需换柜。加装制冷后背板,可满足16KW/柜的热要求。这是目前可以跨越数据中心生命周期的最佳解决方案。

?完善的线缆管理,灵活通畅 多个线缆入口,满足高密度布线安装的需要独特的顶部走线构思,适合各种机房环境的需要机柜后部“专用布线通道”设计,数据、电源线缆各行其道,更安全更可靠。

?PDU(电源分配单元)?高可靠性

选用工业级插头,配以国内独创的防脱银扣,达到业内最高的可靠性。?高灵活性

既可免工具安装在NCPI机柜的内置通道里,又可以支架安装在任何其它品牌机柜里。

?多样性

不同层级,型号丰富的PDU满足不同用户的多种需求,可根据需求灵活选配组件。

?PMU(电源管理单元)NCPI的PMU为用户提供了最具世界先进技术水平的新一代网络电源管理分配和监控功能,客户可通过网络对分布安装在各地机房机柜内的数台设备的电源及环境参量进行监测、控制和管理。

网络管理接口可通过TCP/IP、WEB、SNMP提供基于标准的管理,也允许管理者仅通过MODEN拨号或通过RS232和RS485接口进行非联网的电源控制操作。

NCPI的PMU具有单用户和多用户操作系统。

三、供电系统 ?概述

一个完善的机房供配系统是保证计算机服务器设备、关键网络设备、场地设备和辅助设备的用电安全和可靠的基本条件。高品质的机房供电系统体现在:无断电故障、高容错;在不影响负载运行的情况下可进行在线维护;有防雷、防火、防水等功能。机房供电设计包括负荷等级和额定容量的确定、电源的可靠性设计、防雷和接地技术措施等。

计算机机房属于一级负荷,相应供电必须采用一类供电,即建立不停电供电系统。机房供配电系统参照以下标准规范设计:

项目技术要求备注 A级B级C级 电气技术

供电电源两个电源供电

两个电源不应同时受到损坏两回线路供电 柴油发电机燃料存储量72h24h--不间断电源系统配置2N或M(N+1)冗余(M=2,3,4…N+X冗余(X=1~N)N 不间断电源系统备用时间15min 柴油发电机作为后备电源时根据实际需要确定

空调系统配电双路电路(其中至少一路为应急电源)未端切换。采用放射式配电系统。双路电路,未端切换。采用放射式配电系统。采用放射式配电系统。

电子信息设备供电电源质量要求 稳态电压偏移范围(%)±3±5 稳态频率偏移范围(Hz)±0.5电池逆变工作方式 输入电压波形失真度(%)≤5电子信息设备正常工作时 零地电压(V)<2应满足设备使用要求 允许断电持续时间(ms)0~40~10--不间断电源系统输入端THDI含量(%)<153~39次谐波 ?供电方式

?供电拓朴结构示意图 供电所甲 供电所乙 或柴油发电机 UPS1电源 15min延时 UPS2电源 15min延时 服务器用电 网络设备用电 外设用电 终端用电 空调系统用电 照明系统用电 维修系统用电 其它系统用电 ?供电结构方式

机房供配电系统一般采用单UPS单路供电、UPS+市电双路供电、双UPS双路供电三种结构。其电源布线有上走线和下走线两种方式。

?配电柜

配电柜是机房电力分配管理的核心,一般分普通配电柜和精密配电柜。普通配电柜满足一般操作需求,可以控制各回路的开关,但是不能智能通信;精密配电柜可具有实时监测每一回路的电流大小、电流超限自动报警以及电能计量等诸多功能,还可以通过多种通信协议实现远程控管。

?防雷接地

计算机机房防雷不同于传统的建筑防雷:机房防雷主要是抑制通过电力电缆传导的雷电瞬间过压和雷击电磁脉冲(LEMP)。市电在进入机房之前已经经过变压器的高压防雷保护和大楼总配电柜的一级防雷保护,所以应该在市电进入机房的并联安装B级防雷器,在UPS的后端并联C级防雷器逐级分流雷电能量以保护IT设备。

除此之外,还有一个防护雷击的手段是在机房内建设等电位网。将机房内的所有金属物体与等电位网连接,再与接地汇流排相连。这样在遭遇雷击时整个机房都是等电位的,不会产生电压差而导致设备受损。

机房一般采用综合接地系统,将直流工作接地、交流工作接地、安全保护地以及防雷保护地一起接在小于2Ω的接地体上(特殊设备应满足设备要求)。

计算机机房的供配电系统是一个综合性供配电系统,在这个系统中不仅要解决计算机设备的用电问题,还要解决其它设备的用电问题。一般而言,在计算机等主要设备选定之后,计算机机房的供配电系统就可以确定了。

计算机机房供配电系统的要求:计算机机房提供电能质量的好坏,将直接影响计算机系统正常、可靠的运行;也影响机房内其它附属设备的正常运行。这种影响主要来自市电电网的电压、电流、频率的变化以及供电质量,当电网处于过渡状态时,计算机的运行就会处于不正常的状态,若电网扰动时间较长,则整个计算机就要停机,由此可见,机房供配电系统提供电能的质量对计算机及其附属设备的正常运行是非常重要的。为了确保计算机的可靠运行,在计算机机房建设中必须建立起良好的供配电系统。

四、UPS供电系统 ?概述

UPS是不间断电源(Uninterruptible Power Supply)的英文缩写,它的功能主要有两个:一是在市电正常时改善对负载的供电质量,同时对后备电池进行充电;二是在市电异常时,通过后备电池保证向负载供电的不间断性。

?UPS分类

UPS主要由整流器、逆变器、静态开关组成。按电路结构分类主要有有四种:后备式、在线式、在线互动式、在线补偿式。

?UPS的使用形式

UPS一般有单UPS使用、单模块化UPS使用、并机使用和双总线供电4种使用方式。模块化UPS是根据多台UPS并机使用增加可靠性的原理,利用多个功率模块并联组成的UPS系统。

目前最新的供电方式为模块化UPS的双总线供电。模块化UPS本身具有N+X的冗余可靠性,再通过双总线供电方式,整个供电系统的可靠性又增加了一倍。

?选购UPS的要点

选购UPS一定要选最适合自己实际使用情况的。首先是容量的选择,UPS容量应该根据目前的负载量,再加上近期准备增加的负载量来计算。其次要选择节能的UPS。目前UPS的发展趋势是高频化和模块化,因为高频化可以提高UPS的轻载效率和半载效率,模块化可以使用户边成长边投资,节约能源同时方便扩容。

?电池

UPS通过蓄电池来储能,当市电中断时,便利用电池为负载继续供电。选购电池应该选择有质量保证的知名品牌,比如汤浅、松下、阳光等,并且必须是同一批次生产的。电池后备时间容量的选择:

电池AH数=(UPS容量÷标称电池电压)×后备小时数。?主流UPS品牌

APC-MGE EMERSON EATON(POWERWAVE+SANTAK)

五、精密空调 ?机房空调特点

计算机机房都安装有大量的计算机设备,计算机处理速度越来越快、存储量越来越大、体积越来越小是计算机的发展趋势,IT硬件产生不寻常的集中热负荷,同时对温度或湿度的变化又非常敏感,为保障高精密设备的运行条件,对机房环境有严格的要求。其中最重要的是机房内温度、相对湿度和环境的洁净度三个指标。

?空调类别

空调机按其性能不同,大体可分为三种类型:舒适空调、工业空调及精密空调。

第一类为舒适空调:它主要是针对人体提供一个舒适的环境条件。按外形可分为柜式、壁桂式、吸顶式空调机等。

第二类为工业空调:这种空调是为试验室或工作间提供相应的温度和湿度要求,这种空调机夏季制冷、冬季加热,属于工业用空调机之一。第三类为机房专用空调机(精密空调):它是为计算机机房(包括程控交换机房)专门设计的特殊空调机,这种空调机全年制冷运行。

通常舒适空调冷负荷中有35%是为了消除潜热负荷,有65%是为了消除显热负荷。对计算机房来讲,其情况却大不相同,计算机房内主要是设备散出的显热,室内工作人员散出的热负荷及夏季进入房间的新鲜空气的热湿负荷(仅占总负荷的5%)。并且冬季是需要加湿而不是除湿,即使在冬季计算机房仍需要消除热负荷。鉴于以上特点,如将一般舒适空调机组用于计算机房,则会造成能量浪费,机房内应该采用精密空调。

?冷气流组织

气流组织就是将空调机送出的冷风通过预定的风道、风口,按预定的风量与风速送往需要制冷的地点,在把设备产生的热空气回收到空调制冷的过程。气流组织分为三个部分,即:冷气产生、冷气配送、气流返回。

通常机房的气流组织形式有下送上回、上送侧回(下回)方式,气流组织形式的确定要考虑以下几个方面:

(1)首先要依据设备的冷却方式、安装方式,如设备或机柜自带冷却风扇或冷却盘管,目前较常见的设备和机柜的冷却方式都是从前面进风,后面或上部出风。

(2)冷量的高效利用,使散热设备在冷空气的射流范围内。

(3)机房建筑结构、平面布局。机房各个系统的建设要依托于建筑环境中,也受因素的制约,如层高、形状、面积等。

?下送上回方式

下送上回方式是大中型数据中心机房常用的方式,空调机组送出的低温空气迅速冷却设备,利用热力环流能有效利用冷空气冷却效率,因为热空气密度小、轻,它会往上升;冷空气密度大、沉,它会往下降,填补热空气上升留下的空缺,形成气流的循环运动,这就是热力环流。热力环流不同于水平流动的风,它是空气上下垂直的对流运动,冷与热激发出气流缓慢的运动。跟风不一样,风能够改造局部环境气候,而热力环流是气流运动的原始动力。利用气流的原始动力,可以不用设置动力设备,同样达到最佳的冷却效果。如下图示:

?上送侧回(下回)方式

上送侧回通常是采用全室空调送回风的方式,适用于中小型机房。上送风可分为机房顶送或紧靠机房顶下的上部侧两种形式,后者较为常用。由顶部或侧上方送风的气流首先与室内空气混合,再进入设备或机柜内。机房顶部安装散流器或孔板风口送风,工作的气流小且均匀,人有良好的舒适感。但大多数计算机机柜的冷却的进风口是在下部或是前方,排风口在机柜的上部。这样,顶部的送风气流先与机柜处上升的热气流混合,再进入机柜冷却设备,影响了机柜的冷却效果。由于机柜进风温度偏高,机柜内得不到良好的冷却效果,必然造成机柜内的温度偏高,导致计算机不能正常的工作。

六、新风系统

新风是机房室内空气中不可缺少的部分,机房中缺乏新风,会使人产生不适,并且会影响工作人员身体健康和工作效率。通过注入洁净的新鲜空气,冲淡或替换机房内有臭味的空气,而使机房室内空气质量得以改善。同时,机房保持一定的新风量,还可以维持机房的正压状态,可以将机房内部的尘埃排出机房,同时防止室外的尘埃通过机房的空隙进入机房,影响机房的洁净度。

简单来说,新风系统有两个作用,其一,给机房提供足够的新鲜空气,为工作人员创造良好的工作环境,给机房内的精密设备除臭去异味;其二,维持机房对外的正压差,避免灰尘进入,保证机房有更好的洁净度,大大提高设备的使用寿命。

八、综合布线 ?概述

综合布线系统(PDS,PremisesDistributionSystem)是一套用于建筑物内或建筑群之间,为计算机、通信设施与监控系统预先设置的信息传输通道。它将语音、数据、图像等设备彼此相连,同时能使上述设备与外部通信数据网络相连接。它的核心就是“综合”,也就是各个弱电系统均可用综合布线系统进行信息传输。综合布线的硬件包括传输介质(双绞线、大对数电缆和光缆等)、配线架、标准信息插座、适配器、光电转换设备、系统保护设备等。

综合布线系统包含六个子系统:建筑群子系统、干线子系统、工作区子系统、水平布线子系统、设备间子系统、管理子系统。机房综合布线主要是水平布线子系统。

?机房综合布线的特点

机房内部综合布线有如下特点:(1)单位面积信息点数量大。(2)扩展性强。(3)以数据传输为主。(4)光纤信息点数量多。(5)以水平子系统模式为主。

(6)线路敷设方式特殊,能适应机房的应用特点和设备特点。

随着通信技术的飞速发展,铜缆由于带宽、传输距离以及电磁波扩散和干扰问题,发展使用受到限制,而替代它的将是光纤甚至未来的某种传输介质。有资料表明全光纤网已在发达国家兴起,10Gbit/S的以太网也已经在实验室中诞生了。无论是对厂商还是用户来说,全光纤的局域网都将会更具吸引力。

?机房综合布线系统结构设计

首先要确定工作区信息点的布局和数量,最理想的当然是能够明确设备需求,这样可对当前的设备有准确的信息点配置,在此基础上,再考虑一定的扩展余量,一般建议取10%~20%,不宜太多。因为机房服务于整个网络,其内部设备的变化频繁,准确的预计比较困难,建议更多地考虑扩展方便而不是一步到位。而且这样考虑也能降低成本。考虑扩展时,应将布线的路由通道考虑充分。机房内服务器的终端数量众多,设备安装形式分为两种主要布置模式:塔式服务器和机架式设备。二者对信息插座密度的需求相差较大,布置时应确定安装模式、数量、接口、接口规格。

?塔式服务器

采用落地安装的模式,安装密度很低,每平米不到2台。也有用户将塔式服务器安装在标准服务器机柜内,一台机柜只能安装2~4台。还可采用多层的敞开式机架,机架为3层,一个机架可安装12台左右服务器,平均每平方米5~6台。

?标准机柜式服务器

目前最薄的服务器厚度仅有lU,但通常不完全塞满机柜空间。这样一台标准服务器机柜可以安装几台(厚的)到三十台(薄的)左右的服务器,需要的信息点的数量也较大。建议一个标准服务器机柜按照12~24台配置。

九、综合监控

机房集中环境监控系统利用局域网络的通信手段,实时监控现场设备的工作状态、运行参数、历史数据等,完成强大的系统联网管理功能。

机房环境监控系统基于微软公司的网络操作系统WindowsXP。它是32位多任务的系统,该软件支持网络管理、标准网络协议,网络安全控制、系统冗余、网络冗余,具有性能可靠、管理方便、操作简单、安全性好、分布式处理等功能。

数据中心 篇6

【关键词】云计算 数据中心 并行处理

【中图分类号】 G 【文献标识码】A

【文章编号】0450-9889(2014)08C-0062-02

随着信息技术爆炸性发展与应用,高校在信息化建设过程中投入巨大的人力物力,但资源利用率持续低下,传统的数据中心无法满足高校发展的战略目标、教学科研的需求。云计算是一种基于互联网整合软硬件资源和信息,实现按需分配的数据中心模式,虚拟化是云计算影响下的新兴技术,使数据中心已成为数据分布、业务支撑的枢纽,数据中心软硬件资源整合引起了国内外高校的普遍重视。因此,本文结合实际情况,对基于云计算的数据校园的数据中心建设进行分析、探讨。

一、数据校园云计算架构设计

数据校园云计算架构依托互联网,将所有的服务器、网络、存储等资源集中起来,通过云计算的虚拟化把整合了的资源变成一个资源池,根据业务服务需要自动调配或人工分配获取资源。由于资源池集成所有资源,面对日益增长的病毒攻击等安全威胁,必须建立安全机制确保整个架构的安全。如图1中数据中心与计算控制中心就是依托网络系统,监控网络资源使用状况,确保架构正常的运行。

图1 数据校园云计算架构

从图1可以看出,客户端向云端发出请求,云端根据用户的请求,通过计算控制中心分析,采用虚拟化技术将软硬件资源统一分配给用户,实现按需分配。由于校园云计算架构连接互联网,防火墙必须隔离网络安全威胁,如网络病毒、漏洞入侵、内部泄漏、网络攻击,除此之外仍需要使用防病毒软件、入侵检测、抗分布式拒绝服务攻击(DDoS)等技术去实现对云计算架构的保护。

计算控制中心对整个架构的安全起着重要的作用,对于用户申请的资源,计算控制中心采用人为和机器双重控制机制进行检查,合格的资源才可以进入云计算互联网交付给用户,满足用户需求。计算控制中心对资源的安全系数分三个级别,Top级别是该级别的资源完全符合所有安全标准,由机器分配给用户;Mid级别由专业的网络管理员决定分配给用户,同时管理员还监控已分配的资源运行状况是否良好,Low级别就是完全不达标,不允许进入云计算网络。

数据备份中心是负责整个网络所有数据的备份与恢复,信息系统所承载的各类业务数据是非常重要的,备份数据是容灾的基础,迅速恢复应用系统的数据、环境,立即恢复应用系统的运行,保证系统的可用性、安全性。

二、数据中心结构

数据中心包含存储、计算、实时存储与计算等系统。存储系统存在两个需求,一是需要大量非关系型数据表存储各种数据;二是根据不同的访问模式设计和优化存储系统。计算系统需求跟任务类型有关,数据密集型对CPU和I/O需求均衡,通信密集型需CPU密集计算。实时存储与计算系统则需要基于内存构造,在分布式数据结构的基础上,加入流式数据处理和触发式事件处理。

(一)数据中心设计

数据中心结构如图2,服务需求规模巨大,业务需求的变化异常频繁,根据实际需求,数据中心设计原则如下三方面:

一是延迟与吞吐、公平与效率的折中考虑。

二是架构由层次化向竖井式演进,系统由需求驱动而定制。

三是由于规模与复杂度增大,允许故障和Bug共存,数据已成为系统的一部分,评价指标也由正确性向精确度转变。

图2 数据中心结构

根据业务需求状况,大概分为数据密集型、通信密集型和计算机密集型三种类型,数据密集型的代表是MapReduce,对资源的需求比较均衡,计算密集型任务与通信密集型访问数据的规模不同,若规模较小,则为计算模型,若访问为大数据量,则内存限制这些数据必须存放在多台机器上,通过通信模型协调多台机器协同工作。

(二)资源分配管理

资源分配是云计算的重要组成部分,其效率直接影响云计算环境的工作性能。云计算采用成熟的虚拟化技术,将主机的m个异构可用的资源分配给n个相互独立的应用任务,在分配资源过程中以优化任务和资源为原则进行映射。

从应用需求到资源参数的映射,云计算下的资源调度问题就转化为两个阶段的问题:第一个阶段是从云计算的资源池中选择能满足应用需求的主机集合;第二个阶段是从主机集合中选取最符合应用期望的主机,并进行虚拟机的创建。

第一个阶段的选择较为简单。由于在物理机上创建的虚拟机性能无法超过宿主物理机,因此只要根据应用所需的资源对主机进行筛选就可以得到候选的满足应用需求的主机集合。

第二个阶段的选择相对复杂。当前候选主机的集合为Mi,构建一个匹配函数,在这些主机中选择最合适的一台分配虚拟机。在候选主机集合中选取主机的策略有很多种,对应的匹配函数也有很多种,取应用性能倾向期望和主机权重资源矢量的欧拉距离作为距离最小的。

为了更好的优化数据中心资源分配,应用程序应具有自动化、弹性化和松耦合性的特点。

自动化:自动化可以赋予用户对平台的资源配置任务进行全面统筹的能力,并实现对资源的动态分配以提高管理效率、减少人为错误并加快用户对资源请求的响应速度。应用程序在设计的时候要能充分利用云计算环境的自动化特性,从而使得应用程序可以在很少或没有人工干预的情况下,自动适应需求的变化。

弹性化:云计算的资源分配可以根据应用访问具体情况进行动态的调整,云计算对于非恒定需求的应用,资源的扩展方式可以分为两大类:一类是事先可以预测的;另一类是完全基于某种规则实时动态调整的,都要求云计算平台提供弹性的服务。

松耦合性:系统架构要求应用程序在设计过程中要考虑松耦合度,耦合度越低灵活性越高,就可以很好的把资源从硬件束缚中解放出来,从而使得资源的动态分配成为可能。

三、安全分析

由于云计算高度集中信息资源,导致安全事故的后果与风险远远超出传统应用系统,在云计算架构下主要面临的安全问题如下:

虚拟机安全问题:攻击者突破虚拟机管理器,获取系统管理权限,且控制宿主机上运行的其他虚拟机,使得攻击者可以很轻松地读取虚拟机网络上所有的明文传输信息。

数据安全问题:包括存储数据安全、剩余数据安全、传输数据安全等三方面,存储数据安全问题在于不同用户的数据存储在服务器上且共享存储资源,系统内部人员非法访问用户的数据导致泄漏或由于软硬件故障、电力中断、自然灾害等造成的数据丢失。剩余数据安全问题在于用户退租磁盘时管理员仅仅做简单的删除文件,当磁盘重新租给其他租户时,可能会被恶意租户恢复之前用户的数据,导致之前的用户数据泄漏。传输数据安全问题在于数据在传输过程中被窃取或篡改,导致数据泄露。

信息内容安全问题:由于信息与其发布载体动态绑定,难以确定服务器的物理位置,导致难以对不良信息进行溯源,同时现有设备处理能力对超大规模数据流量的审查很困难。

针对以上云计算存在的几个安全问题,经过理论联系实际情况,采取如下应对手段:

针对虚拟机安全:采用虚拟化在线对虚拟机进行管理和监控,采用信息包过滤系统实现虚拟机的隔离,对于虚拟机的迁移后及时销毁原有物理磁盘和内存数据。

针对数据安全:以信息标识和处置的控制要求为起点,对存储数据和传输数据进行加密,在资源回收时,使用技术对每一个逻辑卷进行零覆写,保证磁盘交付给下一个用户使用时不能回复原始数据;对于所有人员登陆系统必须采取动态和负责口令,并且对用户的权限进行实时的审计。

总之,随着云计算和其他技术迅猛发展,数据中心技术必须克服即将出现的所有挑战,数据中心基础设施也需要不停迭代,数据中心优化的四个关键要素分别是:人员、资源、技术和环境。每个要素通过关键指标反映运行维护服务的条件和能力,将业务导向放在首位,就是对人员、资源、技术和过程这四个关键要素的提升,从而有效实现云计算运维管理的改进。

【参考文献】

[1]王鹏.云计算的关键技术与应用实例[M].北京:北京人民邮电出版社,2010

[2]房秉毅,张云勇,程莹,徐雷.云计算国内外发展现状分析[J].电信科学,2010(8)

【基金项目】2012年度广西高等学校立项科研项目(201204LX569)

【作者简介】苏树鹏(1980- ),男,广西南宁人,壮族,硕士,广西机电职业技术学院讲师,工程师,研究方向:软件设计,云计算,计算机教育。

(责编 丁 梦)

三、安全分析

由于云计算高度集中信息资源,导致安全事故的后果与风险远远超出传统应用系统,在云计算架构下主要面临的安全问题如下:

虚拟机安全问题:攻击者突破虚拟机管理器,获取系统管理权限,且控制宿主机上运行的其他虚拟机,使得攻击者可以很轻松地读取虚拟机网络上所有的明文传输信息。

数据安全问题:包括存储数据安全、剩余数据安全、传输数据安全等三方面,存储数据安全问题在于不同用户的数据存储在服务器上且共享存储资源,系统内部人员非法访问用户的数据导致泄漏或由于软硬件故障、电力中断、自然灾害等造成的数据丢失。剩余数据安全问题在于用户退租磁盘时管理员仅仅做简单的删除文件,当磁盘重新租给其他租户时,可能会被恶意租户恢复之前用户的数据,导致之前的用户数据泄漏。传输数据安全问题在于数据在传输过程中被窃取或篡改,导致数据泄露。

信息内容安全问题:由于信息与其发布载体动态绑定,难以确定服务器的物理位置,导致难以对不良信息进行溯源,同时现有设备处理能力对超大规模数据流量的审查很困难。

针对以上云计算存在的几个安全问题,经过理论联系实际情况,采取如下应对手段:

针对虚拟机安全:采用虚拟化在线对虚拟机进行管理和监控,采用信息包过滤系统实现虚拟机的隔离,对于虚拟机的迁移后及时销毁原有物理磁盘和内存数据。

针对数据安全:以信息标识和处置的控制要求为起点,对存储数据和传输数据进行加密,在资源回收时,使用技术对每一个逻辑卷进行零覆写,保证磁盘交付给下一个用户使用时不能回复原始数据;对于所有人员登陆系统必须采取动态和负责口令,并且对用户的权限进行实时的审计。

总之,随着云计算和其他技术迅猛发展,数据中心技术必须克服即将出现的所有挑战,数据中心基础设施也需要不停迭代,数据中心优化的四个关键要素分别是:人员、资源、技术和环境。每个要素通过关键指标反映运行维护服务的条件和能力,将业务导向放在首位,就是对人员、资源、技术和过程这四个关键要素的提升,从而有效实现云计算运维管理的改进。

【参考文献】

[1]王鹏.云计算的关键技术与应用实例[M].北京:北京人民邮电出版社,2010

[2]房秉毅,张云勇,程莹,徐雷.云计算国内外发展现状分析[J].电信科学,2010(8)

【基金项目】2012年度广西高等学校立项科研项目(201204LX569)

【作者简介】苏树鹏(1980- ),男,广西南宁人,壮族,硕士,广西机电职业技术学院讲师,工程师,研究方向:软件设计,云计算,计算机教育。

(责编 丁 梦)

三、安全分析

由于云计算高度集中信息资源,导致安全事故的后果与风险远远超出传统应用系统,在云计算架构下主要面临的安全问题如下:

虚拟机安全问题:攻击者突破虚拟机管理器,获取系统管理权限,且控制宿主机上运行的其他虚拟机,使得攻击者可以很轻松地读取虚拟机网络上所有的明文传输信息。

数据安全问题:包括存储数据安全、剩余数据安全、传输数据安全等三方面,存储数据安全问题在于不同用户的数据存储在服务器上且共享存储资源,系统内部人员非法访问用户的数据导致泄漏或由于软硬件故障、电力中断、自然灾害等造成的数据丢失。剩余数据安全问题在于用户退租磁盘时管理员仅仅做简单的删除文件,当磁盘重新租给其他租户时,可能会被恶意租户恢复之前用户的数据,导致之前的用户数据泄漏。传输数据安全问题在于数据在传输过程中被窃取或篡改,导致数据泄露。

信息内容安全问题:由于信息与其发布载体动态绑定,难以确定服务器的物理位置,导致难以对不良信息进行溯源,同时现有设备处理能力对超大规模数据流量的审查很困难。

针对以上云计算存在的几个安全问题,经过理论联系实际情况,采取如下应对手段:

针对虚拟机安全:采用虚拟化在线对虚拟机进行管理和监控,采用信息包过滤系统实现虚拟机的隔离,对于虚拟机的迁移后及时销毁原有物理磁盘和内存数据。

针对数据安全:以信息标识和处置的控制要求为起点,对存储数据和传输数据进行加密,在资源回收时,使用技术对每一个逻辑卷进行零覆写,保证磁盘交付给下一个用户使用时不能回复原始数据;对于所有人员登陆系统必须采取动态和负责口令,并且对用户的权限进行实时的审计。

总之,随着云计算和其他技术迅猛发展,数据中心技术必须克服即将出现的所有挑战,数据中心基础设施也需要不停迭代,数据中心优化的四个关键要素分别是:人员、资源、技术和环境。每个要素通过关键指标反映运行维护服务的条件和能力,将业务导向放在首位,就是对人员、资源、技术和过程这四个关键要素的提升,从而有效实现云计算运维管理的改进。

【参考文献】

[1]王鹏.云计算的关键技术与应用实例[M].北京:北京人民邮电出版社,2010

[2]房秉毅,张云勇,程莹,徐雷.云计算国内外发展现状分析[J].电信科学,2010(8)

【基金项目】2012年度广西高等学校立项科研项目(201204LX569)

【作者简介】苏树鹏(1980- ),男,广西南宁人,壮族,硕士,广西机电职业技术学院讲师,工程师,研究方向:软件设计,云计算,计算机教育。

数据中心 篇7

随着网络应用的不断发展以及应用系统的升级和扩展,数据中心的应用服务器及其他网络设备也逐年增加,随之而来的资源利用率偏低、运维效率偏低、资源成本提高、备份与灾难性恢复等复杂问题,已成为制约数据中心发展的重大障碍,传统的“单一设备单一应用”数据中心IT架构已经不能满足业务发展的需求,进而需要一种新的数据中心架构来适应业务需求的发展。

虚拟化技术的出现,则在一定程度上解决了传统数据中心的部分问题,从而使传统的数据中心建设过度到了虚拟化数据中心阶段。虚拟化技术是将各种计算及存储资源充分整合和高效利用的关键技术。从应用领域来划分,虚拟化分服务器虚拟化、存储虚拟化、应用虚拟化、平台虚拟化、桌面虚拟化。服务器虚拟化技术是当前IT行业应用非常广泛且比较成熟的信息技术。通过虚拟化数据中心建设,提高了运维管理效率、降低运维成本,且通过建立智能化、自动化、资源整合配置体系架构满足了业务差异化和低成本的需求,实现资源的集约共享。

随着科学技术的发展,移动设备、社交网络、应用的多样性,以及云计算和大数据时代的演进,改变了IT服务的交付和消费方式,也改变了当今的IT格局。因此数据中心建设也从虚拟化时代演进到云计算时代。云计算是一种全新的计算理念,通过将大量计算机资源整合在一个个计算集群中,并使这些计算集群分布式地承担各种计算请求,使得用户能够按需获取集群中的各种计算资源、存储资源、网络资源以及便捷的信息资源服务。

随着云计算的发展,相继出现了软件定义计算技术、软件定义网络、软件定义存储等新技术,使数据中心中硬件基础设施利用服务器虚拟化、存储虚拟化及网络虚拟化技术将硬件基础设施抽象组合成虚拟的逻辑设施,采用云计算模型将计算能力和逻辑设施通过网络来提供服务,并从基础资源以及服务的精细化运营角度出发,实现Iaa S、Paas以及Saa S多种服务模式的灵活多变的业务交付方式,进而满足和适应新业务快速发展的需要,这也促成了一个新的技术方向——软件定义的数据中心,为此以软件定义理念为核心的软件定义数据中心走向前台,正在让我们以一种前所未有的方式连接、汇聚和配置计算资源。

2 什么是软件定义的数据中心

软件定义的数据中心,从最直观的定义来看,就是虚拟化、软件化数据中心的其一切资源。虚拟化是从服务器虚拟化开始的,服务器虚拟化技术目前已非常成熟。如果我们把服务器看作是一个微型的数据中心,那么我们可以通过服务器的虚拟化来理解软件定义的数据中心。服务器虚拟化是将服务器物理资源抽象成逻辑资源,让一台服务器变成几台甚至上百台相互隔离的虚拟服务器,不再受限于物理上的界限,而是让CPU、内存、磁盘、I/O等硬件变成可以动态管理的“资源池”,从而提高资源的利用率,简化系统管理,实现服务器整合,让IT对业务的变化更具适应力。软件定义的数据中心也采用了类似的理念,它将网络、存储、计算、安全等基础设施和可用服务进行池化、聚合,并可通过策略驱动的智能软件进行管理,从而使数据中心服务不再受到专用硬件的束缚,摆脱传统1T复杂而不灵活的困境。此方法可使计算、存储、网络连接、安全保护和可用性服务池化、聚合以及作为软件交付,并可通过策略驱动的智能软件进行管理。因此,客户可以获得针对云计算时代优化的数据中心,从而实现无可比拟的业务敏捷性并为所有应用提供最佳SLA,并可大幅简化操作以及降低成本。

软件定义的数据中心核心在于对CPU、内存、I/O等硬件资源进行解耦与重构,让数据中心计算、存储、网络、安全资源的全虚拟化、全自动化成为现实,并通过软件定义实现业务感知的按需资源组合与配置,实现系统的弹性伸缩和超大规模持续扩展,真正实现数据中心像计算机一样运行和管理,更好的支撑用户在云计算、大数据时代的业务运营和增长。

3 如何构建软件定义数据中心

构建一个软件定义的数据中心,主要包括两个核心要点:第一步虚拟化数据中心的一切资源;第二步,通过一个统一的管理平台对这些资源进行管理。软件定义的数据中心,首先要做的事情就是虚拟化数据中心的一切物理资源,通过虚拟化的技术,构建一个由虚拟资源组成的资源池,不仅仅是对服务器进行虚拟化,还包括存储虚拟化和网络虚拟化等。当前,许多用户的数据中心环境是异构的,既包括虚拟化的设备,也包括一些因某种原因不能被虚拟化的物理设备;既包括私有云,也包括公有云。因此,软件定义的数据中心一定要能够支持异构云环境。

软件定义网络(SDN)概念的提出早于软件定义的数据中心,其核心理念是将网络设备控制面与数据面分离开来,从而实现了网络流量的灵活控制,为核心网络及应用的创新提供了良好的平台。软件定义网络技术实现了从虚拟网卡、虚拟交换机、接人交换机到核心交换机的控制系统与传输机制的分离,使得满足计算需要的各种虚拟网络无处不在。透过这些虚拟的网络,将用户眼中传统的数据中心变成了软件定义的数据中心。要建设的软件定义数据中心网络系统需要立足于成熟的交换、路由模式之上,以网络虚拟化设备、软件为主,积极使用支持软件定义网络(SDN)功能的设备,构建满足多种不同类型用户服务需要的软件定义数据中心的网络系统。

软件定义存储(SDS)是软件定义的数据中心的基本组件,它从虚拟层、纯软件层介入,对物理存储的集成和控制。虚拟化环境中的计算机资源按需分配,因此这种环境需要动态进行存储分配。软件定义的存储通过对存储资源进行抽象化处理来支持池化、复制和按需分发,从而解决了这一难题。这使存储层具备了与虚拟化计算类似的敏捷性:聚合、灵活、高效并能够弹性横向扩展,全面降低了存储基础架构的成本和管理的复杂性。软件定义的存储有几个明显特征:以应用为中心的策略,可实现存储使用自动化——软件定义的存储支持对异构存储池中的所有资源实施一致的策略,使存储的使用像为每个应用或虚拟机指定容量、性能和可用性要求那样简单。这种基于策略的自动化最大限度地利用了底层存储资源,同时将管理开销降至最低;与硬件无关的虚拟化数据服务——数据服务作为虚拟数据服务在软件中交付,并按虚拟机进行调配和管理;通过硬盘和固态磁盘虚拟化确保数据持久性——随着服务器功能的增多,软件定义的存储解决方案可让企业利用廉价的行业标准计算硬件来扩大其存储资源,同利用固态磁盘和硬盘作为虚拟机的共享存储,可获得高性能、内置的恢复能力和动态可扩展性。

软件定义软件:传统的数据中心,应用服务器采用竖井的方式,每台服务器上运行一个应用程序,服务器硬件以及上面的操作系统和应用以紧耦合的方式捆绑在一起。这种模式导致服务器的CPU和内存等物理计算资源利用率低。在典型的x86服务器部署中,平均只有总容量的10%到15%得到利用,计算资源浪费严重。而另一方面,为支持不断增长的业务和应用需求,企业需要大量的服务器购置或者更新换代。软件定义的计算便是为了解决这一矛盾。但是,软件定义计算目前没有统一的概念定义,目前分布式计算以及云计算都属于软件定义计算的范畴。

当现有数据中心经过服务器虚拟化、存储虚拟化和网络虚拟化技术的应用,将数据中心提供的计算资源基础设施产品,变成了虚拟的、逻辑的、可通过网络直接获取的基础设施服务。数据中心的管理人员可以通过一个统一集中的管理系统实现对这种服务的定制、发布、度量、控制、运维等各种管理操作,进而完成了数据中心业务的云化。

4 结束语

数据中心 篇8

全媒体时代带来了三方面的改变。首先是由分散制作转变成融合生产, 在互联网时代, 媒体内容的多样性驱动素材采集方式的多样性。第二个方面的改变是数字标清全面提升到数字高清。2013年底, 全球HDTV服务用户将达到2.55亿户家庭。中国在2015年将具备100个高清频道的制播能力。第三个改变是从单一广播到多渠道互动。现在越来越多年轻人不再是坐在电视机前收看节目, 而是通过手机等移动终端跨屏接受服务。这些服务不仅仅是内容服务, 也包含了网络社交、在线教育、家庭医疗等多种业务。

移动宽带、SDN (Software Defined Network) 、云计算、大数据四大创新ICT技术正在重构传统的广电产业。华为的企业信息通信技术可以为广电媒体与新媒体的融合提供完美的解决方案。华为ICT在融合制作、高清生产和高清播出三方面做到全方位的技术支持。包含了下文所述四个方面的优势。

第一是提供高安全性。现在大多数中国的电视台为了节目制作的安全, 将办公网和生产网物理隔离, 编辑记者在办公区进行办公, 上网查找素材, 在制作岛进行编辑。这样做虽然保证了安全性, 但是编辑记者在办公区和制作岛来回跑, 不仅效率低而且编辑工作经常打断, 也会影响制作节目的灵感。华为ICT的解决方案可以实现生产区和办公区的安全互访, 生产区通过Internet进行素材采集和内容发布, 在办公区就可以处理低码流的生产业务。

第二是大带宽。现在国内收视率很高的综艺真人秀节目, 如《爸爸去哪儿》, 节目中除了设置固定的机位, 每个参与的嘉宾都会有自己的跟拍机位, 总共有30到40个机位进行同时拍摄, 会产生海量的视频素材数据。这些综艺节目经常需要去海外拍摄, 如果是用硬盘将素材运回来要耗费很多资源, 而且以后面临4K制作, 素材量将会几倍增加, 对于数据的传输是需要考虑的重要问题。华为ICT支持10PB海量高清视频的低成本、高性能的访问存储, 能够将电视台园区的网络带宽提升到100G, 用来支持高码流的使用要求, 高清码流服务器的IO性能提高4倍。

第三是低时延。这个指标对于节目播放和网络的传输等有至关重要的影响。华为ICT可以将高清制作时延控制在5毫秒以内, 高清播出时延小于40毫秒, 满足高清播出需要。

第四是灵活调度。所谓灵活调度就是确定一个节目到底用哪一个渠道发布可以获得成功, 某一个节目可能有迹可循, 有大数据支持, 可以去做一些分析和预测, 但是真地让你确定是通过电视传播、网络传播还是移动互联网传播, 还是其他一些渠道传播更有利, 相信没有一个人能给出确切的答案。在全媒体时代, 资讯通过多种手段不同渠道去发布, 在这个过程中, 当不知道哪一个渠道会成功的时候, 不知道哪一个渠道需要多少资源 (指IT设备的资源) 的时候, 就需要更加灵活的变化, 比如通过AB两个渠道发布, 如果B成功率高, 就把A渠道所需要的资源划一部分给B渠道, 让B能够快速发展起来, 这就是要灵活。华为ICT实现技术和架构向云演进, 便于资源整合、共享和运营。共享可运营的媒体资产、可运营的业务应用、可运营的IT基础平台。

可以看到新业务对广电媒体数据中心的技术要求包含对服务的要求, 对SLA的要求, 对于高效数据的要求, 对于弹性的要求以及对于软件定义的要求等等 (图2) 。

媒体行业的所有数据中心, 无论是台网还是新兴的云平台, 都在试图探索出以上问题的解决方案。在此方面, 华为与湖南卫视和敦煌广电等合作, 利用新兴的云平台进行广电系统网建设, 尝试利用这样的架构应对未来整个媒体的变化 (图3) 。

根据不同业务的等级不同, 构建出不同等级的资源池 (图4) 。传统电视媒体需要的系统和网络系统不同, 需要转码。现在做新媒体和传统媒体的融合, 一旦融合, 问题也就出现了, 一部电影有机顶盒、有互联网、有PC机, 也有手机客户端, 因为每个要求不同, 就要多次转码, 电视、PC、手机需要不同的速率和带宽。不同的使用方式和渠道对于整个云计算资源池的服务等级需求也不一样, 首当其冲的问题就是要建立一个云平台, 能够支撑不同业务、不同服务级别的资源池。

云计算能够帮助广电解决业务上线时间的问题, 去赢得市场。当不同的业务在一个云计算平台去共存, 应该有不同的区域应对不同的服务, 提供不同的服务等级。华为在全球所有的云计算平台里, 率先发布云服务新产品虚拟数据中心VDC (Virtual Data Center) 。通过VDC划分不同服务等级, 为不同业务提供应对的服务 (图5) 。通过这样一种管理方式, 使云平台更好地自适应。

因为拥有不同的信息安全等级, 现在很多电视台还是区分编辑和工作两个区域。为此华为与合作的传统广电媒体尝试在所有工作人员的PC机装一个软终端, 去连后台的云计算平台, 称为桌面云。当需要编辑节目的时候不用再专门去编辑区, 而是利用办公区域的同一部PC机, 连到桌面云即可。虽然后台桌面云信息安全参照非编区和精编区数据管控中心的要求, 所有数据不能拷贝到本地的PC机上, 但是这种方式却使工作人员可以在同一个位置享受不同业务的信息安全要求。

华为还开发了一种能够线性增加、分布式存储的系统来解决媒体采、编、制、播、管以及存储的问题 (图6) 。共享存储资源池, 按需部署, 动态调配, 数据分级存放, 内部智能迁移和生命周期管理。这个系统采用全分布式架构、全IP互联, 存储资源池可扩展至60PB的容量, 系统分成不同的资源池, 使得采编制播等同时完成, 不用考虑存储的IO问题。现在所说的云计算具有两个功能, 第一是飘然, 业务不会固定在某一台服务器上, 会在整个资源池里不停地变换物理位置, 需要用时就像云一样飘然而至。第二是弹性, 所谓弹性服务是指需要的资源是不固定的, 会根据业务的不同需要, 自动化地弹性分配相应的资源, 无论IO带宽、GPO资源, 还是计算资源、存储资源, 所有一切通过一套系统弹性分配 (图7) 。当某一时刻某一渠道更受欢迎, 需要更多资源的时候, 有了自动化弹性调配资源, 就不用考虑去建设更大的资源池, 而是只需要通过资源池去进行扩展。举个例子, 凤凰卫视在国内有香港和北京两个数据中心, 另外在全球包括英国、美国在内还有七个数据中心, 当某个区域发生重大事件, 需要更多资源的时候, 就会从全球其他数据中心调度给当地数据中心实现弹性, 会把九个数据中心当成一个逻辑数据中心进行相同管理, 从性能和效率两方面来满足媒体的需要。

如果采用原有的硬件化建设数据中心的模式不可能实现弹性数据管理模式, 因此提出了软件定义数据中心, 包含软件定义网络、软件定义存储。所有业务都有生存周期, 当服务于广电系统的某个应用过时后, 需要实时地改变整个数据中心的架构 (图8) 。通过原有固定的网络无法实时进行, 必须通过软件定义的模式。华为提供了全套软件存储、软件计算方案服务于整个系统。

数据中心 篇9

本刊讯4月29日, 由计算机世界传媒集团《网络世界》报主办的第五届数据中心大会、优秀数据中心2009年度颁奖大会在成都召开。会议围绕“数据中心走向卓越”这个主题展开。

来自知名企业的经理、专家及市场总监等参与了会议并作专题演讲, 内容涵盖服务器、存储、网络设施以及数据中心的运维管理等诸多方面。万国数据资深技术专家作“优秀数据中心经验交流”。IBM资深系统架构师张曹莉讲述了“利用虚拟化构建新一代数据中心, 迈向云时代”。APC大中华区战略市场总监谢卫刚就“如何实现数据中心效率和可用性的同步提升”进行了交流。

大会现场展示了最新的服务器、存储产品、技术及应用方案, 通过现场答问、互动交流, 广大领先厂商和最终用户进行了深入的交流。

数据中心 篇10

数据中心主楼的地下1层是冷水储存, 地上1层是配电和冷水机组, 2到6层是数据中心主机房以及相应的功能区, 包括配电房、电池房、UPS房等。主楼隔壁的另一栋楼做柴油发电, 共2层, 发电楼隔壁还有一个油库, 用来存储柴油发电的油品。该项目建成后将为平安集团以及其下属各个机构提供集中的数据处理和交换服务。

用户对此数据中心的建设十分重视, 在土建开始前就已经对数据中心的总体设计方向达成一致, 以便土建设计和建设时完全满足数据中心的需求, 从而避免了让旧有的数据中心去适应土建的设计弊端。其总体设计方向是:

◆按照A级等级去建造;

◆满足最新的国际国内标准和本地规范;

◆采用主流技术和产品;

◆体现本工程的特殊性和特点。

针对以上总体设计方向, 用户规定, 在数据中心机房内的综合布线应遵循最新的国内GB 50174-2008标准和国际TIA 942A标准, 采用主流产品, 即铜缆采用CMP增压级高阻燃的Cat.6A非屏蔽铜缆, 光缆采用OFNP增压级高阻燃的MPO预端接OM4光缆, 以此来体现数据中心的安全可靠和绿色环保。

因此, 该数据中心在机房内的综合布线着重于以下四点进行设计和配置。

1 高安全可靠性

每个设备机柜配线 (EDA) 都通过铜缆和光缆集中铺设到LAN和SAN的配接区进行跳接。集中布线架构提供了最简单和最有效的线缆连接, 集中的跳接则提供了高效的布线管理和安全性, 而集中的网络设备则提供最佳的冗余备份和可靠性。由于用户从数据中心土建的初期已经考虑到了机房内的配电、冷通和布线的空间需求, 所以集中布线带来的线缆密集情况得到了完善的解决。

2 先进性

铜缆采用主流的康普SYSTIMAX Cat.6A万兆非屏蔽双绞线 (如图1所示) , 提供了100m以内性价比最高的带宽, 适合LAN/NAS的应用, 能够满足目前虚拟计算的高带宽、高性能要求。

光缆采用的是主流的康普SYSTIMAX LasrSPEED 550 OM4激光优化多模光缆 (如图2所示) , 该光缆专为IEEE 802.3ba高速以太网设计, 是最适合数据中心使用的、性价比最高的光缆配置。OM4光缆满足10G传输550m和40G/100G传输150m距离, 用户LAN/SAN的通信链路设计可以完全不用考虑长度和跳接次数的限制, 从而设计最佳的网络拓扑结构。

同时光缆配接不再采用传统的熔接方式, 而采用了先进的SYSTIMAX InstaPATCH Plus预端接光缆 (如图3所示) 。MPO预端接取代传统的LC熔接, 代表了数据中心内光缆高速通信的发展趋势。目前的40G/100G传输也是基于MPO连接头的12芯光纤的并行传输特性。因此, 用户采用MPO预连接能够为日后云计算的爆发性网络带宽增长做好准备, 同时也可以从目前的串行传输平滑升级到并行传输。

3 高防火等级

网络物理层的另一个关键需求是防火安全。根据GB 50174-2008标准A级机房的要求如表1所示, 用户采用CMP/OFNP增压级的高阻燃外皮, 这种外皮具有很强的防火性, 在燃烧冒烟解体之前可以忍受高达800℃以上的温度, 同时这种外皮也是一种高效的绝缘体, 能够提供更加高速的数据传输性能。

4 扩展性

EDA配置了足够的铜缆配线架和光缆配线箱, 不论目前设备是铜缆还是光缆应用, 都预留了铜缆和光缆的连接, 以满足日后LAN和SAN的扩展以及新的网络传输协议的出现, 如图4所示。

独立机柜的小型机和存储主机采用高扩展性的区域布线箱设计, 安装在架空地板下, 为临近的独立机柜提供了足够数量的跳线连接并预留了未来的扩展。避免由于各个设备厂商生产非标准独立机柜而导致不方便安装配线架的弊端。用户考虑美观因素和日常维护的便捷, 不采用桥架上的配线方案, 如图5所示。

构建绿色数据中心 篇11

随着网络、通信和计算机系统的大规模应用和发展,作为其核心的计算机机房的重要性越来越突出。机房环境除必须满足计算机设备对温度、湿度和空气洁净度,供电电源的质量,接地地线、电磁场和振动等技术要求外,还必须满足机房中工作人员对照明、空气的新鲜度和流动速度、噪音的要求。

绍兴日报社采编大楼中心机房的建设目标是打造节能环保的下一代数据中心,将通过IT资源的有效整合,提高对机房系统设备的管理水平,实现科学管理,同时减轻维护人员的劳动强度,为机房无人管理创造条件,提高对突发事件的快速反应能力,减少事故带来的危害和损失,从而使绍兴日报社的IT服务质量步入一个新的境界,以适应新媒体时代的信息化需求。随着媒体业务的日益发展,对IT设备的技术支撑要求越来越复杂,导致设备的功耗也越来越高,从而造成机房的相关配套设施如空调系统、UPS系统等耗电也越来越多,能源消耗等成本骤增已经成为影响报社发展的因素之一。如何有效降低数据中心能源消耗,构建绿色数据中心成为关注的焦点。

当前,数据中心建设从功能服务转向智能服务和节能服务,构建低能耗、环保型的“绿色数据中心”。目前数据中心机房中的耗电比例大致为IT设备占总能耗的44%、制冷系统占38%、电源系统占到15%、照明系统占3%。因此从IT设备、制冷系统和电源系统人手,提高效率,才是建立“绿色数据中心”的“治本”之道。

中心机房是整个报社的网络核心、数据交换中心,机房选址时应该考虑防潮、防尘、防盗、防触电、防干扰等因素。

从机房规划就应该将节能与机房建设相结合。中心机房一般包括主机房、电源室、监控室。比较科学的布局是,主机房在中间,电源室、监控室分别在两端。电源室放置不间断电源(UPS),其电池散发出有害气体,对人体和设备构成威胁,电源室必须是与主机房隔离的独立空间。监控室的功能主要是监控维护机房设备运行,监控室与主机房之间应该采用玻璃隔断,以提高监控的直观性。整个机房设计在密闭空间内,不设窗户,避免外界温度与室温进行热交换。在机房天棚和地面设立保温层,铺设20m m橡塑保温棉。建筑围护结构的热工性能必须符合GB50189-2005《公共建筑节能设计标准》的有关规定,墙体内铺设50mm岩棉作保温静音处理。

中心机房的供电质量,对机房设备的运行和使用寿命至关重要,必须建设稳定、安全可靠的供电系统。一般中心机房都采用7×24小时运转模式。所以,供电系统是机房的基础保障,更是机房能否运行的关键。在保证具有稳定的动力电源之外,可以在最短时间内给机房设备持续供电的UPS系统或柴油发电机也是必要的。除此之外,很好的掌握运行状态,掌握电力系统各干线回路用电质量和状态,避免和提前预警电力系统故障是非常重要的,这些都可以通过环境控制系统提醒相关管理人员做紧急状态的处理,避免电力系统崩溃。

中心机房的空气环境调节,主要包括温度、湿度、新风量的调节。空调是中心机房的耗能大项,采用地板出线孔密封件对出线孔进行密封,风量泄露可控制在总风量的4%以内,极大的提高了空调的送风效率。除此之外,还应采用良好的设计方案,不良的设计方案导致设备散热不良,该冷却的设备不能很好得到冷却,而已经被冷却的区域却被继续冷却。所以,应优化信息中心机房的气流组织,避免局部热点,提高制冷率,减少空调容量和数量,提高机房散热效率。

UPS电源可以向负载提供稳压精度高、稳频、波形失真度小的高质量电源,并且在与静态旁路切换时可以做到供电无间断。要求为主机房内所有的服务器机柜、交换机机柜提供集中供电系统。

传统的节能方案更多关注UPS的可靠性,但随着“数据中心消耗着大量电能”这个事实影响越来越大,UPS的效率也成为了重要的决策因素。采用先进的UPS系统:在线双转换完全模块式UPS系统,它具有并联冗余的特性,可以完全取代传统的“1+1”并机系统,而且是一个“绿色电源”方案,具有高输入功因(PF=1)、低谐波失真(THDI=5%)、高效率(AC~ACeff达95%)以及高稳定性和可靠性的优点,配合功能强大的监控软件及全面的通信介面,适合精密设备及机构。

能耗问题已经成为用户在采购服务器时非常重视的一个因素,而机房作为各种服务器(塔式、机架式、刀片式)及各种网络设备(如机架式交换机、路由器)的承载之地,这些设备的节能效果如何自然将大大影响整个机房的能耗。对此,优先选用低功耗产品或2,5英寸硬盘产品,无疑更节能。并且,很多低功耗的硬盘产品功耗已能做到很低,在满载、空闲时的功耗都可控制在数w内,对于采用多硬盘的服务器,长期运行时可以节省下一笔不小的费用,自然也能使机房更节能。总之,电源转换率较高的电源更节能,选用2.5英寸硬盘也比3.5英寸硬盘更节能,优选低电压处理器与内存也能更节能、加强风扇管理等,在很多方面多管齐下,都能让设备在确保性能的情况下更节能。除了这些之外,还应从软件人手,提高服务器利用率,减少不必要的服务器运算而增加的耗能。

数据中心 篇12

随着信息化进程的深入, 全球每年产生的数据量以50%的规模递增, 极大地带动了全球数据中心的建设和发展, 我国整体规模也有较大发展, 2012年, 我国数据中心增长已经达到23.2%。

然而, 庞大的电费成为众多新建或传统数据中心面临的巨大挑战。相比国外, 国内数据中心增速远大于欧美地区, 但在规模、能耗、布局和安全方面存在较大差距, 尤其是数据中心能耗问题已成为制约信息化建设的不利因素, 也成为制约IDC产业发展拦路虎, 各数据中心PUE居高不下, 如何降低数据中心的能耗问题, 已成为数据中心变革的方向。

为此, 越来越多数据中心运营者将节能作为未来数据中心建设的最重要因素之一。在中国, 与以往不同的是, 建设绿色节能的数据中心理念, 已经得到数据中心产业链各方的认可, 如今关注的焦点是如何在保障安全稳定的情况下, 以最低成本实现最好的节能效果。这得益于中国政府的支持, 也离不开电信运营商大胆的尝试。

据了解, 由中国电信建设的内蒙古云基地数据中心的PUE (电源使用效率) 值小于1.27, 目前仅谷歌、苹果等全球少数企业建设的数据中心能够与之媲美。对于该绿色数据中心实现的秘诀, 中国电信云计算公司总经理王峰告诉《通信世界》, 科学的选址和先进的设计理念是将内蒙古云基地打造成绿色节能数据中心标杆的关键。

科学选址奠定节能基础

《通信世界》:中国电信最新的数据中心建设都特别注重绿色节能。内蒙古云计算基地选择建设在呼和浩特, 这给运营商带来哪些价值?

王峰:该基地共占地1500亩, 总建筑面积100.6万平方米, 设计容量为42栋机楼, 具备超过10万台机架和200万台服务器云托管能力, 是目前亚洲最大的云计算园区。目前中国电信已经建成机楼4栋, 其PUE值可以达到1.27。

中国电信选择在内蒙古建设云基地, 也是经过深思熟虑的。其中, 自然环境条件是个重要因素, 呼和浩特全年气温10摄氏度以下的天数长达200天以上, 有利于高能耗和高发热量的云计算中心建设, 结合自然风冷、封闭循环等绿色低碳技术, 充分体现了绿色环保、节能减排、技术创新的云数据中心建设理念, 为全社会节能减排做出突出贡献, 也降低了运营成本, 可以让客户和我们一起分享绿色节能带来的价值。

此外, 云计算技术的使用将实现资源高效集中利用, 也将为全社会节能减排做出突出贡献。

使用三大先进设计理念

《通信世界》:内蒙古云基地数据中心PUE值可以达到1.27, 中国电信是如何做到的?

王峰:主要使用了三方面创新设计。一是半能耗制冷。我们结合呼和浩特气候特点, 机房空调系统充分利用自然冷源, 在全年不同季节实现五种模式制冷。其中两种模式:在室外环境温度低于10摄氏度开始停止压缩机工作, 通过换热器与水 (空气-水) 的热交换实现免费制冷;-5摄氏度以下运用创新的建筑风道智能换热, 全面实施冷热空气 (空气-空气) 热交换, 通过自动切换整体实现空调系统半功耗节能运行, 达到自然绿色降温的目标。

二是使用封闭冷通道设计。数据中心最佳的气流组织是地板下送风, 风管或天花板上回风。精密空调设置单独的设备间, 机柜面对面摆放, 冷热通道隔离并实现冷通道封闭。精确送风系统根据设备冷量需求合理分配风量, 达到“先冷设备, 后冷环境”的目的, 解决机房内局部过热的问题, 并提高空调利用率, 进一步降低运营成本。

上一篇:基准地价更新下一篇:资本路径