模块化数据中心发展(通用8篇)
模块化数据中心发展 篇1
1 前言
随着信息化的不断深入发展,作为信息化发展基础的数据中心建设,无论在数量上还是在规模上都在以迅猛的速度发展。今年由工业和信息化部、国家机关事务管理局、国家能源局发布的《关于印发国家绿色数据中心试点工作方案的通知》中指出:“我国数据中心总量已超过40万个”。在数据中心的快速发展过程中,市场对其建设成本、建设周期、低运行费用的要求越来越高,数据中心建设模式和技术也越来越多,在这些众多的模式和技术中,模块化数据中心受到热捧。
2 模块化数据中心
何为模块化数据中心呢?一般认为模块化数据中心是指完全按照模块化设计思路搭建的可快速部署的、由工厂预制生产的数据中心模型,数据中心内部由N个完全相同的模块组成或由多个不同种类的功能模块搭配组成,而同种功能模块是完全相同的。模块是基于标准的,大部分是在工厂预制的,能够被灵活地采购和获取,具有极高的安全特性,尤其重要的是应该能在现场快速安装的,从而使建设方可以更加灵活、动态地部署新业务和应用。模块化是新一代数据中心应当具备的特征。模块化由于便于管理和扩展,在数据中心的建设和运行中得到广泛的运用。模块化数据中心具有建设快速、易复制化、高效等特点,使其在近年来数据中心建设的市场份额中占有一定的比例优势,尤其是以微模块为基础的数据中心建设呈现出快速增长的趋势。
但同时模块化数据中心具有耐用性差、缺乏工作空间、建设成本高、对于少量小规模的变化适应性差等缺点。
3 模块化数据中心的形式
数据中心的模块化建设包括两方面内容:一是数据中心在规划设计上,按照一个标准模块进行建设;另一个是在数据中心内使用模块化的设备。
3.1 数据中心建设的模块化
现在数据中心建设的规模越来越大,为了便于管理、扩展和维护,模块化设计是数据中心的基本选择。数据中心建设按照模块化建设,使大型数据中心的建设变成了一个多个标准模块机房(图1)的生产过程,使得建设过程可以实现标准化,无论是设计还是施工都便于保证质量,还能降低建设成本,减少施工人员。
把大型数据中心变成一个个模块机房,对于管理、扩展和维护来说,也是十分便利的。此外模块化机房可以提高机房的使用效率,达到节能降耗、节约成本的目的。因此模块化应用于数据中心建设目前也是大型数据中心的主流建设模式。当然对于有些系统比较容易实现模块化,比如电力系统、综合布线系统,但对于水冷系统来说,模块化会比较难以划分。模块化数据中心有一体模块化和分体模块化(图2)之分:一体模块化就是每个模块都具有各自独立的系统,一个模块就是一个小机房;分体模块化就是将一个大型数据中心按功能分为多个模块,比如IT模块、动力模块、空调模块等。同类功能模块的内容是完全相同的,但不能独立运行或独立运行无实用价值,必须跟其他模块配合才能形成一个完整的数据中心。
3.2 集装箱式数据中心
集装箱数据中心是模块化数据中心最典型的代表,集装箱数据中心也有一体(图3)和分体(图4)之分。一体化集装箱数据中心具有最完整的模块化特性,多个集装箱是完全独立的,可以独立运行,相互之间没有任何耦合,因此具有较高的可靠性和可扩展性。但对于大规模数据中心来说,采用多个一体化数据中心会比较难于管理,且设备冗余量大,造成建设成本增加,而分体集装箱数据中心恰恰可以克服这些问题,所以说一体化集装箱数据中心适合小规模的数据中心,而分体式集装箱数据中心适合大规模建设。
集装箱数据中心的产生曾经在机房界产生过很大的震动。当时有人甚至认为集装箱数据中心可以完全替代传统数据中心。但到目前为止还没有看出这种苗头。集装箱数据中心的发展要远低于人们的预期。
集装箱数据中心确实有独特的优点:
(1)由于是工厂化生产的产品,所以很容易实现产品的标准化,也容易保证产品质量,使整体最佳效率达到很高的水平。
(2)快速部署是集装箱数据中心的另一大优点。由于它内部已经具有传统数据中心的所有内容,且是一个相对独立的系统,所以可以不受周围环境的限制,在任意地点都能快速部署。当然集装箱数据中心还需要周边资源的支持,比如水、电、网络等,也受周边环境的制约。
(3)可以实现真正的高密度部署。集装箱数据中心是一个完全封闭的环境,可以只考虑电子信息设备的工作需要,可以采用更适合数据中心内电子信息设备的工作环境:适宜的风速,更适合的温度和湿度等。因此集装箱数据中心厂商宣称其箱体的PUE值能达到1.12是可能的。
但集装箱数据中心也存在造价高、各厂商生产的产品缺乏统一的标准等问题。这些问题的存在严重制约了它的发展。某单位在内蒙规划建设了国内首个大规模采用集装箱式的数据中心,原本将按统一模式建设多个,但后来没有实施,据说主要原因就是造价太高。
单个集装箱数据中心的箱体PUE值也许能达到1.12,但集装箱数据中心需要很多配套设施的支撑,如果加上配套设施的能耗,整体PUE值肯定就没那么好了。
集装箱数据中心的造价如果与一般数据中心的建设造价加上大楼基建的造价相比是便宜的,这是它的优势。可惜我们往往都是在建设好的建筑中安置集装箱数据中心,所以集装箱数据中心的价格就显得高了。
3.3 微模块
微模块是指以若干机架为基本单位,包含制冷模块、供配电模块以及网络、布线、监控在内的独立的运行单元。该模块全部组件可在工厂预制,并可灵活拆卸,快速组装。
微模块是在集装箱数据中心的基础上发展起来的,它克服了集装箱数据中心的缺点,把集装箱的外壳抛掉了,使模块变得更小,造价更便宜,配置更灵活。一般是几个机柜加空调和电源模块,最小的只有一个机柜。所以它比集装箱式的数据中心具有更广阔的应用前景,目前也正处于大发展时期。
3.4 模块化UPS
为保障机房内电子信息设备的交流不间断供电,通常采用UPS供电方案,这样,UPS设备和方案的安全性、可靠性就成为保障机房电子信息设备供电安全的重中之重。
为提高UPS方案的安全性、可靠性,设计人员和运维人员在实际工作过程中总结出了多种配置方案,这些方案在一定程度上提高了系统和供电的可靠性,但是也带来了诸多的问题,诸如:设备投资大、配套设备投资增加、占地面积大、运营成本高、维护和扩容困难、风险大等一系列问题。
为解决这些问题,模块化UPS电源系统应运而生。它是将UPS各部分功能完全以模块化的形式实现不间断供电的产品。其具有在线热插拔、在线扩容和在线维护的功能。任一组件拔出或故障均不影响系统供电,提高了UPS系统的可靠性和可维护性。由于可以在线扩容,避免了传统UPS在高可靠机房中常常处于低负载运行的状况,提高了UPS设备的使用效率,减少了设备的一次性投资。既增加了设备运行的可靠性,还起到了一定的节能作用。
从技术演进上来说,模块化数据中心的概念就是源于模块化UPS。对于模块化数据中心,目前最容易实现模块化的就是电力系统,而相对比较难的是水冷空调系统。
4 模块化数据中心的发展
据2013年度北京DCD大会报道,模块化在数据中心内的使用将以高于2倍的速率增长。从图5可以看出:2013年国内考虑数据中心模块化建设的只有11%,而到2014年有四分之一的数据中心会考虑模块化,增长了一倍以上。
目前数据中心的模块化建设也支持DCD大会的预测,模块化数据中心建设尤其是微模块数据中心的建设增长极为迅速,可以预见,模块化数据中心由于具有传统数据中心所无法比拟的优势,将来在数据中心建设中会占有越来越多的份额。
总的来说,模块化数据中心具有四大优势:第一,高可用性,即通过工程产品化,实现整体设计和交付,质量得到保证;第二,智能控制,其监控、管理、供电等都采用智能化技术,精确保障IT系统的运行环境,极大降低了运维强度;第三,高度集成化,可以提供一站式服务,从而实现快速部署和在线扩容;第四,降低TCO,也就是分期投入,减少一次性建设成本,在现在人力紧张的情况下,减少现场施工量,可以节省很大的人力成本,同时在正常情况下还可以节约占地和运维成本。
5 结束语
模块化为数据中心的快速部署和高效节能奠定了一个良好的物质基础,但要更好地发挥其效能,管理和运维显得尤其重要,数据中心基础设施信息模型(DCIM)的应用将会使模块化数据中心的发展如虎添翼。软件定义数据中心的理念对数据中心建设提出了更高的要求,模块化、基础设施虚拟化将是适应数据中心发展的主流技术。模块化数据中心在可以预见的未来都将大有可为。
模块化:下一代数据中心的基石 篇2
在IT云化的过程中,数据中心是基础。云计算要求计算、存储及网络资源松耦合,模块化程度和自动化程度都较高,同时具备绿色节能等特点,而这一切首先依赖于一个高效的数据中心基础设施,一旦离开了数据中心这一基础设施,云计算真的就成了浮在空中的云了。
在为云而生的新一代数据中心中,基础设施不再只是简单地提供风、水、电以及网络,追求的也不再是单纯的节能环保或者高可靠和可用,除此之外还要满足云计算对自动化、智能化的需求,这就对数据中心的部署和管理提出了新的要求。要适应这些需求,模块化数据中心就成为必然之选,相应的,数据中心的管理也从传统的动环监控转向IT与基础设施统一管理的DCIM。
从模块化UPS到集装箱式数据中心
传统的数据中心建设通常要很长时间,长则一两年短则大半年,在市场竞争日趋激烈的当下,人们越来越难以容忍如此长的建设周期,模块化数据中心正是解决这一问题的有效办法之一。
模块化数据中心是按照“高可靠、高效节能和整体快速部署”的建设理念来构建的新一代数据中心基础架构的解决方案,是专门针对云时代数据中心的需求而提出的。在云时代数据中心趋于大型化和超大型化,资本投入庞大和运营成本惊人,同时,其承载的应用越来越多,对可靠性要求也越来越高,模块化数据中心通过工程产品化、设计标准化和模块化叠加等方式,十分有效地解决了这些问题。
从技术演进上来说,模块化数据中心源于模块化UPS,而模块化UPS的出现源于传统UPS的不足。长期的应用实践已经证明传统UPS的一些弱点。比如,为保证可靠性,传统UPS一般采用“1+1”或者“N+1”的并机,前期投资高;其次,传统UPS可扩展性差,往往从一开始就要基本部署到位,投资浪费严重;第三,由于传统UPS部署是一步到位,而前期工作负载不足,导致实际能效大大低于设计能效。
相比较而言,模块化UPS冗余度好,能支持边成长边投资,投资省,同时能效高,因此从一上市就受到用户欢迎。而模块化数据中心在模块化UPS的基础上又向前迈出了一大步。其在UPS的整流、滤波、充电等器件集成化和模块化的基础上,还实现了与制冷系统、电力分配系统以及机柜系统的集成等。这使得模块化数据中心能实现更高级别的可扩展性、高可用性、高能效以及统一管理。比如,模块化数据中心可以支持数据中心级别的“边成长边投资”,也就是可以随着IT需求的增加逐渐新增电源模块、空调系统、电力分配系统,因此可以将投资推迟到真正需要的时候,以避免浪费。当然,边成长边投资不只是可节省投资,它还有助于提高数据中心的能效。因为传统数据中心通常会一步到位,而数据中心的负载一般有一个增长过程,初期很低,对传统数据中心而言低负载往往意味着低能效。
模块化数据中心4大核心价值
目前,市场上主流的UPS设备供应商和数据中心解决方案供应商都已经提供模块化数据中心解决方案,如施耐德电气的英飞和艾默生网络能源的SmartAisle,都是模块化数据中心的代表。另外,还有一些互联网公司自己在研发这类产品,比如腾讯的微模块数据中心也属于这一类。
在市场上,模块化数据中心可以以不同形式出现,比如,当前很流行的微模块数据中心其实质也就是模块化数据中心,而集装箱式数据中心更是将模块化推向极致,它在快速部署的基础上又实现数据中心整体的移动化,非常适用于一些灾害或者应急场景。
在我国已有不少数据中心开始采用模块化数据中心的建设模式,有的甚至步子迈得更大,采用预制模块化的方式。比如,深圳云基地2013年建成的位于盐田港现代物流中心的数据中心就是采用当下流行的预置模块化技术。在该数据中心的建设过程中,其电力、制冷、通信电缆以及相关的环境监控等都预先部署在一个框架上,类似积木,预先完成测试,然后将这个框架直接部署到数据中心,这样数据中心的建设就如同搭积木,从而加快部署。得益于这一建设模式,深圳云基地的这个数据中心从工人进场到交付,前后只有3个月,同时节能效果也相当不错,其PUE值都可以达到1.5左右。
归结起来,模块化数据中心可以为用户带来四大核心价值:第一,高可用性,即通过工程产品化,实现整体设计和交付,避免系统问题;其次,智能控制,其智能监控、智能管理、智能供电和智能制冷的运营方式,保障了对IT环境的智能控制;第三,高度集成化、一体化,可以一站式服务,从而实现快速部署和在线扩容,保障客户业务连续运行。第四,降低TCO,也就是分期投入,减少建设成本,同时在占地和运维成本上都有30%以上的节省。
自动化与智能化
模块化数据中心为数据中心的快速部署和高效节能奠定了一个良好的物质基础,但在具体的管理和运维上,特别是在自动化和智能化方面,则要依赖于配套软件,也就是DCIM(数据中心基础设施管理软件)。
在云计算时代,IT设备和负载的变化已经成为常态,而IT设备和系统每一点改变(包括新增设备、撤出设备等)都会影响到基础设施,这也就意味着,需要根据IT系统和设备的变化不断改变基础设施的供应能力,包括空间、制冷和电力供应等。比如,在已经虚拟化的IT环境中,当把虚拟机(VM)从一台物理计算机迁移到另一台物理计算机的时候,必然会带来后一台服务器用电和制冷负荷的增加,此时就需要实现IT系统和基础设施管理的整合,来为该VM找到最合适的服务器。
DCIM的出现在一定程度上解决了上述问题,DCIM的最大卖点就是要打通IT管理与基础设施管理之间的联系,这样做的好处显而易见:首先,把原本彼此紧密相关的信息集成到一起,显著降低了数据中心的管理和运营成本、节省时间,并能基于这些信息做出更合理的决策;其次,能够更好地利用现存的IT和基础设施资源,优化数据中心的性能,提高可用性。
同时,DCIM通过集成数据中心基础设施和IT设备的管理,极大地满足了云计算对于自动化和智能化的需求。以虚拟化技术为例,虽然虚拟化技术的应用可以提高IT设备的利用率,但是,虚拟化应用的同时带来了另外一个问题,就是让我们预测对物理设施的需求更难。折中的办法是有时不得不为之预留更多的电力、空间、制冷和计算能力,这又导致了利用率的降低。
而有些DCIM软件平台能对数据中心建模,这样能提前预测所有变更的影响,包括服务器之间迁移虚拟机或者在房间里增加机架,比如,艾默生网络能源的DCIM软件Trellis就具有这种功能。另外,Trellis除了可以监控整个数据中心的各种设备,还能洞悉各个系统相互之间的依存关系,从而整合IT系统和基础设施的相关信息,形成一个类似闭环的控制系统,就如同一个具有自我调节功能的生态系统一样,它不仅知道数据中心每个元素的当前状态,还知道这些元素一旦改变会对其他元素造成什么影响。有了这些统一和完整的信息,数据中心管理者就可以获知数据中心的真实状况,从而自信地做出决策并采取相应的行动。
与之相似,施耐德电气的DCIM软件StruxureWare数据中心管理平台可以让虚拟机在感知物理基础设施状态以后,迁移到一个更安全的基础设施上(包括足够的电力供应和足够的制冷能力等),从而提高可用性。
值得一提的是,DCIM已经成为一种数据中心领域新的热点,在市场上也出现了诸多此类软件,除了来自艾默生网络能源的动态基础设施优化平台Trellis,以及施耐德电气的StruxureWare之外,还有很多UPS厂商、KVM甚至管理软件厂商都推出了这样的软件,比如CA。各种软件可能在功能上有所差别,但它们都致力于通过集成数据中心的基础设施管理与IT设备管理,来改进决策的效率和准确性,并降低管理成本并优化数据中心的运行效率。
软件定义数据中心
谈到下一代数据中心就不得不提软件定义,尽管这个词在大多数时候是指的是IT设备的软件定义。
可以说,今天“软件定义”正在横扫整个IT产业,颠覆包括服务器、存储、网络等在内的数据中心等传统IT基础设施市场,尤其是数据中心市场,而相关IT厂商正在调整,并在新的市场找到自己的位置。
根据较早提出软件定义数据中心的VMware给出的定义,软件定义数据中心是指让数据中心完全自动化、策略驱动、高效率、真正按需提供。VMware认为,在一个软件定义数据中心,所有基础设施都要虚拟化,并将虚拟计算扩展到所有应用;其次,还能根据应用需求实现存储虚拟化和虚拟化网络,以提高速度和效率;第三,管理工具要实现自动化。
很显然,软件定义数据中心需要数据中心基础设施的支撑,上面所提的管理工具也包括DCIM。因此,我们越来越频繁地看到DCIM软件在与云计算平台进行合作和集成。比如,StruxureWare就与VMware的vCenter实现了整合,从而实现了更科学的虚拟机调度。
数据中心的发展及模块化的应用 篇3
作为信息化发展基础的数据中心建设, 无论在数量上还是在规模上都在以迅猛的速度发展。据《2013年度中国数据中心市场发展白皮书》报道:2013年数据中心的增长率为6.5%, 从事数据中心建设的企业近3000家。该白皮书还预测数据中心建设的速度将逐年加快, 到2016年增长率将达到9.2%。如此高的增长率当然是因社会需求所致, 客观上给数据中心建设的发展提供了较好的基础, 同时也给数据中心建设提出了更多的要求, 使数据中心建设呈现出了一些新的发展趋势。
2 数据中心发展趋势
在数据中心建设大发展的浪潮中, 其技术和理念发生了很大的变化。
(1) 大型化、规模化、集中化
大型化、规模化、集中化数据中心无论在设计要求上还是在施工质量上都高于中小型数据中心, 所以大型数据中心在安全性、可靠性上远大于中小型数据中心。数据中心是一个多学科相互交叉的基础设施, 对管理人员的要求比较高, 需要有一个完善的管理体系, 其中最重要的是需要有一个知识全面、经验丰富的管理团队, 而中小型数据中心很难配备这样的队伍。所以大型数据中心的管理水平普遍高于中小型数据中心。大型数据中心在设计阶段可以统筹规划, 在管理和使用阶段可以综合考虑, 因此, 在整体使用效率上也优于中小型数据中心。在建设成本上, 同等级的中小型数据中心的性价比也低于大型数据中心。
(2) 高安全性
随着数据中心的重要性逐渐提高, 对高安全性的要求也越来越高, 但现实情况是数据中心的不安全因素却在不断增加。从最近一些事故所反映的情况来看, 损害数据中心安全性的主要因素除了传统的水、火、雷电外, 高温、极端天气、恶劣环境产生的威胁也越来越严重, 此外人为故障也在逐年增加。同时应数据中心发展的需要, 在数据中心建设中滥用节能技术、提出过高的要求或片面的追求建设和部署高密度, 都给数据中心的安全性带来隐患。
(3) 绿色化
现在数据中心的能耗越来越大, 对数据中心提出节能要求已是无法回避的问题。一个数据中心的耗电量已远超过同建筑面积的一般工业生产的耗电量。针对这种形式, 工业和信息化部发布的《工业节能“十二五”规划》中, 针对数据中心提出了明确的节能目标:“到2015年, 数据中心PUE值下降8%”。许多大型数据中心能耗的费用已占到全年维护费用的60%~70%, 如此下去我国的能源供应将不堪重负。所以节能技术和理念正在数据中心行业中深入贯彻, 比如在数据中心中采用虚拟化技术、建设中合理规划、就近制冷、采用高效能的节能设备、提高节能管理水平、综合利用能源等都能提高数据中心的节能水平, 以得到较低的PUE值。
(4) 高密度
高密度的发展一是因为硬件设备本身随着技术的发展实现了高密度, 单位体积设备的功率密度越来越大;二是因为现代数据中心的造价越来越高, 为了降低运营成本, 平摊单位造价, 用户希望在单位面积上放置更多的设备, 所以现在数据中心的密度越来越大。
(5) 模块化、机柜化
模块化便于管理和扩展, 在数据中心的建设和运行中得到广泛的运用。因为消防的规定, 一般数据中心的模块不能大于800m2, 通常在300m2~500m2/模块。模块化的最小单元可以是一组或一个机柜, 关注机柜微环境的质量也是目前数据中心建设的一个趋势。从原理上说, 如果能控制好机柜的微环境, 便可以完全不考虑机房的环境。控制机柜微环境的效果比控制机房环境的效果要好很多, 但是控制的复杂性也增加许多, 导致建设成本增加, 限制了微模块的应用。当然它对于解决机房局部热点问题是非常有效的。
(6) 智能化
现代数据中心是一个复杂的应用环境, 单靠人力管理并不够, 只有利用智能化、自动化的手段, 才能提高机房的管理水平。所以智能化是实现数据中心安全可靠运行的基本保障。
3 模块化在数据中心建设中的应用
现在数据中心建设的规模越来越大, 为了便于管理、扩展和维护, 模块化设计是数据中心的基本选择。数据中心的模块化建设包括两方面:一是数据中心在规划设计上按照标准模块进行建设;另一个是在数据中心内使用模块化的设备。
(1) 模块化数据中心建设
数据中心按照模块化的方式建设, 使大型数据中心的建设变成了多个标准模块机房 (300m2~500m2) 的生产过程, 使建设过程可以实现标准化, 无论是设计还是施工都可保证质量, 还能降低建设成本。把大型数据中心变成模块机房, 对于管理、扩展和维护来说也是十分便利的。此外, 模块化数据中心可提高机房的使用效率, 达到节能降耗、节约成本的目的。因此, 模块化应用于数据中心建设将是未来的一个趋势。
(2) 模块化UPS
为保障机房内电子信息设备的不间断供电, 通常采用UPS供电方案, 这样UPS设备和方案的安全性、可靠性便成为保障机房电子信息设备供电安全的重中之重。
为提高UPS方案的安全性、可靠性, 设计人员和运维人员在实际工作中总结出了单机系统、串联冗余系统、并联冗余系统、分布式冗余系统、容错系统等多种配置方案, 这些方案在一定程度上提高了系统和供电的可靠性, 但也带来诸多问题, 如设备投资大、占地面积大、运营成本高、维护和扩容困难、风险大等。
为解决这些问题, 模块化UPS电源系统应运而生, 它将UPS各部分功能完全以模块化的形式来实现不间断供电, 具有在线热插拔、在线扩容和在线维护的功能。任意组件拔出或发生故障均不影响系统供电, 提高了UPS系统的可靠性和可维护性。在线扩容避免了传统UPS在高可靠机房中常处于低负载运行的状况, 提高了UPS设备的使用效率, 减少了设备的一次性投资, 增加了设备运行的可靠性, 还起到了节能作用。
4 集装箱式数据中心和微模块
集装箱式数据中心曾经在机房领域引起很大的争议。当时有人认为集装箱式数据中心可以完全替代传统数据中心, 但到目前为止还没有出现这种势头, 集装箱式数据中心的发展远低于人们的预期。
集装箱式数据中心优点:
集装箱式数据中心由于是工厂化生产的产品, 所以很容易实现产品的标准化, 也容易保证产品质量, 使整体最佳效率达到很高水平。
快速部署是集装箱式数据中心的另一大优点。由于其内部已具有传统数据中心的所有内容, 且是一个相对独立的系统, 可以不受周围环境的限制, 在任意地点都能快速部署。当然集装箱式数据中心还需要周边资源的支持, 比如水、电、网络等, 否则也不能担当数据中心的角色。
可以实现真正的高密度部署, 集装箱数据中心是一个完全封闭的环境, 平时工作人员不会在里面工作, 里面环境可以只考虑电子信息设备的需要, 如有更高的风速、更适合的温度和湿度, 也无需引入新风。所以有些集装箱式数据中心厂商宣称其本身的PUE值能达到1.12。
但集装箱式数据中心存在造价高、标准缺乏等问题, 严重制约其发展。单个集装箱式数据中心的箱体PUE值也能达到1.12, 但集装箱式数据中心需要更多配套设施的支撑, 如果加上配套设施的能耗, 整体PUE值可能达到1.4左右。
集装箱式数据中心的造价比一般数据中心的建设造价加上大楼基建的造价相比是较为经济的, 这是它的优势。可是我们往往都是在建设好的建筑中安置集装箱式数据中心, 所以集装箱式数据中心的价格就显得更高。
微模块是在集装箱式数据中心的基础上发展起来的, 它克服了集装箱式数据中心的缺点, 把模块变得更小, 成本更低。目前, 模块化数据中心大规模使用还有待时日, 但对于解决局部问题还是有效的。
5 结束语
模块化数据中心的应用前景十分广阔, 相信会有更多的模块化产品相继制造并生产, 使数据中心的建设真正实现部署更快、密度更高、整体更绿、管理更便捷、运营更安全的目标。
摘要:此文阐述了数据中心的发展趋势及模块化技术在数据中心领域中的使用前景。
浅谈微模块数据中心的建设与发展 篇4
微模块数据中心系统是集成化、产品化、模块化、标准化的机柜系统, 它是将传统机房的机架、空调、消防、布线、配电、监控、照明等系统集成为一体化的综合产品方案, 具有快速、灵活、简便、可预测等明显优点。它是以若干机架为基本单位, 包含制冷模块、供配电模块、后备电源以及网络、布线、监控、消防等系统在内的独立的运行单元。该模块全部组件可在工厂预制, 并可方便拆卸, 快速组装, 以实现系统的快速、灵活部署, 这不仅可以大幅降低建设成本, 而且能够大幅缩短数据中心的建设周期。如图1 所示。
1.1 传统机房存在的问题
传统机房建设由于技术的限制, 以及以前对于机房管理需求的不同, 存在以下诸多问题。
1) 投入大, 见效慢, 可扩展性差
传统数据中心基础设施设计容量一步到位而IT负荷逐年增加, 一次性投入巨大, 大量投入多年不能产生效益;更为重要的是可扩展性差。
2) 建设与业务脱节
数据中心建设周期长, 跟不上业务发展速度, 机房建设时间少则半年, 多则2 年。
3) 能耗高
机房能耗大, 能源利用效率低;房间级制冷, 大量无效空间浪费了冷量;冷流短路, 降低了制冷效率;国内大部分数据中心的PUE值在2.6 以上。
4) 机房利用率低
单位建筑面积承载的计算能力有限, 基础建设投入利用率不高;机柜功率容量低, 无法放置高密度服务器;传统数据中心单机柜功率不到2k W。
5) 资产管理难
数以万计的IT资产盘点困难, 更不清楚什么设备在什么位置;资产人工盘点, 开销大、效率低、易出错。
6) IT设备空转
经过一段时间运行的传统数据中心存在大量幽灵 (空转) 服务器, 数量可达15% 以上。浪费能源, 浪费机房容量。
7) 设备部署或变更的烦恼、设计容量浪费
一次规模部署或变更, 事前花大量人力确定方案;什么设备放在什么位置, 空间、电源、冷量、网口够吗?如果不小心错误部署或变更, 则会引发事故;非智能设备部署导致设计容量浪费。
1.2 微模块机房与传统机房对比的优势
1) 快速
模块化结构可以大大减少与设计、安装、调试有关的时间, 进而更快地部署数据中心, 总体来说可以缩短整体部署时间的50% (见表1) 。
2) 灵活
模块化结构使得客户可以在很短的时间内选择不同的基础设施组合, 把它们放置在普通房间内, 就构建成了数据中心。另外, 我们还可以利用模块化方式对现有数据中心非常容易地进行改造、扩容, 且可以节省大量的初期投资成本 (分期部署时) 。部署的灵活性对比如表2 所示。
3) 简单
模块化结构在工厂经过预设计和调试, 在现场可以简单地部署, 所需要的建设规模和复杂程度是最小的, 设计时预留了供配电接口、制冷接口、网络接口等, 因此可以做到即插即用。这种预生产、标准化、外观的统一性便于客户非常简便地采购、部署和调试 (见表3) 。
4) 可预测
模块化结构可以强化数据中心建设的可预测性, 大大降低了数据中心建设中的风险。由于模块化结构是预设计、预测试、预安装的系统, 预先要经过工厂验证, 预先调试到其最佳性能, 因此具有很好的质量保障, 而且交付期也非常短, 一般为7 ~ 8 周 (见表4) 。
5) 节能
两种部署方式的节能效果如表5 所示。
微模块机房相对于传统的机房具有的优势和特点如表6所示。
2 微模块中心机房的建设
2.1 微模块整体组成
该微模块由底座、服务器机柜、电源柜、电池柜、列间空调、天窗、顶部线槽和端门等部件组成。从系统来看, 可划分为结构系统、供配电系统、制冷系统、消防系统、监控系统、综合布线系统等子系统。结构系统采用双排机柜冷通道密封形式, 提供1.2m宽的冷通道空间;采用若干定制机柜, 单机柜提供42U安装空间, 可分别提供3k W功率支持。供配电系统采用双路市电输入方案。对于服务器机柜内的IT负载, 提供双UPS电源供电。制冷系统采用列间精密空调, 靠近机柜设备进行制冷。消防系统主要由烟感、天窗磁力锁和消防门禁控制箱等组成, 需要依赖于数据中心机房内已有的消防系统完成消防灭火动作。综合布线系统采用机柜上走线, 实现强弱电分离;监控系统实现动环监控、动态能耗显示、资产自动检测、实时容量检测等多种功能, 并与上层云管理服务系统智能联动。同时提供门禁、红外入侵、视频监控、水浸、机柜门磁、声光报警、烟感等全面保护。
2.2 微模块电气系统
2.2.1 配电系统
为了保证微模块的高可用性, 配电系统采用双路市电输入方案, 经ATS自动切换后到UPS, 再经过UPS后到IT机柜;另外引一路市电直接到IT机柜。
所有服务器机柜内的IT负载, 提供1 路UPS电源供电, 1路市电保证其供电需求。
为了保证微模块的高可用性和高节能性, 不间断电源采用模块化UPS配置。
为了保证监控及安防、消防系统各种传感器不间断工作, 可单独配备一台小型UPS为其供电。
精密配电柜系统配备智能电量仪, 将采集的运行数据 (包括但不限于总电压、总电流、总功率、用电量、功率因数、谐波、各支路电压、各支路电流、告警信息等) 纳入到监控系统中。
精密配电柜系统对所有空开、电池维护开关的开关状态进行监测, 配置防雷模块与维修开关。防雷模块为C级防雷以上。市电直供交流配电的交流输入配置防电压浪涌器。
2.2.2 PDU
PDU安装在服务器机柜内, 为IT负载进行供电。一般配置3k W功率段的PDU, 每个服务器配机柜交流PDU 2 个。
交流PDU外观如图2 所示。
2.2.3 接地
微模块接地系统满足人身安全及运营设备正常运行的要求。
微模块内电源、列间空调等设备的金属导体、底座、柜体、天窗等金属结构部件均做等电位联结。
微模块对外接地时, 其底座接地点与机房接地分汇集排之间, 用16mm2黄绿相间色单芯绝缘阻燃软电缆可靠连接。
机柜内所有电缆均符合YD/T 1173 的要求。电缆和母线的绝缘层或外护套颜色符合GB 7947 的要求。
2.2.4 照明及维护插座
微模块内安装有平板LED照明灯具, 安装于冷通道内顶部。照明系统照度达到500lx以上, 并实现人员进出时的灯光自动控制。
2.3 微模块制冷系统
2.3.1 气流组织
微模块内, 空调同微模块结构系统、电源柜以及UPS柜, 共同组成密闭的冷通道, 实现冷热空气隔离, 微模块采用水平送风的列间空调进行制冷。列间空调采用前部双侧送风, 正面送风方向小于90°, 冷空气直接靠近热源, 送风距离大大缩短, 减少了气流沿程压力损失和冷空气的泄漏量, 冷空气利用率提高15% ~ 20%。
微模块的气流循环示意图如图3 所示, 空调将服务器排出的热风从空调后部吸入进行冷却, 然后从空调前部吹出, 冷空气在冷通道内扩散后, 再被服务器吸入、排出, 如此反复。
2.3.2 列间空调
列间空调满足如下特性:
1) 空调正面水平送风, 背面回风;正面送风方向小于90°, 双侧送风;
2) 背面安装便于更换的G4等级过滤器;
3) 可采用送风/回风温度控制方式;
4) 配置独立控制器, 支持多行中文显示, 可显示机组状态、进出风温度、风量、进出水温度等参数;
5) 具备掉电记忆功能, 异常掉电后, 来电可自启动, 可恢复掉电前运行状态;
6) 具有组网功能, 可实现微模块内多台空调群控运行, 实现休眠、轮巡等群组功能;每台机组配置相同控制器, 均可作为主机运行;标配RS-485 通讯接口;
7) 风冷型列间空调支持交流双电源供电;
8) 提供必要的告警信息, 包括但不限于回风高温、高湿、异常掉电、通信故障、气流丢失、风机过载、进水高温等;
9) 采用R410A环保制冷剂的直流变频EC压缩机, 动态制冷, 适应快速变化的机房负荷;可大大降低压缩机启停次数, 提高系统可靠性;
10) 采用EC技术的可调速风机, 风机在出风口均匀布放, 按制冷需求或风压自动调整风机转速;风机N+1冗余配置;任意风机故障, 仍可确保全风量运行;
11) 采用电子膨胀阀, 平滑调节节流开度, 与变容量压缩机配合实现节能;调节范围宽, 降低过热度, 提高能效比。
2.4 微模块消防系统
微模块消防系统主要实现火灾探测、天窗和设备联动、消防告警等功能。消防系统主要由烟感、天窗磁力锁和消防门禁控制箱等组成。密闭冷通道内顶部安装有烟感;在活动天窗上安装有天窗磁力锁;在微模块顶部安装一个消防门禁控制箱, 内置天窗电磁锁控制模块;外接消防24V控制电源及220V交流电源, 由数据中心机房总的消防控制器提供的干接点信号进行联动控制。
当某个微模块的烟感侦测到烟雾, 向数据中心机房消防控制器上报告警信号;消防控制器控制该微模块的消防门禁控制箱进行动作。消防门禁控制箱向该微模块的监控系统输出报警信号, 微模块产生声光报警;切断天窗磁力锁电源, 打开活动天窗;关闭列间空调。数据中心机房消防控制器, 控制消防喷头喷出消防气体进行灭火。
微模块消防系统和数据中心机房消防控制器联动原理如图4所示。
微模块对数据中心消防系统的要求如下:
1) 机房内的消防采用房间级的气体消防系统, 由业主完成;
2) 多个微模块集中部署时, 采用集中式灭火系统。并与数据中心消防系统配合;
3) 消防系统的选型首先必须符合数据中心所在地消防局的相关规定并得到其认可。
2.5 微模块系统综合布线
微模块采用上走线的布线系统, 在顶部安装线槽, 实现线缆的有序管理。
布线系统特性如下:
1) 微模块顶部实现强电线槽和弱电线槽分离, 分别用于电源线和信号线走线。红色标签线槽走强电, 蓝色标签线槽走弱电;
2) 微模块顶部提供横向线槽和纵向线槽。横向线槽位于微模块每列机柜顶部, 实现横向走线;纵向线槽连通微模块两列机柜;
3) 微模块顶部线槽内有清晰的强弱电标识;
4) 每个机柜内后部左侧安装弱电线槽, 右侧安装两条竖装的交流PDU和直流PDU ;
5) 两个微模块之间通过机房走线架进行连接, 走线架分为电源线走线架和信号线走线架。
2.6 微模块智能管理系统
微模块内设置24 小时不间断运行的智能管理系统。
系统对机房微模块内的动力设备、环境设备、安防设备统一监控, 并实现对微模块能耗、资产、容量等统一运维管理, 最终达到对微模块基础设施智能化监控管理的要求。
系统体现“高科技、智能化、绿色节能”的建设理念。
微模块监控系统作为云管理服务系统中的一个组成部分, 通过交换机, 将每个微模块的信息统一与上层的云管理服务系统进行互联互通。微模块监控系统架构如图5 所示。
各部分的主要作用如下。
现场设备:由各种智能设备、传感器、I/O采集模块, 通讯转换模块等组成;现场设备是监控数据的根源, 现场设备的数据通过通讯转换模块或者直接接入现场监控层。
处理层:由数据采集处理单元 (GU) 组成, 负责收集与处理由现场设备发送上来的数据。数据采集处理单元内置在微模块中, 其具有数据采集、数据处理、协议转换、联动控制、报警管理、视频集成等功能, 内嵌WEB服务, 支持远程IE访问。该数据采集处理单元, 可采集管理微模块内的各种动力设备、环境参数和安防系统以及IT设备参数。提供友好的人机界面, 满足用户个性化需求。内置WEB服务为系统管理人员提供远程设置、远程监控、远程维护及远程报警等专业管理功能。网络中断时仍可独立运行、存储数据及联动控制。
当机房仅有一个模块时, 微模块内置的监控系统可以独立完成该模块的基础设施监控能力, 通过显示层的各种展示终端和报警发送设备组成系统, 实现微模块监控与用户的人机交互。
在由多个微模块组成的数据中心中, 微模块内置的数据采集处理单元, 将采集的数据和处理后的结果、报警信息等上传至上级云管理服务系统。
3 微模块中心机房的发展趋势
在IT行业中, 举足轻重的政企市场正在快步进入云计算时代, 一方面, 越来越多的中小企业, 从自建小微数据中心转而向成熟的云计算服务提供商购买云服务;另一方面, 政府也开始尝试与专业IT厂商合作建立市级、省级的云计算数据中心, 为二级单位提供云服务, 云计算已经从前几年的概念炒作发展到今天在政企市场中的实用阶段。数据中心作为支撑云计算服务的基础单元, 随着云计算的快速发展, 势必会呈现集中化、大型化、专业化的趋势, 微模块数据中心正是在这种背景下出现的一种新型数据中心部署形式。
云计算的重要特征之一就是弹性扩容, 而实现数据中心的弹性化部署则是其中尤为关键的一环。IT界的新技术往往最早出自更具创新力的互联网企业, 在建设弹性数据中心的探索中, 由于对数据中心的需求量更大, 规模更集中, 又更加看重成本, 国内外的大型互联网企业又一次走在了行业前列。以Google的比利时数据中心为例, 配电和制冷分别位于机房两侧, 采用类似集装箱的模块化单元, 机房内部也采用了冷、热通道隔离的微模块单元, 成为真正的模块化数据中心。但国外的成功经验并不一定适用于国内, 在土地资源尤其紧张的中国, 容积率超低的单层厂房式数据中心无疑是奢侈的, 所以更加适合多层数据中心的室内微模块, 慢慢成为国内弹性数据中心探索的主要方向。
参考文献
[1]郭亮.浅析微模块数据中心的关键技术[J].信息通信技术, 2013 (01) .
模块化:数据中心新方向 篇5
传统数据中心弊端凸显
面对今后愈加激烈的市场竞争, 传统数据中心显然难以满足业务快速上线和高效运转的技术需求。
社会进入信息化高速运转阶段, 各行各业的信息资源整合不断加速, 数据集中成为国内电子政务、企业信息化建设的主流趋势, 由此引发数据中心需求的不断增长。自从2008年金融、电信、政府、企业等行业带头进行数据集中化管理以来, 中国数据中心建设加快进程, 很快进入快速发展阶段。
据ICT research咨询公司最新的一份关于2014年中国模块化数据中心市场的调查报告显示, 金融、电信、政府、制造等四大行业市场份额共计67.4%, 其中电信和金融这两大行业的数据中心建设投入就占据了50%以上的份额。从中国数据中心行业结构上看, 电信、金融行业的数据中心建设早、投入大, 应用也相对成熟。
然而, 投入越早意味着设备更老旧, 隐患更大, 特别是金融行业。当前, 国内金融行业的传统数据中心在建设部署和运行维护上普遍存在危机四伏的状况, 包括网点分布广泛导致设备间建设效率低, 空间受限导致设备间持续扩容困难, 设备间复杂难于运维, L1层不能按需输出造成巨大能源浪费等。面对今后愈加激烈的市场竞争, 传统数据中心显然难以满足业务快速上线和高效运转的技术需求。
电力能耗大
谈到传统数据中心的弊端, 首当其冲的是其巨大的电力损耗, 这也是数据中心建设以来一直无法突破的最大瓶颈。众所周知, 数据中心的运行需要庞大的电力做源源不断的输送, 但由于早期的数据中心建设在用电上考虑不周全, 电力能源损耗和IT负载使用的能源比都比较高。
据相关统计, 从2000年到2006年, 数据中心计算性能提高了25倍, 但能效却只提高了8倍。直到目前, 国内传统数据中心的电力能耗仍然高达数据中心成本的50%以上, 这意味着数据中心所使用的能源约有一半消耗在包括电源设备、冷却设备和照明设施在内的网络关键物理基础设施上, 一半消耗在IT负载上。
以一个200千瓦的数据中心为例:每年的电力成本消耗约300万元, 而真正花费在IT负载上的只有150万元, 另外150万元全部浪费在核心负载之外;再以数据中心10年的生命周期来算, 花费在IT负载之外的电力能耗高达1 500万元。这对于任何机构或企业而言, 不仅是一笔巨大的开支, 更是一笔利用率只有一半的开支。
腾讯数据中心首席架构师王海峰同样指出, 中国数据中心消耗的电量占全社会总电力消耗的2%, 或全国建筑总能耗的10%, 相当于三峡大坝全年的产能。在中国, 一个典型的托管性数据中心平均4年的电费将超过数据中心基础设施的全部投资。
灵活扩展难
数据中心由IT和机房设施两个层面组成, 机房设施的扩展性需求, 是IT层面的扩展性对运行环境的灵活性诉求。机房设施的可扩展性与IT层面的扩展性之间就好比房间和家具的关系, 家具越多, 所占用的空间越大, 因此机房设施的可扩展性实现起来更困难一些。
早期传统数据中心在部署上基本上采用“一项目一部署”和“一机一应用”方式, 不仅部署速度慢, 而且服务器与供电、制冷等辅助模块严格绑定, 牵一发而动全身, 扩展难度大。
这种“一步到位”的扩展方式明显不适用于业务发展迅速的企业, 因为随着业务的发展和应用的增加, 业务对数据中心的服务需求也越来越高。加入更多管理软件的数据中心系统将渐渐变得不堪重负, 这时不得不对整体系统重新进行设计, 增加机房设施的扩展性, 以具备较高的灵活性充分满足业务需求变化。
建设周期长
建设一个大型数据中心通常需要很长时间, 以IT功率135 k W的机房为例, 从前期的规划设计到验收, 再到交付运营, 总耗时短则半年, 长则一两年。而两年时间太长, 当下的市场竞争分秒必争, 业务在快速地增长, IT设备也在不断更新换代, 时间的流失意味着业务量的流失, 甚至可能出现这种情况:等到数据中心建设完毕, 原先的设计已经完全不能承载现有的业务需求。人们对传统数据中心建设周期的容忍度已到达临界点。
正如我们所看到的, 随着信息化社会的发展, 数据中心已经成为机构信息系统的物理载体和核心资源。云计算、虚拟化的不断发展, 使数据中心的建设呈现出大型化、集约化的趋势, 在这种趋势下所形成的模块化数据中心被赋予了更多可能性, 包括高程度的智能化与自动化, 同时兼具绿色节能等优点, 并且在建设周期、电力能耗上均有明显收益。
模块化将成新一轮增长点
模块化已成为数据中心行业公认的主流趋势。
模块化的概念包括两个核心——拆解和组合 (也称为解耦与融合) , 指的是将复杂的软硬件系统功能解耦, 让独立的功能单元简单化, 再通过标准的架构设计, 实现独立单元的简易组合, 从而降低系统的复杂度。
早在几年前, 业界便已对模块化数据中心展开探讨, 并开始在金融、互联网等领域进行应用实践。最先开始的是美国各大银行以及华尔街的公司, 而真正对模块化起到推动作用的是谷歌和微软基于云计算的模块化数据中心设计, 随后HP, DELL, Blade Room, Nx Gen等公司才相继提出模块化数据中心的概念。与此同时, 国内对模块化设计也展开了积极探讨, 并逐渐应用于实践当中。
模块化设计遵循“按需供应、灵活扩展”的需求, 实现制冷、供电及管理系统的区域化、模块化, 在目前移动性需求和临时性容量需求逐渐增加的情形下, 模块化作为新一代数据中心的基石, 具备了一系列传统数据中心所没有的优势。
模块化改造数据中心
无论是在部署方式上, 还是在能耗上, 模块化数据中心较传统数据中心均有大幅提升。
在部署方式上, 模块化数据中心以“快速部署”为准则, 在数据中心建设过程中, 一方面将主机房区域设备的部分安装工作剥离出来, 由工厂预制完成;另一方面, 在工厂预制期间同步其他基础设施建设, 一旦设备进场, 只需简单组装便能完成部署, 从前期的规划设计到建设、交付所需时间大概为1~3个月。而按照传统数据中心“一步到位”的部署方式, 数据中心平均建设周期需长达600天, 比模块化数据中心耗时6倍以上。部署方式上, 模块化数据中心完胜传统数据中心。
在能耗上, 模块化数据中心采用行级空调和密闭冷/热通道技术。其行级制冷的高效模式则通过点对点精确制冷, 一方面有效解决机房局部热点问题, 并有效确保了对高密数据中心制冷能力的支持, 减少能耗;另一方面有效隔离冷热空气, 避免无效热交换, 从而将PUE降到国家最新规定的PUE 1.5以下, 降低运营成本。与传统数据中心由于无效热所造成的巨大电力能耗相比, 模块化数据中心的能效利用率平均提高40%以上。
除此之外, 模块化的概念也意味着模块化数据中心的架构具备弹性扩容。以微模块为单位, 每个模块都是一个独立的小型数据中心, 不同模块间的功率设计可以不同, 以精细匹配不同的IT业务需求, 减少资源浪费和能源消耗。这种弹性扩容是对传统数据中心系统逐年冗余的终结, 只要IT设备需要更新换代了, 只需对模块内部进行扩容, 如简单调整相应的供配电及制冷模块数量, 便可满足IT业务新需求及新IT设备的运载。
市场快速增长
由于具备快速部署、绿色节能、柔性扩展、智能管理等特点, 模块化数据中心在应对云计算、虚拟化、集中化、高密化等服务器的变化时, 对提高数据中心的运营效率、降低能耗、有效控制成本、实现快速扩容等起到了出色的解决作用, 由此迎来了其市场利好时期。
根据ICT research调查研究显示, 2014年中国模块化数据中心市场规模达到33.31亿元, 同比增长8.2%, 高于数据中心市场的增长率。模块化已成为数据中心行业公认的主流趋势。
这种趋势的形成, 背后起码有3种力量在推动。
一是政策支持。2013年, 工信部联合国家发改委、国土资源部、电监会、能源局等国家五部委联合发布《关于数据中心建设布局的指导意见》。该意见从数据中心选址、规模规划、能效指标、新技术应用等方面对数据中心的建设提出了指导性意见。随后, 工信部发布《关于进一步加强通信业节能减排工作的指导意见》, 同时《国务院关于加快发展节能环保产业的意见》中重点提出对数据中心建设中能效指标、新技术应用方面的重视。
可以说, 模块化数据中心在节能减排、占地面积小、新技术支撑新业务上的显著优势, 无一不是顺应了政府的政策导向。反观传统数据中心, 由于其高能耗、高运营成本、建设周期长、能耗大等弊端, 现已有多省市开始禁止或限制传统数据中心的建设。
二是行业倡导。受国内数据中心建设的政策环境导向影响, 数据中心基础设施厂商和UPS厂商纷纷投入到模块化数据中心市场竞争中, 几乎全行业都在倡导模块化数据中心的理念, 并陆续发布相关产品, 如华为、浪潮等。
三是用户选择。一边是要保证数据中心的使用率维持稳定, 一边是要严格控制成本, 因此在能源成本不断增加的情况下, 模块化数据中心以其高效节能、灵活扩容、快速部署等优势吸引了众多用户。
可见, 随着国家对数据中心节能减排的政策驱动, 以及对云计算、物联网、大数据产业的扶持, 模块化数据中心市场也将随着这些新兴产业的发展而得到快速增长。
模块化数据中心还将不断探索
统一的安全标准才是数据中心发展方向的唯一指引, 而后才是在这一标准范围内安全实施的各项技术创新。
追随云计算、虚拟化、大数据等技术不断发展的步伐, 国内外通信行业协会组织对数据中心的发展方向也在不断探讨中, 焦点均指向统一建设标准和提升整体建设效率。
美国通信工业协会 (T I A) 发布的《Te l e c o m m u n i c a t i o n s Infrastructure Standard for Data Centers》, 国内《银行集中式数据中心规范》《中国人民银行计算机机房规范化工作指引》等标准规范, 都有类似的指向性信息;在中国建设部发布的GB 50174-2008《电子信息系统机房设计规范》中, 也增加智能建筑引入条款, 并提出高密度机柜的概念, 明确冷热通道的设计理念。与此同时, 国内各大银行也陆续发布自己的标准, 要求总行统一规划分行设备间基础设施。
不难看出, 模块化数据中心的快速部署、灵活扩容、绿色节能、智能运维等特点非常符合以上所述标准, 在金融行业的应用趋势更加明了, 其中以2014年华为携手中国建设银行梅州分行打造新型模块化设备间为最佳典范之一。
然而, 这还远远不够。模块化数据中心探索到现阶段, 技术上能实现的标准大多以条文形式确定下来, 而关于数据中心安全建设更为具体的标准仍未见任何正式的条文发布。据了解, 最新的工程建设国家标准《数据中心设计规范》已经成文, 目前正处于报批稿阶段, 暂无这一文件的具体内容披露, 希望数据中心安全建设的具体标准能在其中有所体现。
模块化数据中心与节能供电系统 篇6
模块化实际上已有近三十年的发展历史。在早期工厂的生产中分为零件、部件和整件, 最后才是整机, 即零件构成部件, 部件构成整件, 而后再由整件构成整机。20世纪80年代在UPS中就有了模块的概念, 为了方便更换功能电路, 设计师将具有整体电路功能的部件或整件做成一个容易拆装的整体, 比如整流器和逆变器就是这样的结构, 这的确为机器的维修带来了方便。技术发展迅速, 近年UPS供电系统和精密空调就推出了模块化结构, 紧接着模块化结构的概念开始变得广义化, 如数据中心建设也引用这个概念, 这为数据中心建设敞开了方便之门, 确实带来了不少好处, 比如加快施工进度、节约资金、提高效率、节约能量等。
2 模块化UPS供电类型
信息中心模块化的分类主要是供电系统的分类。因为IT设备结构是固定的放在标准机柜内或单独机柜内, 这个系统的模块化类型不外乎是机柜数量的多少, 由此确定供电电源的容量, 再由容量选择模块的类型和数量。
(1) 统一供电方式
统一供电方式也是一种最原始的供电方式, 这种供电方式的优点是电源统一管理, 而且电源可以一次到位, 以后再增加“模块”无需考虑供电部分。缺点是一旦电源系统发生故障就会导致整个系统崩溃。
(2) N+X冗余并联功率模块化结构UPS供电系统
图1所示的就是一台单机UPS, 除控制电路外其功率部分被分成数个模块, 呈N+X冗余并联方式。这种模式的优点是各并联模块间的电流均匀分配。其缺点是除电池外任何一个模块都无单独供电功能。
(3) N+X冗余并联UPS模块化结构供电系统
图2所示的是任何一个模块都有单独供电功能。其不足是当并联模块数超过8台时, 模块间的电流均分可能受到限制, 所以在大容量IT设备时应选择大容量模块冗余并联, 原因是目前UPS单机的并联技术一般不超过8台。尤其是在N+1的情况下, N的数量越少越好 (以N=1最好) 。目前单个模块功率已有275k V·A的产品, 一般中大容量机房的模块结构均可满足。
(4) N+X冗余并联综合模块化结构
图3所示就是N+X冗余并联综合模块化结构, 其结构和图2相似, 就是多了一个“主控制器”, 它的作用就是在做单机模式运行时所有UPS模块都受其控制, 当“主控制器”不起作用时, 又回到了图2的模式, 这种结构的灵活性很大, 适用于任何场合的数据中心。
3 数据中心几种供电方案的比较
目前, 数据中心供电方式基本分三大类:塔式机UPS、直流电源和模块化UPS。究竟哪一种更好?通过一个IDC机房的实际应用案例来比较三种供电方案, 假定负载为240个IT机柜, 该IDC中心的每个机柜功率容量为4k V·A, 机房整体供电总量就是960k V·A, 为便于管理, 设80个IT机柜为一个模块, 共分为三个模块进行供电, 每个模块分为4列, 每列放置20个机柜, 如图4所示。供电标准按GB 50174-2008标准的A级设计。
(1) 工频塔式机UPS供电方案
如上所述, 960k V·A为IT实用功率, 如果采用400k V·A单机UPS就需要4台来组成3+1冗余并机模式, 这4台400k V·A传统式UPS整体组成2N供电, 总容量可达到1200k V·A。
(2) 直流高压供电方案
因为高压的直流系统容量较小, 同时输出为悬浮供电, 所以采用模块化分散式双母线供电模式, 并作如下考虑。
(1) 每个区域使用6台240V/600A (144k W) 的HVDC系统, 分两组3台并联, 组成2N供电模式, 每个区域的供电容量为432k W, 总共需三组18台HVDC系统, 总输出容量为1296k W。
(2) 每3台600A HVDC系统并机输出后需接入到直流输出分配柜, 每个直流输出分配柜再分为4路输出, 分别供给直流列头柜。
(3) N+X冗余并联模块化UPS供电系统
因为模块化UPS系统已具备N+X冗余特性, 无需再并联, 直接采用分区 (模块) 、分散式双母线供电模式就可以。
(1) 每个区域使用2台400k V·A模块化UPS组成2N供电方案, 总共需要三组6台模块化UPS, 总输出容量为1200k V·A。
(2) 模块化UPS输出直接连接交流输出分配柜, 交流输出分配柜为4路交流列头柜分别供给电源。
在目前双电源用电设备众多的情况下, 仅采用双路是不够的, 为了提高系统运行的可靠性和可用性, 还必须将双路电源交叉配置, 同时配置最好是来自不同的两路电网, 如图5所示。每个列头柜电源来自已规定好的双路电源, 但每一个IT机柜内的PDU不能只来自一个规定电源, 而是要来自不同的供电电源。这样才能保证市电的电源故障时不至于无电可用。
4 模块化数据中心建设的节能效果
(1) 模块化建设缓解了初期投资和运行费用的压力, 模块化数据中心节能的意义是深远的, 大型数据中心基本不会把所有设备一步到位, 但供电设备一次到位较多。如某单位原设想数据中心用电容量是800k V·A, 首先安装了3台800k V·A塔式工频机UPS做2+1冗余配置, 结果运行三年后总容量还不足300k V·A, 这样不但积压了电源资金, 而且也浪费了电源的运行费用。如果把300k V·A作为一个数据中心模块, 这就减少了电源的初期投资和后期的运行费用。
(2) 减小了重量、体积和占地面积的压力。如某300k V·A工频机UPS在输入功率因数在0.95以上时的重量为2.2t, 而同容量高频机UPS重量才800kg, 且输入功率因数远高于0.95。因此原材料的节约也是节能表现。
(3) IT设备的运行效率一般是不变的, 因为模块化的UPS都是高频机, 而高频机UPS的系统效率至少比工频机UPS高5%, 可使系统效率提高到98%。另外IT设备的运行情况随时休眠多余的模块, 始终使其高效率运行。
(4) 边建设边投资。对于不能一次到位的大型数据中心可采用模块化设计, 开始可以几十或上百个IT机柜设为一个模块, 这个模块由N+X冗余并联方式的UPS供电, 待该模块完成达到预期要求后, 可建设第二个、第三个模块等, 这样可使资金得到有效地利用。
(5) 不停电换机。数据中心机房建好后要使用几十年, 而供电系统的寿命受内部设备寿命最短环节制约, 比如大量的电解电容器, 一般寿命不会超过10年。因此UPS的更换周期6~10年不等。如果采用塔式机电源, 更新换代时就必须要求机房停电。然而一般具备规模的数据中心一旦运行后就不允许停机, 否则将造成不同规模的损失。而挽回损失的最佳方案就是模块化供电, 因为模块化供电可在不停电的情况下利用热插拔功能将电源更新, 避免了停电换机的损失。
5 当今数据中心建设的误区
当前数据中心建设的一个误区就是认为一般电源变压器可以抗干扰, 因此有些新建的数据中心在列头柜中加装了庞大的隔离变压器, 其理由是抗干扰。更令人不解的是在同样IT设备的情况下有的机房列头柜就没有变压器, 如图6 (a) 所示;有的就全部配置, 如图6 (b) 所示。
模块化数据中心发展 篇7
模块化数据中心是全球数据中心建设的新趋势, 以模块化的设计将机柜、供配电、制冷、综合布线、智能管理等子系统集为一体, 按需部署、灵活扩容、绿色节能、低能耗、低成本、高效率是它的显著特点。然而, 在新旧数据中心的改造过程当中, 往往存在新旧系统之间如何实现平稳对接, “利旧”资源能否与新系统兼容, 新一代的模块化数据中心建设能否有效实现运维标准化等问题。带着这些疑问, 本刊记者采访了中国建设银行广东省分行信息技术管理部总经理李晓峰, 深入阐述中国建设银行梅州分行 (以下简称“梅州建行”) 设备间模块化改造项目, 与读者分享中国建设银行二级分行模块化设备间改造的实践经验, 以期为广东乃至全国银行二级分行的设备间改造提供参考。
链接:
华为IDS2000模块化数据中心解决方案是新一代数据中心基础设施解决方案, 包含IDS2000-L系列 (大型) 、IDS2000-M系列 (中型) 、IDS2000-S系列 (小型) 三大解决方案, 覆盖数据中心室内全场景, 可满足最大化利用空间、快速部署、灵活扩展、智能管理的需求, 实现最优TCO。
IDS2000采用All-in-room设计, 集成了机柜、供配电、制冷、布线和管理等所有子系统, 现场快速组装, 部署周期减少到8-12周, 实现快速部署;采用密闭冷/热通道技术, 避免冷/热气流混合降低能耗, 实现绿色节能;采用模块化的部件和统一的接口标准, 可实现以机架为单位或以模块为单位按需扩容, 柔性扩展;采用华为Net Eco管理系统, 实现对数据中心基础设施动力、环境、视频、门禁的全领域统一监控。
IDS2000的应用场景分为单模块和多模块两种。单模块可应用于总功耗小于200 k W, 面积在100 m2以下的中小型数据中心, 可满足中小型企业和大型企业分支机构的数据中心需求。多模块一般适用于构建大型数据中心, 可满足政府、教育、医疗、金融、电信等行业大型数据中心的部署需求。
改造背景:设备间问题错综复杂
自2000年以来, 中国建设银行经历了数据集中、物理上收、新一代核心业务系统建设三次大规模的技术架构调整, 各二级分行设备间在全行网络架构中发生了变化, 即处于网络汇聚层和网络接入层的边缘, 仍承担着网点上连一级行的中间桥梁关键作用, 具有规模中小、地点分散、业务种类相近等特点。
目前, 中国建设银行广东省分行共有19个二级分行设备间, 均由二级分行自行设计建设, 未形成统一建设标准, 存在建设时间长、环境设备老化、设备不规范、管理分散、空间使用存在浪费等不足。
梅州建行设备间自投建以来已有十几年, 经过中国建设银行广东省分行实地调研分析, 该设备间气流组织通道未密封, PUE值达2.2以上, 造成能源消耗高;仅能支持不超过4 k W/r的低功率密度;设备布局混乱, 空间未能得到有效利用;设备不标准且老化严重, 存在运营风险。以如今对数据中心建设的规范部署、运维管理和监管要求的标准来看, 梅州建行设备间不仅无法满足未来业务发展的需要, 其潜藏的安全风险更亟需尽快解决。
因此, 在综合评估了设备间改造的可行性、必要性和紧迫性三大要素后, 梅州建行成为中国建设银行在广东省内的第一个改造试点分行, 也是全国的第一个改造试点。
改造探索:模块化优于扁平化
紧迫性的评估因素决定了梅州建行设备间的改造刻不容缓, 具体该如何改造?据李晓峰介绍, 二级分行设备间的改造一般有两种模式, 一种是传统的扁平化模式, 另一种是采用一体化集成理念的模块化模式, 二者各有利弊。
扁平化
采用扁平化模式改造设备间, 首先需要撤销二级分行设备间, 由网点直连省分行, 实现网络结构扁平化。然而不足的是, 由于需要将本地专线线路改造为直连省一级行专线线路, 租用成本主要依赖于营运商对专线线路的定价, 造成专线租用资费大幅上涨。以广东行为例, 若将二级行本地2 M专线改为直连广州, 费用约增加5倍。为此, 建总行对采用扁平化模式改造设备间的标准是改造后费用增长控制在30%以内。
模块化
模块化模式采用一体化集成理念, 即将机柜系统、供配电系统、制冷系统、综合布线系统、消防系统、防雷系统、监控系统等子系统集为一体, 通过简单的接口将相关模块进行组合, 从而形成一个完整的数据中心。
采用模块化模式改造设备间, 可以实现快速建设、按需部署、灵活扩容、节能环保, 并支持高密度运行, 配置完善的监控系统, 可随时了解机柜内的情况, 提升安全等级。不足之处在于, 采用此种模式需要对原设备间进行整体改造, 建设初期投入成本稍高, 对资金较为短缺的二级分行而言有一定困难。
通过对比, 模块化设备间在集中化、智能化、标准化建设等方面更优于传统机房——智能化和工具化可使分行设备间实现无人值守;运维管理高效, 可提升效率50%;适应性广, 一般普通的办公环境均可部署模块化设备间;建设快, 部署时间为2周, 满足业务快速上线、敏捷反应的要求;占地小, 网络设备、供电、制冷一体化解决, 节省占地面积25%;模块化设备间能够快速应对业务需求的灵活扩展, 实现快速部署。
此外, 模块化设备间采用的是2N模式UPS供电系统、N+1制冷系统的设计模式, 有效提高设备间的安全可靠性。
方案选择
在梅州建行设备间的模块化改造项目中, 梅州建行最终选用了华为IDS2000模块化数据中心解决方案。
在模块化解决方案的选择上, 李晓峰表示首要考虑因素是企业的模块化数据中心解决方案与梅州建行改造需求的一致性有多高。他指出梅州建行设备间的改造, 更注重的是通过标准化建设实现运维的标准化管理, 使全行的运维更加集中, 而标准一旦制定, 则将在全省内统一实施, 各地设备间也将互为备份。李晓峰特别强调, 这里所提到的“统一”包括统一建设标准、统一硬件标准、统一监控标准、统一运维流程、统一集中管控“五个统一”, 这是二级分行设备间改造的建设思路。
李晓峰表示, 选择方案的第二个因素是企业的模块化数据中心解决方案能否在满足梅州建行的“利旧” (充分利用旧有资源) 要求上, 实现新系统与旧设备之间的平稳对接。此外, 企业数据中心的各项性能指标也是梅州建行选择方案的考虑因素。而华为的IDS2000模块化数据中心解决方案最终能成功中标, 除了与梅州建行的改造需求相契合外, 与其雄厚的技术实力和高质的服务水平同样密不可分。
整改成功:华为IDS2000功不可没
据李晓峰介绍, 梅州建行模块化设备间的成功改造共经历了10个阶段。
2011年4月, 省分行提出模块化改造设想。
2012年10月, 对二级分行进行深度调研, 与业界专家进行技术探讨和经验交流。
2013年5月, 对二级分行设备间进行现状分析, 并完成《关于在二级分行建模块化设备间的论证》。
2013年6月, 制定《中国建设银行广东省分行二级行设备间模块化改造建设标准》。
2013年7月, 进行模块化设备间标准方案设计, 完成《建设银行二级分行模块化设备间设计方案》。
2013年8月, 确定梅州作为试点分行, 并制定《梅州建行模块化设备间改造方案》。
2013年11月, 完成招标工作, 选用华为IDS2000模块化数据中心解决方案。
2014年3月, 进行工程安装、测试和验收。
2014年5月, 搭建梅州模块化设备间外场模拟实验室, 进行功能测试和压力测试。
2014年6月, 制定《中国建设银行广东分行二级分行模块化设备间运营管理规范》。
整改后的梅州建行设备间, 以60m2一体化设备间实现原来200m2机房的功能, 节约面积高达70%;设备安装时间为2周, 相对传统改造要节约50%以上的时间;采用冷密闭通道遏制气流, 能源得到有效利用, 节约能源30%以上;模块化UPS产品高可靠性以及2N设计满足了金融领域的要求, 保障业务安全稳定运行;开放的接口接入集中监控系统, 实现对动力、环境、安防系统的集中监控管理;模块化一体化交付, 消除了传统建设模式的工程差异性, 保障机房质量。
对此, 李晓峰充分肯定了华为IDS2000模块化数据中心解决方案为梅州建行设备间提供了稳定可靠的运行环境、完善的改造建设标准, 催生了设备间运营管理规范。依李晓峰所言, 华为IDS2000模块化数据中心解决方案整体上满足了梅州建行设备间的改造需求, 新系统与旧设备之间的切换快速平稳, 并且新系统上线以来, 在提高运行速度和实现绿色节能上成效明显。
改造心得:扎实推进稳中求优
李晓峰表示, 梅州建行模块化设备间的成功改造, 为后续其他二级分行设备间模块化改造建设提供了宝贵经验, 并为此总结有三。
一是统一模块化设备间建设标准、运维标准。制定模块化设备间改造建设标准, 为后续二级行模块化设备间改造奠定基础;制定标准运维管理规范, 提高运维标准化、提升运维水平;设备统一, 使维护简单化;规范设备间标签标识, 便于管理。
二是实现集分管理, 提升设备间基础设施运行水平。采用集成监控, 能够实时掌握整个设备间运行状态;省分行集中监测各分行运行状态, 统一调度;非工作时间内协助二级行托管监视设备间运行情况;各分行科技人员实时监测所辖范围设备间的整体运行。
三是实现灵活扩展, 快速响应业务发展需求。根据业务需求, 能快速实现UPS容量、机柜空间容量、空调制冷量等资源的扩容。
在后续其他二级分行设备间模块化改造的推进计划中, 还将严格遵循2条原则。
原则一是因新建大楼需改造设备间的, 优先按照模块化设备间改造标准进行建设;原则二是旧设备间存在严重安全隐患急需进行设备间改造的, 或者环境设备老旧急需替换的, 优先按模块化设备间改造标准进行改造。此2条原则所传达的意思, 是设备间改造需按照实际情况, 尽可能按照最先进的建设标准进行改造, 同时必须坚持“利旧”, 不对改造后的运行造成影响的好的设备应该保留下来。
李晓峰指出, 后续其他二级分行设备间的模块化改造需要汲取已成功改造的其他设备间的经验, 在考虑成本的同时保障运维的扎实平稳, 对方案不断进行优化, 以此循序渐进地推进其他二级分行的试点工作。
模块化数据中心发展 篇8
同时, 作为惠普云战略Iaa S部分的集中体现, 惠普还在此次大会上重点推出了全球最高效的模块化数据中心HP Eco POD, 空间节省达90%, PUE低至1.05, 此外该数据中心在部署速度以及成本节省等方面也实现了突破性提升。“惠普实验室开发的惠普独创自适应冷却技术使得HP Eco POD设备能耗降低了95%, 进一步加强了惠普在模块化数据中心领域的领先优势。”惠普亚太及日本地区企业业务集团工业标准服务器产品部产品经理沈仲杰表示。
据悉, HP Eco POD目前仅向部分既有客户限量提供, 计划2011年末在北美全面提供, 随后展开在其它区域的市场推广。
推出HP Cloud Agile综合计划
一直以来, 惠普在制定云计算等领域的战略时, 首先考虑到了广泛的客户需求。惠普最新客户调研显示, 虽然看到了云计算高效、节能等的前景, 但仍有70%的CIO认为安全是需要首先保证的问题;75%的客户更看重云设施的性能和可用性;79%的客户担忧厂商锁定问题, 希望云平台可以支持异构操作;而63%的客户则要求云平台可以集成内部和外部服务。
面对上述客户需求, 惠普在此次云世界大会上明确提出了覆盖客户评估、部署、整合以及组织等全生命周期的云计算战略及相关解决方案。
“整体看来, 惠普云计算战略为优化传统技术环境, 创建和管理基于云的技术平台, 实现向混合交付云的管理转型以及定义和实现从消费者到企业的互联世界。”中国惠普有限公司副总裁萧建生表示, “而惠普在云部署方面的目标是:打造开放的云平台, 提供云服务、云开发平台服务、混合交付云基础设施、云安全保障以及云转型服务。”
中国惠普有限公司副总裁、企业业务集团技术服务事业部中国区总经理叶健认为:“无论企业处于怎样的发展阶段, 都可以通过云来实现向更‘瞬捷’的企业的过渡。惠普拥有丰富的经验、方法和专家来帮助他们找到最适合的云模式。”
中国惠普有限公司软件事业部大中华区总经理于志伟也表示:“在云计算方面, 惠普一直致力于打造开放云平台。在软件方面, 我们也愿意与各个操作系统厂商进行合作。”
除战略规划外, 惠普还适时推出了混合交付解决方案, 将传统IT基础设施与私有云和公有云相结合, 通过使用灵活的交付模式, 帮助企业提高敏捷性并快速响应不断变化的用户需求。
同时, 为了使服务供应商充分利用快速成长的云市场, 惠普还宣布推出HP Cloud Agile——一项涵盖全线惠普企业级产品系列 (包括Cloud System) 的综合计划, 该计划使参与者可以直接联系惠普全球销售人员, 进入渠道合作伙伴全球网络, 并有机会提供新的云服务。
独创自适应冷却技术
作为惠普云战略底层Iaa S部分的集中体现, 惠普在本届云世界大会上着重推出了其全球最高效的模块化数据中心, 其部署速度仅需12周, 并且成本只有传统数据中心的四分之一。
据悉, 惠普此次推出的全球最高效模块化数据中心为HP POD 240a, 也被称为HP Eco POD, 其设备能耗降低了95%, 是惠普性能优化数据中心 (POD) 的全新产品。
“HP Eco POD是惠普数十年实践经验与业界最先进工程设计的核心体现。这套基于惠普融合基础设施的交钥匙解决方案和服务, 为正经受架构老化、空间不足和预算紧缩等问题困扰的客户提供了快速扩展的灵活性, 以满足日益增长的容量需求。”惠普亚太及日本地区企业业务集团工业标准服务器产品部产品经理沈仲杰表示。同时, 惠普中国企业业务集团工业标准服务器部门产品经理汪平也表示:
惠普亚太及日本地区企业业务集团工业标准服务器产品部产品经理沈仲杰
“HP Eco POD适用于数据中心扩展、增容和灾难恢复, 还可在数据中心改造期间充当临时容量, 在提供最大密度的同时不降低可用性。”
目前, 能耗与空间节省是数据中心客户面临的最大挑战。而惠普此次推出的HP Eco POD不仅有效降低了能耗, 还将本需占地10000平方英尺的数据中心精简到仅占原面积十分之一的模块中。
据悉, HP Eco POD提供传统数据中心的服务模式, 并可容纳多达44个工业标准的IT设备和超过4400台服务器, 通过两个冷通道或一个共享热通道实现, 降低了维护难度。
此外, 由惠普中央研究机构惠普实验室开发的惠普独创自适应冷却技术使客户能够根据IT负载、气候以及政策自动调整冷却方法 (包括使用外部空气) 对节能方案进行智能优化。与传统设施相比, 客户可降低95%的能耗。
PUE低至1.05
同时, HP Eco POD环境控制系统提供了全面的管理、自动化和集成功能, 该系统拥有远程访问能力, 简单易用、可编程, 还可扩展至现有的楼宇控制系统。
“另一个值得注意的是, HP Eco POD减少多达75%的投资成本。HP Eco POD模块化设计和交钥匙解决方案, 与构建传统的1.2兆瓦数据中心相比, 能够为客户节省多达2470万美元, ”沈仲杰表示, “并且电源使用效率 (PUE) 低至1.05, 而传统数据中心的PUE为2.0或更高。”
目前, HP Eco POD已在北美部分企业及机构中得以应用。密歇根大学首席信息官Laura Patterson表示:“这一革命性的低成本模块化数据中心将极大地增强我们的计算能力, 而其所需空间仅为传统数据中心的十分之一。显著的能耗节约证明, 降低运营成本也可以具有可持续性, 而这正是我校的首要任务。”