数据处理中心

2024-10-12

数据处理中心(共12篇)

数据处理中心 篇1

摘要:本文主要针对我院原有信息系统数据存储存在的问题,提出了“双活”数据存储方案。通过对存储系统拓扑结构的改造,成功实现了传统数据中心向“双活”云数据中心的转型,保证了医院信息系统工作的稳定性和可扩展性。

关键词:医院信息系统,“双活”数据中心,存储器,网络安全

0 前言

随着医学的不断发展,医院规模不断扩大,药品种类也不断增加,就医的人数也逐年增长,传统的医疗体系已经很难满足这些需求。医院信息化作为医院现代化的重要特征之一,是现代医院建设的基础环节,也是医院医疗、卫生教育等顺利进行的保证[1]。为此,我院对医院原网络拓扑结构进行了改造,报告如下。

1 西京医院原有信息化应用系统的不足

我院原有的网络系统的存储设备分散使用,直接导致存储空间不能共享,无法实现均衡分配,造成了管理和维护的复杂性。医院信息系统(HIS)对于核心业务配置为2台DS4700 存储器,该存储最多仅有4 G缓存,采用4Gb FC的连接带宽,属于相对较低性能的存储设备。随着业务高峰的出现,以及就医人数的不断增加,该存储器会因为本身处理能力的限制出现响应延迟,从而降低业务系统的效率。核心HIS数据利用Oracle数据库的远程复制功能实现数据的冗灾,它是通过数据库同步日志的方式来保证2台存储器数据的一致性。虽然实现起来比较简单,但是在使用过程中会因为主机日志逻辑错误或者传递不畅导致备份存储器的数据不可用,而且数据不能实现实时备份,也不能在发生灾难时实现业务功能的无缝连接。西京医院网络系统原状态的拓扑图,见图1。

为了解决上述的问题,医院数据中心向“双活”云数据中心转型成为网络改造的重点,并且需要在转型工程中对应用数据进行虚拟化管理从而实现数据实时备份,使得西京医院信息系统的处理能力进一步增强,效率进一步提高[2]。

2 “双活”云数据中心的概念

“双活”数据中心完全不同于1 个数据中心和1 个灾备中心的模式。“双活”数据中心是2 个数据中心都处于运行状态,互为备份,即一个数据中心投入运行,另一个数据中心也处于就位状态,当灾难或者突发事件等因素造成医院主数据中心瘫痪,另一个灾备中心就会启动。在转型传统的同城数据中心时,需要全盘考虑数据中心的应用层、数据库层、存储层,才能保证在满足保证系统性能的基础上,完成云数据中心的转型。在云计算的基础上,通过服务器虚拟化软件和存储系统虚拟化方案的结合,可以成功实现跨数据中心应用和数据自由流动的功能,从而增强应用系统的灵活性,更加充分的体现双活的理念[3,4]。

3 HIS数据中心向“双活”数据中心的转型

遵循国家大力发展医疗事业的趋势,“双活”数据中心有着高效、安全、低成本的突出优势,因此,果断地将传统主备型数据中心升级为“双活”数据中心是势在必行的选择,是医疗事业向前进步的标志[5]。

西京医院改造涉及的服务器共计13 台,其中桌面虚拟化服务器5 台,虚拟化服务器5 台,HIS服务器3 台;存储设备4 台;光纤交换机6 台;服务器虚拟化应用数量67 个。改造后的网络状态拓扑图,见图2。

4 转型方案实施过程

(1) 将HIS数据迁移到EMC的VMAX10K, 通过IBM小机完成。

(2)将原存储在IBM DS5100 上的大量应用数据迁移到EMC的VNX5600,通过VMware完成。

(3)将DS5100 纳入VPLEX为核心的“双活”体系,以达到利旧于新的低成本运行目的。

4.1 设备改造

新增设备:2 台EMC VNX 5600、1 台EMC VMAX 10K。 以VMAX 10K取代原DS4700 作为HIS的专用存储,在两个数据中心各配置1 个VPLEX存储虚拟化引擎,将VNX5600 存储设备实现虚拟化,实现跨距离双活。将主要应用数据迁移至EMC VNX 5600 存储设备中进行管理,确保业务系统7×24 h不间断运行,确保任何设备故障均不影响业务的正常运行。

4.2 “双活”数据中心的实验运转

经过充分的论证和准备工作,在实践过程中先将HIS数据由以前的DS4700 顺利迁移到VMAX10K上, 同时以VPLEX作为平台对新存储做双活之后,又将DS3524 和DS5100 上的大量VMware镜像文件和数据迁移到VNX5600上,实现了两个机房VNX5600 的数据同步。经过测试比对,改造后的网络存储系统的性能大大提高,见表1。

5 结语

现有的数据中心存储体系和改造前相比,具有以下优势[6,7]:

(1)充分利用资源,提高了系统运行效率。在“双活”数据中心下,对于前端用户来讲就是一个逻辑的大中心,能够充分利用数据资源,避免了1 个数据中心常年处于闲置的状态而造成数据浪费。

(2)增强了存储数据的安全性。使用最新技术做“双活”配置,实现了跨数据中心服务器自由流动,不仅增强了系统的灵活性,而且使得存储设备数据的安全性得到了大幅提高。改造前的系统随着业务高峰的出现,会发生存储响应延迟现象;改造后的系统,运用虚拟化技术,将生产资源和容灾资源放在同一的资源池里,在业务高峰时或者业务突发时,可以将容灾资源动态分配给生产资源。与此同时,由于虚拟机、存储实现虚拟化,可以最大程度地降低由于系统故障而产生的各种危险性。在发生灾难时,也能保证业务的连续性,实时的实现数据的迁移[8,9,10]。

由于使用了最新的同步技术做“双活”配置,使存储设备数据的安全性大幅提升,未来西京医院信息化系统升级改造的基础已初步构建成型。

参考文献

[1]张扬,郭森,季平.基于SAPERP信息系统的双活数据中心研究[J].电力信息化,2013,(1):87-91.

[2]邓维,刘方明,金海,等.云计算数据中心的新能源应用:研究现状与趋势[J].计算机学报,2013,(3):582-598.

[3]王智明.云数据中心资源调度机制研究[D].北京:北京邮电大学,2012.

[4]马飞.云数据中心中虚拟机放置和实时迁移研究[D].北京:北京交通大学,2013.

[5]李宏伟,肖伟.存储虚拟化技术在双活数据中心中的应用[J].邮电设计技术,2013,(9):9-13.

[6]叶燕.HIS系统与医保系统数据交换平台的设计与实现[D].兰州:兰州大学,2014.

[7]梁景雯.基于云计算技术的医院信息系统[D].济南:山东大学,2012.

[8]朱仁道.基于数据挖掘技术的HIS系统研究[D].安徽:安徽理工大学,2009.

[9]骆骁.HIS系统在医院财务管理中的作用——论HIS系统的财务数据管理[J].中国管理信息化,2010,17:14-16.

[10]赵浩宇.区域医疗信息化平台数据交换方案设计[J].中国医疗设备,2014,29(9):44-45.

数据处理中心 篇2

随着信息系统整合和数据集中的不断深化,当前国内数据中心建设已经进入了一个新的阶段。在数据量大幅增长、衍生应用种类不断增加的形势下,数据中心服务器、存储、网络规模不断扩大,计算量、存储量、吞吐能力、传输能力快速增长,对基础设施与整体运营也提出了更严格的挑战。

尤其在节能减排已成为举国上下一致方针的大环境下,作为企业IT构件中对资金、人力、运行投入最高的领域以及主要的能耗和成本消耗部分,绿色已经成为新一代数据中心发展的必然趋势,以节能减排为核心理念的绿色数据中心建设也成为企业IT建设的主要关注内容。

那么,H3C是通过哪些创新手段,来帮助用户成功铺就一条数据中心绿色之路的呢?

创新架构实现虚拟化

在H3C的“绿色”思维中,要让数据中心更加“GREEN”,在思路上一定要放开。一方面可以采用更环保的材料、更严格的检测标准和设备、更精确和人性化的设计、更环保的制造工艺,以及更大力度的电子垃圾回收举措,通过节能、减排和回收再利用提升产品的绿色属性。另一方面,在绿色数据中心建设上,一定要超越产品层面,将绿色理念提升到更高层次,那就是以降低TCO作为衡量和指导自己的绿色实践。

在H3C看来,降低单一设备的能耗固然关键,但在IT系统越来越庞杂的趋势下,整个系统架构的优化更为重要。尽管一个绿色的IT架构所降低的能耗也许并不象单一的设备那样可以直观地去衡量,但架构的优化往往更能颠覆性地实现环保节能,这是更全面、更长远、更高角度的绿色理念,而且往往更加有效。而这实际上与H3C所倡导的IToIP理念也是不谋而合的。

因此在H3C新一代数据中心解决方案中所提出的统一交换架构,对于数据中心绿色之路就可谓是一次重要的创新。由于统一交换架构能将数据中心的网络、计算、存储三个要素实现标准化与统一,简化传统数据中心基础架构,初步实现网络资源的虚拟化,提高资源的利用率,从整体上降低TCO的同时,也让设备、能源等资源的消耗更少。

H3C网络产品线副总裁孙德和明确指出,关于虚拟化实现绿色环保已经是业内公认的观点。由于企业应用主要业务架构以C/S、B/S的分层架构为主,传统数据中心建设中出于扩展性、安全性考虑,不同应用系统分离建设,逐步形成数据中心密集的服务器、存储与网络环境,而总体系统的利用率并不高,而虚拟化则能很好地解决这些问题。关键在于如何从解决方案虚拟化的维度来落地,H3C 提出统一交换架构给出了一个很好的答案。

同时,针对绿色数据中心的持续建设,H3C提出了数据中心基础架构全IP化规划,以解决上层应用的虚拟化整合可能引起的潜在问题,如虚拟应用在物理环境的分布、后续扩展性,虚拟环境下的能耗与性能规划、预测,机房IT部件的部署,基础网络的虚拟化支撑以便于上层应用的迁移、计算资源和存储资源的动态调度,虚拟化存储的规划整合、数据连续性保护、数据在广域范围的迁移,容灾恢复演练规划等。

集成化――依托高端设备

在解决了绿色数据中心的整体架构问题的同时,H3C 创新的目标瞄向了数据中心绿色设计的另一大原则 ―― 集成化。作为整个节能减排非常重要的指标之一,集成化设计能使得整个系统的设备数量尽量降低,通过减少设备总量、降低设备使用所需的空间、机架、线缆、人力等资源,来达到节能减排的目的,让数据中心更加绿色,

以数据中心网络来说,高密的应用集中、浪涌式的突发业务流量,让数据中心基础网络已经从千兆逐步过渡到万兆,并朝着100G时代迈进。出于数据中心对上层应用的高速转发、应用优化、高级功能卸载与加速、加密的需求,数据中心的基础网络常常会挂接大量的安全和应用优化设备,使得整体网络结构非常复杂、布局紊乱,同时对电源设计、系统布线、机柜空间、空调制冷也产生额外的要求,并且在设备插接和电源转换之间产生更多能耗。

在这一点上,H3C最亮的创新点莫过于新发布的数据中心级核心交换机S12500。作为国内首款基于100G平台的数据中心级核心交换机,S12500依托先进的多级交换架构,交换容量可达5.76T,最大提供512个万兆端口,充分满足了数据中心高密万兆需求。更为关键的是,还可以通过第二代智能弹性架构IRF2构建虚拟化的数据中心网络,为绿色数据中心搭建起一个高性能的数据中心交换平台。

由于S12500具备大容量、高密度的端口,方案设计的层次与所需设备数量能够大幅减少,而S12500的集成板卡设计,也能够减少独立的单功能设备的部署,减少外部线缆、电源的接入,降低对外部环境资源的占用;而不是采用独立的单功能设备串糖葫芦式的部署,需要通过复杂的建设、复杂的运维来维系系统的正常运行。并通过大量采用负载分担、防火墙、流量管理、应用优化集成方案,提高集成度的同时简化运维、提高可靠性、降低TCO,从而让数据中心绿色之路更为平坦。

在S12500的基础上,用户可将各种安全与应用优化业务处理模块设计成交换架构中的一个集成业务单元,直接面向交换背板提供相应功能,并实现与独立的防火墙、负载均衡、深度防御等完全一致的功能。由于集成式的数据中心基础网络大量减少了物理设备数量,提升了运行管理效率,同时,在交换平台不变的功耗要求下实现了更多的业务处理需求,降低总体能耗。而且业务连线全部迁移到交换接口上、供电由交换机背板提供,大量减少布线需求和电源插接与转换需求,进一步降低能源损耗。

实现全方位绿色

虚拟化与集成化上的创新并不是H3C在数据中心绿色之路上仅有的引擎,要想绿色理念深入到数据中心建设的各个角落,没有全面的创新意识与创新手段,是无法真正实现既定目标的。

实际上,针对数据中心节能环保的各方面,H3C在产品设计与解决方案上都下了一番“大功夫”,不仅掌握了产品绿色环保设计方法,并在系统、班级、电源、散热、可靠性、认证等领域,为打造绿色数据中心提供了有力支撑。

例如在高端以太网交换机的研制开发过程中,H3C就始终贯彻绿色节能的设计思想,除了采用新一代低功耗器件和智能电源管理技术以降低设备功耗外,还针对数据中心机房冷热通道标准,采用竖插框结构和独特的风道设计,使交换机单板系统风道和电源散热风道相互分开,互不干扰,进一步提高了散热效率。同时,在设备层面的绿色监控与管理设计方面,H3C还赋予了数据中心设备的完备灵活的电源管理和智能监控,让数据中心整体绿色规划和管理更加如虎添翼。

此外,H3C还结合TIA942机构化布线标准,推出了适应于数据中心冷热通道设计的网络拓扑方案,在符合数据中心结构化布线要求的同时,体现了绿色节能思想在网络设计中的应用。

H3C网络产品线副总裁孙德和强调,H3C数据中心绿色实践不仅仅停留在设备级。H3C 推出的 IP 存储虚拟化与共享容灾解决方案,以及其他高安全、高可靠性的方案,都是从整体角度提升数据中心绿色特性的创新手段。虽然这些从流程、方案级的效率优化不如从设备级降低能耗对减少能源消耗体现那么直观,但深入分析,这些效率优化对绿色环保的作用往往更大。从更本质的因素出发有助于我们拓展绿色环保的思路,取得更好效果。

建立大数据中心 实现数据共享 篇3

刘捷认为,建立大数据中心可以帮助政府部门快速建设社会信用体系。目前,整个社会信用体系的缺失,某种程度上阻碍了社会经济发展。尤其是对于滴滴出行、Airbnb等分享经济,信用体系的缺失增加了人们参与这些分享经济模式的风险。

2015年9月5日,国务院印发了《促进大数据发展行动纲要》,最核心的内容,就是要推动各个部门跨地区、跨行业地进行数据资源共享和开放。随后,“互联网+政务服务”出现在2016年政府工作报告中,更进一步地推动了各地政府数据开放共享的需求。

神州信息助理总裁刘捷在会上指出,数据开放共享对政府部门来说,是能为市民提供均等化服务的手段,是通过事项的推动能更好服务于企业的方式,是能为领导者提供各种可视化综合统计信息的途径,是辅助城市经济发展转型、消除信息孤岛的根本途径。他提倡通过建立大数据中心,来实现数据共享。

刘捷称,目前数据的来源,包括了基础库、专题库,以及互联网数据、物联网数据等在内的社会数据。他将整个大数据中心的数据分成四个层次:一是原始数据,即没有经过加工的,存在错误的、不一致信息的数据;二是信息,即原始数据经过清晰、加工比对后,形成的有价值的数据;三是知识,是对信息的重构,面向市民、企业、城市管理者分别提供有主题的数据服务;四是决策,即通过大数据平台,接受不同渠道的请求,调动平台内的信息与知识进行分析、判断,从而做出决策。

建设大数据中心可以分为四个阶段。第一,是数据生产、加工处理阶段;第二,是资产管理阶段,信息资产的管理是要建设城市数据的总框架;第三,是政务协同阶段,能促进政府各个部门更好地使用和管理这些数据;第四,是公共共享阶段,包括政府各个部门之间的共享,以及面向公众、面向企业的共享。

对于大数据中心建成之后,该如何去运用和使用,很多地方政府都有着疑问和困惑,对此刘捷谈了自己的想法。

首先,大数据中心可以帮助政府部门快速建设社会信用体系。目前,整个社会信用体系的缺失,某种程度上阻碍了社会经济发展。尤其是对于滴滴出行、Airbnb等分享经济,信用体系的缺失增加了人们参与这些分享经济模式的风险。通过大数据中心,搜集资质类、许可类等各方面的信息,就能够建立起面向个人、企业以及政府部门的信用查询、管理体系,从而推动社会经济发展。

其次,大数据平台能够更好地提供均等化公共服务。比如,过去办理老年卡需要老人到处跑部门办理,而通过大数据平台,可以把办理老年证所需的信息推送给民政局及相关部门,待办理完结后再把相应的证件邮寄给老人,使之更加便利。

数据处理中心 篇4

传统数据中心主要存在以下问题:

传统结构下,由于多种技术之间的孤立性(LAN与SAN),使得数据中心服务器总是提供多个对外10接口:用于数据计算与交互的LAN接口以及数据访问的存储接口,某些特殊环境如特定HPC (高性能计算)环境下的超低时延接口。服务器的多个10接口导致了数据中心环境下多个独立运行的网络同时存在,不仅使得数据中心布线复杂,不同的网络、接口形体造成的异构还直接增加了额外人员的运行维护、培训管理等高昂成本投入,特别是存储网络的低兼容性特点,使得数据中心的业务扩展往往存在约束。

由于传统应用对IT资源的独占性(如单个应用独占服务器),使得数据中心的业务密度低,造成有限的物理空间难以满足业务快速发展要求,而已有的系统则资源利用效率低下。而且,传统业务模式下,由于规模小,业务遵循按需规划,企业应用部署过程复杂、周期漫长,难以满足IT灵活的运行要求。

不仅如此,当传统数据中心中有成千上万台服务器的时候,数据中心的复杂度和管理成本急剧上升。

传统数据中心面临的另外一个问题就是可靠性。当一台服务器的可靠性达到99.99%时,这意味着一年的故障时间约为53分钟。但是,假设数据中心中有一万台这样的服务器,那么要维护高可靠性就会变成一种挑战。虽然我们可以通过硬件的冗余设计来提高单台服务器的可靠性,但是这种方式的成本比较高,而且随着服务器数量的增加,这种方式的有效性将会随之降低。

云计算数据中心与传统数据中心相比,呈现出以下四点不同:

1 组网模型不同

网络成为数据中心资源的交换枢纽。传统数据中心分为IP数据网络、存储网络、服务器集群网络。但随着数据中心规模的逐步增大,带来了一些问题:

(1)每个服务器需要多个专用适配器(网卡),同时也需要不同的布线系统。

(2)机房需要支持更多设备:空间、耗电、制冷。

(3)多套网络无法统一管理,需要不同的维护人员。

(4)部署/配置/管理/运维更加困难。

如图1所示,在云计算数据中心网络中,存储FC/网络IP等业务最终都将承载在以太网上,采用国际标准FCoE (FC over Ethernet,以太网数据包内部FC帧与IP数据分离设计)的设计方式。FCoE磁盘阵列可直接连接到数据中心交换机上。同时,由于以太网数据包内部FC帧与IP数据分离设计,可有效保证存储网络的安全。

通过FCoE,每台服务器不再需要多张网卡,只需要一个FCoE网卡就可以与前端的客户进行IP通信、后端的存储通过光纤进行通讯,有效解决了管理人员分工不同、空间/能耗、不同的布线系统等问题。

2 流量模型不同

云计算数据中心在流量模型上与传统数据中心有非常大的区别,以往通过B/S或者C/S提供服务的模式将大量的数据集中在网络的出口上,进而使出口成为整体网络的瓶颈。而在基于云计算的下一代数据中心中,由于资源的虚拟化,以及各类设备之间实现数据交互,使设备之间的横向数据流量将占到总流量的70%以上,如图2所示。

为了满足这种突增的数据量,用于数据中心的网络设备必须具备较高的端口容量和接口密度。伴随云计算的产生,IEEE802.3ba 40G/100G标准也于2010年正式获批通过,成为云计算数据中心网络部署的新标准。

3 虚拟化,让云成为一个统一管理的“大池塘”

虚拟化技术最早来自IBM大型机的分区技术,这种操作系统虚拟机技术使得用户可在一台主机上运行多个操作系统,同时运行多个独立的商业应用。随着X86架构服务器的使用越来越广泛,基于X86架构服务器的虚拟化技术一经问世,便开始引导了通用服务器的虚拟化变革历程。VMWare、XEN、微软等厂家在软件体系层面开始引领服务器虚拟化潮流。

服务器虚拟化的直接效果是导致数据中心具有更高的应用密度,在相同物理空间内逻辑服务器(虚拟机)的数量比物理服务器大大增加。由此,服务器的总体业务处理量上升,使得服务器对外吞吐流量增大。

虚拟化计算技术已经逐步成为云计算服务的主要支撑技术,特别是在计算能力租赁、调度的云计算服务领域起着非常关键的作用。在大规模计算资源集中的云计算数据中心内,以X86架构为基准的不同服务器资源,通过虚拟化技术将整个数据中心的计算资源统一抽象出来,形成可以按一定粒度分配的计算资源池,如图3所示。虚拟化后的资源池屏蔽了各种物理服务器的差异,形成了统一的、云内部标准化的逻辑CPU、逻辑内存、逻辑存储空间、逻辑网络接口,任何用户使用的虚拟化资源在调度、供应、度量上都具有一致性。

虚拟化技术不仅能够消除大规模异构服务器的差异化,而且其形成的计算池可以具有超级的计算能力(如图4所示),一个云计算中心物理服务器达到数万台是一个很正常的规模。一台物理服务器上运行的虚拟机数量是动态变化的,当前一般是4~20,某些高密度的虚拟机可以达到100:1的虚拟比(即一台物理服务器上运行1 00个虚拟机)。在CPU性能不断增强(主频提升、多核多路)、当前各种硬件虚拟化(CPU指令级虚拟化、内存虚拟化、桥片虚拟化、网卡虚拟化)的辅助下,物理服务器上运行的虚拟机数量会迅猛增加。一个大型的云计算数据中心运行数十万个虚拟机是可预见的,当前的云计算IDC在业务规划时已经在考虑这些因素。

虚拟化以后,不再是一个个独立的服务器,数据中心将成为一个大的“池塘”,里面有着各种应用。但在这种环境下,网络需要与服务器资源充分联动,为云计算网络提供按需、可分配的资源。

4 节能减排,绿色成为重要关注点

对于数据中心管理者本身而言,能耗问题已成为其最为关心的问题。持续增长的电能费用是整个数据中心生命周期内最主要的支出成本之一。

云计算数据中心主要从网络架构和网络设备本身两个层面来实现节能减排:

(1)网络架构层面

1)通过FCOE建立数据中心融合网络,实现IP/存储数据统一交换,大幅减少服务器网卡和布线数量,消除光交换机的使用,从而大幅减少设备及散热系统的电能消耗。

2)通过40G/100G以太网接口组建两层扁平化网络,进一步减少网络端口数量,降低单位数据流传输能耗。

(2)网络设备层面

1)智能电源管理:采用高效的电源系统架构设计(DC-DC电源转换模块),实现高达95%的电源转换效率,有效节能。独有的电源监控功能,保证用户可根据实际使用状况按需安装电源。支持线卡顺序上电(降低线卡同时上电带来的电源冲击,提高设备寿命,降低电磁辐射),可切断指定线卡电源,隔离故障/空闲线卡,降低系统功耗。

2)智能风扇设计:采用高效的温控调速风扇,支持无级调速。系统可自动收集线卡温度,根据设备实际情况计算风扇调速曲线,并将调速命令下发到风扇框。系统支持风扇状态监控(转速监控、故障告警等),可以根据环境温度、线卡配置自动分区调速,降低设备功耗和运行噪声,有效降低环境噪音并延长风扇寿命。

3)端口自动检测:当某槽位未配置线卡或端口未连接线缆时,系统可以自动关闭相应的内部端口,节省整机功耗。

数据中心建设申请 篇5

经过电话咨询国家安全科技检测中心,按照要求,公司在申请《国家秘密载体印制资质》认证中,要求公司按照《电子信息系统机房设计规范》GB 50174-2008为准则,提交涉密计算机系统数据中心(电子信息系统机房)安全等级报告,即公司的数据中心需要达到《电子信息系统机房设计规范》要求中的C级。

其中数据中心建设涉及以下系统设计建设: 1.2.3.4.5.6.7.8.9.机房装修系统

机房布线系统(网络布线、电话布线、DDN、卫星线路等布线)机房屏蔽、防静电系统(屏蔽网、防静电地板等)机房防雷接地系统

机房保安系统(防盗报警、监控、门禁)机房环境监控系统 机房专业空调通风系统

机房网络设备放置色设备(机柜、机架等)机房照明及应急照明系统

10.机房UPS配电系统

在今天数据大集中的背景下,公司建立自己的数据中心,用于存放公司关键数据,运行公司核心业务。数据中心既是公司的业务处理中心、信息资源中心,同时也成为了公司完整基础网络架构的中心。公司的其他部分网络,这包括总部中心网络、第三方单位外联网络、Internet/VPN网络等,都存在接入到数据中心网络的需求,获取数据中心提供的相关服务。

公司数据中心网络

数据中心网络通常根据模块化或者区域化设计原则,按照每个业务功能划分不同的区域,比如可以划分为:生产区域、外联区域、骨干网接入区域、Internet接入区域等。这需要根据公司的实际业务流程和模式进行划分。而每个区域内部,则根据层次化设计原则,划分为核心层、汇聚层、接入层。各功能区域之间通过核心交换区域进行互通。

公司备份中心网络

公司根据需要建立备份中心,这包括同城灾备中心和异地灾备中心,确保在灾难发生的情况下,公司业务能连续运作,不间断的为提供服务。

数据中心的备份包括备用应用系统、备用数据处理系统、数据备份系统、备用网络系统等方面,而这些都建设在相应的备份中心。备份中心的网络结构和数据中心网络结构高度一致。高度一致并不是完全的复制和雷同,而是在满足灾备要求的前提下,根据公司具体情况,组建和数据中心相近的网络和通信设置。比如备份中心可能只在主要节点采用冗余的网络结构。

数据中心和备份中心之间通常采用DWDM、SONET/SDH、光纤以太网技术互连,以支持高速低延迟应用,比如同步数据复制。

总部中心网络

公司总部往往是公司管理层所在地,他们需要及时获得公司重要的业务分析数据,进行相关决策和执行相关流程。总部中心网络和数据中心网络在不在同一个地方,总部中心网络有可能需要通过DWDM、SONET/SDH、光纤以太网技术和数据中心、备份中心互连。

总部中心网络通常也采用模块化和层次化设计原则进行规划设计。

公司骨干网络

公司通过广域网实现分支机构和公司数据中心网络之间的连接。通常称这样的广域网为公司骨干网。线路类型主要有点对点DDN专线、SDH 2M线路、ATM线路、帧中继线路等。分支机构到数据中心网络一般采用两条广域网线路,这两条线路通常采用不同运营商,在这两条线路上实现数据分流和线路互备策略。另外会部署QoS策略,保证业务数据优先。

公司外联网络

公司需要通过广域网和第三方单位比如合作伙伴通信。通常称这样的广域网为公司外联网。第三方单位通过数据中心外联区域访问公司数据中心网络,外联区域安全级别较低,通常采用防火墙、NAT等安全手段,保证数据中心的安全。

Internet/VPN网络

目前公司网上应用的使用为提供了极大的便利,比如银行网银系统。通过Internet访问公司数据中心WEB服务器,获取相关服务。另一方面,当公司员工需要通过Internet访问公司资源时,可以采用VPN(虚拟专用网)技术,建立一条端到端的安全通道,类似于专用网络,保证员工安全访问公司资源。VPN提供了与传统的专用网络相同级别的信息安全。

Internet接入区域的安全级别较低,通常采用异构的二层防火墙,保证数据中心安全。

以上是对公司完整的基础网络架构的各个部分网络进行描述,当然,根据具体公司的业务模式和网络需求,每个公司可能会有所不同。

给数据中心降温 篇6

网络、服务器、存储等基础设备进一步集中,这就对数据中心的基础环境提出了新的要求。对于现有的数据中心而言,电力不足、制冷达不到要求,由此而引发的散热问题一直困扰着刀片服务器的推广和应用。在威图看来,小机柜就能带来大改善。

小机柜,大改善

长久以来,数据中心散热问题一直困扰着企业,除了高成本的空调制冷,机柜散热却往往被忽略。威图工作人员告诉记者,威图在业内最早提出了以服务器机柜为核心的制冷方案,针对机柜散热的高效率制冷方案,可以为每个机柜内消化30KW的热量。这就是威图IT物理基础解决方案中关于制冷解决的产品LCP系统,LCP是专为高发热量IT设备进行制冷的新型解决方案,配套威图为LCP提供的HPC专业机柜,组成成套LCP制冷系统,即使30KW / 机柜的发热量,该制冷方案产品也能轻松解决。

在业内,威图是机柜产品标准的推动者之一,威图机柜产品被统称为“威图柜”。 威图展台工作人员告诉记者:“除了机柜产品,我们还提供机房设计和施工服务,还有更高端的一体化解决方案服务。对于金融行业用户来讲,它们需要最安全的机房,我们也可以帮助用户实现防火、制冷等更高端的服务。”威图的解决方案基于“模块化”的设计原则,这样做的好处就是帮助用户最大限度地减少一次性投入。

为数据中心节能

2011年时值威图成立50周年,今年上半年业绩相比2010年实现同比增长40%,这个数字让身为总裁的郑清好雀跃不已,而业绩的高速增长很大程度上则归因于威图在绿色节能方面的努力:“目前,威图主要的行业用户集中在新能源、金融等行业,云计算技术的发展也给威图更多的市场机会。最终,这些都归结于数据中心建设,而节能是未来数据中心发展的必然趋势。”

威图的绿色节能措施主要体现在产品设计上。威图在箱体系统领域首创、并一直秉承的标准化理念,实现大规模的工业生产,从根本上降低企业生产成本、减少能源和材料的消耗。

此外,从产品设计到最后交付的整个生产流程也都强调绿色节能的理念。一方面威图会考虑生产工艺是否绿色环保、是否节能低碳;另一方面,从产品功能而言,绿色节能也是威图从产品设计就开始思考的重要指标。

数据处理中心 篇7

随着网络应用的不断发展以及应用系统的升级和扩展,数据中心的应用服务器及其他网络设备也逐年增加,随之而来的资源利用率偏低、运维效率偏低、资源成本提高、备份与灾难性恢复等复杂问题,已成为制约数据中心发展的重大障碍,传统的“单一设备单一应用”数据中心IT架构已经不能满足业务发展的需求,进而需要一种新的数据中心架构来适应业务需求的发展。

虚拟化技术的出现,则在一定程度上解决了传统数据中心的部分问题,从而使传统的数据中心建设过度到了虚拟化数据中心阶段。虚拟化技术是将各种计算及存储资源充分整合和高效利用的关键技术。从应用领域来划分,虚拟化分服务器虚拟化、存储虚拟化、应用虚拟化、平台虚拟化、桌面虚拟化。服务器虚拟化技术是当前IT行业应用非常广泛且比较成熟的信息技术。通过虚拟化数据中心建设,提高了运维管理效率、降低运维成本,且通过建立智能化、自动化、资源整合配置体系架构满足了业务差异化和低成本的需求,实现资源的集约共享。

随着科学技术的发展,移动设备、社交网络、应用的多样性,以及云计算和大数据时代的演进,改变了IT服务的交付和消费方式,也改变了当今的IT格局。因此数据中心建设也从虚拟化时代演进到云计算时代。云计算是一种全新的计算理念,通过将大量计算机资源整合在一个个计算集群中,并使这些计算集群分布式地承担各种计算请求,使得用户能够按需获取集群中的各种计算资源、存储资源、网络资源以及便捷的信息资源服务。

随着云计算的发展,相继出现了软件定义计算技术、软件定义网络、软件定义存储等新技术,使数据中心中硬件基础设施利用服务器虚拟化、存储虚拟化及网络虚拟化技术将硬件基础设施抽象组合成虚拟的逻辑设施,采用云计算模型将计算能力和逻辑设施通过网络来提供服务,并从基础资源以及服务的精细化运营角度出发,实现Iaa S、Paas以及Saa S多种服务模式的灵活多变的业务交付方式,进而满足和适应新业务快速发展的需要,这也促成了一个新的技术方向——软件定义的数据中心,为此以软件定义理念为核心的软件定义数据中心走向前台,正在让我们以一种前所未有的方式连接、汇聚和配置计算资源。

2 什么是软件定义的数据中心

软件定义的数据中心,从最直观的定义来看,就是虚拟化、软件化数据中心的其一切资源。虚拟化是从服务器虚拟化开始的,服务器虚拟化技术目前已非常成熟。如果我们把服务器看作是一个微型的数据中心,那么我们可以通过服务器的虚拟化来理解软件定义的数据中心。服务器虚拟化是将服务器物理资源抽象成逻辑资源,让一台服务器变成几台甚至上百台相互隔离的虚拟服务器,不再受限于物理上的界限,而是让CPU、内存、磁盘、I/O等硬件变成可以动态管理的“资源池”,从而提高资源的利用率,简化系统管理,实现服务器整合,让IT对业务的变化更具适应力。软件定义的数据中心也采用了类似的理念,它将网络、存储、计算、安全等基础设施和可用服务进行池化、聚合,并可通过策略驱动的智能软件进行管理,从而使数据中心服务不再受到专用硬件的束缚,摆脱传统1T复杂而不灵活的困境。此方法可使计算、存储、网络连接、安全保护和可用性服务池化、聚合以及作为软件交付,并可通过策略驱动的智能软件进行管理。因此,客户可以获得针对云计算时代优化的数据中心,从而实现无可比拟的业务敏捷性并为所有应用提供最佳SLA,并可大幅简化操作以及降低成本。

软件定义的数据中心核心在于对CPU、内存、I/O等硬件资源进行解耦与重构,让数据中心计算、存储、网络、安全资源的全虚拟化、全自动化成为现实,并通过软件定义实现业务感知的按需资源组合与配置,实现系统的弹性伸缩和超大规模持续扩展,真正实现数据中心像计算机一样运行和管理,更好的支撑用户在云计算、大数据时代的业务运营和增长。

3 如何构建软件定义数据中心

构建一个软件定义的数据中心,主要包括两个核心要点:第一步虚拟化数据中心的一切资源;第二步,通过一个统一的管理平台对这些资源进行管理。软件定义的数据中心,首先要做的事情就是虚拟化数据中心的一切物理资源,通过虚拟化的技术,构建一个由虚拟资源组成的资源池,不仅仅是对服务器进行虚拟化,还包括存储虚拟化和网络虚拟化等。当前,许多用户的数据中心环境是异构的,既包括虚拟化的设备,也包括一些因某种原因不能被虚拟化的物理设备;既包括私有云,也包括公有云。因此,软件定义的数据中心一定要能够支持异构云环境。

软件定义网络(SDN)概念的提出早于软件定义的数据中心,其核心理念是将网络设备控制面与数据面分离开来,从而实现了网络流量的灵活控制,为核心网络及应用的创新提供了良好的平台。软件定义网络技术实现了从虚拟网卡、虚拟交换机、接人交换机到核心交换机的控制系统与传输机制的分离,使得满足计算需要的各种虚拟网络无处不在。透过这些虚拟的网络,将用户眼中传统的数据中心变成了软件定义的数据中心。要建设的软件定义数据中心网络系统需要立足于成熟的交换、路由模式之上,以网络虚拟化设备、软件为主,积极使用支持软件定义网络(SDN)功能的设备,构建满足多种不同类型用户服务需要的软件定义数据中心的网络系统。

软件定义存储(SDS)是软件定义的数据中心的基本组件,它从虚拟层、纯软件层介入,对物理存储的集成和控制。虚拟化环境中的计算机资源按需分配,因此这种环境需要动态进行存储分配。软件定义的存储通过对存储资源进行抽象化处理来支持池化、复制和按需分发,从而解决了这一难题。这使存储层具备了与虚拟化计算类似的敏捷性:聚合、灵活、高效并能够弹性横向扩展,全面降低了存储基础架构的成本和管理的复杂性。软件定义的存储有几个明显特征:以应用为中心的策略,可实现存储使用自动化——软件定义的存储支持对异构存储池中的所有资源实施一致的策略,使存储的使用像为每个应用或虚拟机指定容量、性能和可用性要求那样简单。这种基于策略的自动化最大限度地利用了底层存储资源,同时将管理开销降至最低;与硬件无关的虚拟化数据服务——数据服务作为虚拟数据服务在软件中交付,并按虚拟机进行调配和管理;通过硬盘和固态磁盘虚拟化确保数据持久性——随着服务器功能的增多,软件定义的存储解决方案可让企业利用廉价的行业标准计算硬件来扩大其存储资源,同利用固态磁盘和硬盘作为虚拟机的共享存储,可获得高性能、内置的恢复能力和动态可扩展性。

软件定义软件:传统的数据中心,应用服务器采用竖井的方式,每台服务器上运行一个应用程序,服务器硬件以及上面的操作系统和应用以紧耦合的方式捆绑在一起。这种模式导致服务器的CPU和内存等物理计算资源利用率低。在典型的x86服务器部署中,平均只有总容量的10%到15%得到利用,计算资源浪费严重。而另一方面,为支持不断增长的业务和应用需求,企业需要大量的服务器购置或者更新换代。软件定义的计算便是为了解决这一矛盾。但是,软件定义计算目前没有统一的概念定义,目前分布式计算以及云计算都属于软件定义计算的范畴。

当现有数据中心经过服务器虚拟化、存储虚拟化和网络虚拟化技术的应用,将数据中心提供的计算资源基础设施产品,变成了虚拟的、逻辑的、可通过网络直接获取的基础设施服务。数据中心的管理人员可以通过一个统一集中的管理系统实现对这种服务的定制、发布、度量、控制、运维等各种管理操作,进而完成了数据中心业务的云化。

4 结束语

数据处理中心 篇8

全媒体时代带来了三方面的改变。首先是由分散制作转变成融合生产, 在互联网时代, 媒体内容的多样性驱动素材采集方式的多样性。第二个方面的改变是数字标清全面提升到数字高清。2013年底, 全球HDTV服务用户将达到2.55亿户家庭。中国在2015年将具备100个高清频道的制播能力。第三个改变是从单一广播到多渠道互动。现在越来越多年轻人不再是坐在电视机前收看节目, 而是通过手机等移动终端跨屏接受服务。这些服务不仅仅是内容服务, 也包含了网络社交、在线教育、家庭医疗等多种业务。

移动宽带、SDN (Software Defined Network) 、云计算、大数据四大创新ICT技术正在重构传统的广电产业。华为的企业信息通信技术可以为广电媒体与新媒体的融合提供完美的解决方案。华为ICT在融合制作、高清生产和高清播出三方面做到全方位的技术支持。包含了下文所述四个方面的优势。

第一是提供高安全性。现在大多数中国的电视台为了节目制作的安全, 将办公网和生产网物理隔离, 编辑记者在办公区进行办公, 上网查找素材, 在制作岛进行编辑。这样做虽然保证了安全性, 但是编辑记者在办公区和制作岛来回跑, 不仅效率低而且编辑工作经常打断, 也会影响制作节目的灵感。华为ICT的解决方案可以实现生产区和办公区的安全互访, 生产区通过Internet进行素材采集和内容发布, 在办公区就可以处理低码流的生产业务。

第二是大带宽。现在国内收视率很高的综艺真人秀节目, 如《爸爸去哪儿》, 节目中除了设置固定的机位, 每个参与的嘉宾都会有自己的跟拍机位, 总共有30到40个机位进行同时拍摄, 会产生海量的视频素材数据。这些综艺节目经常需要去海外拍摄, 如果是用硬盘将素材运回来要耗费很多资源, 而且以后面临4K制作, 素材量将会几倍增加, 对于数据的传输是需要考虑的重要问题。华为ICT支持10PB海量高清视频的低成本、高性能的访问存储, 能够将电视台园区的网络带宽提升到100G, 用来支持高码流的使用要求, 高清码流服务器的IO性能提高4倍。

第三是低时延。这个指标对于节目播放和网络的传输等有至关重要的影响。华为ICT可以将高清制作时延控制在5毫秒以内, 高清播出时延小于40毫秒, 满足高清播出需要。

第四是灵活调度。所谓灵活调度就是确定一个节目到底用哪一个渠道发布可以获得成功, 某一个节目可能有迹可循, 有大数据支持, 可以去做一些分析和预测, 但是真地让你确定是通过电视传播、网络传播还是移动互联网传播, 还是其他一些渠道传播更有利, 相信没有一个人能给出确切的答案。在全媒体时代, 资讯通过多种手段不同渠道去发布, 在这个过程中, 当不知道哪一个渠道会成功的时候, 不知道哪一个渠道需要多少资源 (指IT设备的资源) 的时候, 就需要更加灵活的变化, 比如通过AB两个渠道发布, 如果B成功率高, 就把A渠道所需要的资源划一部分给B渠道, 让B能够快速发展起来, 这就是要灵活。华为ICT实现技术和架构向云演进, 便于资源整合、共享和运营。共享可运营的媒体资产、可运营的业务应用、可运营的IT基础平台。

可以看到新业务对广电媒体数据中心的技术要求包含对服务的要求, 对SLA的要求, 对于高效数据的要求, 对于弹性的要求以及对于软件定义的要求等等 (图2) 。

媒体行业的所有数据中心, 无论是台网还是新兴的云平台, 都在试图探索出以上问题的解决方案。在此方面, 华为与湖南卫视和敦煌广电等合作, 利用新兴的云平台进行广电系统网建设, 尝试利用这样的架构应对未来整个媒体的变化 (图3) 。

根据不同业务的等级不同, 构建出不同等级的资源池 (图4) 。传统电视媒体需要的系统和网络系统不同, 需要转码。现在做新媒体和传统媒体的融合, 一旦融合, 问题也就出现了, 一部电影有机顶盒、有互联网、有PC机, 也有手机客户端, 因为每个要求不同, 就要多次转码, 电视、PC、手机需要不同的速率和带宽。不同的使用方式和渠道对于整个云计算资源池的服务等级需求也不一样, 首当其冲的问题就是要建立一个云平台, 能够支撑不同业务、不同服务级别的资源池。

云计算能够帮助广电解决业务上线时间的问题, 去赢得市场。当不同的业务在一个云计算平台去共存, 应该有不同的区域应对不同的服务, 提供不同的服务等级。华为在全球所有的云计算平台里, 率先发布云服务新产品虚拟数据中心VDC (Virtual Data Center) 。通过VDC划分不同服务等级, 为不同业务提供应对的服务 (图5) 。通过这样一种管理方式, 使云平台更好地自适应。

因为拥有不同的信息安全等级, 现在很多电视台还是区分编辑和工作两个区域。为此华为与合作的传统广电媒体尝试在所有工作人员的PC机装一个软终端, 去连后台的云计算平台, 称为桌面云。当需要编辑节目的时候不用再专门去编辑区, 而是利用办公区域的同一部PC机, 连到桌面云即可。虽然后台桌面云信息安全参照非编区和精编区数据管控中心的要求, 所有数据不能拷贝到本地的PC机上, 但是这种方式却使工作人员可以在同一个位置享受不同业务的信息安全要求。

华为还开发了一种能够线性增加、分布式存储的系统来解决媒体采、编、制、播、管以及存储的问题 (图6) 。共享存储资源池, 按需部署, 动态调配, 数据分级存放, 内部智能迁移和生命周期管理。这个系统采用全分布式架构、全IP互联, 存储资源池可扩展至60PB的容量, 系统分成不同的资源池, 使得采编制播等同时完成, 不用考虑存储的IO问题。现在所说的云计算具有两个功能, 第一是飘然, 业务不会固定在某一台服务器上, 会在整个资源池里不停地变换物理位置, 需要用时就像云一样飘然而至。第二是弹性, 所谓弹性服务是指需要的资源是不固定的, 会根据业务的不同需要, 自动化地弹性分配相应的资源, 无论IO带宽、GPO资源, 还是计算资源、存储资源, 所有一切通过一套系统弹性分配 (图7) 。当某一时刻某一渠道更受欢迎, 需要更多资源的时候, 有了自动化弹性调配资源, 就不用考虑去建设更大的资源池, 而是只需要通过资源池去进行扩展。举个例子, 凤凰卫视在国内有香港和北京两个数据中心, 另外在全球包括英国、美国在内还有七个数据中心, 当某个区域发生重大事件, 需要更多资源的时候, 就会从全球其他数据中心调度给当地数据中心实现弹性, 会把九个数据中心当成一个逻辑数据中心进行相同管理, 从性能和效率两方面来满足媒体的需要。

如果采用原有的硬件化建设数据中心的模式不可能实现弹性数据管理模式, 因此提出了软件定义数据中心, 包含软件定义网络、软件定义存储。所有业务都有生存周期, 当服务于广电系统的某个应用过时后, 需要实时地改变整个数据中心的架构 (图8) 。通过原有固定的网络无法实时进行, 必须通过软件定义的模式。华为提供了全套软件存储、软件计算方案服务于整个系统。

数据处理中心 篇9

近期, 华为IT产品线数据中心解决方案负责人向记者阐释了华为数据中心的敏捷之道。另外, 在今年北京通信展上, 华为也展示了其端到端的融合数据中心解决方案, 包括华为统一管理、高端服务器、海量存储、数据中心网络、模块化数据中心等最新发布的解决方案。

企业面临IT统一管理问题

快速扩展的企业, 面临着原有IT系统、新建IT系统、异构设备的统一管理难题。“华为推出的ManageOne数据中心管理解决方案, 集业务运营和IT基础架构运维于一体, 提供数据中心全面的运营和服务管理解决方案。”陈世峻表示。

据介绍, 华为ManageOne数据中心管理解决方案支持多数据中心集中管理, 有如下三个特性:首先, 是业界首个除服务器、存储等传统设备外, 结合通讯和机房能源等物理设备进行统一管理, 实现数据中心内的融合管理;其次, 支持传统数据中心与云数据中心的综合, 支持业界异构产品和异构云平台的管理, 使客户能够享受云技术带来的价值之外还能保护已有投资;另外, 华为数据中心管理解决方案针对行业业务特征, 提供可定义可客户化的数据中心管理。

通过部署华为ManageOne数据中心管理解决方案, 企业的IT人员能够通过统一的管理门户, 对企业集团数据中心、区域中心数据中心以及分支机构数据中心进行分权分域的统一管理, 提升管理效率, 降低运维成本, 保护IT投资, 真正实现简化管理, 敏捷运营。

新方案满足用户不同需求

微数据中心理念已经被提出多年, 针对企业快速扩展, 建立分支机构的IT设施而研制, 一些企业也较早推出了相应方案。据介绍, 华为提供的Micro DC解决方案是一个实现微型数据中心总集成的解决方案, 它预集成了机柜、供配电设备、传感器、散热、网络、安全、服务器设备与集成管理软件, 是业界惟一可以实现机房环境与IT基础设施统一监控管理的产品。

针对企业数据中心扩容为何不选公有云服务, 华为表示, 通过多年与客户的交流, 华为发现, 现实中用户的需求并不相同, 许多客户非常看好微数据中心方案, 因此华为开始以该方案帮助客户解决IT面临的问题。

集控中心告警数据处理技术和方法 篇10

随着变电站无人值班的实施,远动装置上送的告警信息量越来越大,重要的告警信号往往夹杂在大量的次要信号中一同传递上来,给监控工作带来极大的不便,甚至会造成重要信息的遗漏。为了解决这一问题,需要对告警数据进行分析处理。

告警数据处理的方法有多种[1,2,3,4]。目前,集控中心监控系统告警数据通常采用时序告警窗和基于图形浏览器的间隔光字牌来展示。

时序告警窗按照时间先后顺序显示告警信息,并可按开关变位、遥测越限、厂站工况、保护事件等分类浏览。其存在的不足有:①正常情况下,如果各种信号动作频繁,监控人员容易遗漏重要信号,延误处理;②事故情况下,信息大量上送,不停地翻滚显示,重要信号往往被大量次要信号淹没,监控人员很难抓住重点,进而影响事故的正确处理;③设备检修试验时产生大量无用试验信号,会扰乱监控人员的视线;④交接班时需要查看系统当时所有处于动作状态的保护信号,而告警窗口是一个历史的浏览界面,无法显示所有信号的实时信息;⑤只能按大类进行筛选浏览,不能按厂站、电压等级、间隔分层处理,不能按监控人员所处的责任区进行信号过滤,不能针对大类的信号(如保护事件)按重要等级再进行分类处理。

基于图形浏览器的间隔光字牌通常应用在变电站综合自动化系统和调度自动化系统中,但是对于一个集控中心监控系统,其存在以下不足:①保护、开关、刀闸信号量非常庞大,若将所有信号都绘制成图形,工作量巨大;②变电站改造频繁,采集信号量不断调整,光字牌也需要随之修改,由于图形固定排版,增加和修改不方便,维护工作量大;③由于信号分布在每一张间隔图中,无法列举整个监控系统当前所有变化的信号或者处于动作的保护信号,必须逐个间隔查看,使用不方便;④无法通过快速定位事件所在间隔了解整个间隔的情况,造成事件判断及处理的时间滞后。

针对上述分析的现状和不足,本文提出了以下几点集控中心告警数据处理技术和方法。

1 信号二维分类方法

结合集控中心的特点,将信号按纵向分层和横向分类相结合的二维分类方法进行划分。

纵向分层是指将信号按厂站、电压分区、间隔、一次设备进行划分。厂站对应变电站或发电厂,每个厂站由2个及以上电压分区构成,每一级电压为1个电压分区,包含1个或多个间隔,每个间隔由若干个一次设备构成。每个一次设备又包含多个信号。这一分层方法遵从IEC 61970标准的公共信息模型(CIM)。

横向分类是指将信号按其重要程度依次划分为事故类、告警类、变位类、提示类、设备状态类。事故类信号最为重要,包含保护动作信息、变电站事故总信号、间隔事故总信号等,监控人员应该密切关注。告警类信号包含一次设备和二次设备的失电、欠压、闭锁、告警、异常等,该类信号发生时,相关人员应密切关注以防势态恶化。变位类信号包含人工操作的断路器、接地刀闸、非接地刀闸的分合闸信号,该类信号是倒闸操作时要重点关注的信息。提示类信号包含各种提醒告知信号,如油泵启动、风机启动、充电信号等,该类信号除非在较短时间内多次动作和复归需要关注外,一般情况下不需进行处理。设备状态类信号包含自动化设备的工况信号,由厂站端自动化设备上传,一般是系统维护人员所关心的信号,但监控人员也应给予关注。综合这些状态因素可以判断由其上送信息的正确性和有效性。

信号按这种二维分类法分类后,就可按层次和重要程度进行选择或过滤。

2 信号过滤方法

监控系统中信号量大,但不是每一个信号都要告警,因此需要过滤:①要人为地筛选过滤;②由于调试或检修等原因,某些纵向层次的信号也需要过滤;③由于每个监控人员的监控范围和职责不同,信号需要按其责任区进行过滤;④信号的重要程度不同,其关注度也不同,需要按横向的分类进行过滤。信号过滤方法的流程如图1所示。

3 信号配置方法

信号的配置分为以下5个步骤进行:

1)通过遥测、遥信点表自动生成一次设备信息,自动关联其所属厂站和电压分区;

2)根据一次设备信息自动生成间隔,间隔的名称是所属厂站、电压分区、设备名称和编号的任意组合;

3)按纵向层次人工筛选信号,决定信号是否人工过滤;

4)配置信号的横向类型,通过特征字符串匹配将其按重要程度进行分类;

5)定义责任区范围,并配置监控人员所属责任区。

4 动态合成光字牌技术

采用信号二维分类、信号过滤和信号配置这3种信号处理方法,对每个需要告警的信号用一盏光字牌灯表示,通过灯的颜色和状态来动态反映信号的实际情况。光字牌界面自动生成,无需人工绘制。既可按纵向分层方式组织数据,厂站和间隔层的光字牌由其下普通信号光字牌合成表示,也可按横向分类进行过滤显示。

定义光字牌的显示值(颜色)有2种:①红色,代表信号值为1,如保护动作、开关合闸;②绿色,代表信号值为0,如保护复归、开关分闸。定义光字牌的显示状态有3种:①灰化,表示这个信号无效,如信号被封锁;②闪烁,表示信号发生了变化,还没有被确认,如保护由动作到复归或者由复归到动作;③固定不动,表示信号正常。

将光字牌分为2种类型:①普通光字牌,即单个遥信信号;②合成光字牌(如间隔、厂站),是由子光字牌经过某种算法动态合成而来,其中,合成“合成光字牌”的元素,称之为“子光字牌”,它可以是合成光字牌也可以是普通光字牌。

动态合成光字牌在合成前先去除无效(灰化)的子光字牌。合成光字牌状态如下:

Ι=i1i2in(1)

式中:I为合成光字牌是否有效;in为子光字牌是否有效,in=0表示无效,in=1表示有效;n=1,2,…;∨为逻辑或。

只要有1个子光字牌有效,则合成光字牌有效,否则合成光字牌无效。

动态合成光字牌有以下2种算法。

第1种算法如式(2)、式(3)所示。

S=s1s2sn(2)

式中:S为合成光字牌的状态;sn为子光字牌的状态,sn=0表示正常,sn=1表示闪烁;n=1,2,…。

只要有一个子光字牌的状态为闪烁,则合成光字牌闪烁,否则正常。

V=v1v2vn(3)

式中:V为合成光字牌的值;vn为子光字牌的值,vn=0表示复归,vn=1表示动作;n=1,2,…。

只要有一个子光字牌的值为1(红色),则合成光字牌的值为1(红色),否则为0(绿色)。

第2种算法如式(4)~式(6)所示。

S0(4)

无论子光字牌的值和状态怎样,合成光字牌的状态都是正常的。

Vb=s1s2sn(5)

式中:Vb为间隔层合成光字牌的值;sn为普通光字牌的状态,sn=0表示正常,sn=1表示闪烁;n=1,2,…。

只要有一个普通光字牌的状态为1(闪烁),则间隔层合成光字牌的值为1,否则为0。

V=v1v2vn(6)

式中:V为厂站层合成光字牌的值;vn为子光字牌的值,vn=0表示绿色,vn=1表示红色;n=1,2,…。

只要有一个子光字牌的值为1,则合成光字牌的值为1,否则为0。

这2种算法各有利弊,可以根据实际应用情况去选择。第1种算法,合成光字牌的值和状态能够真实反映子光字牌的实际情况,优点是直观,但是由于真实运行的系统在一个间隔或一个厂站中或多或少有保护遥信值是1的情况,所以合成光字牌半数以上是红色,另外,该算法要通过合成光字牌的闪烁来判断子光字牌的变化,长时间监盘,闪烁的信号会使人视觉上产生疲劳。第2种算法,优点是合成光字牌永远不会闪烁,一直是固定显示,长时间监盘不会让人视觉上产生疲劳,缺点是合成光字牌的颜色不是普通光字牌遥信值的真实反映,而是有无变化的反映,监控人员需要一个思维转换过程。

动态合成光字牌在监控系统的主界面上有一个称为导航光字牌的灯,全系统内只要有1个信号变化,则导航光字牌就会闪烁。点击导航光字牌出现厂站光字牌总览图,每个厂站对应着一盏灯。根据不同的算法,会出现不同的颜色和状态,如附录A图A1所示。依此类推,点击某个厂站,出现间隔光字牌。点击间隔光字牌,出现该间隔中的所有信号。

监控人员通过光字牌不仅可以快速逐层定位到一个告警信号,并进行信号确认,还可以查看某一信号的历史变化情况。这些操作都是按责任区进行的,监控人员只能在自己的责任区中操作。同一责任区中的信号只需确认一次,不同责任区中的确认互相不影响。

动态合成光字牌不仅可以按纵向分层浏览,还可按横向分类查看,甚至可以通过纵向加横向组合进行浏览。例如:可以在某一厂站下查看事故类的所有信号。另外,还可匹配字符串浏览(如匹配所有含101字符串的光字牌)、按光字牌值方式浏览(如只显示保护动作的光字牌)、按光字牌状态方式浏览(如只显示处于闪烁状态的光字牌)等。

5 分层告警技术

分层告警技术是在信号纵横向分类、过滤、配置的基础上,将原先按时间顺序显示的告警信息进行高级分析处理。分层告警窗口分9个页面显示:事故类、告警类、变位类、提示类、设备状态类、时序类、检修类、自定义类、未复归类。前5个是横向分类,后4个是前5类的特定组合。时序类按告警的先后顺序,显示所有开关变位、保护信息的告警;检修类是设备检修调试时产生的信息,其他窗口不再显示这些信息;自定义类是5类告警自由的组合,即挑选其中的1种或者多种进行显示;未复归类只显示系统中当前所有处于动作的保护信号。

分层告警窗如附录A图A2所示。当告警到来时,不仅在“时序”页面中显示,也在相应类型的页面中显示。监控人员可以通过选择左侧的树形目录,快速定位到一个厂站或一个间隔的所有信息,便于第一时间发现问题,并快速锁定事故范围。

分层告警按事件发生的先后顺序,以某个间隔第1个出现的信号为起始时间,此后一段时间内的所有信号,认为系同一原因触发,作为一个事件处理,这样有助于监控人员更好地把握事件的原因。事件与事件之间用不同的颜色明显区分。

分层告警还提供历史记录查询,按厂站、间隔、设备3个层次,选择查询某个历史时间段内的相应信息。保证监控人员可以查看到系统运行以来的所有告警情况。

当有事故发生信息量非常多时,告警窗口的内容会不断地翻滚,始终显示最新的事件,这很容易使人眼花缭乱。分层告警提供暂停滚动功能,使告警窗口固定在某一位置不动,便于监控人员查看。

分层告警也提供确认操作。确认后的信息,会打上红色的勾以示区别。

6 动态合成光字牌技术与分层告警技术的联系和区别

动态合成光字牌技术和分层告警技术是有机联系的,表现在以下几方面:①数据源相同,都来自变电站的信号;②分层分类的原则一致,都按纵向分层和横向分类的方法进行显示、屏蔽;③信号确认的机制一致,都需要权限验证,都会产生相应的告警和历史结果以备查询,一处确认另一处同时生效;④它们之间可以相互切换,如可通过一条文字性的信息快速查看该信息所属间隔的光字牌,也可通过某一间隔光字牌查看该间隔的所有告警。

它们的区别在于光字牌显示的是系统当前状态,是系统实时信息的反映,而分层告警窗显示的是系统已经发生的变化,是系统历史信息的反映。

7 应用情况

江苏海门市供电局的调度自动化和集控中心监控系统采用一体化平台设计,共享历史服务器和前置服务器。集控工作站采用专用100 Mbit/s光纤与调度主站相连。集控中心监视海门境内所辖的21个无人值班变电站,其中开关和刀闸遥信量有600多条,保护动作和告警的遥信量有6 000多条。当遇到雷暴天气时,常常会在告警窗中同时出现上百条保护动作和开关变位的告警,夏天气温高、负荷重时,也会出现许多过负荷的告警,如果再加上远动装置异常产生的装置告警和误遥信,值班人员就很难通过显示屏上的信息把握实际异常情况,许多重要的保护动作信息会被大量的次要信号淹没。

该供电局采用本文的动态合成光字牌和分层告警窗后,一旦有告警,值班人员就能快速地了解保护动作情况,方便地定位到所属间隔具体设备,大大减少搜索信息的时间,提高了值班人员的工作效率,加快了电网异常和事故的处理进程。值班人员对动作的信息进行确认,采取相应的措施,确认后将确认时间和人员等信息登录数据库,方便日后查询,有利于将责任落实到人,进一步规范和保障电力系统的安全运行。

附录见本刊网络版(http://aeps.sgepri.sgcc.com.cn/aeps/ch/index.aspx)。

参考文献

[1]葛敏辉,陈建民,盛豪奇,等.500kV集中监控系统保护信息分层分类规范与实现.华东电力,2008,36(1):26-30.GE Minhui,CHENJianmin,SHENG Haoqi,et al.Protection information classification for500kV centralized monitoring systems and its realization.East China Electric Power,2008,36(1):26-30.

[2]黄梅.能量管理系统在电网监控中的应用及探讨.江苏电机工程,2009,28(5):33-36.HUANG Mei.Application and discussion of EMS in power system monitoring.Jiangsu Electrical Engineering,2009,28(5):33-36.

[3]秦杰,马韬韬,郭创新.调度自动化设备状态在线报警系统的设计与应用.电力系统自动化,2009,33(6):95-98.QI N Jie,MA Taotao,GUO Chuangxin.Design and i mplementation of on-line state monitoring for power grid automation system.Automation of Electric Power Systems,2009,33(6):95-98.

[4]王本胜,陈文金.蒙阴供电公司综合自动化变电站报警信息分析及改进.电力系统自动化,2004,28(14):97-99.WANG Bensheng,CHEN Wenjin.The alarm message analysis and i mprovement for comprehensive automation system of substation in mengyin electric power company.Automation of Electric Power Systems,2004,28(14):97-99.

[5]李彬蔚.变电站综合自动化系统告警方式的改进.电力安全技术,2009,11(3):29-31.LI Binwei.The i mprovement of alarm method for comprehensive automation systemof Substation.Electric Safety Technology,2009,11(3):29-31.

数据中心酝酿革命 篇11

1月2日,一直在90多美元

价位徘徊的纽约商品交易所石油价格这一天突破每桶100美元大关,创下了历史新纪录。尽管随后不久油价又重新回落到每桶100美元以下,但这一事件再次给我们敲响了警钟,能源供应形势将日趋紧张。

对于IT领域的数据中心来说,尽管不会直接使用石油相关产品,但电力却是IT设备正常运转的前提,与石油供应面临的形势类似,我国的电力供应同样也十分紧缺。近几年来,电力消耗的大幅增加已经引起了数据中心管理者们的重视,传统的数据中心建设方式遭遇到前所未有的挑战,一种新的数据中心建设模式开始出现。

电力消耗不可小觑

IT设备的电力消耗越来越不可小觑了。下面是两个有趣的事实:在美国,这几年到公园和博物馆去的人逐年减少。调查发现,一个很重要的原因是,互联网发达后,人们更愿意花大量的时间上网,他们可以通过互联网来参观这些公园和博物馆。还有人曾做过估算,2007年全球所生产的晶体管总量已经超过大米。

这两件事看似没有什么联系,而实际上都与电力消耗有关:IT设备越来越普及,人们生活娱乐已经与IT密不可分,导致电力需求的大幅增长。同样,由于晶体管的使用是需要电力来支持,这就意味着电力消耗也会越来越多。

“对于数据中心而言,电力消耗的增长幅度是很大的。因为根据动力学的研究结论,任何电力的输入都会带来热量的输出,因此我们不仅要考虑IT设备本身对电力的需求增加,还要面对另外一个问题,这就是制冷需求的增加。”APC-MGE公司CMO(首席市场管)Aaron L. Davis在接受记者采访时表示。

Davis在APC公司工作了近20年,一直在跟踪研究数据中心的建设问题。他告诉记者,现在的数据中心面临一个困境,即IT的普及使得我们需要高密度的IT设备,而高密度的IT设备会散发出更多的热量,因此需要更大的制冷能力,而更大的制冷能力又需要更多的电力供应。

目前,电力成本增加已经引起了各方的重视。IDC的研究显示,每100台服务器的年平均耗电量为55万度,其中用于制冷的电力为服务器用电量的2.7倍。AMD也曾针对其用户做过一个调查,他们发现,53%的用户称在未来两年内会面临着电力供应的问题。

Gartner去年曾对数据中心的管理者做过一个调研,在对当前面临的最棘手问题的回答中,电力和制冷位居第一,70%的数据中心管理者认为电力和制冷的问题是他们碰到一个最大的问题。调查还发现,在整体IT投入里面,过去电力和制冷这个部分只占到8%,而Gartner估计未来会达到48%,这就意味着未来数据中心的管理者需要挤出40%的其他预算,以应对电力和制冷需求的增加。

“近年来,惠普、IBM、戴尔、思科等都非常关注绿色计算也与此不无关系。如果他们不帮助客户去节省40%的预算问题,客户就很难有更多的钱去购买他们的服务器等IT设备。” Aaron L. Davis说。

建设高效数据中心

电力消耗的大幅增加已经让很多数据中心做出了新的选择。例如,微软和Google在全球建设有很多数据中心,它们的数据中心选址的首要条件是电力最便宜,而不是带宽和服务器成本最低。而更多的人正在思考改变传统的数据中心建设模式,构建一个高效率的数据中心。

“传统的数据中心设计的一个突出问题是没有采用边成长边投资的建设模式,建设力求一步到位。” Aaron L. Davis告诉记者,在数据中心的设计时,通常都会对功率输出有一定限定。如果设定值过低,就会限制数据中心在未来需要时部署更多的应用或者设备,而设定值过高,又会导致前期基建投入过大,最后形成事实上的浪费,只有边成长边投资的建设模式可以解决这一难题。

实际上,有人做过测算,以电力供应为例,在数据中心中最后真正用于支持应用系统的电力还不到1%,而绝大多数用在了UPS、制冷、监控等相关的设备上了。

Aaron L. Davis说:“这也是目前数据中心建设中的一个难题,目前还难以从根本上解决,也许根本就无法解决。现在所能做的就是,尽可能地提高UPS、制冷等设备的效率,也就是要建一个高效率的数据中心。”

为此,APC-MGE倡导一个名为“4C”的解决方案,即采用质量上乘的系统组件(Components),如电源和机柜等;采用高效的制冷系统(Close Coupled Cooling),如变机房级制冷为机柜级制冷;采用热空气围栏(Containment),通过遏制高密度设备(如刀片式服务器等)的发热来避免因为散热而导致的宕机;容量管理(Capacity Managment)实现电力及制冷的规划和管理,四者配合、共同作用从而构建一个高效率的数据中心。

不过,Aaron L. Davis表示,高效率的数据中心并不意味着全是高科技的办法,有时候一个小的创意也能解决很大的问题。比如,为了提高制冷效率,APC-MGE提出了冷热通道的机柜摆放方式,也就是将机柜背靠背地摆放,从而尽可能地避免冷热风混合以降低制冷消耗。

走绿色IT之路

毫无疑问,“绿色”已经成为当今的主旋律,IT领域也早就刮起了“绿色”旋风,而高效率的数据中心其实也就是在向“绿色IT”这个IT产业发展的大趋势靠近。

Aaron L. Davis介绍说,绿色IT是一个需要整个行业共同参与的行动。他给记者描绘了一幅场景:从消费者到数据中的管理者、再到大楼的建设者如何参与到绿色IT的行动,更重要的是,这是目前的技术水平能够实现的。

消费者:通过高能效技术和能源管理工具,家中的消费者可以达到节省20%的用电量。

数据中心:通过服务器虚拟化可以节省用电量达到普通消费者的10倍;如果再进一步,这个数据中心通过简便的模块电源和制冷结构优化,可以实现3倍于通过服务器虚拟化带来的用电节省。

数据中心所在的大楼:通过电源和控制系统的智能管理实现智能照明和变速驱动,数据中心所在的大楼可以实现3倍于数据中心的电力节省。

电力供应系统:通过全方位电源管理、自动地调配用电设备和发电设备的运转时间,一套电力系统还可以实现3倍于一栋大楼的能耗节省。

据Aaron L. Davis介绍,美国的业界和美国政府部门也已经着力推动绿色数据中心的建设。比如,APC-MGE就联合IBM等厂商在大力推动绿色网格计划,其主题正是节能和环保。而美国能源部也正在推行一项计划:如果说数据中心的管理者能够保证数据中心的节能效率达到一定的标准,相应地就可以在“节能”这个部分得到相应的信用,这个信用值会直接影响企业纳税。

数据处理中心 篇12

数据中心主楼的地下1层是冷水储存, 地上1层是配电和冷水机组, 2到6层是数据中心主机房以及相应的功能区, 包括配电房、电池房、UPS房等。主楼隔壁的另一栋楼做柴油发电, 共2层, 发电楼隔壁还有一个油库, 用来存储柴油发电的油品。该项目建成后将为平安集团以及其下属各个机构提供集中的数据处理和交换服务。

用户对此数据中心的建设十分重视, 在土建开始前就已经对数据中心的总体设计方向达成一致, 以便土建设计和建设时完全满足数据中心的需求, 从而避免了让旧有的数据中心去适应土建的设计弊端。其总体设计方向是:

◆按照A级等级去建造;

◆满足最新的国际国内标准和本地规范;

◆采用主流技术和产品;

◆体现本工程的特殊性和特点。

针对以上总体设计方向, 用户规定, 在数据中心机房内的综合布线应遵循最新的国内GB 50174-2008标准和国际TIA 942A标准, 采用主流产品, 即铜缆采用CMP增压级高阻燃的Cat.6A非屏蔽铜缆, 光缆采用OFNP增压级高阻燃的MPO预端接OM4光缆, 以此来体现数据中心的安全可靠和绿色环保。

因此, 该数据中心在机房内的综合布线着重于以下四点进行设计和配置。

1 高安全可靠性

每个设备机柜配线 (EDA) 都通过铜缆和光缆集中铺设到LAN和SAN的配接区进行跳接。集中布线架构提供了最简单和最有效的线缆连接, 集中的跳接则提供了高效的布线管理和安全性, 而集中的网络设备则提供最佳的冗余备份和可靠性。由于用户从数据中心土建的初期已经考虑到了机房内的配电、冷通和布线的空间需求, 所以集中布线带来的线缆密集情况得到了完善的解决。

2 先进性

铜缆采用主流的康普SYSTIMAX Cat.6A万兆非屏蔽双绞线 (如图1所示) , 提供了100m以内性价比最高的带宽, 适合LAN/NAS的应用, 能够满足目前虚拟计算的高带宽、高性能要求。

光缆采用的是主流的康普SYSTIMAX LasrSPEED 550 OM4激光优化多模光缆 (如图2所示) , 该光缆专为IEEE 802.3ba高速以太网设计, 是最适合数据中心使用的、性价比最高的光缆配置。OM4光缆满足10G传输550m和40G/100G传输150m距离, 用户LAN/SAN的通信链路设计可以完全不用考虑长度和跳接次数的限制, 从而设计最佳的网络拓扑结构。

同时光缆配接不再采用传统的熔接方式, 而采用了先进的SYSTIMAX InstaPATCH Plus预端接光缆 (如图3所示) 。MPO预端接取代传统的LC熔接, 代表了数据中心内光缆高速通信的发展趋势。目前的40G/100G传输也是基于MPO连接头的12芯光纤的并行传输特性。因此, 用户采用MPO预连接能够为日后云计算的爆发性网络带宽增长做好准备, 同时也可以从目前的串行传输平滑升级到并行传输。

3 高防火等级

网络物理层的另一个关键需求是防火安全。根据GB 50174-2008标准A级机房的要求如表1所示, 用户采用CMP/OFNP增压级的高阻燃外皮, 这种外皮具有很强的防火性, 在燃烧冒烟解体之前可以忍受高达800℃以上的温度, 同时这种外皮也是一种高效的绝缘体, 能够提供更加高速的数据传输性能。

4 扩展性

EDA配置了足够的铜缆配线架和光缆配线箱, 不论目前设备是铜缆还是光缆应用, 都预留了铜缆和光缆的连接, 以满足日后LAN和SAN的扩展以及新的网络传输协议的出现, 如图4所示。

独立机柜的小型机和存储主机采用高扩展性的区域布线箱设计, 安装在架空地板下, 为临近的独立机柜提供了足够数量的跳线连接并预留了未来的扩展。避免由于各个设备厂商生产非标准独立机柜而导致不方便安装配线架的弊端。用户考虑美观因素和日常维护的便捷, 不采用桥架上的配线方案, 如图5所示。

上一篇:寒地温室下一篇:共享GIS平台