数据双活

2024-08-06

数据双活(通用7篇)

数据双活 篇1

数据中心的建设以提高数字资源利用效率、实现数字资源共享为目的,设计并实现云数据中心来整合资源,通过云灾备提高资源利用的连续性。双活数据中心由两个数据中心构成,一个是主数据中心,一个是备份数据中心,数据中心之间的备份方式可以采用冷备份、热备份和双活备份。热备份是当承担数据应用的主数据中心出现故障时,与其进行实时备份的备份数据中心自动承担主数据中心应用业务,此过程用户端不受影响,但是资源重复率高,造成资源浪费。冷备份是备份数据中心周期性进行备份,当承担数据应用的主数据中心出现灾难性故障时,调用备份数据中心,用户应用会回到备份时的数据,可能造成部分数据丢失。双活备份方式是考虑到热备份资源浪费严重、投资成本高,冷备份会导致用户数据丢失的问题,对主数据中心和备份数据中心的业务进行调整,两个数据中心共同承担用户业务,通常主数据中心承担约为60%~70%的用户业务,备份数据中心承担30%~40%的用户业务。数据中心相互实时备份,如果其中一个数据中心出现灾难性故障,另一个数据中心独立承担用户业务。

1 需求分析

数据中心的搭建一方面要求能够满足数据的冗余能力需求,另一方面要保证数据的可靠性和安全性。将数字资源应用在工作、学习和生活中,提高数字资源的利用效率是数据中心搭建的目的,要保证数据中心的数据采集、存储和应用的流畅性、可靠性和安全性,就要通过技术手段建设7*24小时数据中心,可以让数据中心用户随时随地访问数字资源,提高数字资源的利用率。而建设7*24小时数据中心的必要条件是保证系统运行不间断,所以,建设双活数据中心是提高数字资源利用率的有效方法。

双活数据中心的搭建要求建立两个数据中心,二者能够实现数据的互通和互备,其中一个数据中心作为主数据中心,另一个数据中心作为备份数据中心,主数据中心可以调用备份数据中心数据为用户提供应用。当主数据中心出现故障时,备份数据中心可作为主数据中心应用,并且能够通过数据通道,将主数据中心存储的数据调用到备份数据中心进行应用。数据的调用要保证即时性、流畅性、无障碍,数据中心的转换不会给用户应用数据中心平台造成影响,并且要保证数据接口的安全,防止数据被窃取或者掉包。

2 双活数据中心搭建

双活数据中心搭建采用四层网络结构,包括应用层、网络层、数据存储层和数据库层。

应用层:应用层为用户提供数据中心资源的应用,用户可以通过PC电脑、笔记本电脑、移动手机、平板电脑等访问系统平台,采用服务器虚拟化技术,将数据中心桌面映射到用户客户端,减少用户端系统压力。

网络层:网络层是数据传输的关键层,双活数据中心之间的通信与互联在网络层完成,为了保证数据中心之间的负载均衡,采用虚拟化技术、二层网络技术,保证网络的冗余性,在网络层设置防火墙,保证网络的安全性。

数据存储层:数据存储层采用虚拟化异构存储设计,建立统一的虚拟化存储平台实现多用户跨平台调用数据中心底层数据。

数据库层:数据库层提供数据支持,采用分布式云存储技术实现服务器集群,数据库读取与写入分开部署,提高数据库访问的安全性。

双活数据中心的主数据中心和备份数据中心相对独立存在,二者通过IP链路建立二层互联,可实现资源池、网络出口、服务器等之间的相互转换。为了保障数据中心网络设备的不间断工作,两个数据中心分别设置核心交换机,数据中心之间通过万兆以太网链路建立二层互联,利用虚拟化技术将二者统一在同一层进行应用。存储资源采用SAN交换机划分为存储资源、数据库、虚拟化存储资源三个部分,通过虚拟化存储网关将数字资源复制在虚拟化平台上,进而可以实现数据应用与数据存储分离管理。双活数据中心在正常运行期间,各数据中心都独立负责管理各自数据,当双活数据中心其中一个中心出现故障时,可通过数据中心之间的二层互联实现资源的互通互联,保证用户平台使用的连贯性。

3 双活数据中心测试

3.1 资源池

验证双活数据中心正常运行期间,对主数据中心制造故障,客户访问虚拟机被自动转移到备份数据中心,而IP地址未发生变化,访问接口仍然可以通过主数据中心进入,主数据中心与备用数据中心之间通过二层互联。采用VMware HA开展资源池性能测试,在双数据中心统一创建两个测试集群节点,测试时关掉主数据中心集群节点,采用Ping命令查看数据中心IP地址和主机是否正常通信,测试结果为1分45秒后结果显示正常。

3.2 网络出口

验证双活数据中心正常运行期间,对主数据中心网络接口设备设置故障,主数据中心网关失效,备份数据中心自动切换成主机模式,主数据中心与备用数据中心之间通过二层互联,用户仍然可以访问主数据中心资源池。将主数据中心网关接口关闭,使用Ping命令测试主数据中心是否可以被访问,测试结果为3分钟后可正常访问,表明主数据中心与备用数据中心之间已通过二层互联。为了保证网络出口数据传输的安全性,在数据接口处设置防火墙和数据过滤系统,对未知数据予以隔离。设计一组未注册数据,在数据中心转换期间进行调用,系统弹出提示“未知来源”将其过滤到隔离区。

3.3 Web服务器

验证主数据中心Web服务器故障,用户访问Web应用时是否会出现网络中断现象。关闭主服务器,调用备用服务器地址提供Web应用,由于双活数据中心处于正常运行状态,服务器的调换并未影响到用户Web的应用,结果用户在毫无察觉的状态下更换了服务器,并实现了数据的互通,在用户端没有出现网路中断、系统繁忙等提示。

4 结语

为了保证数字资源的可靠应用,搭建双活数据中心平台具有良好的可行性。本文介绍了一种双活数据中心,通过本文所设计的方案实现了两个数据中心,一个主数据中心用于承担数据服务及管理的资源应用,另一个备份数据中心进行数据的备份和配置,该方案具有良好的实用性,可保证数字资源7*24小时不间断应用。随着信息技术、网络技术的不断发展,双活数据中心的实现方法可以多种多样,因此,在系统的应用与管理过程中,应结合新技术不断完善,提高双活数据中心平台的利用效率。

摘要:随着网络化、信息化发展进程的不断推进,人们工作、学习和生活中所产生的数字资源越来越多,为存储数据提供服务的服务器的压力越来越大,数据丢失、数据损坏问题的发生频率越来越高。在大数据、云计算的应用越来越普及的今天,将数字资源向云数据中心转移,成为解决数字资源存储和利用问题的有效方法。而为了保证数据中心资源的安全性,建立重要数据资源云灾备成为当下搭建数据中心的重要内容。双活数据中心可将传统数据中心的数据容灾备份到云数据中心中,提升数据中心数据应用的连续性、可靠性,降低本地设备的应用压力,提高设备的利用效率。笔者首先对双活数据中心进行概述,介绍双活数据中心的建设内容与备份方式;其次,对双活数据中心进行设计,分析用户需求,提出设计方案;最后,对方案予以实施,验证设计的可行性和实用性。

关键词:双活,数据中心,数字资源

参考文献

[1]樊吴.“双活”数据中心的设计实现[J].电信科学,2016(1).

[2]陈晓,张龙军.一种双活云中心灾备方案的设计与实现[J].中国新通信,2015(12).

[3]宋凌怡.基于OpenStack的云数据中心研究与实现[J].赤峰学院学报:自然科学版,2016(15).

[4]赵晓光,兰永平.基于虚拟化的双活数据中心技术实现[J].信息技术与信息化,2014(10).

[5]周杰.数字化校园数据中心建设的意义及实现路径思考[J].新校园,2015(8).

[6]刘振华.面向业务的银行数据中心云[J].中国金融电脑,2014(3).

[7]刘昕.基于云计算的数据中心构建模式研究[J].信息系统工程,2014(2).

[8]管文琦.数据中心性能基线研究[J].中国金融电脑,2014(2).

数据双活 篇2

关键词:网络改造;双核心;交换机虚拟化技术;双活数据中心

中图分类号:TN919 文献标识码:A 文章编号:1009-2374(2013)29-0044-02

1 医院网络的现状

我院新一轮的信息化建设始于2004年,随着信息化建设的规模不断扩大、应用不断深化,医院各种业务对可用性、稳定性的要求越来越高。我院双活数据中心已经进入实施阶段,目前从网络方面考虑,我们面临如下瓶颈需要突破:

1.1 服务器集群所用单心跳交换机威胁集群安全

我院核心业务系统所用的服务器集群有两种:Windows平台下的故障转移集群(PASC)、Linux平台下的Oracle RAC实时应用集群(HIS/LIS/EMR)。两种方式的集群都需要通过私有网络进行心跳交换。双节点故障转移集群的心跳网络不通,按照群集仲裁原则会直接判断群集失效;双节点实时应用集群的心跳网络不通,会导致其中一个节点不停重启直至心跳网络恢复。可见,心跳网络的容错能力直接威胁到服务器集群的可用性。

1.2 双活数据中心的环境下核心交换机成为高可用性的瓶颈

我院网络配备主/备核心交换机各一台,各大楼机房至主核心交换机只有一条光纤链路连接。维护难度大:品牌、接口数量、接口类型、配置命令集均不相同,需要定期进行配置文件的手工同步;切换耗时长:在主核心交换机出现故障的时候,需要将所有光纤/双绞线跳线手工插接到备核心交换机上,业务停止时间超过半小时,切换过程中还极易出现插接错误,导致业务无法正常恢复。双活数据中心实施完成后,能够将业务停止时间极大地缩短,目前核心交换的故障恢复速度大大落后。

1.3 汇聚层和接入层规划欠合理,链路稳定性无法保证

在业务密集的大楼,我们已经铺设了不同物理路径的备用光纤链路至核心交换机,在用链路出现故障的时候,需要手工切换到备用链路上,恢复速度慢;接入层交换机层层级联之后再连接到汇聚层交换机,同时,汇聚层交换机还接入了很多工作站,在功能的划分和接线方式都欠合理,一台接入层交换机的故障可能会导致整个机房大部分的网络端口不可用。

1.4 重点部门的业务应用需要进一步提高可用性

医院的门诊业务直接面对病人,其中挂号室、收费处、药房是业务流转快、病人集中的窗口部门,这些窗口部门的工作站需要较高的可用性,以免网络故障导致窗口业务的拥堵。

2 设计思路

针对本案例,我们主要考虑两个方向的措施:(1)拆分接入单元,减小接入&汇聚层的复杂度,让单个接入交换机故障所影响的面积更小;(2)在存在单点故障可能的地方增加冗余设备或链路,通过虚拟交换单元减少单点故障点。具体拓扑图如图2所示:

3 网络改造与实现

3.1 工作站至接入层

首先,为重点部门工作站铺设到不同物理位置接入机房的双绞线;其次,在这些工作站上安装两块相同型号的网卡,通过网卡聚合(Ether Channel)将两块绑定起来,一般来说,这些网卡应该连接到同一台支持端口聚合的交换机上,我们在本案中采用的汇聚层交换机支持VSU技术,即将两台交换机虚拟成一台交换机,从交换机、交换机端口、物理链路、网卡四个方面实现了冗余。通过测试,这种方式在正常状态下,可以实现带宽的加倍,当某一边的交换机、端口、物理链路、网卡出问题的时候,都能由健康的一路资源直接接管任务,接管时间在50~4000ms之内,完全可以满足我们业务不中断的要求。

3.2 接入层至汇聚层

改变接入层交换机层层级联的现状,将拓扑结构简化为接入-汇聚的多对一关系,同时对接入-汇聚的链路进行强化,增加接入交换机到异地机房汇聚交换机的链路,在汇聚交换机上应用虚拟化技术,在级联端口上进行端口聚合的处理,双链路上行、虚拟化端口聚合,从汇聚层交换机、物理链路、级联端口三个方面实现冗余,单个接入层交换机的故障,最多只会影响22个工作站(使用24口交换机,其中2端口用于上行)的接入,单个汇聚层交换机的故障,由于交换机虚拟化的实施,可以在200ms之内完成链路切换,保证汇聚层不出现单点故障。

3.3 汇聚层至核心层

本案中,我们把服务器看作重点工作站,把汇聚层交换机看作接入层交换机,顺理成章的,核心交换机应该进行虚拟化和端口聚合供汇聚交换机和服务器的接入,保证工作站到服务器集群网络的高可用性,与服务器集群及后端双活数据中心的可用性达到相同的水平。

3.4 心跳交换

对两个数据中心的心跳交换机进行虚拟化,正常状态下提供两倍于单心跳交换机的网络带宽,单个心跳网卡、链路、交换机端口、心跳交换机若出现故障,快速切换保证心跳数据的正常交换,保证服务器集群的高可用性。

3.5 优势

交换机的虚拟化改造完成之后,我们的网络与传统网络对比具有如下优势:

3.5.1 管理简化。两台交换机组成虚拟交换单元以后,管理员可以对两台交换机做统一管理,而不需要连接到两台交换机分别进行配置和管理。

3.5.2 故障恢复时间缩短到ms级。虚拟交换单元和外围设备通过聚合链路连接,如果其中一条成员链路出现故障,切换到另一条成员链路耗时是50~4000ms。

3.5.3 虚拟交换单元和外围设备通过聚合链路连接,既提供了冗余链路,又可以实现负载均衡,充分利用所有带宽。

我们将交换机虚拟化技术应用到心跳交换机、核心交换机和汇聚层交换机上,对网络拓扑层次进行改进的同时,考虑到物理链路的数量和改造的资金投入,我们将上述改造方案进行了总体规划,并将分步实施,最终为医院信息系统的运行提供一个健壮的网络环境。

数据双活 篇3

关键词:医院信息系统,“双活”数据中心,存储器,网络安全

0 前言

随着医学的不断发展,医院规模不断扩大,药品种类也不断增加,就医的人数也逐年增长,传统的医疗体系已经很难满足这些需求。医院信息化作为医院现代化的重要特征之一,是现代医院建设的基础环节,也是医院医疗、卫生教育等顺利进行的保证[1]。为此,我院对医院原网络拓扑结构进行了改造,报告如下。

1 西京医院原有信息化应用系统的不足

我院原有的网络系统的存储设备分散使用,直接导致存储空间不能共享,无法实现均衡分配,造成了管理和维护的复杂性。医院信息系统(HIS)对于核心业务配置为2台DS4700 存储器,该存储最多仅有4 G缓存,采用4Gb FC的连接带宽,属于相对较低性能的存储设备。随着业务高峰的出现,以及就医人数的不断增加,该存储器会因为本身处理能力的限制出现响应延迟,从而降低业务系统的效率。核心HIS数据利用Oracle数据库的远程复制功能实现数据的冗灾,它是通过数据库同步日志的方式来保证2台存储器数据的一致性。虽然实现起来比较简单,但是在使用过程中会因为主机日志逻辑错误或者传递不畅导致备份存储器的数据不可用,而且数据不能实现实时备份,也不能在发生灾难时实现业务功能的无缝连接。西京医院网络系统原状态的拓扑图,见图1。

为了解决上述的问题,医院数据中心向“双活”云数据中心转型成为网络改造的重点,并且需要在转型工程中对应用数据进行虚拟化管理从而实现数据实时备份,使得西京医院信息系统的处理能力进一步增强,效率进一步提高[2]。

2 “双活”云数据中心的概念

“双活”数据中心完全不同于1 个数据中心和1 个灾备中心的模式。“双活”数据中心是2 个数据中心都处于运行状态,互为备份,即一个数据中心投入运行,另一个数据中心也处于就位状态,当灾难或者突发事件等因素造成医院主数据中心瘫痪,另一个灾备中心就会启动。在转型传统的同城数据中心时,需要全盘考虑数据中心的应用层、数据库层、存储层,才能保证在满足保证系统性能的基础上,完成云数据中心的转型。在云计算的基础上,通过服务器虚拟化软件和存储系统虚拟化方案的结合,可以成功实现跨数据中心应用和数据自由流动的功能,从而增强应用系统的灵活性,更加充分的体现双活的理念[3,4]。

3 HIS数据中心向“双活”数据中心的转型

遵循国家大力发展医疗事业的趋势,“双活”数据中心有着高效、安全、低成本的突出优势,因此,果断地将传统主备型数据中心升级为“双活”数据中心是势在必行的选择,是医疗事业向前进步的标志[5]。

西京医院改造涉及的服务器共计13 台,其中桌面虚拟化服务器5 台,虚拟化服务器5 台,HIS服务器3 台;存储设备4 台;光纤交换机6 台;服务器虚拟化应用数量67 个。改造后的网络状态拓扑图,见图2。

4 转型方案实施过程

(1) 将HIS数据迁移到EMC的VMAX10K, 通过IBM小机完成。

(2)将原存储在IBM DS5100 上的大量应用数据迁移到EMC的VNX5600,通过VMware完成。

(3)将DS5100 纳入VPLEX为核心的“双活”体系,以达到利旧于新的低成本运行目的。

4.1 设备改造

新增设备:2 台EMC VNX 5600、1 台EMC VMAX 10K。 以VMAX 10K取代原DS4700 作为HIS的专用存储,在两个数据中心各配置1 个VPLEX存储虚拟化引擎,将VNX5600 存储设备实现虚拟化,实现跨距离双活。将主要应用数据迁移至EMC VNX 5600 存储设备中进行管理,确保业务系统7×24 h不间断运行,确保任何设备故障均不影响业务的正常运行。

4.2 “双活”数据中心的实验运转

经过充分的论证和准备工作,在实践过程中先将HIS数据由以前的DS4700 顺利迁移到VMAX10K上, 同时以VPLEX作为平台对新存储做双活之后,又将DS3524 和DS5100 上的大量VMware镜像文件和数据迁移到VNX5600上,实现了两个机房VNX5600 的数据同步。经过测试比对,改造后的网络存储系统的性能大大提高,见表1。

5 结语

现有的数据中心存储体系和改造前相比,具有以下优势[6,7]:

(1)充分利用资源,提高了系统运行效率。在“双活”数据中心下,对于前端用户来讲就是一个逻辑的大中心,能够充分利用数据资源,避免了1 个数据中心常年处于闲置的状态而造成数据浪费。

(2)增强了存储数据的安全性。使用最新技术做“双活”配置,实现了跨数据中心服务器自由流动,不仅增强了系统的灵活性,而且使得存储设备数据的安全性得到了大幅提高。改造前的系统随着业务高峰的出现,会发生存储响应延迟现象;改造后的系统,运用虚拟化技术,将生产资源和容灾资源放在同一的资源池里,在业务高峰时或者业务突发时,可以将容灾资源动态分配给生产资源。与此同时,由于虚拟机、存储实现虚拟化,可以最大程度地降低由于系统故障而产生的各种危险性。在发生灾难时,也能保证业务的连续性,实时的实现数据的迁移[8,9,10]。

由于使用了最新的同步技术做“双活”配置,使存储设备数据的安全性大幅提升,未来西京医院信息化系统升级改造的基础已初步构建成型。

参考文献

[1]张扬,郭森,季平.基于SAPERP信息系统的双活数据中心研究[J].电力信息化,2013,(1):87-91.

[2]邓维,刘方明,金海,等.云计算数据中心的新能源应用:研究现状与趋势[J].计算机学报,2013,(3):582-598.

[3]王智明.云数据中心资源调度机制研究[D].北京:北京邮电大学,2012.

[4]马飞.云数据中心中虚拟机放置和实时迁移研究[D].北京:北京交通大学,2013.

[5]李宏伟,肖伟.存储虚拟化技术在双活数据中心中的应用[J].邮电设计技术,2013,(9):9-13.

[6]叶燕.HIS系统与医保系统数据交换平台的设计与实现[D].兰州:兰州大学,2014.

[7]梁景雯.基于云计算技术的医院信息系统[D].济南:山东大学,2012.

[8]朱仁道.基于数据挖掘技术的HIS系统研究[D].安徽:安徽理工大学,2009.

[9]骆骁.HIS系统在医院财务管理中的作用——论HIS系统的财务数据管理[J].中国管理信息化,2010,17:14-16.

数据双活 篇4

智慧校园的建设以提高高校数字资源利用效率, 实现数字资源共享为目的, 设计实现高校云数据中心整合高校资源, 通过云灾备提高资源利用的连续性。“双活”数据中心由两个数据中心构成, 一个主数据中心, 一个备份数据中心, 设备中心之间备份可以采用冷备份、热备份和双活备份。热备份是当承担数据应用的主数据中心出现故障时, 与其进行实时备份的备份数据中心自动承担主数据中心应用业务, 此过程用户端不受影响, 但是资源重复率高, 造成资源的浪费。冷备份是备份数据中心周期性进行备份, 当承担数据应用的主数据中心出现灾难性故障时, 调用备份数据中心, 用户应用会回到备份时的数据, 可能造成部分数据的丢失。双活备份方式是考虑到热备份资源浪费严重, 投资成本高, 冷备份会导致用户数据丢失的问题, 对主数据中心和备份数据中心的业务进行调整, 两个数据中心共同承担用户业务, 通常主数据中心承担约为60%-70%的用户业务, 备份数据中心承担30%-40%的用户业务。数据中心相互实时备份, 如果其中一个数据中心出现灾难性故障, 另一个数据中心独立承担用户业务。

2 需求分析

高校信息化建设可以提高高校整体教学能力, 将高校数字资源以网络化应用在教学工作中, 实现高校教学课程、教学管理数字化采集、存储和应用, 是提高现代化教育的关键环节。数字化高校是由数字教学资源、网络、教学系统、教学管理系统等组成, 建设7*24小时高校数据中心, 可以让广大师生随时随地访问高校数字资源, 提高高校数字资源的利用率。而7*24小时数据中心的必要条件是保证系统运行不间断。所以建设双活数据中心是满足高校数字资源利用率的有效方法。

3 高校“双活”数据中心设计

高校“双活”数据中心设计采用四层网络结构, 包括:应用层、网络层、数据存储层和数据库层。

应用层:应用层为用户提供高校数据中心资源的应用, 用户可以通过PC电脑、笔记本电脑、移动手机、平板那电脑等访问系统平台, 采用服务器虚拟化技术, 将数据中心桌面映射到用户客户端, 减少用户端系统压力。

网络层:网络层是数据传输的关键层, “双活”数据中心之间的通信与互联也在网络层完成, 为了保证数据中心之间的负载均衡, 采用虚拟化技术, 大二层网络技术, 保证网络的冗余性, 在网络层设置防火墙, 保证网络的安全性。

数据存储层:数据存储层采用虚拟化异构存储设计, 建立同一的虚拟化存储平台实现多用户跨平台调用数据中心底层数据。

数据库层:数据库层提供数据支持, 采用分布式云存储技术实现服务器集群, 数据库读取与写入分开部署, 提高数据库访问的安全性。

高校“双活”数据中心拓扑结构如图1所示:

高校“双活”数据中心主数据中心和备份数据中心相对独立存在, 二者通过IP链路建立二层互联, 可实现资源池、网络出口、服务器等之间的相互转换。为了保障数据中心网络设备的不间断工作, 两个数据中心分别设置核心交换机, 数据中心之间通过万兆以太网链路建立二层互联, 利用虚拟化技术将二者统一在同一层进行应用。存储资源采用SAN交换机划分为存储资源、数据库、虚拟化存储资源三个部分, 通过虚拟化存储网关将高校数字资源复制在虚拟化平台上, 进而可以实现数据应用与数据存储分离管理。当“双活”数据中心处于正常运行期间, 各数据中心都独立负责各自数据的管理, 当“双活”数据中心其中一个中心出现故障时, 可通过数据中心之间的二层互联实现资源的互通互联, 保证用户平台使用的连贯性。

4 高校“双活”数据中心实现

4.1 资源池

验证高校“双活”数据中心正常运行期间, 对主数据中心制造故障, 客户访问虚拟机被自动转移到备份数据中心, 而IP地址未发生变化, 访问接口仍然可以通过主数据中心进入, 主数据中心与备用数据中心之间通过二层互联。采用VMware HA部署资源池性能测试, 在双数据中心统一创建两个测试集群节点, 测试时关掉主数据中集群节点, 采用ping命令查看数据中心IP地址和主机是否正常通信, 测试结果1分45秒后结果显示正常。

4.2 网络出口

验证高校“双活”数据中心正常运行期间, 对主数据中心网络接口设备设置故障, 主数据中心网关失效, 备份数据中心自动切换成主机模式, 主数据中心与备用数据中心之间通过二层互联, 用户仍然可以访问主数据中心资源池。将主数据中心网关接口关闭, 实用ping命令测试主数据中心是否可以被访问, 测试结果3分钟后, 可正常访问, 表明主数据中心与备用数据中心之间已经通过二层互联。

4.3 Web服务器

验证主数据中心Web服务器故障, 用户访问Web应用时是否会出现网络中断现象。关闭主用户Web服务器, 调用备用服务器地址提供Web应用, 由于高校“双活”数据中心处于正常运行状态, 服务器的调换并未影响到用户Web的应用, 结果用户在毫无察觉的状态下更换了服务器。

5 结语

为了保证高校数字资源的可靠应用, 搭建“双活”数据中心平台具有良好的可行性。本文介绍了一种“双活”数据中心, 通过本文所设计的方案实现了两个数据中心, 一个主数据中心用于承担教学及管理的高校资源应用, 另一个备份数据中心进行数据的备份和配置, 该方案具有良好的实用性, 可保证高校数字资源7*24小时不间断应用。随着信息技术、网络技术的不断发展, 双活数据中心的实现方法方式可以多种多样, 因此在系统的应用与管理过程中, 应结合新技术不断完善, 提高高校“双活”数据中心平台的利用效率。

参考文献

[1]樊昊.“双活”数据中心的设计实现[J].电信科学, 2016, 32 (1) :182-187.

[2]陈晓, 张龙军.一种双活云中心灾备方案的设计与实现[J].中国新通信, 2015 (23) :110-111.

[3]宋凌怡.基于Open Stack的高校云数据中心研究与实现[J].赤峰学院学报 (自然科学版) , 2016, 32 (15) .

[4]赵晓光, 兰永平.基于虚拟化的双活数据中心技术实现[J].信息技术与信息化, 2014 (5) :270-271.

[5]周杰.数字化校园数据中心建设的意义及实现路径思考[J].新校园 (上旬) , 2015 (8) :136.

[6]刘振华.面向业务的银行数据中心云[J].中国金融电脑, 2014 (3) :39-43.

[7]刘昕.基于云计算的高校数据中心构建模式研究[J].信息系统工程, 2014 (02) :18.

医院双活数据容灾中心的建设探索 篇5

1、系统现状

医院数据中心历史配置如下:2009年随着信息化建设的深入, 医院的核心业务系统HIS、PACS等数据库已经建成2台服务器+2台磁盘阵列柜的系统架构, 为保障医院业务信息系统的正常运转发挥了重要作用。

1.1、HIS系统采用2台SUN小型机 (Solaris操作系统) +2台EMC CX4-240磁盘阵列柜 (9块300G硬盘, 6块600G硬盘) 利用Symantec Storage Foundation+Oracle RAC方式实现双机双柜的运行模式 (不同楼宇的机房) 。

1.2、PACS系统采用4台DELL R910 (Redhat Linux操作系统) +2台HDS 2300磁盘阵列柜, 2台数据库服务器采用Symantec Storage Foundation+Oracle RAC方式实现双机双柜的运行模式, 2台应用服务器采用Symantec Storage Foundation+集群方式实现双机双柜的运行模式 (同一楼宇的机房) 。

2、存在的问题

2.1、现有的HIS服务器Sun T5240小机已经运行5年整快到产品生命周期, 设备已经过了保修期。HIS系统的EMC CX4-240存储已经快到产品生命周期, 设备已经过保修期。

2.2、除了HIS、PACS具有双机热备其他二级应用系统都是采用单机运行, 存在单点故障风险。

2.3、医院每增加一个业务应用的时候就需要增加1套服务器, 例如将来有20个应用系统那么整个数据中心就需要20台服务器, 造成硬件资源极大的浪费。

2.4、现有的PACS系统虽然有采用的双机双柜, 但是PACS的所有服务器、存储硬件都是放置在同一中心机房, 没有形成实际的双中心。

2.5、现有的备份系统只有针对HIS系统进行备份, 其他PACS、财务等系统没有进行集中统一备份。

2.6、现有的容灾架构只有两个数据中心实现热备功能, 对重要的HIS、PACS数据库的只建立了双机双柜, 能实现硬件级故障恢复对于软件系统的故障还无法恢复, 还有很多二级应用系统仅运行在中心机房, 备用机房还无法完全独立接管中心机房。

3、双活数据中心建设方案:

基于以上存在的问题, 我们深知医院信息管理系统的正常运行离不开高可用的硬件支撑平台, 为确保医院信息管理系统安全稳定高效运行。2015年8月对原有的硬件平台进行升级, 根据未来五年的需求进行架构设计, 数据库主机沿用原有稳定的RISC小型机架构、选用ORACLE最新款小型机确保业务吞吐量、采用闪存盘、高速SAS盘、中速SAS盘分层存储结构, 提高存储IO效率。选用EMC VPLEX实现楼栋间的异地容灾, 并采用一体化备份机做定期策略备份。

规划方案系统部署在中心机房和备用机房实现双活数据中心。实现以上系统的业务应用高可靠性, 即系统无单故障点, 不会因为服务器、系统、网络、存储甚至某一机房电源故障而导致业务系统无法正常运行。结合目前医院的实际情况和新系统测试情况, 对现有已经过了产品生命周期的设备进行更新, 同时结合云计算技术建设高可用的数据中心 (采用基于虚拟存储和虚拟服务器集群的高可用解决方案) 。

根据医院业务系统的现状特性及需求, 服务器及存储系统采用如下架构:

如上图所示, 新中心机房和旧中心机房实现双活数据中心, 两个中心机房所有设备都是1:1对等的, 两个中心机房具有独立承担运行所有业务系统, 双活数据中心可以实现硬件级故障容灾。双活数据中心和容灾备份中心建设方案如下:

3.1异地容灾和基于服务器虚拟化的容灾

我院新建了中心机房, 位于医院的不同楼宇, 将原有机房作为异地容灾机房, 新增2套Oracle T5-2 Sparc小机作为HIS数据库服务器 (新中心机房和原中心机房各放1台, 采用相同配置) , 配置2个16核3.6 GHz SPARC T5处理器、256GB内存、3个300G SAS硬盘 (2个RAID1, 1个热备) ;通过光纤实现高速的数据传输, 在主服务器发生故障或遇到灾难时由备用服务器接管主服务器, 最大程度保证灾难发生时数据库服务器的可用性;非核心业务服务器虚拟化建设:利旧现有服务器, 扩容CPU及内存, 搭建生产中心服务器虚拟化平台, Vmware虚拟化软件和Symantec Application HA实现系统级HA和应用级HA;配置2台高性能的X86服务器作为数据中心虚拟化的运算资源。

3.2、双活存储容灾

新增2套EMC VNX 5600作为HIS数据库共享存储 (新中心机房和旧中心机房各放1台) , 配置7个200G SSD硬盘 (SSD也叫闪存盘, 最显著优势就是速度, 采用FLASH内存的SSD具备相当高的数据安全性, 并且在噪音、便携性等方面都有硬盘所无法媲美的优势) , 18个600G SAS 10K硬盘, 4个8GB FC端口;48GCache;配合EMC VPLEX双活系统和虚拟化平台功能, 实现生产中心和容灾中心两台EMC VNX5600之间的数据同步及内存镜像, 使得虚拟化平台上所有业务系统可以在两个双活中心之间进行无缝切换, 即任何一台EMC VNX5600出现硬件故障或者虚拟平台的物理服务器出现故障, 都不会造成业务中断, 保障业务的持续运行能力。

4、结论

随着医院信息化的发展, 医院各部门对信息系统有高度的依赖性, 更加要求信息系统的高可用性。双活数据中心架构设计是整个容灾建设方案的重点, 其核心组件是EMC VPLEX存储虚拟化引擎, 也是EMC的一项独特技术。构建基于虚拟化技术的双活数据中心之后, 当一个数据中心内的服务器、存储甚至整个数据中心发生故障时, 业务应用可以无缝切换到另一个数据中心, 业务保持在线, 实现了数据中心级别的高可用。应用2个VPLEX存储网关做到两数据中心为双活架构, 将2个数据中心打通成1个虚拟的数据中心, 应用系统和数据在2个数据中心可同时被访问, 对核心业务可进行并发的IO读写操作, 而且可根据需要应用和数据可在不同数据中心间自由在线迁移, 实现自动的负载均衡和应用级别无中断, 将完全保证关键业务应用系统的完整性、可用性和连续性, RPO/RTO趋近于零。虚拟化技术是云计算时代的核心技术。而存储虚拟化技术作为未来一段时间发展的主流, 可以用于解决信息系统存储设备复杂多样、操作系统复杂及对容灾级别要求较高的难题。借助基于存储虚拟化技术的存储网关, 分别在2个数据中心内部署存储虚拟化网关引擎, 对各数据中心进行存储虚拟化整合, 可实现对数据中心的统一调度和管理以及相关的维护工作。基于存储虚拟化网关双活数据中心容灾设计方案彻底颠覆了传统数据中心“一主一备”的容灾设计方案思路, 在满足业务连续性需求的前提下, 最大限度地实现了资源的充分利用, 节省用户IT基础设施的投资建设成本。一种技术只能减少或防止某些类型灾难的影响, 完整、高可靠的系统设计方案, 必须包括多种技术手段的组合, 方能完全保证数据的安全和业务高可用持续运行。

摘要:目的:满足医院对于信息系统的高可用性要求。方法:实现生产中心和容灾中心两台存储之间的数据同步及内存镜像, 使得虚拟化平台上所有业务系统可以在两个双活中心之间进行无缝切换, 即任何一台存储出现硬件故障或者虚拟平台的物理服务器出现故障, 都不会造成业务中断, 保障业务的持续运行能力。结果:探索出了一套具有高稳定性、高安全性和可持续运行的医院双活数据中心容灾建设模式。结论:在实践中取得良好效果。

关键词:双活数据中心容灾模式,高可用性,可持续运行

参考文献

[1]汪兆来, 基于存储虚拟化技术的双活数据中心医院信息系统容灾平台研究与设计, 中国医学装备2015年9月第12卷第9期

[2]杨永福、黄黎明、尤超、巩清源、李先锋, 医院双活数据中心容灾模式建设的探索与实践, 中国数字医学2015年第10卷第8期

数据双活 篇6

1 双活数据中心[1]

双活中心是指两个数据中心之间并没有明确的主备之分, 每个中心都有生产、互为灾备的任务。双活中心具备以下4大优势。一是实现最高级别的可用性。双活中心可以实现数据零丢失、实时切换。二是提高设备利用率。双活中心不再设置专用的灾备资源, 不同中心的资源同时承担生产和灾备。三是保障运维资源的灾备接管能力。由于日常双活中心的运维资源都在进行生产, 当一个中心发生灾难时, 另一个中心所有的流程、职责、设备资源、系统资源都不需做大的改动即可接管, 只是运维工作量有所增加。四是双活中心的技术要求比“两地三中心”等传统模式高很多。传统模式一般只做数据层面的同步、异步复制, 在其他技术层面不需要互联太多, 而双活中心要求在信息系统的各个层面都要紧密互联、互动。

2 双活数据中心目标

为了实现双活数据中心建设, 必须考虑以下三方面的建设:

2.1 核心业务跨地域集群

原有的核心业务系统的本地集群, 可以扩展到双中心部署模式, 以对应单个数据中心的灾难或计划内维护。

2.2 虚拟化资源灵活部署

以虚拟机方式部署的业务系统, 可以在两个数据中心迁移, 支持业务连续性;同时, 在应对突发交易或灾备时, 资源可以快速调整和扩展。

2.3 数据异地复制

对业务数据进行异地复制, 并保持数据一致性。在需要时, 可以对数据进行快速恢复。

3 技术实现

3.1 双活数据中心架构

双活数据中心的总体架构图如下:

双活架构设计:

计算资源池:生产中心与容灾备份中心的计算资源池采用同一X86 CPU虚拟化技术 (Intel VT, AMD VT) 。

网络资源池:生产中心与容灾备份中心的网络设备 (核心互联的三层设备) 支持数据中心互联技术。

存储资源池:生产中心与容灾备份中心的存储资源池采用同一技术构建, 便于存储资源池融合 (如建立分布式的卷) 、数据迁移与数据备份。

业务系统访问:用户使用双中心的业务系统方式如下:通过负载均衡技术, 实现全局及本地负载均衡;通过智能DNS系统进行定向和容灾切换。

3.2 数据中心容灾

数据中心容灾主要分为5个层面, 如下图所示:

其中, SAN层及存储层主要面向数据级别的容灾, 应用层、数据库层及逻辑卷层主要面向业务及应用级别的容灾。数据级容灾通常是应用级容灾的基础。

数据级容灾:随着云计算技术的发展, 资源整合和池化是数据中心发展的必由之路, 传统的数据级容灾方式, 不适合当前的软硬件支撑平台的容灾需求。可以通过对云生产中心和云容灾备份中心的存储资源池进行跨数据中心的数据远程同步功能, 通过采用分布式的卷管理技术 (卷跨数据中心, 对主机透明) , 实现基于云平台的数据级容灾。

数据库容灾:数据级容灾是云容灾备份中心建设的基础, 数据级的容灾实现以后对数据的可靠性起到了保证;除此之外, 还要保证数据的可用性也是本项目数据中心容灾面临的有一个问题, 主要是要保证业务系统的数据库始终处于Active状态, 保证数据库系统实时可用。

在软硬件支撑平台的建设过程中, 各业务系统可根据具体情况和技术难度, 选择使用国外数据库或切换到国产或者开源的数据库。

业务系统容灾:完成数据级容灾、数据库容灾系统的建设后, 要实现业务级容灾还需要考虑数据库上层所支撑的业务系统, 如何保证这些业务系统对最终用户实时可用, 是衡量业务级容灾建设成功与否的最终标准。

业务级容灾的解决方案主要包括如下内容:

DNS重定向:一种是DNS设备监测虚拟机或者主机的活动, 一旦发现某个业务的虚拟机或者主机不能提供服务, 通过路由重定向技术, 确保用户对业务服务的使用不中断。另一种是通过虚拟机的管理平台 (如Vcenter) , 向DNS设备宣告虚拟机的迁移或失效。采用基于DNS方式的解决方案, 需要相关的开发商修改他们的业务系统 (采用DNS系统提供服务, 而不是通过IP地址或端口号等提供服务) 。

路由注入:一些DNS设备可以支持路由注入的功能, 通过路由注入, 学习到入向路由, 确保用户可以获得业务服务。

3.3 数据中心互联

双活数据中心方案中的核心支撑点是数据中心间的互联, 其应具备支持实现核心业务跨地域集群、虚拟资源灵活部署和关键业务数据异地复制的能力。数据中心互联方案包括局域网络延展、存储网络延展和用户接入路径优化。

局域网络延展:在数据中心间扩展局域网 (VLAN) 的连接, 支持应用集群跨地域部署和灵活迁移, 支持双活数据中心部署;提供更大范围的资源整合和灵活调配。

存储网络延展:存储网络 (SAN) 的远程扩展, 支持数据的远程复制及远程存取, 支持存储的双活。

接入路径优化:为接入用户提供优化的接入路径, 使得流量更合理分布。

4 总结

随着政府信息化的飞速发展, 确保信息系统稳定可靠运行和数据安全就成为政府信息化建设的重中之重。容灾系统的建设就是以最合理的代价保护应用数据的完整性和业务系统的连续性, 本文对基于虚拟化的双活灾备中心建设技术实现进行了浅要分析。另外, 建设双活数据中心, 技术仅仅是其中的一个方面, 在服务、管理、流程、人才培养等方面都需要做大量的研究和部署工作。总体来说, 信息化建设, 任重而道远, 建立灾难容灾体系势在必行。

参考文献

[1]肖良华.云数据中心双活技术浅析[J].金融电子化, 2011 (2) :59-61.

[2]马锡坤, 吴艳君, 王鹏.基于云计算的数据中心容灾系统的建设[J].中国医疗设备, 2014, 29 (1) :93-95.

[3]詹浩, 李阳.大型数据中心“双活”应用探析[J].金融电子化, 2013 (8) :69-70.

数据双活 篇7

随着云计算、大数据的发展, 越来越多的企业把应用、数据、系统进行集中处理, 但数据集中的同时也面临风险, 灾难突发时如何保障企业核心业务7×24小时业务连续性, 成为业界关注的问题。而传统数据中心容灾建设模式面临资源利用率低、切换时间长, 业务存在必然损失、数据中心运维整体健康状态不可见、缺少演练等挑战。

为了应对传统数据中心容灾弊端, 2014年9月, 华为在上海世博中心重磅发布双活数据中心容灾解决方案。该解决方案通过数据中心容灾应用级双活部署和可视化敏捷运维管理系统, 在高效盘活灾备数据中心资源、提升系统资源利用率的同时实现数据中心业务自动切换、应用零中断、数据零丢失。这标志着华为已可以提供业界最高要求的数据中心业务连续性灾备解决方案, 将满足客户对数据中心容灾业务高可靠性的需求。

金融行业传统灾备中心弊端显现

我国金融行业的信息化建设一直走在各行业的前列。近几年, 云计算、移动互联、社交网络和大数据等新技术的涌现, 催生了金融行业很多新需求和新业务。同时, 金融业务的发展, 对业务连续性的要求也进一步提高, 数据中心之间交换的数据业务类型也越来越丰富, 灾备网络承载的数据类型越来越多。

至此, 传统的灾备中心已经显露出应对业务新需求的困难, 比如“活性”不足, 灾备资源闲置;主备模式建设的容灾中心, 一般使用异步复制功能, 生产中心数据和容灾中心数据存在时间差, 会产生损失;另外还有容灾切换难决策、管理运维处于黑盒模式等问题。

而上述弊端也确实对金融行业产生了不良影响, 比如在2013年6月, 工商银行在北京、上海、广州、武汉、哈尔滨等多地因计算机系统升级导致柜台、ATM、网银等业务出现故障, 逐步恶化, 最终导致全部业务中断1个小时。在这其间, 是否将业务切换到灾备中心, 决策比较纠结。如果能够实时监控了解状况, 早做决策, 是可以在事态未趋之严重时予以降低影响, 甚至解决。

华为数据中心解决方案部总经理陈世峻表示, 华为双活数据中心解决方案, 是基于业务连续性, 保障整个系统运营安全方面考虑的。华为给客户提供可以满足数据安全及业务连续性要求的解决方案。这个方案不仅是起到灾备作用, 更强调对业务连续性的支持。对灾备数据中心来讲, 传统的数据中心是把数据保护下来, 而双活数据中心关注的是业务连续性, 是对客户的生产系统, 经营系统提供持续不断的服务。

应用双“活”部署可视化实现敏捷运维

传统的灾备只做数据层面的同步、异步复制, 在其他技术层面不需要互联太多, 而双活数据中心则要求在信息系统的各个层面都要紧密互联、互动。要实现完备的双活数据中心, 则需要在数据中心的各个层面都要考虑双活设计。一般的数据中心可以分为服务器群、存储群、网络架构、应用层四大部分。需要对每个部分都进行双活设计才能实现数据中心整体上的双活。

华为IT产品线数据中心解决方案营销部长薛云表示, 华为的双活解决方案可以从传输到网络到计算再到数据库上面均实现双活:第一, 方案可以使应用活起来;第二, 可以实现“数据零丢失, 业务零中断”;第三, 能够实现可视化运维, 对于IT设备的运维人员, 只需打开我们的可视化系统观看报表, 就可以了解整个系统目前的状况。

其中, 可视化运维是华为推出双活数据中心方案的三大主题之一, 华为自主研发的容灾监控软件, 可以对企业建立自己的双活或者是灾备数据中心进行容灾管理。可视化软件不仅仅是可视, 也可以收集系统信息做相应的资源分析, 以便对备用数据中心状态有一个清晰的了解, 这样对客户在做容灾演练的时候, 认定备用的系统运营是安全可靠的, 马上就可以切换, 可以提高效率。也就是说, 可视化软件不仅是对主用数据中心, 也对备用数据中心的运营状况形成一个管理。实现真正的“敏捷运维”。

存储技术实现突破保障数据同步性

数据中心的双活技术是包含多个层面的, 从传输、网络、存储、主机、数据库、应用都需要相互配合, 所以双活容灾是一个复杂的系统工程。其中每一个层面, 每一个业务模块都会有一些特定的技术, 在一定范围内可以提供容灾功能, 而通过存储技术可以保证数据的一致性, 通过主机的机群可以保证应用同时运行。

而华为双活数据中心方案的关键技术就在存储虚拟网关部分, 这个重要的功能是要做到数据在两个数据中心之间同步, 保障两个数据之间一致性。陈世峻表示, 华为在存储上面有比较大的突破, 可以做到把其他厂家的存储统一到双活方案中, 华为也有自己核心的云虚拟化技术。而这些核心技术都正在考虑向传统的电信运营商, 金融、能源、医疗等重点行业拓展。

上一篇:学前融合教育论文下一篇:明确企业发展方向