共享存储器系统(共7篇)
共享存储器系统 篇1
1 分布式共享存储器系统简介
分布式共享存储器 (Distributed Shared Memory—DSM) 作为分布式操作系统中的一个资源管理部件, 帮助没有物理上共享的存储器的分布式操作系统实现共享存储器模式。其原理就是在分布式系统中提供一个可供系统内所有节点共享的虚拟地址空间, 该虚拟地址空间可以被用户自由使用, 每一个节点都可以拥有存储在空间的数据, 以此类推, 可以利用多个节点存储非常多的数据, 当需要对共享地址空间中的数据进行访问时, 映像管理员就会把共享存储器地址变换为本地地址或远程的物理存储器地址, 是一种物理上分布、逻辑上共享的分布式共享存储器。
2 DSM设计与实现的相关问题
(1) 共享地址空间结构和粒度。地址空间可以是平面的、分段的和物理的。共享地址空间结构是指存储器中共享数据的布局方法。粒度指的是共享单元的大小, 一般是指字节、数据结构等。共享地址空间结构与粒度联系非常紧密。
(2) 缓存一致性协议。DSM经常出现缓存一致性问题。不同的协议有不同的假设, 选择协议依赖于存储器访问模式和支持环境。在写无效协议中, 一块共享数据可能有很多个只读副本, 但仅有一个可写副本, 每进行一次写时, 除了一个以外, 其他副本均变成无效。在写更新协议中, 每次写都要对所有副本进行更新。
(3) 可扩充性。DSM系统具有可扩充性。集中的瓶颈和全局公用信息的操作及存储是限制DSM系统可扩充性的两个重要因素。
(4) 数据定位和访问。在DSM系统中共享数据, 必须要先通过应用程序能找到相关的数据, 对数据进行定位。DSM系统是一个支持数据迁移的系统, 在数据定位和访问方面存在一定的困难。
(5) 同步原语。缓存一致性协议对于维持共享数据一致性具有一定的作用。但是, 还需要利用同步原语来对访问共享数据的活动进行同步, 这样才能够确保共享数据一致性。
(6) 异构性。系统结构不同的两台机器之间要能够实现数据共享是存在一定困难的。所以, 首先要解决异构性问题, 才能够实现分布式共享。
(7) 替换策略。分布式共享存储系统中的共享数据如果过多, 就会占满缓存器的有效空间, 如何将这些共享数据转移出去和放到哪里去也成了一大难题。
(8) 颠簸。DSM系统很容易就出现颠簸, 例如, 当两个节点对一个数据项同时进行写的过程中, 就可能产生以高速率来回传送数据的现象, 称之为乒乓效应, 这样就会使任何实际工作都不能进行。
3 实现DSM的算法
共享存储器模型为访问共享数据包含两个基本操作:data:=read (address) 和write (data, address) , 其中read是指返回由address指出的数据项, write是指把由地址address指出的内容设置为data。根据是否允许迁移或复制, 针对DSM设计与实现的相关问题, 可以提供中央服务员算法、迁移算法、读复制算法和全复制算法来解决这一问题, 具体如下所示:
(1) 中央服务员算法。中央服务员算法是指利用一个中央服务员来为所有对共享数据的访问提供服务并保持共享数据唯一的副本。读和写操作都包括由执行该操作的进程向中央服务员发送请求报文, 中央服务员执行请求并回答, 读操作时回答数据项, 写操作时回答一个承认。
(2) 迁移算法。迁移算法会将数据迁移到访问它的节点。实际上, 它就是一个“单读者/单写者” (SRSW) 协议, 确保在整个系统中一次只有一个进程读或写指定的数据项。
(3) 读复制算法。读复制算法是指对于一个当前不在本地的块中的一个数据项进行读操作时, 先与远程节点通信以获得那个块的一个只读副本, 然后再进行读操作。如果被执行写操作的数据所在的块不在本地或在本地但主机无写权时, 必须先使此块在其他节点的所有副本无效, 之后再进行写操作。
(4) 全复制算法。全复制算法允许数据块在进行写时也可以复制, 遵循“多读者/多写者” (MRMW) 协议。通过对所有的写操作进行全局排序可以实现保持复制数据一致性, 并且只是对与发生在执行读操作节点上的写操作相关的那些读操作进行排序。
4 结语
DSM系统与机密耦合的多机系统相比, 其具有性价比高、规模可扩充、兼容性良好等优点。本文分析了DSM系统设计与实现的相关问题, 研究了DSM的实现算法, 对于改善分布式共享系统的性能具有重要的作用。
摘要:目前, 分布式共享存储系统已经能够支持科学计算、Web服务器以及大型数据库管理等多种应用, 具有较好的可扩展性和较高的性价比, 同时也容易进行程序开发。文章对分布式共享存储系统的设计与实现进行了研究, 分析了DSM设计和实现问题, 论述了DSM的实现算法。
关键词:分布式,共享存储器系统,设计,实现
参考文献
[1]韩德志.网络存储技术及其进展[J].计算机应用研究, 2005 (7) :5-8
[2]徐革等.基于FC SAN和IP SAN架构的数字图书馆综合网络存储应用[J].计算机应用研究, 2005 (6) :168-170
湖北台电视剧共享存储系统简介 篇2
电视剧播出在电视台节目编排,节目播出中占有举足轻重的地位,它与节目收视率、经营创收息息相关。电视剧播出具有播出总量大,审核工作量大,编辑工作量大、上载工作量大等特点。传统电视剧播出是以视频磁带作为存储媒介的,因此电视剧从备播到播出过程中的各个环节都需要大量的录像机,而传统的录像机线性编辑存在工作效率低、剪辑后图像质量下降、重播剧重复上载、广告安排变动时电视剧时长调整难度大等缺点;针对电视剧播出中存在的上述问题,我们设计并建设了播出系统整备互联平台及电视剧共享存储系统。电视剧共享存储系统由非编网和小型媒资系统组成,实际上就是设置在播出域并与播出系统紧密相连的非编网,非编网实现电视剧的剪辑打包审看校验迁移等功能,小型媒资系统负责原版电视剧的存储调用。电视剧共享存储系统通过播出系统整备互联平台与播出网以及全台媒资系统相联。电视剧共享存储系统的设计建设,运行管理,技术维护也全部由播出部负责。其主要功能和工作流程都是围绕电视剧的播出、编辑和存储而设计的,其编辑及存储的都是播出视频服务器所支持的MPEG-2 IBP编码的MXF封装格式的视频文件,可直接调用播出系统现有的己上载素材,生产出来的电视剧无需再次转码即可供播出视频服务器使用。
电视剧剪辑系统采用千兆以太网架构,配备2台48口思科3750G,采用交换机堆叠技术连接;使用EMC VNX5500作为核心存储,共划分了6卷,两个卷用作原版剧存储(单卷10T共20T),两个卷用作电视剧剪辑(单卷8T共16T),单卷的总读取带宽高达850MB/s,总写入带宽约350MB/s,满足现有系统需求并有一定的富余,可供将来系统升级扩容使用,两个卷用作对外素材交换的缓存(分别为3T和4T),两个卷分别用作迁入及迁出的缓存,以更好地实现权限的分配及素材的删除管理,所有卷通过2个NAS使用NFS方式访问,通过域实现权限管理。系统配备域控服务器两台,数据库服务器两台,两台数据库服务器间通过EMC Atuostart软件实现了数据库磁盘的实时复制及自动切换,达到数据库服务器的热备;两台媒资管理服务器,实现媒资的迁入迁出编目查询等功能,四台接口服务器,分别提供非编内部流程管理,及对外信息交换的接口,审片及MD5校验的功能,三台后台打包服务器,用于完成非编软件生成的故事板的打包工作,提高非编工作站的使用效率。值得一提的是,全部服务器及非编工作站全部使用64位的操作系统及应用软件,以更好地满足高清非编制作的需要。
湖北电视台整备互联系统使用光纤和千兆网线将大洋电视剧剪辑系统、捷成媒资系统以及现有播出系统从物理上整合起来,实现节目共享。整备互联系统由8台HP服务器,2台云存储服务器、2台Cisco交换机、一台山石防火墙构成。考虑到播出安全,使用防火墙阻隔从大洋、捷成系统传入播出的消息流,通过在防火墙上增加安全策略来保护播出系统安全;2台交换机为并行架构,分别用于接入消息流和素材流,并在每台交换机上根据区域原则划分了VLAN,并做了安全策略,实现按需互通;8台HP服务器全部为双网段模式,在这些服务器部署了专业的防病毒软件和相应的整备软件,并根据实际功能配置不同的网关.在最大程度上阻隔病毒的传入;2台云存储服务器为单网段模式,主要用于缓存素材,提供FTP功能。
如图1所示,整备系统8台HP服务器分别为2台域控制器/数据库服务器,2台接口服务器,2台回迁服务器和2台迁移服务器。域控制器/数据库服务器提供整个整备区域管理功能和“整备数据”存储功能,装有Microsoft SQL2008专业数据库软件,实现了先进、可靠、安全的数据存储,数据库服务器之间运用NEC Express Cluster软件,实现了数据库磁盘的实时复制,达到数据库服务器的热备;2台接口服务器分别是大洋剪辑网接口服务器和媒资网接口服务器,用于整备系统和大洋剪辑网及媒资网之间提供WEB接口服务,2台回迁和迁移服务器主要完成播出网,大洋剪辑网和媒资网的文件传输工作;2台云存储服务器用于缓存大洋剪辑网和媒资网过来的电视剧集,可以把它看作是整个整备互联系统的二级存储,在素材进入云存储的时候.无论通过哪台主机写入,云存储会通过内部机制自动将素材同时写入这2台主机,大大增强了素材存储的安全性。
整备互联系统提供Web Service接口服务、MD5校验服务、技审服务,软审服务和迁移服务,电视剧的迁移使用全文件的流程化管理,并制定了三级审片制度,通过编辑人员人工审查,软件自动技审,导播播前终审,最大程度避免有问题的电视剧素材进入播出系统,在素材迁移过程中使用MD5校验技术保证文件在迁移过程中的完整性。当频道人员从电视剧剪辑网提交剧集到播出区播出时,打包完成后频道审核人员审看通过后Web Service接口会收到来自剪辑网的剧集相关信息,迁移服务器通过检测Web接口获取迁移任务迁移素材并对素材进行MD5的校验工作,当校验信息正确时才将素材写入数据库.否则视作不安全素材直接删除,素材入库后技审服务器会对素材进行自动技审,最后导播用软审软件终审通过后,剧集才会通过迁移软件自动迁至播出服务器待播。整个流程安全透明,充分保证了节目及素材传输到播出系统之后的安全性及完整性,确保了安全播出的需要。
整备系统还同时提供了素材的回迁功能,播出网上载的原版电视剧可以提交到电视剧剪辑网进行编辑,还可以把重播率较高的剧集提交到媒资网进行存储,也在一定程度上避免了重复劳动,提高了工作效率。节目编播全程文件化不仅仅意味着从原来磁带介质通过上载进行播出改为文件进入播出系统播出,更意味着我们的生产模式、组织架构、业务流程、审核机制、安全保证等等都会随之发生巨大改变。播出质量的审核与监看与全程文件化密切相关。电视剧播出流程:影视剧购入后,通过录入、编目进入媒资系统。播出前,各频道申请,审批后调入电视剧共享存储系统编辑网剪辑。制作完毕,通过审核,提交播出系统。整个流程中仅购入后一次上载,全程素材文件传递、全程电子化审核。基于数字媒体资源为核心的运营模式,为电视台带来的结果将是业务实现手段的转变和业务核心管理的提升,建立具有扩展性的全业务平台。它是对当前资源独享的巨大变革.是实现全面数字化视频播出、节目传输、网上发布,交换出售等增值服务的前提,对电视台业务的全面展开和深入发展具有极其重要的现实意义。电视剧共享存储系统投入使用以来,已经为湖北广播电视台电视频道播出提供了播出版电视剧上千集,避免了节目制作人员上载、剪辑、下载、再上载、播出这一繁复的过程。电视剧共享存储系统的建成和使用带来湖北台播出系统网络架构创新,节目编播流程创新、数字化媒资管理创新,向实现争创一流电视台目标更进一步,努力向一流目标进军。
摘要:本文对湖北广播电视台电视剧共享存储系统的搭建和作用进行了介绍,重点阐述了该系统的构成及硬件特点,采用该系统后电视剧制作和播出上有了改变,这种改变带来了电视剧生产效率的成倍提高。
共享存储器系统 篇3
随着现代医学的发展, 医院诊疗工作越来越多地依赖现代化的检查结果。像X光检查、CT、MRI、超声、胃肠镜、血管造影等影像学检查的应用越来越普遍。在传统的医学影像系统中, 影像的存储介质是胶片、磁带等, 其耗材成本支出高, 存放、查找、借阅难, 且由于信息资源不能共享, 难以避免病人重复检查等问题, 使得病人检查费用居高不下。因此, 传统的医学影像管理已经无法适应新型医疗卫生服务的要求, 采用数字化影像管理方法来解决这些问题已迫在眉睫。目前, 虽然有部分医院已经开始对医疗影像的数字化管理, 在医院内部实现了这些资源的共享, 但跨院间的信息共享尚不能实现。
鉴于此, 区域PACS平台的业务建设将紧紧围绕“完善公共卫生和医疗服务体系、合理配置医疗卫生资源”的重点进行, 预期本项目实施后, 将达到以下效果:
从社会角度, 通过实现对医学影像检查设备资源的合理配置、整合与共享, 从而节省医疗资源的重复设置, 减少医疗设备投资浪费。通过率先在联网医院的范围内建立区域内居民“以人为本”的诊疗信息资料库, 为将来实现区域医疗信息化打下基础。另外, 通过减少对传统影像胶片的使用, 从而降低对环境的污染。
从病人角度, 实现在某一家医院进行过检验检查后, 即可在联网范围内的其它医院调阅到相关的影像图像和报告。从而避免病人在多家医院的重复检验检查, 降低医疗费用支出负担, 缓解“看病难、看病贵”矛盾。通过诊疗信息的交换共享, 方便就医者在某医院内以及联网医院范围跨医院的诊疗。
从临床医生角度, 实现对病人历史诊疗资料、医学影像检查资料的跨院调阅, 便于掌握病人病历和诊疗的整体情况, 为提高医疗服务的质量创造条件, 减少误诊或错诊的可能性。此外, 通过整体上把握病人的病史资料, 从而方便了对疑难病症实现专家会诊、实现对医学科学专题研究等提供有效信息和有利手段。
区域医疗信息交换共享在国内外受到了普遍关注, 国内各地纷纷出台了相应的建设项目和计划方案。国际上一些基于IHE解决方案的项目已经或者正在进行中, 从技术架构上理解这些项目对我国区域医疗信息共享交换有重要意义。
基于区域医疗共享的PACS用于将患者分布在各级医院中的诊疗信息、检验检查结果和医学影像进行基于国际IHE规范的共享交换和协同医疗。通过构造区域内部的医学影像信息交换平台, 以实现区域内医院的医学影像资源的共享与整合。此平台是卫生主管部门推动双向转诊和远程医疗的关键技术辅助手段, 可以有效地避免患者重复检查, 远程诊断咨询或者远程会诊, 远程教学和医学继续教育, 区域内部医学影像资源共享或者医院内部PACS系统的互联互通, 远程医学影像质量控制等。
该系统的研发和推广使用, 可以很大提高医院医疗技术水平, 实现高档设备, 优质医疗资源等信息共享和远程诊断等, 同时也会产生很大的社会效益和经济效益。
2 系统总体设计
根据影像图像和报告数据交换的特点及其功能需求, 影像数据中心系统架构设计遵循以下原则:
开放性。可与各医院异构PACS系统集成互联通信;可逐步将各级医院的影像纳入进行存储管理和应用。
标准化。遵循国际医疗影像信息共享技术架构框架文件IHE XDS–I;遵循医学影像通信标准D ICOM和其它相关医疗标准 (如HL7等) ;支持常用各类DICOM图像的共享交换和相应的通信传输语法。
可管理性。具有对所有共享影像进行中心注册管理功能;能对所有图像进行集中式存储备份。
安全性。在图像提交、传输和查询中提供数据私密性和完整性保护;符合DICOM有关数据通信安全性和使用可追踪性要求;系统具有容灾设计和快速灾难恢复能力。
根据以上原则, 通过研究集中分布系统架构具有的诸多优点, 完全适合区域共享的需求。采用集中分布系统架构能够:
(1) 集中与分布式相结合的架构, 合理利用了已有的医院资源, 同时又增加了数据的获取渠道, 平衡利用有限网络带宽资源;
(2) 影像数据中心系统的中心节点和医院节点自动互为备援数据在医院和中心异地备份;
(3) 在医院前置机正常工作的前提下, 整体架构将为分布式。
医院间共享数据尤其是医学影像的共享成为越来越迫切的需求。如图1所示, 显示了医学影像共享的一般需求:
影像仪器端传入各医院端PACS服务器中, 经过医院端前置服务器对影像进行数据匹配后, 定时通过DICOM通讯方式传到医学影像数据中心PACS应用服务器。中心端PACS应用服务器在收到影像资料的同时在数据库服务器中建立对应影像数据的索引, 在索引服务器中建立病人影像检查的索引。因此本共享系统主要分为中心PACS服务系统, 医院PACS系统, 和工作站系统。
(1) 区域PACS数据中心。建立一个影像数据中心, 连接区域内所有医院, 用于存储病人在就诊过程中所产生的所有文字信息和影像, 存储设备部署在中心医院。各医院生产的数据存储在本地, 同时, 为影像数据中心提供一个备份数据。
(2) 区域PACS信息共享与交换平台。建立一个区域PACS信息共享与交换平台, 采用Web方式发布到各个医院临床工作站, 可以与医院HIS或电子病历系统进行嵌入式集成, 方便医护人员使用。在该平台上, 医生可以完成会诊和转诊业务。同时, 也可以借助此平台实现患者在各医院之间的影像信息共享和调阅。
(3) 应用系统及接口。遵循IHE技术框架, 采用国际标准的HL7接口和DICOM接口与各相关系统进行通讯。区域PACS信息交换平台可支持多个接口组的方式, 每个接口组按照医院数据量的大小来确定连接一家或者多家医院, 避免由于数据量过大而对接口吞吐量造成影响。
建立影像业务患者个人唯一索引机制, 进而建立患者病案资料档案库。
(4) 共享流程
(1) 医院C工作站向数据中心搜索A医院PACS系统的病人数据;
(2) 中心服务器返回确认数据可用, 并返回数据列表;
(3) 医院C工作站根据列表直接请求A医院PACS系统取回病人的医学影像、报告等。
3 系统功能
3.1 中心PACS服务系统
中心PACS服务系统是区域共享系统的关键, 负责存储各医院PACS系统信息, 经过用户认证的医院工作站客户端可以通过WCF服务取得可访问的各医院PACS系统信息, 直接访问获取远程数据列表和DICOM影像。中心服务系统包括系统数据库信息管理、医院信息增删改管理、访问量统计、访问控制、用户认证、远程WCF获取访问量、WCF获取访问列表信息。中心PACS服务系统的层次方框图如图2所示。
3.2 医院PACS系统
医院PACS系统管理和存储了医院服务器的全局信息, 包括了设备管理、网关管理、工作站管理、用户管理、系统信息管理、DICOM上传请求监听、DICOM下载请求监听等。可以医院内部独立使用, 必要时与外部医院进行图像传输。
3.3 医生工作站系统
工作站系统是医生终端使用, 它提供了:DICOM影像获取模块, 主要有读取本地DICOM列表、读取远程DICOM列表、获取可访问医院列表、远程下载DICOM影像等功能;DICOM影像操作模块, 主要有图像旋转、图像放大、图像测量、图像灰度调节、图像亮度调节、放置各种标签等功能;诊断报告编写模块, 包括获取编写模板、保存报告到数据库等功能;工作站信息管理模块, 包括了各种模板管理 (如报告词条、报告标题、检查方法的管理) 、工作站系统配置 (如修改密码、数据库配置) 等功能。
3.4 主要功能模块
(1) 医院PACS信息管理模块
此模块是中心服务系统提供的进行各医院服务器信息的管理, 加入局域网共享的医院需要在这个中心服务器中登记, 增删改操作正确完整后点击保存按钮将一次性保存到数据库中, 并触发添加访问权限和记录访问量, 减少与数据库的交互。
(2) 医院访问控制模块
此模块主要实现各医院之间的访问控制, 通过设置访问权可以控制对其他医院是否可见, 从而实现访问控制。
(3) 设备管理模块
此模块是医院PACS系统提供对医院内各个相关网络设备的管理, 可以设置医院内网关、各科室影像上传设备、医生终端工作站等。
(4) DICOM请求侦听模块
DICOM请求侦听模块的设计使用DICOM标准中的SCP、SCU两个服务, 其中SCP是服务提供者, SCU是服务使用者。在模块设计中, 所要做的是在需要对远程图像进行获取的时候, 开启SCU服务, 查询远程服务端是否开启服务并进行验证, 验证成功后才发送接收图像的C-GET请求。而在需要将文件传输至远程客户端的时候, 则需要开启SCP服务来为远程客户端提供传输服务。接收的图像将存在本地指定目录中, 以方便医生的查看和诊断。
(5) DICOM列表获取模块
医生工作站可以获取本地DICOM影像列表, 和本医院可访问的其他医院的DICOM影像列表, 下载远程DICOM影像列表将调用中心服务器提供的WCF服务, 获取的可访问医院列表中包含了远程下载该医院DICOM影像列表的信息。
(6) DICOM远程下载模块
医生工作站可以通过SCP、SCU服务向医院PACS系统提供的DICOM图像进行远程接收。接收的图像将存在本地指定目录中, 以方便医生的查看和诊断。
(7) DICOM影像操作模块
此模块是医生工作端提供对图像处理以方便医生对图像进行更细致的查看和诊断, 其中包括了图像旋转、图像放大、图像锐化、测量长度、测量角度、调节灰度、放置各类标签, 以及设置显示窗口的数量。
(8) 诊断报告编辑模块
此模块是医生工作端提供医生对患者报告进行浏览、编写的功能。报告是医生对患者病情的描述, 是对患者诊断的重要依据。医生可以在允许的情况下下载患者在其他医院的诊断报告, 如果是在本医院的新检查, 可以编写对患者此次检查的报告, 以记录病情以及提供其他医院的医生查看。并且模块提供了各类报告编写模板, 增加医生工作效率, 医生也可以保存自己的模板。
4 结束语
笔者采用集中与分布式相结合的架构, 合理利用了已有的医院资源, 同时又增加了数据的获取渠道, 平衡利用有限网络带宽资源, 较好的解决了共享的问题, 在实际应用中取得了较好的效果。
参考文献
[1]石琳.以SOAP协议为基础的Web Service安全机制分析[J].科技致富向导, 2011, (30) .
[2]吕海燕, 李华伟, 车晓伟, 王丽娜.数据元注册方法研究与应用[J].电子设计工程, 2011, (19) .
[3]张冰波, 宋荣华.基于Web services的分布式信息检索机制的研究[J].软件导刊, 2011, (7) .
[4]罗爱静, 平静波.区域卫生信息化建设探讨[J].医学与哲学 (人文社会医学版) , 2011, (7) .
[5]伍枫, 胥悦雷.基于UDDI的服务注册中心的研究与优化[J].现代电子技术, 2011, (12) .
[6]李维, 陈祁.基于IHE PIX的MPI研究及其在医院的应用分析[J].医疗卫生装备, 2011, (6) .
[7]马文虎, 刘友华, 翟油华.基于IHE的医学影像信息系统集成研究与实现[J].信息技术与信息化, 2011, (2) .
[8]刘俊梅.医院信息系统的现状及其发展趋势[J].解放军护理杂志, 2011, (7) .
[9]宇文姝丽, 杨小平.电子病历存储模式研究[J].医学信息学杂志, 2011, (3) .
共享存储器系统 篇4
环翠区是山东省威海市唯一的市辖区, 是威海市政治、经济和文化中心。威海市环翠教育局辖属初中11所、小学21所、幼儿园7所。为适应信息时代的发展和现代培训方式的要求, 威海市环翠教育局决定进行录播系统建设, 在教育局高层的全方位调研下, 决定购置14台方正圆明MR200 3220服务器。
“由于录播系统的特殊性, 所需的服务器在存储容量和存储访问速度上有严苛的要求”, 威海市环翠教育局相关同志介绍道, “经过多方考察与样机测试, 我们最终选择了方正圆明MR200 3220服务器, 它强大的存储以及超高的运算能力在多种样机中脱颖而出。”
“后续的使用也很让人满意”, 该同志在谈论使用效果时说到, “我们一直都非常重视网络研训平台建设, 此次, 录播系统的建设使环翠区的整体教育水平提高了一个层次。通过方正圆明MR200 3220服务器的整合同步录制, 优秀课件可用来对外直播、存储、后期编辑、点播等, 方便资源共享, 使教学资源最大化, 同时, 新颖的教学方式也调动了受教者的学习热情。”
值得一提的是, 威海市环翠教育局不仅把以方正圆明MR200 3220服务器为支撑的录播系统教学应用在各中小学课堂上, 而且在党课的学习上、党政干部的培训上, 录播系统也起到了不可或缺的作用。可见, 由高效服务器支撑的录播系统有着非常广阔的市场潜力, 以强劲的存储带动最大化优质教学资源是每个教学系统所追求的目标。
据了解, 方正圆明MR200 3220服务器是方正圆明服务器里的一款明星产品, 无论在配置上还是参数上都很适合教育系统的需求。作为一款典型的2U型机架式服务器, 方正圆明MR200 3220服务器标配硬盘容量为900GB, 拥有集成双千兆网卡的网络控制器, 最大支持6块SAS热插拔硬盘, 内置DVD-RW光驱, 超大存储承载了运算速度需求的同时, 也满足了录播系统的要求。
“这次的采购是为满足录播方要求而实施的, 作为我们整个录播方案中的关键一环, 方正圆明MR200 3220服务器的应用情况影响到整个方案的效果。”该同志介绍说, “采购近3个月来, 方正圆明MR200 3220服务器一直运行稳定, 在速度方面也非常令人满意。”
共享存储器系统 篇5
数据库是信息系统的重要支撑,其高可用性是信息系统稳定运行和数据安全的关键。以往部署时常采用小型性机及双机热备等技术实现,但对于中小型企业或普通高校来说,购配如此高档的设备其投资难以支付。Oracle10g提供了应用集群(RAC)高可用性实现方案,具有并行服务、负载均衡、故障转移、易于扩展等优势,且能在多台性能相同或不同的低价位服务器上部署。采用刀片服务器和共享存储部署Oracle集群,使信息系统的可靠性与经济性之间的矛盾得到平衡。根据在刀片和存储上Oracle集群的部署实践,就部署的规划与步骤作了简要阐述。
1 部署规划
1.1 硬件规划
实现集群的硬件主要由刀片服务器和SAN存储设备组成。早期的刀片服务器产品,没能集成以太网交换模块和光交换模块,架构时需另购配以太网交换机和光交换机产品。设备间连线(网线和光纤跳线)较多,且易发生连接故障。近期的刀片服务器产品,大都将以太网交换机和光纤交换机作为模块集成在一起,设备间是以背板卡座方式内部连接,外部连线清晰简洁,可靠性提高。采用了IBM LS21刀片服务器和EMC CX3-40C存储,其结构如图1所示。刀片服务器产品通常有14~16个刀片,可根据信息系统的性能需要选取其中的多片部署集群。无论参与集群的刀片数多少,其部署方法基本相同,以四片刀(1#~4#)为案例进行了部署。每块刀片上都配置了双通道高速数据通信卡(HBA),通过内部背板分别与两个光交换模块相连。光交换模块与共享存储间通过光纤跳线采取4通道冗余连接。共享存储从光纤盘所在的RAID组中划出500GB,建立一个数据库共享访问存储组(dbms),在组中授权给第1~4号刀片。
1.2 IP地址规划
每个刀片服务器上通常配置两块以太网卡,并分别与两个以太网交换模块相连。集群配置时将1~4号刀片的第一块网卡eth0用于网络通信,其IP规划为:192.168.100.[1]/26;并配置用于RAC集群的数据访问的虚拟地址,IP规划为:192.168.100.[21~24]/26。第2块网卡eth1用于 RAC集群内部通信,其IP规划为:172.20.1.[1]/26。刀片控制中心的网卡IP地址规划为:192.168.100.20/26,用于RAC集群仲裁控制。上述列举的IP地址,仅从通信功能的角度做的划分,实际部署时可根据所在园区网的真实地址进行规划。
2 部署步骤
2.1 操作系统安装与升级
操作系统采用了CentOS4,可从网站下载后分别对各个刀片服务器进行安装,具体安装步骤不再赘述。数据库集群部署前必须安装全局文件系统(GFS),而要安装GFS必须对CentOS4版本的内核进行在线升级。在线升级必须做如下工作:(1)接入Internet,配置刀片的网卡上网地址;(2)修改升级脚本文件CentOS-Base.repo,位置在/etc/yum.repos.d/目录下,将脚本文件中的下载连接地址,替换为中国科学技术大学的下载镜像地址http://centos.ustc.edu.cn,目的是为了提高下载速度;(3)运行公钥数字签名命令,到镜像站点下载须进行数字签名;(4)运行升级命令,#yum-y updata;(5)内核升级后须重新启动系统;(6)GFS组件安装与升级。为了方便安装与升级的命令操作,可建立一个升级与安装脚本文件。其内容如下:
运行上述脚本文件即可升级与安装,完毕后也须重新启动系统。
2.2 存储驱动与代理安装
刀片服务器要与存储连接,必须在各个刀片上安装HBA卡的驱动与代理程序,才能使刀片与存储达成通信和进行授权管理。对于EMC存储的驱动与代理程序有:EMCpower.LINUX-4.5.1-022.rhel.x8664.rpm和naviagentcli.noarch. rpm的安装包。分别在各个刀片上运行如下命令安装:
#rpm ivh EMCpower.LINUX-4.5.1-022.rhel.x8664.rpm
#rpm ivh naviagentcli.noarch.rpm
驱动安装后须重新启动系统。然后进入EMC存储管理系统,进行物理存储组划分和节点授权等操作。
2.3 共享存储的配置
对共享存储的配置主要有:建立磁盘分区,划分物理卷、逻辑卷组、逻辑卷,对逻辑卷格式化。部署Oracle集群须建立七个逻辑卷,其名称笔者示例为:odata,red01,red02,redo3,recovery,v1和v2。Odb为逻辑卷组名。操作命令如下:
然后分别对各逻辑卷进行格式,命令示例为:
#gfs-mkfs t ClusterName:odata p lockdlm j 3 /dev/odb/odata
上述操作也可用Xwindows下配置工具来建立,具体配置操作不再详述。命令是:#system-config-lvm。
2.4 GFS配置
首先编辑位于/etc/目录下的hosts文件,其内容如下:
127.0.0.1 localhost.localdomain localhost
192.168.100.1 node1
192.168.100.2 node2
192.168.100.3 node3
192.168.100.4 node4
172.20.1.1 node1-priv
172.20.1.2 node2-priv
172.20.1.3 node3-priv
172.20.1.4 node4-priv
192.168.100.21 node1-vip
192.168.100.22 node1-vip
192.168.100.23 node1-vip
192.168.100.24 node1-vip
node1,node2,node3,node4是主机名称。node1-priv,node2-priv,node3-priv,node4-priv是Oracle数据库内部通信的IP地址名称。node1-vip,node2-vip,node3-vip,node4-vip是外部访问Oracle数据库的连接验拟IP地址名称,它是实现故障自动转移必须的地址配置。
在XWindows下运行配置集群工具,命令是:#system-config-cluster。按照新增集群(ClusterName),增加节点(nodex),增加栅栏(fence),栅栏设置(fencebladecenter),错误处理等项目配置操作。完成后在/etc/cluster/目录下产生名为cluster.conf的配置文件,将此配置文件拷贝到其它节点的对应目录下,其具体内容不再详述。
2.5 挂载脚本配置
首先用mkdir命令在根目录下建立挂载点目录,具体为/gfs/odata,/gfs/log1,/gfs/log2,/gfs/log3,/gfs/log4和/gfs/recovery。为了使上述存储设备在系统启动时自动加载,在/etc/目录下的加载脚本文件fstab中增加如下命令:
而后将该脚本文件分别拷贝到其它节点的对应目录下。
2.6 Oracle 10g数据库安装
安装过程中应注意集群安装与单台安装选项的区别,具体安装细节不再细述。安装命令为:
安装后分别重新启动各节点的操作系统。可用命令检查各节点和数据库的运行情况。
2.7 连接Oracle的JNDI配置
集群下的JDBC连接(连接池)JNDI的配置描述与单机时有所变化,在信息系统具体应用配置文件中也应做相应变化,其描述如下:
3 结束语
用低价位的刀片服务器部署Oracle集群,既能保证有较高的服务性能,又降低经费的投入。随着数据库信息服务强度的增大和访问负荷的加重,可随时增加参与集群的刀片数量,调整部署配置也较简便灵活。采用集群方案部署了数字化校园的应用系统,经过一年来的实际检验,集群运行稳定可靠。尤其在单个刀片发生硬件故障时,系统仍能提供不间断的数据服务。
参考文献
共享存储器系统 篇6
随着云计算如火如荼的发展,虚拟化作为云计算的核心技术也发展迅猛。
Citrix推出的XenServer作为业内虚拟化平台,可以在服务器端同时运行多个虚拟机VM(Virtual Machine),并且向客户端提供这些VM上运行的服务。客户自己没有很高级的硬件配置,也没有自己的操作系统,只需打开自己的机器后,向XenServer申请一台自己的虚拟机,XenServer收到申请后发送给客户端一个符合客户要求的VM。符合客户要求的VM即客户要求的系统,可以是Linux的各个版本的系统或者Windows系统,而且内存和CPU的型号也是客户端自己选择的。客户端打开该虚拟的客户机,就像当前在自己的机器上打开并运行一个实实在在的机器,但其实此VM运行在远方的云端,即XenServer上。这样,客户端不必配置太高,只需能正常客户端管理VM软件即可。客户端如果有工作需要处理,直接对客户端的VM发出命令,具体的计算程序和运行过程将在此VM所在的XenServer处理。基于Citrix的XenServer上的实验来阐述的,在文中下面就以XenServer为代表。
这种为客户端直接提供VM的做法精简而且大大提高了服务器的运行效率,并且避免了单个客户机管理的麻烦,集中管理和维护整个XenServer(或者ESX Server、Hyper-V)上的VM即可。在集中维护客户运行程序的最成功并且最值得推崇的便是动态迁移。
欲了解什么是动态迁移,就得先明白资源池的概念。资源池是由几个同种类型的服务器组成的池,在同一个资源池中的服务器必须运行在相同型号的CPU上。一个资源池还可以拥有自己的存储设备,这些存储设备供池中所有的服务器共享。
下面具体阐述什么是动态迁移。假设一位客户正运行一个Windows形式的VM0,此VM实际运行在云中的一个资源池pool0的服务器XenServer0上,如果XenServer由于某种原因(可能受病毒入侵,服务器系统崩溃,或者其他原因)无法继续运行VM0,如果在此时中止向客户提供VM0的服务,必然会导致客户无法继续进行工作,给客户带来极大的麻烦。动态迁移技术可以将运行在XenServer0上的VM0迁移到同一个资源池pool0中的其他可以运行的VM0服务器上,比如XenServer1上,并且在客户感觉不到的情况下进行迁移,客户感觉到自己的VM0一直在连续地运行,丝毫察觉不出,其实VM0已经转换了运行的环境。这种在VM0不关机的情况下直接转向另一台实际的服务器上的技术叫做动态迁移。动态迁移在XenServer上的实现叫做Xenmotion。
随着云计算的进一步发展,动态迁移的功能有着越来越重要的地位。在实现动态迁移的过程中,起着关键作用的就是要在资源池中提供一块足够大的共享的存储区,在这块存储区上存放资源池中的VM,仅将各个VM实际运行的内存和CPU分配到各个服务器上,这样在实现动态迁移的时候便可以只复制原服务器上运行的VM的内存到目的服务器上即可,不需将磁盘上的所有内容复制到目的服务器,这样极大地缩短了动态迁移的时间,真正实现了客户毫不知情的情况下就迁移的目标。
NAS是网络存储领域重要发展方向之一,它通过基于IP网络的网络文件协议如NFS、CIFS等将存储空间连接到IP网络上,像各种客户端提供文件服务。NAS存储服务器从存储的角度看,是一个文件服务器,它的功能比较单一,就是向各个客户端或者服务器提供文件服务,而且还是通过IP协议。因此使用NAS存储服务器为资源池提供共享的存储设备,不仅各个XenServer服务器访问存储设备极其方便,并且经济实惠,而且取得了动态迁移零停顿的效果。因此NAS存储在动态迁移的应用中得到极大的推广。
在文中将着重讲解使用freeNAS存储服务器为XenServer构造的资源池提供共享的存储空间的过程,并详细解剖freeNAS和XenServer pool共同合作的过程。
2 freeNAS为XenServer pool提供共享的存储
2.1 平台搭建及基本架构
2.1.1 安装和初始设置
以一台Think pad notebook作为host机,此host机为64位,支持DEP技术和VT技术(Virtualization Technology),该host上安装WindowsXP系统。在host上安装VMware Workstation和XenCenter,其中XenCenter可以管理多个XenServer,并提供带界面的管理控制端。
在VMware workstation上安装XenServer1和XenServer2,设置XenServer1和XenServer2的IP地址分别为192.168.128.130和192.168.128.139。XenServer1的本地存储在C盘,为20G;XenServer2的本地存储在F盘,也为20G。
接着在VMware Workstation上安装存储服务器freeNAS1,freeNAS2,选择它们的安装方式为fully installation on the disk。freeNAS存储服务器的本地磁盘分别在D盘和E盘,并且设置每个存储服务器所管理的磁盘大小均为35G。在安装的过程中将分给freeNAS的35G磁盘分为两个MBR格式块,第一个存储块一般选择其大小不超过500M,用于专门安装OS;第二块作为专门的数据块以便后来成为存储设备。安装好后设置存储服务器的IP地址分别为192.168.128.137和192.168.128.129。为了在以后资源池内的主服务器访问公共存储的方式不变,须将freeNAS的IP地址设置为静态。
在host机上打开XenCenter的界面,创建资源池pool0并将两台XenServer加进资源池中。此时的资源池仅有服务器而没有公共的存储空间。因此只能在各个服务器上建立独立的VM,而不能将XenServer1中的VM迁移到XenServer2中运行。
2.1.2 进一步设置
在XenCenter中选择服务器XenServer1作为资源池的主服务器,以后XenCenter只要与主服务器XenServer1连接成功就代表着XenCenter与pool 0连接成功。基于这个道理,只要用主服务器XenServer1的启动器(initiator)发起与freeNAS中的iSCSI target的连接成功,则该iSCSI就成为资源池pool 0中所有服务器共享的存储设备。
XenServer本身包含openiscsi软件,在安装XenServer的过程中会为每个XenServer产生一个随机的名为iqn(iSCSI Qualified Name)的发动器。在XenCenter中左单击任何一个XenServer,在图像界面的右边就会出现该服务器对应的iqn。记下各个服务器对应的iqn。
在host机上打开一个IE网页,在URL栏中输入freeNAS1的IP地址http://192.168.128.137:80/,即通过80端口访问freeNAS存储服务器,打开认证访问存储服务器的网页界面,使用默认的账户admin和密码freenas进入freeNAS的管理界面。
进入Disks下的management,将freeNAS下的磁盘ad0(即在安装freeNAS的时候的第二块作为数据块的磁盘)添加到被管理的对象中并保存。这时仅仅是添加了被管理的对象的一般信息,还没将其加载到被管理的目录下。进入Disks下的Mount Point,选择刚才加进的可被管理的磁盘,选择partition type为MBR partition;Partition number为2,即第二块磁盘;file system选为UFS(freeBSD默认的文件格式);Mount Point Name可以为读者自己任取的名字,这里取名字为data0,该加载点即为/mnt/data0目录,创建加载点保存就完成了把ad0加载到/mnt/data0下的工作。
2.2 实现用freeNAS创建iSCSI存储
2.2.1 用freeNAS创建iSCSI存储
以下用freeNAS1作为示范,详细讲述怎样在单独的freeNAS上创建iSCSI存储块。
在freeNAS1网页的管理界面上,进入Services下的iSCSI Target界面。在建立iSCSI Target之前必须先创建存储块extent,规定客户机或者服务器访问的端口,以及合法的网段下的发动器才能发起连接。
首先选择iSCSI enable,使得freeNAS1提供iSCSI存储功能得以启动。然后规定各个客户机和服务器必须通过特定的端口访问存储服务器提供的共享存储,点击管理界面上Portals,点击添加,给端口取名为tag1,Portals为192.168.128.137:3260,这意味着想要访问存储服务器提供的iSCSI Target存储必须通过存储服务器的3260端口访问。
再点击管理界面上的Initiators,添加允许发动连接的发动器(Initiators),给该Initiators取名为tag1;Initiators为前面2.1.2记录的XenServer服务器的iqn,这里主服务器为XenServer,所以取其iqn,iqn.2009-12.com.example:8b1662a6作为合法的发动器;设置合法的访问网段为192.168.128.0/24,即必须是在这个网段中的发动器通过端口发起的与存储服务器的3260端口(192.168.128.137:3260)的连接。
接着,点击管理界面上的Target,首先添加存储块,添加extent,取名为extent0;Path即为在2.1.2中创建的加载目录/mnt/data0/,不过在这里要在此加载目录下添加文件名,这里取名为share1,给定的文件大小为1024M,即1G。在一步中可以将这个1G的文件转换为iSCSI Target。保存设置好的extent0。点击Target栏目下的添加,设置权限为可读可写;
同理可创建freeNAS2中的iSCSI Target。
2.2.2 XenServer中自带的发动器发动对i SCSI Target的连接
仍然使用freeNAS作为说明的例子。在XenCenter的界面中,选中pool 0。点击创建新SR(Storage Repository),进入发起连接iSCSI Target的向导。在弹出的框中选中iSCSI,点击next,出现连接的界面。给iSCSI Target在pool 0中取名为iSCSI virtual disk Storage;目标主机填写存储服务器的IP地址(192.168.128.137)和访问的端口3260;然后点击发现IQNs,稍等片刻即可发现在存储服务器上的iSCSI Target名字iqn.2007-09.jp.ne.peach.istgt:disk0(192.168.128.137:3260)。此时发现LUN变成可点击,点击此按钮,稍等片刻即发现了LUN0的名字/mnt/data0/share1(192.168.128.137:3260),点击finish,即连接iSCSI Target成功。
这时,在XenCenter的界面上pool 0下出现了一块可用的公用存储块iSCSI virtual disk Storage。
2.2.3 创建freeNAS iSCSI发动器连接另外的iSCSI Target
可以用freeNAS发动器连接到别的提供i SCSI Target的存储服务器上,这样只要资源池中的主服务器连接到一个freeNAS上就可以访问到多个freeNAS上的i SCSI Target。
以freeNAS1向freeNAS2发起连接为例说明存储服务器之间发起存储连接。
在freeNAS1的网页管理界面下,进入Disks下的Management,然后进入iSCSI Initiator,给要连接的iSCSI Target取名为iSCSI Target1;设置freeNAS中的发动器的名字为iqn.2005-09.il.ac.huji.cs:zss;在目标名字栏如实填写freeNAS2中的iSC-SI Target名字为iqn.2007-09.jp.ne.peach.istgt:disk1;在目标地址栏填写freeNAS2的IP地址192.168.128.129保存并应用后,在disk的management下面就会看见freeNAS上多了块iSCSI Target存储。同2.2.2中pool 0发起freeNAS1存储中的连接一样,pool 0可以使用其发动器像连接到freeNAS1存储块一样连接到freeNAS2中的iSCSI Target存储块。实现freeNAS为pool 0提供共享的存储。
在pool 0中XenServer 1为主服务器,一旦实现主服务器上的发动程序与一个存储服务器上i SCSI Target连接成功,则相当于这个iSCSI Target归pool 0所有,pool 0中的所有XenServer服务器都可以随机访问该存储设备。从而实现了存储设备在各个XenServer中的共享。
构建好后的平台架构如图1所示。
2.3 freeNAS创建NFS存储并与pool 0连接
freeNAS不仅可以提供iSCSI Target存储,还可以提供基于NFS协议的存储。
下面以freeNAS2为例,剖析freeNAS提供NFS存储的过程。如2.1.2中所述进入freeNAS1一样进入网页管理freeNAS2的图形界面。进入Service下的NFS,设置NFS enable。设置创建NFS文件的个数,一般设置为4个,这样可提供4个用户的同时访问存储块。点击shares,设置NFS存储。路径同iSCSI Target,设置为加载点的路径/mnt/data1/,即将加载进来的数据存储块作为网络上的存储设备。设置授权的网段为192.168.128.0/24,允许这个网段的客户机或者服务器通过自己的24号端口访问该NFS存储。保存设置,和连接iSCSI Target类似,连接NFS相对来说更简单一些。
C盘为本地存储D盘为NFS或者iSCSI E盘为NFS或iSCSI F盘为本地存储
3 效益
正如引言部分所述,虚拟服务器必须的功能———动态迁移不得不要求各个服务器有共享的存储区。而传统的DAS(Direct Attached Storage直接连接方式)只能增加各虚拟服务器本地的容量,这些本地磁盘空间不能被资源池里的其他服务器任意访问。这样在实现动态迁移的功能时,必须将原资源池里运行的VM所占的磁盘上的数据复制到目的服务器上,这样复制的数据量大大增加,导致客户端在运行的时候能明显感觉到很长时间的停顿,给用户带来极大的不便。使用NAS能方便地解决共享资源池里共享存储空间的问题。与SAN不同,NAS对信道没有很高的要求,只是基于TCP/IP协议,简便易行,快捷而且经济。
参考文献
[1]XenServer Administrator’s Guide5.5.0Update1.http://support.citrix.com/servlet/KbServlet/download/22172-102-641885/XenServer-5.5.0-Update1-reference.pdf.
[2]XenServer Installation Guide5.5.0Update1.
[3]FreeNAS Setup and User Guide.http://freenas.org/documentation:se tup_and_user_guide.
共享存储器系统 篇7
在美国2016 年存储愿景大会上, 昆腾推出的XcellisTM高性能共享工作流存储解决方案获得2016 年存储愿景专业级系统远见产品奖。存储愿景奖旨在表彰那些推动存储新技术发展, 并展示极富远见的数字存储产品的公司。
针对端到端工作流而优化的昆腾Xcellis, 让用户在交付可促进其业务发展的产品和服务的过程中, 能够提高效率和创造力, 整合数据和元数据管理, 扩展连接选项并支持托管的应用, 昆腾Xcellis把工作流存储最重要的组成部分整合到一个运行在强大的昆腾Stor Next 5 媒体工作平台的单一紧凑型硬件解决方案中。昆腾的解决方案有利于灵活配置和顺利增长, 让用户能够从最小的系统入手, 然后以较高的经济效益提高性能和容量, 并且无需替换原始硬件投资, 也不会中断正在进行的操作。