计算机集群技术

2024-10-06

计算机集群技术(共7篇)

计算机集群技术 篇1

1 引言

集群是一组相互独立的、通过高速网络互联的计算机, 它们构成了一个组, 并以单一系统的模式加以管理。一个客户与集群相互作用时, 集群像是一个独立的服务器。在组建超大规模的应用处理系统时, 通过采用一种或几种集群技术来构建应用集群系统, 能够极大地提高应用系统的可用性和可伸缩性。

2 集群技术的分类

集群分为同构与异构两种, 它们的区别在于组成集群系统的计算机之间的体系结构。集群计算机按功能和结构可以分为四类:高可用性集群、负载均衡集群、高性能计算集群、网格计算集群。按集群系统的应用范围, 可分为操作系统级集群和应用级集群[1]。

2.1 功能和结构的集群

(1) 高可用性集群 (High-availability clusters) 是指在集群中有某个节点失效的情况下, 其上的任务会自动转移到其他正常的节点上。还指可以将集群中的某节点进行离线维护再上线, 该过程并不影响整个集群的运行。

(2) 负载均衡集群 (Load balancing clusters) 通过一个或者多个前端负载均衡器, 将工作负载分发到后端的一组服务器上, 从而达到整个系统的高性能和高可用性。这样的计算机集群有时也被称为服务器群 (Server Farm) 。一般高可用性集群和负载均衡集群会使用类似的技术, 或同时具有高可用性与负载均衡的特点。

(3) 高性能计算集群 (High-performance clusters) 通过将计算任务分配到集群的不同计算节点而提高计算能力, 因而主要应用在科学计算领域。

(4) 网格计算集群 (Grid computing) 是一种与集群计算非常相关的技术。网格与传统集群的主要差别是网格是连接一组相关并不信任的计算机, 它的运作更像一个计算公共设施而不是一个独立的计算机, 网格通常采用异构的计算机组成计算机集合。

2.2 应用范围的集群

(1) 操作系统级集群作为底层基础集群架构为业务应用级集群提供操作系统级的集群服务;而应用级集群则作为操作系统级集群的子集群, 部署在操作系统级集群之上, 通过软件手段完成特定业务的集群服务。

(2) 应用级集群通过将众多的访问请求按照设定的路由策略计算和分析, 最终将请求分散到集群中的不同节点进行处理, 从而实现了更高的有效性和稳定性。实现访问请求路由的手段目前多数采用代理、硬件负载均衡、软件负载均衡。

2.3 访问请求的路由技术

(1) 代理:通过代理服务器对外提供一个统一的地址。当一个服务请求被发至代理服务器时, 根据一定规则选择一台集群节点服务器, 并将服务分发给该服务器承担, 即将负载进行均衡分摊。

(2) 硬件负载均衡:通过交换机的功能或专门的负载均衡设备实现负载均衡。对于流量的分配可以有多种方式, 但基本上都是基于网络协议层, 与具体应用无关。

(3) 软件负载均衡:集群中节点通过软件进行负载均衡处理, 可以根据应用的情况和服务器的情况采取最优的负载均衡策略。软件负载均衡可以根据应用环境的请求状态和服务状态选择最优的均衡策略, 因此它在所有的负载均衡手段中是最高效的。同时, 因为不同的应用软件提供不同的业务功能, 所以应用负载均衡不具备通用性, 它和应用产品关联性较强。

在邮政储蓄银行金融信息系统逻辑大集中项目中, 采用了硬件负载均衡与应用负载均衡配合使用构建应用集群的方式。利用硬件负载均衡器处理速度快, 对主机系统无资源损耗的特点, 对处理请求在网络层进行路由, 实现集群环境中活动主机资源的最大化使用, 满足硬件资源的可负载和可伸缩。利用应用负载均衡的准确高效, 强化业务逻辑的特点在应用层对处理请求进行均衡, 应用负载均衡模块可以根据应用节点的资源状态作更优化的路由, 最终应用集群系统对外体现出的就是持续、平稳、高吞吐的处理能力。

3 集群文件系统

大型系统的逻辑集中可以通过小型机集群方式实现, 其中部分集群应用程序需要进行文件 (如报表文件、批量处理文件等) 的共享存储、并行读写和集中管理。在集群应用中, 共享文件的并行读写有两种方式: (1) 以持续的、大量的小文件写为主; (2) 以对一个大文件的并行写为主。上述两种方式对于相关文件系统的并行读写效率和性能要求很高。由于传统的文件系统 (如NFS、CIFS等) 不支持真正的外部存储文件共享 (只能通过单一的NFS/CIFS Server实现小规模的直连存储文件共享) 和高性能的文件并行读写功能, 同时也不支持统一命名空间管理, 因此大型系统的逻辑集中应该采用集群文件系统来实现上述高性能的文件共享存储、并行读写和集中管理等功能。

3.1 功能实现方式

目前, 集群文件系统的文件共享存储、并行读写和集中管理功能通常采用以下两种方式实现:

(1) 纯软件方式:在各集群服务器的操作系统中, 通过专用集群文件系统软件的文件同步锁定管理来实现集群中文件的共享存储和并行读写功能;同时, 借助于集群文件系统软件的数据一致性管理功能, 还能够实现集群中基于共享存储的多节点负载均衡和相互冗余。

(2) 软硬件一体化方式:在集群的集中存储系统中引入高性能的集群NAS系统, 各集群服务器通过自身的文件系统 (NFS/CIFS Client) 并行访问集群NAS系统 (提供分布式文件系统访问) , 在实现文件共享存储和高性能的文件并行读写的同时, 还支持分层存储优化、容量/性能的横向同步扩展, 以及共享存储的远程容灾等增值特性。在邮政储蓄银行金融信息系统逻辑集中项目中使用集群文件系统软件或集群NAS系统实现文件共享, 具体应用实例已通过测试, 满足对性能和可靠性的需求。

3.2 系统类型

目前主流的集群文件系统软件主要有两种类型:C/S型集群文件系统和Serverless型集群文件系统[2]。

(1) 常规的C/S型集群文件系统在集群中选定一个主节点, 通过令牌锁机制统一管理多节点的并发写入, 以避免写冲突造成的文件系统损坏。在主从写模式下, 每个文件系统的交易都需要经过主节点, 如果大量的文件创建或者修改将很容易造成单节点的瓶颈。即使在主节点空闲状态下, 集群文件系统其他节点的文件创建和修改也可能造成主节点的高开销负载。如图1所示。

(2) Serverless型集群文件系统:采用Serverless型文件系统替代服务器上传统的文件系统 (如NFS、CIFS等) , 同时通过集群各节点间的心跳网络来进行全局文件同步锁定和数据的一致性管理。通过全局文件同步锁定机制的自动调度, 集群文件系统中的每个节点都可以运行交易, 同时集群文件系统命令可以在任意节点执行, 提高了可用性和效率。如图2所示。

集群文件系统软件与应用结合的较为紧密, 对于同一文件的多节点并行顺序读写效率较高, 因而较适用于本项目集群中多节点对一个大文件并行写的应用模式。

集群文件系统软件也存在着一些缺陷, 例如:需要安装在服务器操作系统中, 对于服务器的性能多多少少有一定影响;不支持在同一集群内的异构平台上部署, 节点间需要统一操作系统版本;支持的集群节点数量有限, 通常不超过64节点, 且节点和性能的扩展相对较为复杂。在银行金融信息系统逻辑集中项目中, 集群文件系统软件的部署如图3所示。

4 集群NAS系统

集群NAS系统是并行文件系统与多节点NAS集群的有机结合。从技术上来讲, 集群NAS系统在具备文件共享、兼容多文件系统访问等NAS固有特性的同时, 还具有高性能、高容量、大容量全局单一命名空间 (PB级) 的优势。与许多针对小型随机工作负载进行优化 (如文件共享) 的集群文件系统不同, 集群NAS系统在各种工作负载下都表现良好, 包括注重响应时间的小型随机工作负载和带宽密集型连续工作负载。在此之前, 用户可以尝试通过在现有NAS控制器中增加额外设备来突破可扩展性的限制, 但这会产生另外一个问题:当控制器无法应对这些额外设备时, 性能会下降, 服务水平也会随之降低[3]。而集群NAS系统通过基于分布式集群文件系统的横向扩展, 其容量和性能可以随着节点的增加呈线性增长。

此外, 集群NAS系统在高性能文件共享应用中还具有以下优势: (1) 无中断扩展和自动数据分层:集群NAS系统通过策略管理和自动化的文件迁移功能, 可以优化性能、容量。 (2) 无中断重新平衡:这可以确保集群NAS系统将工作负载分配到整个存储阵列, 以避免单个磁盘超负荷运转。 (3) 优化的数据服务:通过SSD存储的目录配额和文件克隆, 集群NAS系统可以在确保数据高可用性的同时更好地管理成本。 (4) 高可用性与动态负载平衡:集群NAS系统具有内建的冗余性, 能自动检测软硬件故障, 以保证系统正常运行。

对于大型系统的逻辑集中项目, 可以在集群的集中存储系统中引入集群NAS系统。各集群服务器通过自身的文件系统 (NFS/CIFS Client) 可并行访问集群NAS系统 (提供分布式文件系统访问) , 在实现文件共享存储和高性能的文件并行读写的同时, 集群NAS系统还可提供分层存储优化、容量、性能的横向同步扩展, 以及共享存储的远程容灾等增值特性。根据测试结果, 如果使用集群NAS系统可以达到性能和稳定性的指标要求, 可以在要求文件共享特性的地方使用该项技术。在邮政储蓄银行金融信息系统逻辑集中项目中, 可以将集群NAS系统的部署与SAN存储系统相结合考虑, 即通过多节点集群NAS网关来优化利用SAN存储, 其结构如图4所示。

5 时间同步技术

在邮政储蓄银行金融信息系统逻辑集中项目中, 通过多个小型机构建了服务器集群, 由于集群系统中各主机时间不一致, 可能会带来交易时序的错误, 从而造成业务办理差错, 给企业和客户带来不必要的纠纷。同时由于众多服务器的校时工作越来越艰巨, 原有的通过停止数据库来手工调整服务器时间的方法, 不能有效地解决系统间的时间同步问题, 已经不适合用于金融信息系统的集中工程。

5.1 基于网络时间协议的时间同步

基于网络时间协议的时间同步方法可以很好地解决问题, 它遵循了因特网时间服务器的通用标准, 通过以网络中确定的更准确的系统时钟服务器作为标准, 来调整服务器集群中各客户端主机的系统时间, 以较好解决主机间时间同步问题。但在某些项目中, 由于使用了数据库集群技术, 每个数据库节点之间禁止自动在线回调时间, 否则会导致数据库节点重启。基于网络时间协议的时间同步方法优点是可以很简单地实现各系统的时间统一, 也就是说整个系统中只有一个时钟源;缺点是对整个服务器集群中各数据库集群产生影响, 如配置不当反而会导致节点宕机。

5.2 Oracle数据库的CTSSD服务

在数据库集群中通过本身的新特性实现数据库中各节点的时间同步。Oracle数据库进入11g R2版本后, 时间同步作为稳定运行集群的先决条件, 在数据库集群管理中新增CTSSD服务用于同步集群内所有节点的系统时间, 从而进一步提升了集群的高可用性。CTSSD服务可较好解决数据库集群内节点的时间同步问题, 如果需要在多库之间保持时间同步, 则需要将相关数据库部署在同个集群之上, 这样就使得数据库间耦合度增加。通过数据库特性实现集群内各节点的时间同步的优点是可以更好地提升数据库集群的稳定性, 但该方法的缺点是只能在同个集群的各节点实现时间同步, 不同数据库集群之间及应用系统不能实现时间同步。

在储蓄银行金融信息系统逻辑集中项目中, 可以使用以下两种方法: (1) 选取准确的时钟源, 通过网络时间协议技术, 服务器和客户端的正确配置, 在邮政储蓄银行逻辑集中工程测试时从稳定性、可靠性、安全性、灵活性等方面做进一步的验证, 实现邮政储蓄银行逻辑集中各系统的时间同步。 (2) 在各应用系统之间通过网络时间协议技术, 对所有应用主机进行统一的时间同步;在数据库集群中通过集群特性CTSSD技术实现集群内各节点的时间同步, 不同集群之间不能实现各数据库节点的时间同步, 但可以进一步保障数据库集群的高可用性。具体使用方案, 应通过相关测试再作决定。

6 结语

本文对高可用性、负载均衡、高性能计算、网格计算等集群技术进行了分析, 并探讨了集群文件系统、集群NAS系统的功能和实现方式。在集群计算的需求确定之后, 如何选择各种组件构成Cluster的实现方案是比较困难的, 而且经常由于组件之间难以协同工作而导致Cluster的实现失败, 或者最终构造了一个难以使用又难以管理的Cluster。根据实际应用经验和研究成果, 针对这种情况应该优先考虑选择一体化的HPC产品。

摘要:计算机集群是一种计算机系统, 它通过一组松散集成的计算机软件和硬件协同完成计算工作。本文对高可用性、负载均衡、高性能计算、网格计算等集群技术进行了分析, 探讨了集群文件系统、集群NAS系统的功能和实现, 并研究了C/S型集群文件系统、Serverless型集群文件系统的原理和实现方式, 对计算机集群技术的应用有一定参考价值。

关键词:计算机集群,高可用性,负载均衡,集群NAS系统

参考文献

[1]张志友.计算机集群技术概述[J].实验室研究与探索, 2006, 25 (5) :607-609.

[2]李金, 李海霞.计算机集群技术探析[J].企业导报, 2010 (9) :286-287.

[3]邵英, 夏立.计算机集群技术的计算环境与拓扑结构实现[J].微机发展, 2003, 13 (6) :98-100.

浅谈计算机集群技术及并行计算 篇2

一﹑计算机集群的概念

集群 (Cluster) 技术是指一组相互独立的计算机, 利用高速通信网络组成一个计算机系统, 每个群集节点 (即集群中的每台计算机) 都是运行其自己进程的一个独立服务器。这些进程可以彼此通信, 对网络客户机来说就像是形成了一个单一系统, 协同起来向用户提供应用程序、系统资源和数据, 并以单一系统的模式加以管理。一个客户端 (Client) 与集群相互作用时, 集群像是一个独立的服务器。而集群其中的每一台提供服务的计算机, 我们称之为节点。当一个节点不可用或者不能处理客户的请求时, 该请求将会转到另外的可用节点来处理, 而对于客户端来说, 它根本不必关心这些要使用的资源的具体位置, 集群系统会自动完成。

集群中节点以何种方式来运行, 这要看节点是如何设置的。在一个理想的两个节点的集群中, 两个服务器都同时处于活动状态, 也就是在两个节点上同时运行应用程序。当一个节点出现故障时, 运行在出故障的节点上的应用程序就会转移到另外的没有出现故障的服务器上。这样一来, 由于两个节点的工作现在由一个服务器来承担, 自然会影响服务器的性能。

二﹑计算机集群的特点

1.提供强大处理能力的高性能计算机系统:计算机集群可以通过负载均衡、并行处理、时间片处理等多种形式, 将多台计算机形成高性能计算机集群。对用户端 (Client) 而言, 计算机集群则是一个单一的系统, 可以为用户提供高性能的计算机系统, 而用户不用关心有多少计算机承担了系统实现的任务, 而只需要关注系统的整体处理能力。因此, 计算机集群可以用多台普通性能的计算机组成具有高性能的计算机系统, 承担只有超级计算机才能胜任的工作。

2.提供高可用性的计算机系统:通过计算机集群技术组成的系统, 可以确保数据和应用程序对最终用户的高可用性, 而不管故障属于什么类型。即当计算机集群中的节点计算机出现软硬件故障的时候, 高可用性集群提供了对软件和硬件失败后的接替。它将服务器镜像到备用系统或节点中, 当主节点上的系统崩溃时, 冗余节点就从替补角色转换到正式角色, 并自动投入应用, 从而保证了系统运行的不间断。

3.系统具有很强的可伸缩性:在系统的处理能力需要增加的时候, 除了通过增加集群中每个计算机节点的单机处理能力 (如通过增加CPU数量、增加内存大小等手段) 外, 还可以通过增加集群节点数, 即通过向集群添加新的计算机节点, 使服务随着处理器的添加而伸缩, 从而增大应用程序吞吐量, 以达到增加系统的整体处理能力的目的, 完成系统的扩容。

三﹑并行算法的基本概念

算法就是求解问题的方法和步骤。并行算法, 就是在并行机上用很多个处理器联合求解问题的方法和步骤。实际上, 在自然界中并行是客观存在的普遍现象, 关键问题在于能不能很好地利用。由于人们的思维能力以及思考问题的方法对并行不太习惯, 且并行算法理论不成熟, 所以总是出现了需求再来研究算法, 不具有导向性, 同时实现并行算法的并行程序性能较差, 往往满足不了人们的需求。

四﹑并行算法的研究内容

并行计算模型的第一代是共享存储模型, 如SIMD-SM和MIMD-SM的一些计算模型, 模型参数主要是CPU的单位计算时间, 这样科学家可以忽略一些细节, 集中精力设计算法。第二代是分布存储模型。在这个阶段, 人们逐渐意识到对并行计算机性能带来影响的不仅仅是CPU, 还有通信。因此如何把不同的通信性能抽象成模型参数, 是这个阶段的研究重点。第三代是分布共享存储模型, 也是我们目前研究所处的阶段。随着网络技术的发展, 通信延迟固然还有影响, 但对并行带来的影响不再像当年那样重要, 注重计算系统的多层次存储特性的影响。

设计技术并行算法研究的第二部分是并行算法的设计技术。虽然并行算法研究还不是太成熟, 但并行算法的设计依然是有章可循的, 例如划分法、分治法、平衡树法、倍增法/指针跳跃法、流水线法等都是常用的设计并行算法的方法。另外人们还可以根据问题的特性来选择适合的设计方法。

五﹑小结

计算机集群技术 篇3

所谓电子支付,是指从事电子商务交易的当事人,包括消费者、商户、第三方机构、金融机构等参与方,通过信息网络,使用安全的信息传输手段,采用数字化方式进行的货币支付或资金流转。

电子支付是伴随着科技高速发展而产生,高速发展的现代科技成就了我们今天快节奏的生活。现代科技已经融入到我们生活的衣食住行当中,电子支付正在加速改变我们的生活。电子支付创新层出不穷,一方面是卡介质的创新,比如从磁条卡到芯片卡、无卡支付、生物支付等等;另一方面是渠道的创新,比如从POS、ATM到多媒体自助终端、电话支付终端、互联网、智能电视等等;还有一方面是业务品种的创新,比如说从消费、预授权、取现到转账、电子账单付费、信用卡还款、积分消费等等;再有一方面是商业模式的创新,比如担保支付、自动折扣等等;但万变不离其宗,一个好的电子支付产品必须具备安全、方便、可靠、高效等特性。与此同时电子支付信息处理有集中化、工业化、超大规模、开放式、分布式的趋势。这就要求我们的电子支付联机处理软件必须具备高性能、高可靠性、高可用性、高安全性、高扩展性等良好特性[1],我们在电子支付联机软件技术方面正面临着越来越大的挑战。基于以上考虑,我们对基于集群计算与开放式硬件平台技术的电子支付联机软件架构进行深入研究,提出了多层服务节点网格MLSNG(Multiple Layer Server Node Grid)软件架构模型,并将自然、简单、松耦合、高内聚、自适应、模块化等[2]设计思想贯穿始终,同时结合综合收单业务系统实例进行了分析及验证。

1软件架构模型

图1是MLSNG模型纵向视图。

从纵向视图上看,沿着交易处理流向,整个模型采用多层设计,分为通信接入层、路由层、应用层、数据存储层,最大限度实现纵向松耦合化,各层内部高度内聚。

(1) 通信接入层

电子支付联机处理系统是一个基础性平台,一个完整电子支付联机支付交易往往需要多方参与才能完成,比如说一个大规模的综合收单联机业务处理中心,往往涉及到成千上万个网络控制器、MIS前置、第三方渠道系统、行业商户系统接入,接入的通信协议多种多样,典型通信的协议包括TCP/IP、WEB Service、ORACLE TUXEDO、IBM MQ、短信协议等等。通信接入层的主要功能就是负责处理多种通信协议接入、通信报文收发、流量控制、链路管理、通信安全控制、灾备切换等。

(2) 路由层

路由层起着中转站的作用,同时把核心的通信接入层和应用层隔离,让整个服务节点网格松耦合化。它的主要功能是负责通信接入层和应用层各服务节点之间的交易路由、内部逻辑线路和外部物理线路映射、报文头转换、报文格式合法性预检等。

(3) 应用层

应用层负责实现联机业务处理逻辑。以综合收单业务系统为例,它主要实现报文格式转换、交易类型识别、卡介质识别、商户合法性检查、商户路由、交易控制、MAC验证、PIN格式转换、交易日志记录、冲正、存储转发等功能。

(4) 数据存储层

数据存储层负责交易日志、应用日志、业务参数、技术参数等数据的访问及存储。

从横向视图上看,采取每层多组、每组多服务节点(即实现该层功能的独立应用服务程序,各服务节点既可独立部署在不同物理主机上,亦可部署在同一主机上)的设计方法。以X层和Y层为例,具体请见图2所示。

在MLSNG模型中,需遵守以下原则:

(1) 同层不同组之间无信息交互。

(2) 同层同一组不同服务节点之间亦无信息交互。

(3) 同层同一组内不同服务节点之间关系平等。

(4) 采取负载均衡策略访问同层同一组内不同服务节点。

(5) 每一组中服务节点数为偶数。

(6) 每层中组划分原则不一定相同,比如可以根据部署地点、业务类型、信息流特点等,总的指导原则为以实现高性能、高安全性、高可靠性、高可用性、高扩展性、高可管理性、高灵活性为目标,须将简单、自然、松耦合、高内聚等设计思想贯穿始终。

(7) 每层每组与另一层另一组之间不一定有通信连接,需要根据实际情况而定,但在一个可能交易处理路径上(包括发生灾备切换的异常情况下)的每层每组每个服务节点与下一层下一组每个节点之间一定有通讯连接。

实际部署时可以综合考虑业务需求、成本、运营要求等多种因素,选择合适的硬件平台进行部署,亦可采用异构硬件平台,进一步提高系统可用性。

2模型应用实例分析

收单业务位于电子支付业务的受理环节,传统的银行卡收单业务是指签约银行向商户提供的本外币资金结算服务,就是最终持卡人在银行签约商户那里刷卡消费,银行结算。收单银行结算的过程就是从商户那边得到交易单据和交易数据,扣除按费率计算出的费用后打款给商户。综合收单业务涵盖范围更加广泛,除了传统的POS、ATM业务以外,还包括各种增值业务比如电子账单付费、购买电子数字产品、话费充值、资金归集、代收、代付、购买保险、机票等等。总的来说,综合收单业务具有业务种类繁多、交易流程复杂、业务变化快、受理渠道丰富等特点。

综合收单联机业务系统在技术实现上面临越来越大的挑战,一是业务量井喷式增长,对系统性能要求越来越高;二是一方面各种创新业务层出不穷,软件版本变更频繁,另一方面传统业务日均交易量巨大,需要保持系统相对稳定;三是为了确保良好产品体验及行业竞争日越激烈,对系统可靠性、可用性要求也越来越高;四是接入方包括大量第三方渠道系统及行业商户系统,与传统银行相比,其运维能力及系统可靠性、安全性都比较薄弱;五是除了传统的POS、ATM渠道以外,还涉及到大量处于开放式网络环境中的PC、手机、智能电视等终端接入,安全风险形势更加严峻[3]。为了应对这些挑战,我们将MLSNG模型应用于综合收单联机业务处理系统,具体请见图3所示。

在图3中共有10个组,除了数据存储层每个组两个服务节点外,其它每个组均为四个服务节点。其中通信接入层包括C1、C2两个组,路由层包括R1、R2两个组,应用层包括A1、A2、A3、A4四个组,数据存储层包括D1、D2两个组。A1、A3负责处理传统POS、ATM业务,A2、A4负责处理处理增值业务。组C1、R1、A1、A2、D1构成一个处理组群,部署在城市X,负责处理部分省市业务,组C2、R2、A3、A4、D2组成一个处理组群,部署在城市Y,负责处理剩余省市业务,两个处理组群互为热备,两边进行双向的交易数据同步。实际物理部署时,基于可靠性考虑,将每一个服务节点均部署在独立的物理服务器上,以减少主机宕机时对其它服务节点的影响。

1) 高可靠性、高可用性分析

在该实例中,任一层的任一组均为多机负载均衡处理,且每一节点均单独部署在独立物理服务器上,任一服务节点故障,对业务均不产生影响。外部接入方同时接入两个通信接入服务节点主机,任一通信接入节点主机故障对业务也不产生影响。如果任意一个组发生故障,可以由另外一个组迅速接管。如果发生中心级故障,业务也能够在几分钟内恢复。

2) 高扩展性分析

任一层的任一组均能通过增加主机节点进行横向扩展。电子支付发展日新月异,对于变化较大的创新业务,可以通过增加在应用层创新业务组来应对。

3) 高性能分析

我们在5台IBM P570高性能UNIX服务器上基于虚拟分区技术部署了与图3相比裁剪过的综合收单联机业务处理组群,存储设备使用HP XP12000,数据库使用IBM DB2 V9.5,具体请见表1所示。在测试环境中达到了消费交易3000TPS、缴费交易2000TPS峰值、日交易峰值2000万笔的良好测试数据,系统运行稳定,证明该模型能够支撑大规模交易处理。

4) 高安全性

各层缺一不可,通过各层配合分层实现安全控制。在通信接入层主要关注外部通信接入的合法性校验、最大连接数控制、流量控制等安全控制策略;在路由层主要关注交易报文格式的合法性,对于非法报文直接丢弃并告警;在应用层主要关注交易合法性,比如商户是否合法,MAC是否正确等等。

5) 高可管理性

任一层的任一组均可通过滚动升级的方法来实现应用及主机硬件的不停机升级。结构简单、明晰,易于部署及运维,同时可以根据运营要求选择合适的开放式硬件平台进行部署。

3结语

为了应对电子支付业务日新月异的发展,本文对电子支付联机软件架构进行了研究,提出了MLSNG软件架构模型,并阐明了该模型的框架及若干原则。在此基础上,结合综合收单业务系统实例,对该模型在高可靠性、高可用性、高扩展性、高性能、高安全性进行了分析,由此可以看出MLSNG模型具备大尺度可伸缩性、易于部署及运维、稳定、能够支持大规模联机交易等良好特性[4]。该模型已经应用于某实际综合收单业务系统,2010年初投产以来,系统运行稳定,日均处理交易量达200万笔,有效地支持了国内渠道创新及行业合作发展。同时我们应该看到,随着对业务量的爆发性增长及对大容积信息报的处理要求,对数据存储层的I/O吞吐能力及高可靠性、高可用要求越来越苛刻,数据存储层可能成为整个模型中的瓶颈[5],我们应该加强这方面的研究。

摘要:为应对电子支付快速发展带来的挑战,对基于集群计算技术的电子支付联机软件架构模型进行了研究,提出了MLSNG模型。同时结合综合收单系统实例,对该模型的高性能、高可靠性、高可用性、高可扩展性、高安全性、高可管理性进行了深入分析及验证,可以看出该模型具备大尺度可伸缩性、易于部署、稳定、能够支持大规模联机交易处理等良好特性。

关键词:集群计算,开放平台,电子支付,联机交易处理,软件架构模型

参考文献

[1]布亚.高性能集群计算[M].人民邮电出版社,2002.

[2]库劳里斯,等.分布式系统:概念和设计[M].机械工业出版社,2006.

[3]特尼博姆,等.分布式系统:原理和范例[M].机械工业出版社,2002.

[4]里特豪斯,等.云计算:实现、管理与安全[M].机械工业出版社,2010.

计算机集群技术 篇4

_目围绕奧运苧气质望预拫需求, 研发多种集成预报技术手段-开发以大气物理所双向嵌套模式、国际著名的W0DEL3/CMAQ模式、CAMx模式为基础的空气质量多模式集成预振系统, 研发的该预报系统平台实施多重嵌套方案, 可实现, 亚、华北、京津冀、北京全域多层次的空气质量实时数值预p, 并可为北京绿色奧运提供髙质量的数值预报模型, 从而提髙空气质s蝻报) i痼率。研发数据对接于分析技术 (包括气象预报数据与污染预报对接污染实况的衷征技术以及预振系统的生成技术) 及自动分祈处理工此开发技术捋在囝内处于领先地位, 在国内第一次实现空气质.'翼多模式系统气象驱动模式和排放源处理的统一, 并自主开发嵌套网格模式及其相应接口程序。2.三维大气污染监测数据的模式同化技术I·研发集合Kalman滤波同化技术, 耦合并同化三维大气污染监测数_更新污染预报初始场, 耦合的数据集可包括高时空分辨率的大·号染场、风温场资料以及气溶胶水平和垂直方向的分布资料。研发套网格空气质量数值模式预报的集成技术该项目研发的空气质®多模式集成预报系统实施多重嵌套方案, 为北w绿色奥运提供高质·的数值预报模型, 提高空气质量预报准备率, 同时可实现从东亚、华北、京津冀、北杂全域多层次的空气质量实时数值预报。中国科学院北京国家技术转移中心

计算机集群技术 篇5

关键词:计算机产业,产业集群,高新技术产业

计算机技术是当今世界经济社会发展的重要驱动力, 计算机及外围设备制造更是国民经济的战略性、基础性和先导性支柱产业, 对于拉动经济增长、调整产业结构、转变发展方式和维护国家安全具有十分重要的作用。

近年来, 重庆围绕“变革”、“转型”、“升位”的主题, 紧抓云计算、物联网等前沿技术的革新, 以结构调整为主线, 以重大项目为载体, 以招商引资为抓手, 以提升配套能力为重点, 以新兴战略产业为突破口, 加大企业研发投入, 全面提升自主创新能力, 大力培育知名品牌。逐渐实现由单一的制造向“研发+制造+结算”的发展模式过渡, 从而不断增强产业持续、快速发展的能力, 促进工业结构调整和转型升级, 实现计算机产业的跨越式发展。2008年6月, 惠普全球测试服务中心正式落户重庆;2009年8月, 惠普 (重庆) 笔记本电脑出口制造基地、富士康 (重庆) 产业基地两个重大项目落户西永;2009年12月, 英业达中国第二生产基地落户西永;2010年1月, 广达在中国第三个笔记本电脑生产基地落户西永;2010年4月, 思科通信设备制造基地落户重庆;2010年6月, 大全新能源1000MW硅碇、硅片项目在万州开工。2010年12月, 北斗卫星导航产业园落户两江新区;2010年12月, 中航工业重庆产业园落户两江新区;2011年1月, 和硕联合重庆产业基地落户两江新区;2011年4月, 华硕电脑全球生产基地暨中国第二营运总部落户高新区。2010年, 全市电子制造业共签约外资项目30个, 协议投资26.8亿美元;签约内资项目70个, 协议投资129.6亿元。

一、重庆高新区计算机产业集群发展特色

(一) 资本结构的外生性。

从企业的性质看, 集群外资企业占主要成分。重庆作为老工业基地, 计算机产业基础相对薄弱, 企业规模较小、技术水平较低, 通过外来企业迅速扩大生产规模和实现技术跨越式发展, 有效地促成产业的空间集聚, 并形成卫星式产业集群。近年来, 重庆先后有惠普、宏碁、华硕等龙头企业落户, 并带动富士康、广达、英业达等配套企业入驻, 集群规模不断扩大。2010年集群内外资企业产值占全部产值的70%以上。

(二) 产业链条的延展性。

重庆计算机产业集群内企业纵向专业化分工和横向协作水平较高, 产业链上各价值环节的进一步专业分工精细, 同时向产业链两端延展的空间大, 实现了由传统水平分布模式向垂直整合模式的转型, 尤其体现在本地配套分工与延展上, 实现专精生产, 满足市场的需求。以华硕电脑为例, 在重庆设立中国第二运营总部, 纳入了技术基地、生产基地和终端销售等产业链核心环节。群内配套占其产业链价值环节的60%以上, 已初步形成了“研发+制造+销售 (结算) +服务”四位一体发展模式。

(三) 创新氛围的活跃性。

重庆计算机产业集群创业与创新文化氛围活跃, 市内电信规划研究院、电子24、26、44研究所等科研院所云集, 并有重庆大学城等科技资源, 科技人才优势突出。集群内企业技术来源涵盖欧美、日本、中国台湾等多个区域, 经过企业间的竞争与协作, 技术交流与文化融合成为刺激集群创新发展的原动力。计算机产业集群内企业拥有的高技术人才和高端管理人才是重庆平均水平的2倍以上, 成为创新创业的有力保障。

二、重庆高新区计算机产业集群发展面临的主要问题

重庆计算机产业实现了长足进步和发展, 但仍存在以下几个问题, 与发达地区相比有较大差距。

(一) 龙头企业缺乏, 产业开放度不高。

技术领先、规模较大、品牌知名的龙头企业不多, 缺少带动性强的大项目支撑。要加大招商引资力度, 大力引进国内外知名的计算机龙头企业, 重点承接东部地区产业转移电子企业;同时培育高新区内有发展潜力的计算机企业, 逐步发展壮大, 实现内源式增长。

(二) 中介机构较少, 创新氛围不浓。

重庆的计算机产业中介服务机构发展滞后, 数量少, 专业水平不高, 仍处于起步阶段, 在规范行业行为、维护行业利益、促进创新成果交易、转移和扩散等方面的作用没有得到充分的发挥。应着力建立有利于创新和孵化的管理体制和激励机制, 大力发展科技交易、科技中介等知识密集型服务业, 加强建设有关生产力促进中心、产权交易市场、标准化推广中心等机构。

(三) 融资比较困难, 产业提升不足。

计算机产业是以科研、开发为先导的高投入、高风险的新兴产业, 进入市场的门槛相当高, 它的发展需要巨额资金。为了获得计算机产业发展的巨额资金, 各国都在大力研究、试验各种方法和机制如风险投资等。重庆一方面由于国内风险投资机制还不完善, 不能承担起支撑信息产业发展的重担, 另一方面又缺乏国际风险投资资金的进入, 导致在科研开发经费投入上与国外和沿海发达地区相比存在着较大差距, 使得科技成果产业化难度加大。可通过建立多元化投融资体系、鼓励本土企业融资发展、加大财政资金扶持力度等渠道解决。

三、重庆计算机产业集群的发展方向

(一) 集群发展总体目标。

根据《重庆市电子制造业“十二五”发展规划》, 重庆计算机产业集群的建设目标是:打造电脑制造千亿级支柱产业链, 奠定万亿级支柱产业链的发展基础, 力争到2015年底, 完成投资3, 000亿元, 年销售收入达到7, 000亿以上, 培育千亿重点企业2~3家, 百亿重点企业5~10家, 形成年产1亿台个人电脑、300万台服务器、1, 000万台路由器、300万台交换机、4, 000万台打印机的生产能力, 零部件本地化配套率达到80%以上, 初步建成国内最大的笔记本电脑生产基地。

(二) 集群发展模式探索。

通过“整机+配套”改变计算机生产模式, “贸易+结算”创新金融服务体系, “制造+研发”向价值链高端延伸, 不断创新发展模式。以研发带动生产、引进带动自主开发为主要路径, 完善发展“研发+整机+销售 (结算) +服务”四位一体的产业链整体发展模式, 领跑产业发展, 为重庆建设亚洲最大笔电基地奠定坚实基础。

四、重庆高新区计算机产业集群的提升对策

(一) 优化产业环境, 加强集群引导。

进一步整合市内计算机产业资源, 不断改善产业集群的基础设施硬环境和服务软环境, 从而更好地发挥集群的聚集、导向、渗透、扩散效应以及创业孵化、资源共享、招商引资等功能。加强与其他地区合作, 构建优势互补, 形成有梯度的产业承接、转移格局, 共同发展区域产业经济圈。加强公共技术服务平台建设, 拓展计算机产品的应用市场, 加快“两化融合”;加速物流通道建设, 构建市内外联动的快速物流通道, 建设区域性物流综合信息平台。形成布局合理、特色鲜明、产业链完善的区域产业合作发展格局, 推动重庆乃至整个西部地区的共同发展。

(二) 拓宽融资渠道, 增添发展动力。

利用财政资金对计算机产业发展的支持, 通过贷款贴息、创新补助、引导资金等方式, 引导各类社会资金、商业金融机构等投资自主创新成果产业化, 重点支持战略性、公益性、产业共性服务平台建设, 以及战略新兴产业重点项目, 形成多层次、多形式的高技术产业投融资体系。积极推进风险资本发展, 引导和鼓励各种风险投资和产业投资主体向高新区中小科技企业投资, 同时完善风险资本退出机制, 深化和完善产权交易, 通过股权交易使风险投资有效退出。鼓励和引导民间资本向高新区计算机产业投资, 培育一批主业突出、质量水平高、竞争力强的龙头企业, 不断衍生或吸引更多相关产业聚集, 不断完善和延伸产业链条, 争创具有自主知识产权的品牌产品, 把引进外来资金与调整优化产业结构、提高产品质量紧密结合起来, 推动本土企业做大做强。

(三) 实施人才战略, 鼓励创新创业。

建立良性的育才、引才、用才机制, 积极实施人才培养和引进计划, 努力造就一支结构合理的高层次创新人才队伍。以发挥科技人才最佳成效为目的, 制定发现、吸引、培养和保护科技创新人才、高素质管理人才的政策与措施, 充分调动计算机产业领域高精尖技术人员的积极性、主动性和创造性。培育激励创新、尊重个性、鼓励拔尖、宽容失败的氛围, 创造有利于人才脱颖而出的发展环境。

计算机集群技术 篇6

1.1 集群系统基本概念

把多台同构或异构的计算机通过网络连接起来, 用于完成特定的任务的系统称为集群系统。集群系统中的计算机称为“节点”。因此, 也可以说, 集群系统是通过高性能网络所组成的节点的集合。

1.2 集群系统的特点

(1) 集群都是将普通PC、工作站或服务器通过某种方式连接起来构成的多机系统。

(2) 集群系统都具有良好的可用性。即它们都能够在集群的某部分资源出故障的情况下继续向用户提供持续的服务。几乎所有的典型集群都拥有灾难恢复功能。

(3) 集群系统有良好的可扩展性。只需很少的配置工作就可以方便地在集群中加入或删除工作节点。

(4) 典型的集群系统提供了良好的可管理性。管理人员通过简单的操作就可以对集群中的工作节点或控制节点进行配置工作。

(5) 集群系统一般都提供了负载平衡功能。负载平衡包括静态负载平衡和动态负载平衡, 为了最大程度地利用集群中的一切资源, 集群需要具有动态负载平衡功能, 它能够通过监视集群中的实际节点的负载情况动态地进行调度。

(6) 大部分集群系统都有一个主控机, 它能够对集群中的机器的运行状态进行监视, 而且能够根据各机器的负载轻重进行任务的调度。

1.3 集群系统的分类

通常情况下, 将集群分为两大类:高可用集群和高性能集群。

2 x CAT工具介绍

2.1 x CAT简介

x CAT (Extreme Cluster Administration Toolkit) 是一个可伸缩的Linux集群管理和配置工具, x CAT最先是为IBM x Series系列的Linux Cluster做的第三方软件, 但后来它没有发展成为一个产品, 而是成为包含一系列有用的脚本的软件包。使用者可以自己修改, 但是不能重新发布。

2.2 x CAT功能及特性

全自动化的安装:基于网络的, 无人看管的安装。远程管理和监视:远程电源管理和远程控制系统。软件管理:并行管理工具和高性能软件。

x CAT的特性:硬件管理和监控;支持IBM e Server x Serie系列服务器远程电源控制的高级系统管理特性;支持远程系统状态检测分析 (风扇速度, 温度, 电压等) ;远程详细检测系统状态设备型号和BIOS等;硬件事件日志记录;SNMP认证警报;软件管理;以及并行的Shell和其他工具同时运行在x CAT管理范围内的节点等。

3 x CAT工具部署安装

x CAT可以运行其上的系统有Redhat&Fedora Core、SUSE等Linux操作系统;IA64、PPC64等硬件架构。安装x CAT需要下载如下文件包:xcat-dist-core-x.x.x.tgz, xcat-dist-ibm-x.x.x.tgz, xcat-dist-doc-x.x.x.tgz和xcat-dist-oss.x.x.x.tgz。

默认方式下x CAT的安装目录为/opt, 用下列命令依次安装:

tar zxvf xcat-dist-core-x.x.x.tgz-C/opt

tar zxvf xcat-dist-ibm-x.x.x.tgz-C/opt

tar zxvf xcat-dist-doc-x.x.x.tgz-C/opt

tar zxvf xcat-dist-oss.x.x.x.tgz-C/opt

安装前需要做一些准备, 包括设置环境变量, 准备启动镜像, 启动NFS服务器, 以及修改¥XCATROOT/etc/目录以下的几个文件, 包括site.tab, nodelist.tab, notetype.tab, noderes.tab, mac.tab, postscripts.tab, postdeps.tab, nodehm.tab和passwd.tab。

具体的修改说明如下:

site.tab文件中注意几个要修改的地方, 主要用于描述master节点的一些必要属性和网络配置情况, 包括domain, dnssearch, nameservers, nets, forwarders, dnsallowq, mailhosts, master, homefs, localfs, snmpd, installdir, dynamicr, usernoders, usermaster, nisdomain, nismaster和subdhcpd。

nodelist.tab文件中主要定义node的名字, 组和组id。

nodetype.tab文件中主要定义每个node安装什么体系结构的系统。

noderes.tab文件用于节点安装时资源的描述。

nodehm.tab文件用于描述节点的硬件管理。

随后用root用户登录:

[root@master1~]#export XCATROOT=/opt/xcat

[root@master1~]#cd XCATROOT

[root@master1~]#./setupxcat

创建服务:开启DNS, 获取MAC地址, 开启DHCP, 配置终端服务。配置所有节点 (自动的或者手工的) :升级硬件, 配置硬件/COMS/BIOS使它从来不会暂停, 配置启动顺序, 开启处理器控制, 如果可以的话, 重新定义POST/BIOS的连续输出。最后是集群的安装:准备安装服务器, 准备自动安装的脚本, 设置节点, 重新启动并且开启无人看管的安装模式, 最终检查。

4 利用x CAT工具管理集群

利用x CAT工具, 系统管理人员可以很好地对集群系统进行管理和维护, 其提供的功能主要有以下两个方面。

4.1 硬件管理与监控

系统管理员可以通过rpower、rreset、rboot 3个命令对系统中的节点进行远程电源控制。x CAT还提供了远程资产管理命令, 包括对服务器的序列号、BIOS版本、硬件日志等信息的查询。

4.2 软件管理

x CAT提供了Remote Console的命令, 分别是rcons和wcons, 对远程系统进行监控, 这种监控是基于字符界面的。

x CAT还提供了大量的并行管理命令, 当我们需要对多个节点进行相同操作的时候, 就可以领用这些命令来完成, 这些命令包括psh、pping、prcp、psync、psysstat等。

5 结论

目前, IBM集群系统在生产实践当中已经开始使用, 在应用了x CAT工具后, 提高了系统的检查效率, 缩短了维护时间, 大大提高了工作效率, 保证了集群系统的高效、稳定运行。

摘要:本文介绍了集群系统的概念、特点和分类, 介绍了一种集群管理工具xCAT的安装部署, 通过IBM集群系统描述了xCAT工具在硬件管理、软件监控中的应用。在使用了xCAT工具后, 提高了系统的检查效率, 缩短了维护时间, 大大提高了工作效率, 保证了集群系统的高效、稳定运行。

关键词:集群系统,系统管理,xCAT,IBM集群

参考文献

计算机集群技术 篇7

数字电影作为新一代电影技术,以其无法比拟的技术优势迅速发展,为了促进数字电影的应用和普及,美国好莱坞数字影院倡导组织(Digital Cinema Initiatives,DCI)起草并制定了DCI《数字影院技术规范》[1],符合该规范的数字电影可以在全世界通用。DCI技术规范共分为总论、系统概述、数字电影发行母版、压缩、节目文件打包、发行传输、影院系统、放映设备、安全管理等9个章节,规定了整个数字电影发行系统以及数字影院的各项技术指标,而从2005年开始一直持续至今的3D技术新一轮发展,使得人们对3D技术的关注及3D数字电影的需求进一步升温。

在数字电影制作过程中,一个突出的问题是压缩处理的数据量十分庞大,数字电影发行文件的压缩生成时间过长,根据文献[2]可知,在一台双核CPU,主频2 GHz的PC上根据DCI规范压缩一帧2K数字电影图像耗时16 s,那么压缩一部2 h,24帧/秒(f/s)的数字电影,需要1个月左右,这在实际应用中是无法忍受的。为此文献[2]设计了一种分布式DCI数字电影图像压缩系统,同时使用两台刀片服务器和一台文件服务器对10 min的电影片段进行压缩,耗时24 h,效率也不够理想。

在笔者参与的“分布式宽带业务制作协同环境的开发”课题中,设计了一种基于集群计算的转码系统,在存储系统和调度系统的配合下,通过计算资源整合为整个系统提供多媒体内容的转码服务[3]。为进一步提高数字电影制作效率,参考该集群转码系统,设计了一种符合DCI规范的3D数字电影制作方案,详细阐述了该方案的各个模块及所用的集群计算系统,并对该方案下的制作流程及制作效率进行详细分析。

1 方案设计

按照DCI技术规范所述,一个完整的数字电影制作系统主要包含源获取、制作与发行、传输和播映3个环节。数字电影源可以用数字摄像机直接摄制,也可由计算机制作而成,或者用高分辨力胶片扫描仪转换已有的胶片电影,数字电影源经过影视后期处理生成数字源母版(Digital Source Master,DSM),针对数字电影应用,DSM转换成数字电影发行母版(Digital Cinema Distribution Master,DCDM),为了方便发行,DCDM压缩、加密和打包后形成数字电影包文件(Digital Cinema Package,DCP),然后DCP经由光盘、移动硬盘、宽带网络或卫星等介质传输到数字影院,由数字电影播放服务器解包、解密、解码恢复成数字电影源信号后,送到数字电影放映机上放映[4]。

在笔者所提出的3D数字电影制作方案中,数据源由3D摄影系统录制在磁带上,视频分辨力为1 920×1 080 24p HD,该方案从磁带中采集音视频数据进行压缩处理,生成方便传输与发行的DCP文件。

1.1 总体方案设计

根据实际应用需求和DCI技术规范,本方案可分为源获取、3D处理和制作发行包3个模块,各模块关系如图1所示。

1)源获取

数据源在拍摄时采用3D摄像机,由2个摄像机分别记录下左右视角的图像数据并通过HD-SDI接口传输至索尼Sony SRW-1高清便携录像机以磁带形式保存,该录像机具备双倍速记录功能,每路码率达440 Mbit/s(总共880 Mbit/s),可用于三维立体电影的双路RGB 4∶4∶4的3D数字母版录制。

2)3D处理

根据HDMI协议标准授权机构(HDMI Licensing,LLC)最新公布的HDMI v1.4a标准[5],广播内容的强制性3D画面传输格式共有两种:水平式(Side-by-Side Horizontal)和垂直式(Top-and-Bottom)。该方案采用水平格式,将左右视图像分别下采样为原分辨力的一半以后组合为一帧图像,其视频格式如图2所示。该方法生成的3D视频水平分辨力、垂直分辨力和帧率与原2D视频相同,经该方法处理后,后续制作只需对左右视合并后的3D图像进行压缩,相对于对左右视分别进行压缩编码后封装的方法[6],可以节省约一半的计算量。

在该方案中,3D处理模块采用的是上海精视(AVIT)的立体高清前端处理单元HD7000,该设备可以将HD-SDI输入的左右视图像以水平式/垂直式进行实时3D处理,并通过HD-SDI接口输出。

3)制作发行包

该模块通过HD-SDI接口采集经过处理的图像数据并采用集群计算的方式按照DCI技术规范对数据进行压缩编码,最终生成DCP发行包。DCI技术规范规定了两种分辨力∶2 048×1 080(2K模式)和4 096×2 160(4K模式),并且规定色彩空间为X′Y′Z′,像素比特精度为每分量12 bit,图像压缩采用JPEG2000,并且根据数字电影对图像质量的要求调整了压缩算法,音频数据不压缩以保证更好的原音重现。压缩后的图像封装于一个图像轨道文件(Picture Track File),同时音频和字幕也要封装于音频和字幕轨道文件。DCI使用媒体交换格式(Material Exchange Format,MXF)作为轨道文件的格式,最终的完整DCP发行包还应包含合成播放列表(Composition Playing List,CPL)、打包列表(Packing List,PKL)、资源映射表(ASSETMAP)和磁盘索引(VOLUME INDEX)等信息文件,由于图像压缩的计算量较大,耗时较长,该方案中设计了一种集群计算系统来提高制作效率。

1.2 集群计算系统设计

该集群计算系统基于集群计算的思想,采用多计算节点为3D数字电影制作任务提供稳定可靠、性能强大的计算能力,其主要功能是根据用户需求对输入的源数据进行压缩编码处理,具体可划分为用户控制、任务管理、系统调度、数据采集、压缩编码及数据合并等模块,各功能模块的连接关系如图3所示。

1)用户控制。用户可以通过该模块设定数据采集方式及任务参数,管理电影制作任务及集群计算系统。

2)任务管理。根据用户指令管理制作任务,向数据采集模块下达采集指令并获取采集信息,与系统调度模块交互任务信息。

3)系统调度。根据任务信息合理分配工作节点,向各个工作节点传输任务信息并监控各节点工作状态,通过数据分发指令调度数据流向,同时对任务状态进行监控。

4)数据采集。根据采集指令获取音视频数据,通过采集卡从HD-SDI接口获取数据,并保存至存储服务器。

5)压缩编码。根据任务信息对获取的视频帧进行处理并以JPEG2000算法进行压缩编码。

6)数据合并。所有视频帧均编码完成后进行排序和合并,并按照DCI技术规范对音视频数据进行封装,同时添加字幕文件及其他信息文件。

2 制作流程及性能分析

笔者详细描述了该3D数字电影制作方案的制作流程,并对工作节点数量与系统性能的关系进行了分析。

2.1 制作流程

原始数据在拍摄完成后由录像机存储于录像带上,视频分辨力为1 920×1 080。首先,录像机将左右视图像分别通过HD-SDI接口输出至HD7000模块,该模块将左右视数据处理为水平格式的3D图像,并以HD-SDI接口传输至集群计算系统,集群计算系统通过数据采集卡将源数据分别保存在存储服务器,之后对数据进行压缩编码处理,制作为符合DCI规范的DCP文件,该任务的实际工作流程如图4所示。

具体各步骤为:

1)用户根据源信息设置采集参数,如视频帧率(24 f/s)、视频分辨力(1 920×1 080)、视频色彩空间(RGB32)、音频采样率(48 kHz)、音频采样深度(16 bit)、采集时长等。

2)数据采集模块通过采集卡按照用户设置将音视频数据分别采集到存储服务器,这里采用的是BlackMagic DeckLink HD Extreme采集卡,可以实现10 bit SDI无压缩高清视频采集和回放,由于数据量过大,数据的采集速率为1 520 Mbit/s,为保证数据不丢失,数据采集服务器与存储服务器之间的数据吞吐速率及存储服务器的读写速度至少为2 Gbit/s。

3)采集模块将音视频数据信息返回。

4)用户根据数据信息及需求,向集群计算系统下达制作任务。

5)任务管理模块获取制作任务,并从数据采集模块获取文件信息,文件中每个视频帧将作为一个子片段分发到工作节点进行编码处理。

6)任务管理模块将任务信息及子片段信息传递给系统调度模块。

7)系统调度模块根据系统工作状态,给任务分配一定数量的节点并初始化,根据节点工作状态动态地分发子片段。

8)节点从存储服务器获取子片段,按照DCI规范及用户设置,先将视频数据格式变换为色彩空间X′Y′Z′、比特深度为12、图像分辨力为2 048×1 080(2K模式)的无压缩数据,然后按照DCI规范所用的JPEG2000压缩算法对数据进行压缩,生成j2c文件。

9)节点将生成的j2c文件上传至存储服务器。

10)节点将子片段完成情况返回给调度服务器。

11)系统调度模块在所有子片段都完成后向数据合并模块下达合并指令。

12)数据合并模块从存储服务器获取所有子片段,按照时间顺序合并后分别把音视频文件以MXF格式封装,同时添加字幕文件、CPL、PKL、ASSETMAP和VOL-UME INDEX等信息文件,组成完整的DCP发行包。

13)将DCP上传至存储系统。

14)文件合并复用完成后,返回结果信息给系统调度模块。

15)任务完成后,将结束信息返回给任务管理模块。

16)通知用户任务完成。

2.2 性能分析

为了测试系统集群工作的性能,在工作节点数量不同的情况下分别对系统效率进行测试,各个工作节点均由服务器(DELL Power Edge R710 2U机架式服务器,Intel Xeon 5500 2.0 GHz,DDR3 2×2 048 Mbyte,Gigabit LAN port×4,Windows Server 2003 SP3)实现,各工作节点与存储服务器间由千兆路由器相连。测试结果如图5所示。

从图5中可以看出,在实验中任务处理的效率与节点数量基本成正比,这是因为任务中各节点处理的子片段相互独立,并且各服务器性能相同,网络环境相似,所以可提供的计算能力相当。但是,在实验中可以看出随着节点数量的增多,网络数据流量增加,在一些时段,数据请求会超出存储服务器的输出带宽、数据读写速度或是路由器的数据分发速度,网络或是硬盘I/O就会成为瓶颈,所以效率不会一直增长下去。

根据实验结果,如果使用该系统制作一部2 h的3D数字电影,在8个工作节点同时工作的情况下,压缩编码处理需要20 h,可以满足实际工作的需要。

3 小结

笔者设计了一种基于集群计算的3D数字电影方案,该方案对采集到的左右视数据以水平格式进行3D处理,并根据用户需求生成电影制作任务,利用多台工作节点的集群计算能力高效完成电影制作任务。相对于参考文献[2]与文献[6]所提方案,这一方案的优势在于系统均可以充分利用集群节点的计算能力,大大提高3D数字电影制作效率,详细介绍了该3D数字电影制作方案及所使用的集群计算系统。

参考文献

[1]Digital cinema system specification[EB/OL].[2010-08-31].http://www.dcimovies.com/.

[2]卢凌云,莫洪灵,魏芳.分布式DCI数字电影图像压缩系统研究[J].计算机工程与设计,2009,30(13):3124-3127.

[3]孙思慧,孙军,王兴东.面向在线制作的集群转码系统设计[J].电视技术,2010,34(1):18-21.

[4]王樱澍.DCI数字电影打包系统等的研究[D].北京:北京邮电大学,2008.

[5]High-definition multimedia interface specification version1.4a[EB/OL].[2010-08-31].http://www.blu-ray.com/news/?id=4246.

上一篇:管道流量下一篇:理论整合