医学影像存储传输系统(精选12篇)
医学影像存储传输系统 篇1
0 引言
信息技术是现代文明的基础, 信息技术的发展直接影响着社会生产力和综合国力的变化, 在医学图像管理领域, 传统的、基于胶片的影像管理资料是一种集中式管理模式, 住院病人的影像资料一般保存在科室, 出院后交由病人自己保存。此方式低效、不易统一管理, 已经成为阻碍医院信息一体化的重要瓶颈之一。而计算机技术和通信技术的迅猛发展, 为医学图像的数字化采集、存储、管理、处理、传输及有效利用提供数字技术基础已成为现实。
医学影像存储与传输系统PACS系统是放射学、影像医学、数字化图像技术、计算机技术及通信技术的集合;他将图像资料转化为计算机数字形式, 通过高速计算设备及通信网络, 完成对图像信息的采集、存储、管理、处理及传输等功能, 使图像资料得以有效管理和充分利用。
1 PACS的数据标准DICOM
在PACS的研究过程中, 由于医疗设备厂家生产的不同, 造成与各种设备有关的医学图像存储格式、传输方式千差万别, 使得医学影像信息在不同系统、不同应用之间的交换受到严重阻碍。为此, 美国数字成像及通信标准委员会ACR-NEMA在参考其他相关国际标准的基础上, 联合推出了医学数字图像存储于通信标准, 即DICOM标准, 并发展成为医学影像学领域的国际通用标准。
DICOM标准具有良好的扩展性。该标准由多部分构成, 可以单独对某部分进行扩充。经过不断改进, 现在已发展到了DICOM3.0标准, 主要由16部分构成。
2 PACS与HIS的融合
医院信息管理系统 (hospital information system, RIS) 广泛使用HL7标准, 而PACS系统将DICOM3.0作为图像文件标准, 因此, 采集计算机需要先把成像设备获得的图像文件编码成标准图像文件, 然后存储到PACS图像数据库中。
1) HL7
HL7 (health level seven) 是医疗信息交换标准, 由信息、信息段、字段和表等4部分构成, 在OSI模式中属于最高层即应用层。HL7的宗旨是开发和研制医院数据信息传输协议及标准, 规范临床医学和管理信息格式, 降低医院信息系统互连的成本。随着HL7应用的日益广泛, 完全可以做到医院信息系统 (HIS) 和医用仪器及设备之间数据的无障碍交换。
具体方案是:
(1) HIS发送待检查的病人信息, 接收到信息后进行待诊病人的查询;
(2) 录入病人相关信息, 保存到放射信息管理系统 (RIS) 数据库中, 并将收费信息以HL7的方式发送到HL7服务器, 由HIS对数据进行处理;
(3) 在医生诊断完报告后, 将诊断信息保存到RIS数据库中, 并将诊断信息以HL7的方式发送到HL7的服务器, 由HIS对数据进行处理。
2) 非标准图像的采集和转换
临床医学图像包括静止图像和运动图像。静止图像又分为符合DICOM3.0标准的数字数据、非标准的数字数据和非标准数字数据 (如胶片) 三类。对于符合DICOM3.0标准的数字图像, 可直接与采集计算机相连。对于非标准数字数据, 则设计者需要获得设备生产厂商关于数据结构和接口协议的详细说明, 将接收到的非标准数据转化为标准数据, 才能设计应用软件。对于胶片这类非数字图像, 可以使用专用扫描仪直接得到数字图像, 或者用摄像头获得模拟输出, 然后用帧捕捉的方式将其转换成数字图像。
4 系统流程
系统采用集中管理模式, 有一个功能强大的中央管理系统及中央影像储存系统服务于有PACS设备和影像, 提供集中、全面的系统运行和管理服务, 大大提高了系统的集成性、安全性和稳定性[1]。
(1) 预约登记信息输入:
临床医师在其工作站上提出检查申请;门诊收费或住院部护士工作站进行医嘱确认。病人信息一经录用, 其他工作站可直接从系统数据库检查申请预约登记中自动提取, 无需重新录入。
(2) 采集影像:
将电子申请单送到影像设备, 直接采集影像, 自动转发至影像中心服务器;若设备不支持WORKLIST的DICOM设备, 可通过分诊台自动获取电子申请单中的信息, 由设备操作人员手动录入到DICOM设备的图像工作站中, 然后采集影像, 自动转发至影像中心服务器。
(3) 发送、处理影像:
自动将影像转发至影像中心服务器, 使用系统中图像处理功能, 对图像进行处理、存储、打印。
(4) 书写诊断报告:
初级医师在诊断工作站阅片并书写诊断报告, 在此过程中, 可获得HIS中病人病历、医嘱、检查结果等信息。确认报告后, 高级医师阅片、审核报告并打印或发送至临床科室。
5 结束语
如何管理占据医院信息量80%以上的医疗影像信息是实现医院信息化的重要问题。PACS可实现医院内所有影像设备乃至不同医院影像之间的相互操作, 未来也可根据所形成的区域PACS组建本地区、跨地区广域网的PACS网路, 实现全社会医学影像资源的共享。
摘要:医学影像存储与传输系统 (PACS) 综合运用了放射学、影像医学、数字化图像技术、计算机技术及通信技术, 快速、准确、实时提供有效的医学图像综合信息。本文阐述了PACS数据传送标准, 进一步研究了PACS和HIS的数据融合, 从而实现了PACS系统的整体工作流程。
关键词:PACS,DICOM,HL7
参考文献
[1]殷亚萍.医学影像存档与通信系统的分析研究[J].计算机与网络, 2008 (14) :61-62.
[2]赵贵军, 张大波.PACS系统中的DICOM标准概述[J].微计算机, 2006 (16) :296-298.
[3]石明国.医学影像设备学[M].北京:高等教育出版社, 619-624.
医学影像存储传输系统 篇2
云存储系统数据结构
为了保证存储系统的可靠性,需要将数据复制为多份。当数据规模增加时,我们可能会对传统的数据库分库分表以水平扩展,很多企业还开发了各自的数 据库中间层以屏蔽分库分表规则。然而,在传统的分库/分表架构下,每一份数据只能为一组 Master-Slave 节点服务,这就导致同一组机器节点存放了完全相同的数据,当其中某个节点发生故障时,只能通过所在机器组中的节点进行故障恢复,这样的系统称为同构系统。
云存储系统一般指异构系统,每份数据可以被动态分配到集群中的任意一个节点,当某个节点发生故障时,可以将故障节点原有服务动态迁移到集群中的任何一台机器。只有实现系统异构才能发挥分布式集群的规模优势,减少集群运维成本,适应云存储系统数据量快速增长的需求。
数据结构决定了云存储系统的功能,云存储系统的数据结构主要有两种:分布式 Hash 表和分布式B+ 树,如图 1 所示。分布式 Hash 表通过比如一致性 Hash 的方式将数据分布到集群中的不同节点,数据随机分布,不支持范围查询;而分布式B+ 树的数据连续存放,支持范围查询,但是需要支持分裂和合并,实现相对较为复杂。
图 1 云存储系统分类图
常见的 Key-Value 系统的数据结构一般为分布式 Hash 表,只支持基本的 Put、Get 和 Delete 操作,比如 Amazon 的 Dynamo 和 S3 系统。而 Amazon Simpledb 按照 domain 进行数据划分,规定同一个 domain 数据量不能超过 10GB,从而可以存放到一个数据节点,用户只允许在同一个 domain 内部执行范围查询操作。Amazon 的云存储系统看起来不完美,但相当实用。
Google 的系统设计之初就强调可扩展性。从最初的 GFS 到 BigTable,再到后来的 Megastore、Percolator,Google 先将系统的可扩展性发挥到极致,以后再逐步加入分布式事务、SQL 支持等功能。这样的设计得益于 Google 强大的工程师团队和公司一直以来崇尚通用系统的文化。Google 的云存储分为两层:分布式文件系统 GFS 和分布式数据库系统 BigTable,GFS 是一个带有追加功能的分布式文件系统,BigTable 将事务的提交日志追加到 GFS 中做持久化。数据在 BigTable 内连续存储,逻辑上构成一棵分布式B+ 树,Megastore、Percolator 又在 BigTable 的基础上加入分布式事务、索引、SQL 支持等功能。Google 的系统设计比较贵族化,可以远观,但模仿前请三思,比如将系统分成多层可能会增加用户操作的延时,对工程师的设计编码能力提出了更高的要求。
Microsoft SQL Azure 是一个传统数据库厂商在云存储系统设计上给出的答案。当数据量增长时,必然要求牺牲部分功能来换取可扩展性,这对于 Microsoft 是不愿意看到的。Microsoft 直接在原有的关系型数据库 SQL Server 上进行分布式扩展,尽可能多地支持 SQL 功能,其功能非常丰富,但系统内部不支持 SQL Azure 实例的分裂和合并。因此,SQL Azure 内部也限制了单个 SQL Azure 实例允许的最大数据量,如 Business Edition 的最大数据量不超过 50GB。相比 Google 的系统,Microsoft 系统的扩展性较弱,但功能较强。
云存储系统的难点在于状态数据的迁移和持久化,状态数据也就是系统的事务提交日志。Google BigTable 通过分布式文件系统 GFS 持久化提交日志,Microsoft SQL Azure 直接将提交日志通过网络复制到数据的多个副本,而 PNUTS 通过 Yahoo!内部的分布式消息中间件 Yahoo! Message Broker 持久化提交日志。Yahoo!没有对外提供云存储服务,但这样的设计可扩展性也是相当不错的。
淘宝 Oceanbase 架构设计
淘宝 Oceanbase 是从 年 5 月开始研发的,其定位是解决淘宝内部在线业务的云存储问题。我们在设计系统时,总是考虑现在及今后一段时间的需求。互联网业务大致可以分为 OLTP 和 OLAP 两类,对在线存储的需求简单归纳如下。
OLTP:今后数据规模为千亿级,数据量百 TB,要求几十万 QPS 和几万 TPS。
OLAP:支持千万级记录的数据集上进行实时计算。
功能:支持范围查询,支持跨行跨表事务。
其他:5个 9 的可用性、自动故障处理、自动扩容等。
OLTP 和 OLAP 业务对性能的要求使我们必须采用分布式方案。另外,淘宝的业务发展迅猛,传统的分库/分表方法带来的扩容及运维成本太高,必须构建异构的云存储系统。通过 进一步分析在线业务,我们发现互联网在线存储业务有一个特点:数据量虽然很大,但新增数据量比较小,每天新增数据量基本在 1TB 之内。此外,淘宝的业务面临一些其他挑战,比如需要高效支持跨行跨表事务,需要支持两张几亿到几十亿条记录的大表进行联表操作。淘宝的海量数据以及复杂的 功能需求对存储系统的设计提出了新的挑战,关系型数据库在数据量上有点儿力不从心,而云存储系统又不能高效地支持复杂的功能要求。因此,需要融合关系型数 据库的功能和云存储系统的可扩展性这两个优点,
如何借鉴已有技术满足淘宝未来一段时间内的云存储需求?如果直接模仿国外的互联网巨头,比如模仿 GFS + BigTable,淘宝的团队确实有一定的经验。然而这样的系统在两年之内很难稳定,并且不能满足跨行跨表事务等复杂的功能需求。既然在线业务新增数据量 比较小,那是否可以把最新修改的数据和以前的数据分离呢?
答案是肯定的。淘宝 Oceanbase 将数据分成动态数据和静态数据两部分:动态数据的数据量较小,侧重 TPS 和 QPS,采用集中式的方法存放到单个节点的高品质存储介质,如内存和 SSD;静态数据的数据量很大,侧重存储容量,采用分布式的方法将数据分布到多台普通 PC 服务器的磁盘或者 SSD。由于动态数据的存储介质成本较高,需要不断地将动态数据合并到静态数据中,从而分布到多台机器以实现分布式存储。
淘宝 Oceanbase 系统架构大致如图 2 所示。从图 2 可以看出,系统有以下几个主要模块。
图 2 Oceanbase 架构图
RootServer:负责数据定位、机器管理、负载均衡、全局表 Schema 信息管理等。
UpdateServer:负责存储动态数据,存储介质为内存和 SSD。
ChunkServer:负责存储静态数据,数据存储 3 份,存储介质为磁盘或者 SSD。
Client:Oceanbase 提供的胖客户端。
写事务只操作 UpdateServer,读事务需要同时读取 ChunkServer 和 UpdateServer。某些操作,比如 OLAP 分析型操作可能需要涉及多个 ChunkServer 上的数据,这时将引入一个新的 MergeServer 模块将请求拆分到不同的 ChunkServer,合并每个 ChunkServer 的返回结果后执行排序、分组、分页等操作。静态数据在 ChunkServer 中保存三份,UpdateServer 通过 Linux HA 的方式进行双机热备以保证可靠性。RootServer 的访问压力很小,一般可以和 UpdateServer 部署在相同节点上,并采用相同的 Linux HA 方式。Oceanbase 的 UpdateServer 在同一个 IDC 机房采用实时同步的方式保证强一致性,这意味着写事务只有等到主机和备机都操作成功后才返回客户端。Oceanbase 支持跨 IDC 机房的异步准实时热备,多个机房之间的数据延迟为秒级。
Oceanbase 的静态数据和 BigTable 类似,数据被分为几十到几百 MB 不等的子表,每个子表的磁盘存储格式为 SSTable,通过 bloom filter、block cache、key value cache 等方式进行优化。SSTable 支持根据 column group 按列存储,从而高效地支持 OLAP 分析。动态数据采用 copy-on-write 的方式实现了单机内存中的B+ 树,在单写多读的应用场景下不需要加锁。
Oceanbase 静态数据构成一棵分布式B+ 树,动态数据为单机B+ 树。与线下 MapReduce 批处理应用不同,在线存储应用的更新量一般比较小,动态数据服务器不会成为性能瓶颈。这也就意味着,淘宝 Oceanbase 用一种更为简便的方式在底层实现了和其他互联网巨头类似的B+ 树数据结构,并且能够高效地支持跨行跨表事务。当然,当数据量增长到万亿级或者数据更新更快时,需要考虑将动态数据服务器的方案由集中式修改为分布式。我 们也考虑过多 UpdateServer 方案的设计,但由于短期内看不到明确的需求,暂时没有实现,目前我们认为可以通过硬件的方法,比如万兆网卡、更好的 CPU、更大的内存和 SSD 来解决。
Oceanbase 还实现了一些分布式系统中常见的特性,比如自动负载均衡、在线修改 Schema、内置压缩解压缩等。另外,Oceanbase 系统里面没有随机写操作,因此天然适应 SSD 存储介质,很好地弥补了磁盘的 IOPS 不足这个问题。
Oceanbase 应用效果和经验
Oceanbase 首先应用在淘宝收藏夹并取得了明显的效果。淘宝收藏夹最初采用 MySQL 分库/分表的方式实现,通过使用 Oceanbase,机器数由原来的 16 台主加上 16 台备共 32 台减少到 12 台静态数据服务器加上 2 台动态数据服务器,大大节省了机器资源。另外,目前应用的很多问题在 Oceanbase 中是通过更好的架构来解决,单机层面基本没做优化,相信后续还有很大的提升空间。在这过程中,我们也积累了一些经验教训。
选择合适的技术。云存储听起来比较神秘,但实际上,对于大多数企业,需要设计好系统可扩展性发展的路线图,当数据规模比较小,可以采用传统的分库分表的方式构建同构系统;当数据规模逐步增加时,可以考虑构建符合企业需求的异构系统。
细节决定成败。云存储更多地是一个工程问题,代码质量、优化细节对系统的表现影响至关重要,淘宝 Oceanbase 的大多数代码都被两个以上的工程师 Review,我们也在减少 Cache 锁粒度、减少上下文切换、减少内存分配和内存拷贝等方面做了很多细粒度的工作。
展望
Oceanbase 目前的主要工作是应用推广,根据应用的需求来逐步完善 Oceanbase 系统,实现互联网数据库的构想。我们已经开始和淘宝的业务团队开展了千万级数据秒级实时分析的 OLAP 项目。另外,Oceanbase 还在考虑整合分布式 Blob 存储系统。随着应用推广的深入和 Oceanbase 系统的优化,希望能在合适的时间进行数据库新基准 TPC-E的测试。
另外一个振奋人心的消息是:Oceanbase 将在合适的时间点开源。相信通过业界同仁一起努力,一定能够将云存储这个问题解决好!
作者杨传辉,花名日照,淘宝存储系统专家,热衷于分布式存储和计算系统设计,对分布式系统理论和工程实践有比较深厚的理解。之前在百度作为核心成员主导或参与 MapReduce、BigTable 和分布式消息队列等底层基础设施架构工作。
大容量存储,消除影像饥饿感 篇3
外观
索尼HDR-SR12E延续着索尼硬盘摄像机的工业设计风格,流线的机身设计,取景器部分微微上翘,形成好看的弧度。在选择机身材质的时候,索尼公司充分考虑到了时尚美观的要求,钢琴烤漆的机身让索尼HDR-SR12E的机身不但新潮,而且高贵典雅。
液晶屏采用宽屏设计,92.1万像素的3.2英寸Xtra Fine液晶屏,分辨率为混合型液晶屏的4倍,色彩还原出色,可以清晰地观察焦点位置,方便构图。虽然硬盘容量增加到了120G,但是机身的重量却没有增加多少,单手持机操作轻松自如,充分考虑到了家庭拍摄和户外旅行的需要。
按键
索尼HDR-SR12E的按键设计非常精妙,电源开关不同以往的上部设计,而是安放在了机尾的中部,依然采用旋转的开机方式,摄录转换模式按钮依然集成在电源开关上,通过旋转进行选择。
快速开机键安放在机尾上部,单键操作非常方便,开关机转换速度奇快,可以时刻让机器处在休眠或唤醒阶段,节省大量电力资源。
变焦键依然使用“左右式”变焦方式,这个液晶屏旁边的“推拉式”变焦键组成了一个方便的摄像机操控按钮组,而且在手持使用液晶屏拍摄时非常方便。
机身腹部也集合了大部分按键,EASY拍摄模式转换键和回放键都设置在这里,与以往机型不同的是,索尼HDR-SR12E增加了直接烧录的功能按键。
在镜头下方索尼HDR-SR12E的重要按键设计在这里,手动聚焦按钮的设计极大增强了索尼HDR-SR12E的手动功能,只要轻点按钮就可以转化成手动焦点模式,通过对按钮拨轮的控制可以完成多种焦点模式,这也给家庭DV的拍摄带来了很大的创作空间。
端口
索尼HDR-SR12E的端口保留的非常精道,高清必备的HDMI,USB端口等一应俱全,其他全部集成在底座上。需要特别说明的是,索尼HDR-SR12E的端口全部抛弃了过去拔出式的端口盖设计,采用了全新的滑盖式设计,手感非常好,而且非常节省空间,设计功用非常人性化。
亮点
拍摄
索尼HDR-SR12E使用CMOS影像传感器,可以拍摄1920×1080 50i全画幅的AVCHD影像,采用12倍光学变焦卡尔·蔡司Vario-Sonnar T*镜头,支持光学防抖功能,影像还原能力异常出色,可以拍摄1020万像素的静态图片。
录制
索尼HDR-SR12E使用120G的超大硬盘,可以海量存储生活影像,做到随时拍、随地拍。另外,它还使用5.1声道内置变焦麦克风,声画功能都非常出色。
易用模式
索尼HDR-SR12E集成了使用方便的人脸检测功能,配合强大的BIONZ影像处理器,实现了图像的低噪点,低光照感光度和高清晰度。支持x.v.Colour技术以及专业的Exmor降噪技术双重录制功能。
大容量的索尼HDR-SR12E已经突破了民用系列的技术指标,呈现出了一定的专业态度,无论是拍摄指标,还是机器实际的便携性、操作性都有了质的飞跃。在实际操作中发现索尼HDR-SR12E对于曝光,以及色温的控制都非常到位,色彩饱和且细腻,使用人脸检测功能让拍摄异常便利,适合于家用、商务、旅游拍摄,生活的点点滴滴都可以轻松记录,而且120G的大容量可以真正地保证影像生活无处不在,让影像变的随心所欲。
回放
医学影像存储传输系统 篇4
随着现代医学的发展, 医院诊疗工作越来越多地依赖现代化的检查结果。像X光检查、CT、MRI、超声、胃肠镜、血管造影等影像学检查的应用越来越普遍。在传统的医学影像系统中, 影像的存储介质是胶片、磁带等, 其耗材成本支出高, 存放、查找、借阅难, 且由于信息资源不能共享, 难以避免病人重复检查等问题, 使得病人检查费用居高不下。因此, 传统的医学影像管理已经无法适应新型医疗卫生服务的要求, 采用数字化影像管理方法来解决这些问题已迫在眉睫。目前, 虽然有部分医院已经开始对医疗影像的数字化管理, 在医院内部实现了这些资源的共享, 但跨院间的信息共享尚不能实现。
鉴于此, 区域PACS平台的业务建设将紧紧围绕“完善公共卫生和医疗服务体系、合理配置医疗卫生资源”的重点进行, 预期本项目实施后, 将达到以下效果:
从社会角度, 通过实现对医学影像检查设备资源的合理配置、整合与共享, 从而节省医疗资源的重复设置, 减少医疗设备投资浪费。通过率先在联网医院的范围内建立区域内居民“以人为本”的诊疗信息资料库, 为将来实现区域医疗信息化打下基础。另外, 通过减少对传统影像胶片的使用, 从而降低对环境的污染。
从病人角度, 实现在某一家医院进行过检验检查后, 即可在联网范围内的其它医院调阅到相关的影像图像和报告。从而避免病人在多家医院的重复检验检查, 降低医疗费用支出负担, 缓解“看病难、看病贵”矛盾。通过诊疗信息的交换共享, 方便就医者在某医院内以及联网医院范围跨医院的诊疗。
从临床医生角度, 实现对病人历史诊疗资料、医学影像检查资料的跨院调阅, 便于掌握病人病历和诊疗的整体情况, 为提高医疗服务的质量创造条件, 减少误诊或错诊的可能性。此外, 通过整体上把握病人的病史资料, 从而方便了对疑难病症实现专家会诊、实现对医学科学专题研究等提供有效信息和有利手段。
区域医疗信息交换共享在国内外受到了普遍关注, 国内各地纷纷出台了相应的建设项目和计划方案。国际上一些基于IHE解决方案的项目已经或者正在进行中, 从技术架构上理解这些项目对我国区域医疗信息共享交换有重要意义。
基于区域医疗共享的PACS用于将患者分布在各级医院中的诊疗信息、检验检查结果和医学影像进行基于国际IHE规范的共享交换和协同医疗。通过构造区域内部的医学影像信息交换平台, 以实现区域内医院的医学影像资源的共享与整合。此平台是卫生主管部门推动双向转诊和远程医疗的关键技术辅助手段, 可以有效地避免患者重复检查, 远程诊断咨询或者远程会诊, 远程教学和医学继续教育, 区域内部医学影像资源共享或者医院内部PACS系统的互联互通, 远程医学影像质量控制等。
该系统的研发和推广使用, 可以很大提高医院医疗技术水平, 实现高档设备, 优质医疗资源等信息共享和远程诊断等, 同时也会产生很大的社会效益和经济效益。
2 系统总体设计
根据影像图像和报告数据交换的特点及其功能需求, 影像数据中心系统架构设计遵循以下原则:
开放性。可与各医院异构PACS系统集成互联通信;可逐步将各级医院的影像纳入进行存储管理和应用。
标准化。遵循国际医疗影像信息共享技术架构框架文件IHE XDS–I;遵循医学影像通信标准D ICOM和其它相关医疗标准 (如HL7等) ;支持常用各类DICOM图像的共享交换和相应的通信传输语法。
可管理性。具有对所有共享影像进行中心注册管理功能;能对所有图像进行集中式存储备份。
安全性。在图像提交、传输和查询中提供数据私密性和完整性保护;符合DICOM有关数据通信安全性和使用可追踪性要求;系统具有容灾设计和快速灾难恢复能力。
根据以上原则, 通过研究集中分布系统架构具有的诸多优点, 完全适合区域共享的需求。采用集中分布系统架构能够:
(1) 集中与分布式相结合的架构, 合理利用了已有的医院资源, 同时又增加了数据的获取渠道, 平衡利用有限网络带宽资源;
(2) 影像数据中心系统的中心节点和医院节点自动互为备援数据在医院和中心异地备份;
(3) 在医院前置机正常工作的前提下, 整体架构将为分布式。
医院间共享数据尤其是医学影像的共享成为越来越迫切的需求。如图1所示, 显示了医学影像共享的一般需求:
影像仪器端传入各医院端PACS服务器中, 经过医院端前置服务器对影像进行数据匹配后, 定时通过DICOM通讯方式传到医学影像数据中心PACS应用服务器。中心端PACS应用服务器在收到影像资料的同时在数据库服务器中建立对应影像数据的索引, 在索引服务器中建立病人影像检查的索引。因此本共享系统主要分为中心PACS服务系统, 医院PACS系统, 和工作站系统。
(1) 区域PACS数据中心。建立一个影像数据中心, 连接区域内所有医院, 用于存储病人在就诊过程中所产生的所有文字信息和影像, 存储设备部署在中心医院。各医院生产的数据存储在本地, 同时, 为影像数据中心提供一个备份数据。
(2) 区域PACS信息共享与交换平台。建立一个区域PACS信息共享与交换平台, 采用Web方式发布到各个医院临床工作站, 可以与医院HIS或电子病历系统进行嵌入式集成, 方便医护人员使用。在该平台上, 医生可以完成会诊和转诊业务。同时, 也可以借助此平台实现患者在各医院之间的影像信息共享和调阅。
(3) 应用系统及接口。遵循IHE技术框架, 采用国际标准的HL7接口和DICOM接口与各相关系统进行通讯。区域PACS信息交换平台可支持多个接口组的方式, 每个接口组按照医院数据量的大小来确定连接一家或者多家医院, 避免由于数据量过大而对接口吞吐量造成影响。
建立影像业务患者个人唯一索引机制, 进而建立患者病案资料档案库。
(4) 共享流程
(1) 医院C工作站向数据中心搜索A医院PACS系统的病人数据;
(2) 中心服务器返回确认数据可用, 并返回数据列表;
(3) 医院C工作站根据列表直接请求A医院PACS系统取回病人的医学影像、报告等。
3 系统功能
3.1 中心PACS服务系统
中心PACS服务系统是区域共享系统的关键, 负责存储各医院PACS系统信息, 经过用户认证的医院工作站客户端可以通过WCF服务取得可访问的各医院PACS系统信息, 直接访问获取远程数据列表和DICOM影像。中心服务系统包括系统数据库信息管理、医院信息增删改管理、访问量统计、访问控制、用户认证、远程WCF获取访问量、WCF获取访问列表信息。中心PACS服务系统的层次方框图如图2所示。
3.2 医院PACS系统
医院PACS系统管理和存储了医院服务器的全局信息, 包括了设备管理、网关管理、工作站管理、用户管理、系统信息管理、DICOM上传请求监听、DICOM下载请求监听等。可以医院内部独立使用, 必要时与外部医院进行图像传输。
3.3 医生工作站系统
工作站系统是医生终端使用, 它提供了:DICOM影像获取模块, 主要有读取本地DICOM列表、读取远程DICOM列表、获取可访问医院列表、远程下载DICOM影像等功能;DICOM影像操作模块, 主要有图像旋转、图像放大、图像测量、图像灰度调节、图像亮度调节、放置各种标签等功能;诊断报告编写模块, 包括获取编写模板、保存报告到数据库等功能;工作站信息管理模块, 包括了各种模板管理 (如报告词条、报告标题、检查方法的管理) 、工作站系统配置 (如修改密码、数据库配置) 等功能。
3.4 主要功能模块
(1) 医院PACS信息管理模块
此模块是中心服务系统提供的进行各医院服务器信息的管理, 加入局域网共享的医院需要在这个中心服务器中登记, 增删改操作正确完整后点击保存按钮将一次性保存到数据库中, 并触发添加访问权限和记录访问量, 减少与数据库的交互。
(2) 医院访问控制模块
此模块主要实现各医院之间的访问控制, 通过设置访问权可以控制对其他医院是否可见, 从而实现访问控制。
(3) 设备管理模块
此模块是医院PACS系统提供对医院内各个相关网络设备的管理, 可以设置医院内网关、各科室影像上传设备、医生终端工作站等。
(4) DICOM请求侦听模块
DICOM请求侦听模块的设计使用DICOM标准中的SCP、SCU两个服务, 其中SCP是服务提供者, SCU是服务使用者。在模块设计中, 所要做的是在需要对远程图像进行获取的时候, 开启SCU服务, 查询远程服务端是否开启服务并进行验证, 验证成功后才发送接收图像的C-GET请求。而在需要将文件传输至远程客户端的时候, 则需要开启SCP服务来为远程客户端提供传输服务。接收的图像将存在本地指定目录中, 以方便医生的查看和诊断。
(5) DICOM列表获取模块
医生工作站可以获取本地DICOM影像列表, 和本医院可访问的其他医院的DICOM影像列表, 下载远程DICOM影像列表将调用中心服务器提供的WCF服务, 获取的可访问医院列表中包含了远程下载该医院DICOM影像列表的信息。
(6) DICOM远程下载模块
医生工作站可以通过SCP、SCU服务向医院PACS系统提供的DICOM图像进行远程接收。接收的图像将存在本地指定目录中, 以方便医生的查看和诊断。
(7) DICOM影像操作模块
此模块是医生工作端提供对图像处理以方便医生对图像进行更细致的查看和诊断, 其中包括了图像旋转、图像放大、图像锐化、测量长度、测量角度、调节灰度、放置各类标签, 以及设置显示窗口的数量。
(8) 诊断报告编辑模块
此模块是医生工作端提供医生对患者报告进行浏览、编写的功能。报告是医生对患者病情的描述, 是对患者诊断的重要依据。医生可以在允许的情况下下载患者在其他医院的诊断报告, 如果是在本医院的新检查, 可以编写对患者此次检查的报告, 以记录病情以及提供其他医院的医生查看。并且模块提供了各类报告编写模板, 增加医生工作效率, 医生也可以保存自己的模板。
4 结束语
笔者采用集中与分布式相结合的架构, 合理利用了已有的医院资源, 同时又增加了数据的获取渠道, 平衡利用有限网络带宽资源, 较好的解决了共享的问题, 在实际应用中取得了较好的效果。
参考文献
[1]石琳.以SOAP协议为基础的Web Service安全机制分析[J].科技致富向导, 2011, (30) .
[2]吕海燕, 李华伟, 车晓伟, 王丽娜.数据元注册方法研究与应用[J].电子设计工程, 2011, (19) .
[3]张冰波, 宋荣华.基于Web services的分布式信息检索机制的研究[J].软件导刊, 2011, (7) .
[4]罗爱静, 平静波.区域卫生信息化建设探讨[J].医学与哲学 (人文社会医学版) , 2011, (7) .
[5]伍枫, 胥悦雷.基于UDDI的服务注册中心的研究与优化[J].现代电子技术, 2011, (12) .
[6]李维, 陈祁.基于IHE PIX的MPI研究及其在医院的应用分析[J].医疗卫生装备, 2011, (6) .
[7]马文虎, 刘友华, 翟油华.基于IHE的医学影像信息系统集成研究与实现[J].信息技术与信息化, 2011, (2) .
[8]刘俊梅.医院信息系统的现状及其发展趋势[J].解放军护理杂志, 2011, (7) .
[9]宇文姝丽, 杨小平.电子病历存储模式研究[J].医学信息学杂志, 2011, (3) .
机房收费系统之存储过程 篇5
存储过程(Stored Procedure)是在大型数据库系统中,一组为了完成特定功能的SQL 语句集,存储在数据库中经过第一次编译后再次调用不需要再次编译,用户通过指定存储过程的名字并给出参数(如果该存储过程带有参数)来执行它,存储过程是数据库中的一个重要对象,任何一个设计良好的数据库应用程序都应该用到存储过程。
数据库存储过程的实质就是部署在数据库端的一组定义代码以及SQL。将常用的或很复杂的工作,预先用SQL语句写好并用一个指定的名称存储起来,那么以后要叫数据库提供与已定义好的存储过程的功能相同的服务时,只需调用execute,即可自动完成命令。
使用存储过程的优缺点:
优点:
①重复使用。存储过程可以重复使用,从而可以减少数据库开发人员的工作量。②提高性能。存储过程在创建的时候在进行了编译,将来使用的时候不再重新翻译。一般的SQL语句每执行一次就需要编译一次,所以使用存储过程提高了效率。
③减少网络流量。存储过程位于服务器上,调用的时候只需要传递存储过程的名称以及参数就可以了,因此降低了网络传输的数据量,
④安全性。参数化的存储过程可以防止SQL注入式攻击,而且可以将Grant、Deny以及Revoke权限应用于存储过程。
简单讲:
1.存储过程只在创造时进行编译,以后每次执行存储过程都不需再重新编译,而一般SQL语句每执行一次就编译一次,所以使用存储过程可提高数据库执行速度。
2.当对数据库进行复杂操作时(如对多个表进行Update,Insert,Query,Delete时),可将此复杂操作用存储过程封装起来与数据库提供的事务处理结合一起使用。
3.存储过程可以重复使用,可减少数据库开发人员的工作量。4.安全性高,可设定只有某些用户才具有对指定存储过程的使用权。
缺点:
1:调试麻烦,但是用 PL/SQL Developer 调试很方便!弥补这个缺点。2:移植问题,数据库端代码当然是与数据库相关的。但是如果是做工程型项目,基本不存在移植问题。
3:重新编译问题,因为后端代码是运行前编译的,如果带有引用关系的对象发生改变时,受影响的存储过程、包将需要重新编译(不过也可以设置成运行时刻自动编译)。
网络存储系统综合安全研究 篇6
【关键词】网络;存储系统;安全;研究
目前计算机技术和网络技术已经在各个行业领域都发挥了重要作用,极大的提高了信息的传递速度,促进了生产力水平的提升。在这个信息大爆炸的时代,网络要想充分满足现代社会的需要,就要不断的扩大网络存储系统的容量,为人们提供海量的存储服务,并且要保证其安全性。事实上,安全一直以来都是网络技术的关键性问题,这是因为计算机网络具有开放性和自由性。而作为主要的数据中心,网络存储系统的安全与每个用户的切身利益都息息相关,更应该不断提高其安全性能,以免网络存储系统中的数据信息被人恶意破坏、更改或泄露,从而带来一些不必要的损失。在此本文笔者结合自己的理解和体会,对当前网络存储系统的综合安全问题进行深入研究。
一、网络存储系统的安全特点
虽然网络存储系统是以网络技术和存储技术为依托而形成的一种信息产物,但是其对安全性能的要求却与一般的网络安全要求有一定的区别。这是因为网络存储系统中,高速网络只是手段,其重点是利用这一手段来将所有的存储设备连接起来,形成一个集中、共享、统一的巨大数据库。因此其综合安全性能不单单是要保证网络的安全,更重要的是要保证数据库的安全,从而为用户更安全的使用存储资源提供保障。具体来讲,网络存储系统的综合安全具有以下特点:
1、数据保密性。由于网络存储系统可以将很多存储设备都连接起来,同样的,也有很多用户可以访问该存储系统。但是这仅仅只是针对被授权的用户来讲。若没有经过授权的用户侵入该系统,则会造成数据的泄漏,会给正当用户带来一些危害。因此网络存储系统的安全性能中必须要保证数据的保密性,可以通过加密的方式来是避免黑客对其进行攻击。
2、数据完整性。网络存储系统的主要作用就是为用户提供海量的数据信息,用户也是希望通过访问该系统来获取自己所需要的数据。但是若网络存储系统中的数据出现了缺失,则会严重影响到用户的访问质量。因此保证数据的完整性也是网络存储系统安全性能的重要体现,其可以通过Hash函数来检查数据是否完整,从而采取措施加以保护和完善。
3、不可抵赖性。这里所指的不可抵赖性,主要是指网络存储系统中的数据是由哪个设备发出,由哪个用户接收都是有一定记录的,是不能否认或抵赖的,这样可以避免一些不必要的纠纷发生,也能够在很大程度上保证数据使用的安全性。目前网络存储系统在这方面的安全技术主要是以数字签名技术的应用为主。
4、系统性能可用性。由于网络存储系统是一个海量存储系统,因此其用户也很多,系统的访问量很大,对数据加密保护的要求较多。这样就会给使得系统处于较大的负载运行状态下,若系统性能的可用性较差,就会出现瘫痪现象影响到用户的正常访问。为此,在网络存储系统的安全管理中,一定要保证其具有较强的使用和可用性。
二、网络存储系统的安全要素
在对网络存储系统进行综合安全管理的过程中,确定其安全要素是非常关键和重要的。只有明确了其主要的安全要素,才能更有针对性,更有目标的采取安全技术手段来保证网络存储系统的综合安全。在此笔者认为,网络存储系统的安全要素主要应该包括以下四点:
1、实体要素。这里所指的实体要素主要是指一些物理基础设施,如计算机、控制器、网络适配器、各种线路以及运行机房中的其他硬件设施,这是实现网络存储系统运行的保障和基本条件。若这些实体设备的安全都不能得到保障,那么网络存储系统的安全也就无从说起。
2、软件要素。在保证了硬件安全的基础上,要想实现网络存储系统的正常运行,势必离不开各种软件的支持。因此软件也是网络存储系统的主要安全要素。包括操作系统的安全,应用软件和工具软件的安全等。要确保其不会被病毒或黑客攻击侵入,从而避免网络存储系统中的数据被恶意篡改。当然,还要避免一些非法软件安装在网络存储系统中。
3、数据要素。在网络存储系统中,硬件和软件的存在都是为了数据的存储和使用而服务的,若数据的安全无法得到保证,那么网络存储系统也就没有存在的意义了。为此,数据安全是整个网络存储系统安全体系的核心,必须要给予高度重视。数据安全的基本要求是所有用户都能根据自己的权限合理的访问和规范的使用数据,数据的存储都能在正常的秩序下进行。并且还要能够为用户提供一定的私有存储空间。
4、管理要素。要实现良好的网络存储系统综合安全,管理自然是不可缺少的重要手段。在安全管理中,主要可以通过设置一定的安全管理机制和制度,或者对系统的安全现状进行审核和相应的评估来达到安全管理的目的。
三、网络存储系统综合安全实现的关键技术
以往对网络存储系统的安全技术的研究主要着重于容错技术和备份技术两大层面,并且也已经取得了一定的成果,如网络安全技术、信息加密技术和病毒防治技术等都已经相对较为成熟,为网络存储系统安全体系的实现打下良好基础。但是仅仅依靠这些安全技术是远远不够的。笔者认为,网络存储系统安全的实现,还要注重从以下几个技术层面进行研究:
1、操作系统的网络环境安全
由于网络存储系统主要是以网络技术和存储技术为主要依托,因此保证网络和存储设备的安全就显得很有必要。尤其是网络安全,更要引起我们的重视。值得一提的是,在当今先进科技的推动下,网络安全技术已经取得了很大的进展,动态安全策略框架已经基本形成,再结合一些其他的安全策略,网络存储系统的网络环境安全基本上可以得到保证。
nlc202309020631
2、系统访问的有效控制
网络存储系统要实现自身的价值,需要由用户的访问来实现。但是并不是指所有的用户都可以随意访问。而是应该有一定的访问控制。这是出于保护数据安全来考虑的。具体可以通过以下四种手段来实现:
2.1登录访问控制。这是访问控制的第一步,通过登录访问控制,可以将一些不具备访问权限的用户筛选掉,从而降低了访问风险。目前登录访问控制多是利用设置用户名和相应口令的方式来实现,或者是利用数字证书进行相关验证来获取登录访问权限。目前AFS、NASD等系统的登录访问控制就是通过使用由第三方认证的认证服务器来实现。
2.2访问权限控制。一些没有访问权限的非法用户会试图侵入网络存储系统中进行非法操作,而访问权限正是要对这些用户进行控制和拦截。一般合法的用户会根据自己的访问权限被分为不同的组别,不同组别所访问的目标、文件和数据都是固定的,对这些文件的操作权限也是被限制的。一旦超出自身允许范围,就会被访问权限限制。比如CFS系统就采用了用户分组的访问权限控制。
2.3目录级安全控制。针对用户设置的访问控制,控制用户对目录、文件、存储设备的访问。用户在目录一级指定的权限对所有文件和子目录有效,系统还可进一步指定对目录下的子目录和文件的权限。
2.4属性安全控制。在权限安全控制的基础上提供更进一步的安全性。当用户访问文件、目录和网络设备时,系统管理员应该给出文件、目录的访问属性,网络存储系统上的资源都应预先标出安全属性,用户对存储资源的访问权限对应一张访问控制表,用以表明用户对网络存储资源的访问能力。
3、身份认证控制
身份认证也是一道权限控制关卡,其是在用户对网络存储系统进行访问时对用户的身份做进一步的核实,这一层访问控制可以拦截已经进入系统的黑客。其主要是对用户的物理和数字双重身份进行认证,核实两者是否一致,若不一致则禁止继续访问系统内容。一般身份认证控制所采用的认证方法多是使用口令或者智能卡,也有些是通过生物识别技术来实现。身份认证的使用保证每个网络存储系统用户的访问合法性,从而确保系统安全。
4、入侵检测控制
入侵检测技术主要利用入侵者留下的痕迹来检测来自外部或是内部的非法入侵技术。入侵检测技术是防火墙技术的补充,能够从计算机网络系统中的若干关键点收集信息,并对其进行分析。在企业网络存储系统安全中入侵检测技术能够帮助系统对付网络攻击,从而提高信息安全基础结构的完整性,确保存储数据的安全性。
四、结束语
综上所述,在网络存储系统的运行中,一定要保证其安全性能,包括所有与其相关的方面都要确保安全可靠,尤其是认证、授权、数据完整和信息保密等方面,更要给予高度重视,加强对其安全管理。虽然当前网络存储系统的综合安全技术水平还相对较低,但是随着网络存储系统的作用越来越突出,其安全性能研究也势必更加深入。整体来讲,未来的网络存储安全系统技术研究方向主要是朝着层次化、专用化和主动化的方向不断发展,这也是信息时代发展对其提出的必然要求。
参考文献
[1] 高杰. 浅谈网络中身份认证技术的分析[J]. 长春金融高等专科学校学报 2004年01期
[2] 李文红. 网络存储安全技术研究[J]. 武汉理工大学学报(信息与管理工程版). 2006(08)
[3] 李娜. 网络存储综合安全的安全要素和关键技术[J]. 商业文化(下半月). 2012(04)
[4] 易胜兰. 大学网络环境下的网络存储系统的设计[J]. 工业设计. 2011(05)
作者简介:刘哲豪(1993-),男,内蒙古锡林浩特市人,周口师范学院计算机科学与技术学院2011级网络工程专业,研究方向为网络工程
医学影像存储传输系统 篇7
1 系统技术概述
1.1 云计算
云计算 (Cloud computing) 融合了分布式并行计算、网络存储、负载均衡等多种传统计算机和网络技术, 以其独特的扩展性、廉价性及容错力受到广泛关注。Hadoop是Apache开发的一个云计算的开源平台, 主要包括分布式文件系统 (HDFS) 和并行计算框架 (Map Reduce) 。Hadoop集群的规模少则几台, 多则可上千台, 其存储与计算能力也随着规模的扩大而稳步提高。
HDFS是Hadoop的文件存储系统, 适合于大规模数据集上的应用。HDFS将一个大文件分成若干个数据块, 并创建多份复制保存在多个数据节点集合中, 避免发生单点故障。因此利用HDFS能使系统实现:大规模数据存储、高冗余、轻松扩容、负载均衡[2]等功能。
Map Reduce是Hadoop在HDFS基础上的并行计算框架, 为用户提供方便实用的并行编程模式, 实现大规模数据的并行计算。Map Reduce的主节点根据输入数据的键 (key) , 通过映射函数 (Mapper) 将输入数据映射给不同的从节点进行并行运算, 随后再通过规约函数 (Reducer) 将各个从节点的运行结果进行归约合并, 形成最终的计算结果[3]。
1.2 DICOM概述
数字影像和通信标准3.0 (DICOM3.0) 是由美国放射学会与美国国家电器制造商协会联合制定的标准, 规定了不同的医疗影像设备标准化的数据格式, 从而使数字影像更有效率地传输和交换。DICOM主要的操作协议有C_STORE、C_FIND、C_MOVE, 分别执行存储、查找与获取。
2 系统架构
目前医院采用PACS来进行医学影像数据存储与传输。数据读写速度和冗余性、系统扩展性、负载均衡等都是设计PACS所要考虑的重要方面。由于当前医院数据全部存储于光纤存储局域网络 (FC-SAN) 集中式存储服务器中, 因此在使用PACS过程中尚存以下问题: (1) 数据读写速度慢。由于资金的限制, 医院将使用频率较低的数据转移到二级存储设备中, 导致读写效率十分低下。 (2) 服务器负载重。PACS依靠影像中心服务器和集中式存储服务器进行数据调度和读写, 而大量来自工作站的请求对影像中心服务器的处理器性能和存储服务器的读写能力带来极大的考验。 (3) 计算能力差。工作站目前只能在单机环境下进行有限的图像处理, 无法提供大规模运算的服务。 (4) 不同医院间数据难以共享。
2.1 架构设计
为了解决上述问题, 本文设计了一种将分布式与集中式存储相结合的混合式PACS架构。在各医院园区网内部搭建Hadoop云集群, 利用Hadoop集群的HDFS分布式存储数据, 采用Map Reduce进行大规模数据计算。系统整体示意图如图1所示。
系统将所有原有的数据移至HDFS, 集中式存储服务器只保留近期数据。而新产生的图像数据同时保存于集中式存储服务器和HDFS中。通过这样的方式节省集中式存储服务器的空间, 解决原二级存储读写速度慢的问题, 同时将数据存储在HDFS中也有利于使用Hadoop的Map Reduce框架进行并行计算。在后期系统升级过程中, 只需要简单地增加Hadoop集群的节点数目, 即可提升系统存储容量与计算性能。为了实现不同医疗组织间的资源共享, 医院园区网可以通过防火墙连接公网。对于来自公网上的工作站的请求, 防火墙需要先对其进行安全认证和访问控制, 只有符合安全规定的请求才被递交至影像中心服务器。
此外, 本文开发了SDCMO组件与WDO组件。作为中间件, 它们屏蔽底层操作细节, 为上层的应用系统提供统一的图像写入、读取和查询接口。系统架构图如图2所示。
2.2 SDCMO组件
由于每个医学影像文件不大, 而HDFS会为每个文件分配固定的内存空间, 因此处理大量的医学影像文件会造成极大的内存开销[4]。本文采用文件序列化技术 (Sequence File) , 将储存于HDFS的每个DICOM数据映射成键值对 (Key/Value) 的形式。其中Key是DICOM数据文件名, 而Value保存DICOM数据内容。每个DICOM数据被视为一条记录, 将每一组DICOM图像合并成一个包含多条记录的序列化的文件SDCM (Sequence-DICOM) , 从而减少文件数目, 节省内存空间, 同时还利用了图像序列之间的相关性进行无损压缩。
SDCMO (SDCM Operator) 组件提供对SDCM文件操作的方法。主要包括4个部分: (1) SDCM定位器, 负责获取文件位置信息; (2) SDCM写入器, 负责向HDFS写入SD-CM数据; (3) SDCM读取器, 向HDFS读取SDCM数据; (4) SDCMO Converter负责DICOM与SDCM之间的类型转换。
2.3 WDO组件
为了实现不同设备之间数据的透明交换与传输, 本文开发了适配于DICOM 3.0数据标准的WDO (Web DI-COM Operator) 组件, 该组件能够解析、响应和封装来自HTTP的C_STORE, C_MOVE和C_FIND报文, 使HDFS能够在接收存储、获取、查找请求报文时可执行相应操作[5]。该组件主要包括6个部分: (1) HTTP请求接收器, 负责接收和发送HTTP报文; (2) 释义器, 负责解析HTTP的请求报文, 并将其转换为DICOM 3.0标准的请求; (3) DICOM请求器负责发送和处理DICOM响应报文; (4) STORE封装器, 提供封装DICOM3.0标准的C_STORE报文的方法; (5) FIND封装器, 提供封装DICOM3.0标准的C_FIND报文的方法; (6) MOVE封装器, 提供封装DI-COM3.0标准的C_MOVE报文的方法。
2.4 工作流程
2.4.1 图像写入流程
考虑到安全问题, 只有园区网内的影像设备和内部工作站有写入权限。而对于来自公网的外部工作站无权对HDFS和FC-SAN进行写入操作。图像写入流程如下:
(1) 工作站向影像中心服务器发送写入请求 (C_STORE) 报文;
(2) 影像中心服务器根据业务需求的不同选择文件存储位置, 并修改索引表。若要存储到HDFS, 则执行步骤 (3) 、步骤 (4) , 若存储到FC-SAN则执行步骤 (5) ;
(3) Hadoop名称节点创建文件, 分配存放数据各分块的数据节点列表;
(4) 调用SDCMO组件中的数据转换器, 将DICOM文件转换为SDCM类型, 并调用SDCMO组件中的文件写入器, 将文件写入HDFS的数据节点中, 返回写入成功信息, 写入过程结束。
(5) 直接写入FC-SAN, 写入过程结束。
对于需要从FC-SAN迁移备份至HDFS的数据, 需递归地遍历源文件夹下的所有子文件夹, 不断执行步骤 (3) 、步骤 (4) 执行写入, 完成数据迁移。文件写入流程图如图3所示。
2.4.2 读取/查询流程
文件读取/查询流程如下:
(1) 来自公网的外部工作站与医院园区网关建立SSL连接, 发出查询请求。
(2) 网关的请求接收器与外部建立合法的SSL连接, 接收HTTP请求。
(3) 网关的释义器将HTTP请求转化为DICOM3.0标准的C_FIND报文。
(4) DICOM请求器将C_FIND报文发送给影像中心服务器, 影像中心服务器接收C_FIND请求, 查找索引表中文件的位置信息。根据文件位置的不同跳至步骤 (5) 或步骤 (6) 。
(5) 接收来自FC-SAN的数据, 跳至步骤 (8) 。
(6) 接收来自HDFS的数据名称节点根据元数据, 调度文件分块所在的数据节点。
(7) 根据名称节点中元数据的分块信息, 利用SDC-MO组件中的文件读取器得到SDCM数据, 使用SDCMO组件中的数据转换器将SDCM数据转换为DICOM数据, 并调用WDO组件中C_FIND报文的封装接口FIND, 将DICOM数据封装为DICOM的响应报文。
(8) 释义器将响应报文转为HTTP报文。
(9) 将HTTP报文发送给HTTP请求器。
(10) 请求接收器将HTTP报文通过SSL连接发送给外部工作站, 读取过程结束。
对于来自局域网的内部工作站的请求, 由于其已在局域网环境中, 且请求报文已经是DICOM3.0格式, 只需直接将请求发送给DICOM请求器, 并从步骤 (4) 开始执行即可。文件读取/查询流程如图4所示。
2.4.3 图像检索流程
当工作站需要执行图像检索等大规模运算时, 执行流程与图4大体一致, 在步骤 (4) 的过程中还需要利用Map Reduce进行特征计算、匹配以获取检索结果。
3 实验测试
3.1 系统配置
在实验环境中, 采用Hadoop集群为基本配置, 其中1台作为HDFS的名称节点兼Map Reduce的主节点, 4台为HDFS的数据节点兼Map Reduce的从节点。集群工作站配置一致, 使用Intel (R) Core (TM) i3-2310M的CPU, 内存2 GB, 硬盘500 GB, 并在Ubuntu操作系统上搭建Hadoop-1.1.2。
3.2 实验结果分析
(1) 写入与读取测试:从图5可以看出, HDFS的平均写入、读取速度分别为4.72 Mb/s和27 Mb/s, 相比原系统FC-SAN的1.5 Mb/s和2.26 Mb/s, 读写速度有了明显的提升。
(2) 压缩比测试:将一个病人产生的大约306 MB的MR图像数据转换为SDCM后, 数据只有125 MB, 压缩率为40.8%;全系统平均压缩率为40.6%。而采用SDCM不仅将原有数据进行无损压缩, 同时还将数据转换为键值对的形式, 有利于后期利用Map Reduce对数据直接进行处理运算, 省去了重新格式化数据的时间, 提高了运算效率。
(3) 计算测试:由于特征提取是图像计算的基本步骤, 本系统就一个4.2 GB的DICOM数据 (10 290个图像文件) 进行全局特征提取计算, 以测试系统计算性能。在集群数目为1、2、3、4 (集群数目为1时, 即为原系统的单机运算模式) 各自执行5次测试计算, 取各自的平均计算时间。从图6的实验结果可以看出, 对于较复杂的运算, 多节点比单机下运行速度有了明显的提高。
云计算是一项新兴技术, 但目前并未广泛地应用到医疗机构中。本文首先利用HDFS分布式文件系统与Map Reduce计算框架技术设计了一个基于云计算技术的PACS混合架构, 为原有PACS提供了一个低成本、易扩展、高效的技术方案;设计和实现了SDCMO组件和WDO组件, 并简述了系统在公网环境下的读写流程;然后通过硬件部署的设计讨论其可行性;最后在实验环境中测试了本系统的存储传输、压缩和计算性能。经测试, 系统初步达到了节省存储空间、提高读写效率、提升计算能力的目的, 为云计算技术真正应用到医院信息化建设中提供了理论基础。
参考文献
[1]樊一鸣.云计算技术与区域医学影像系统结合的探讨[J].中国卫生信息管理, 2011, 8 (1) :21-22.
[2]高林, 宋相倩, 王洁萍.云计算及其关键技术研究[J].微型机与应用, 2011, 30 (10) :5-7.
[3]赵凯.基于云存储的医院PACS系统存储设计[J].信息安全与技术, 2012, 3 (4) :92-93.
[4]李彭军, 陈光杰, 郭文明, 等.基于HDFS的区域医学影像分布式存储架构设计[J].南方医科大学学报, 2011, 31 (3) :495-498.
医学影像存储传输系统 篇8
DICOM标准中涵盖了医学数字图像的采集、归档、通信、显示及查询等几乎所有信息交换的协议;以开放互联的架构和面向对象的方法定义了包含各种类型的医学诊断图像及其相关的分析、报告等信息的对象集;定义了用于信息传递、交换的服务类与命令集, 以及消息的标准响应;详述了唯一标识各类信息对象的技术;提供了应用于网络环境的服务支持;结构化地定义了制造厂商的兼容性声明。DI-COM3.0版本的内容分为15部分, 标准中的核心内容主要是第三到第八部分, 以及扩展的第十部分。
2 DICOM图像存储
影像设备所产生的标准图像, 以一定的形式存放在物理媒质上, 在DICOM标准中, 媒质存储模式分为三层结构, 如图1所示。
物理媒质层:定义了物理媒质的特征, 这些特征包括媒质形成因素、维数、特征、记录特性。该层还定义了记录位的组织和分组等特性。
媒质格式层:物理媒质比特流组织成特殊的结构体。该层还定义了数据文件结构和相关的目录结构以便能高效的访问和管理物理媒质层。
DICOM数据格式层:该层包括了4个方面的内容:
(1) DICOM媒质存储SOP服务类以及相关信息对象的定义。
用于在数据格式层转换成专用的医学图像信息。SOP服务类和IOD用在媒质存储的时候应该遵从标准中规定的框架。
(2) DICOM文件格式。
将数据集封装到一个文件里面, 文件包括了所有的数元素, 一个文件中的数据集前面必须有一个文件元信息, 用来指明该文件为DICOM文件, 并包括文件头、文件标识、组长度、元信息版本、媒质存储SOPUID等一些相关信息。每一个文件都包含了单个数据集, 该数据集表示与单个SOP类或者一个相关的IOD。一个文件也可以包括多个二维的图像帧, 如超声图像、数字减影像等, 可以包含能回放的多帧序列图像, 每一帧都是有相同文件信息的二维图像, 共用一个文件元信息。
(3) DICOM媒质存储目录。
SOP类多个图像文件可以存放在同一个文件集里, 图像之间的逻辑关系也就是文件之间的逻辑关系, 该关系是图像IOD、检查结果IOD等信息对象的逻辑关系的体现。用来描述这样关系的IOD由标准中基本目录信息对象定义来进行定义封装。基本目录IOD由多个目录实体组成, 每个目录实体包含了一个或者多个目录记录, 这些目录记录都依次引用到下一级目录实体, 形成一个递归记录。目录记录包含了四种信息:①对下一级目录的引用;②引用到一个文件, 这个文件存放了相关的IOD;③一套选择键值用于设置一个记录实体中所有记录的选择性;④提供了一套机制用于将同级目录连接起来为了便于关联一个文件集中的图像文件, 标准采用了一个特殊的目录文件DICOMOIR来记录文件集中文件的相互关系, 即以病人-检查-序列-图像为主线的这样一个逻辑关系。
(4) DICOM媒质存储应用文档标准。
提供了一套机制, 用于规范各种医学影像的存储归档, 涉及到不同的设备产生的, 不同编码格式等不同类型图像的具体归档选取。这套机制实际上就是给应用开发者提供了各种方案, 用于解决在不同环境不同性能要求下的媒质存储。
3 系统构架
系统在一般PACS系统的体系结构下, 依据国内中小型医院的现实情况所设计的, 实现了PACS系统核心内容, 即医学图像处理系统。一般PACS系统包括各种影像设备所在的工作站, 存储归档系统, 医生工作站和其他系统通讯的网关, 临床监护系统, 检验系统, 数据库服务器。每一个组成部分或者接入终端都有复杂的结构和标准, 同时提供一致的接口, 实现互联。存储归档系统是用于存储图像和本信息的存储介质, 通常是大容量的磁盘阵列或者磁带库, 医生工作站与临床中各个门诊科室工作需要有密切关系。数据库负责全部信息的存储管理和安全, 其他通讯系统的网关可能负责与医院的HIS系统或者互联网的连接。
整个系统主要涉及的是医生工作站, 打印机模块, 存储系统, 数据库系统等模块, 如图2。
3.1 系统基本模块
系统的基本模块包括:病历登记、胶片打印、报告打印、病案、权限设置、图像浏览等事务性模块。
3.2 图像处理模块
图像处理模块是整个系统的核心部分。包括图像的显示与处理两部分内容, 其中对医学图像的处理的内容包括医学图像的预处理, 窗宽窗位调整, 图像测量等一系列处理。
首先要根据对DICOM文件格式的解析, 获得文件中所有数据元素的信息。系统DICOM文件格式转换成Windows下BMP格式来实现图像显示的。然后DICOM转换成BMP显示医学图像处理BMP转换成DICOM保存。这里一个关键技术在于图像格式的转化, 图3给出了格式转化的流程。
在获取图像数据的基础上对医学图像进行预处理, 窗宽窗位调整, 血管狭窄度测量, 心脏动态测量, 数字减影等一系列处理。完成这些操作后, 需要把BMP格式的图像再次转换为DICOM格式进行保存, 以便在其他医疗设备上进行显示, 胶片打印等其他操作。
图像预处理:应用各种数字图像处理技术来改善图像的质量, 使处理过的图像清晰、对比度增强、目标区域突出和噪声得以消除等。目前, 数字图像处理的方法有很多, 这里主要包括图像的平滑处理, 边缘锐化和边缘检测。
窗宽窗位调整:由于医学图像数据通常是一种相对数值且有较大得动态范围, 其字长一般都在10bit以上, 10bit的数字相当于有1024个灰阶, 而显示器只有256 (8bit) 个灰阶。为了使人眼能够看到更多的数字图像信息需要对显示范围进行调节, 医学上称之为窗宽窗位调节。系统使用的窗宽窗位调节算法为线性变换。即指通过限定一个窗口, 将窗口区域的图像数据线性地转换到显示器的最大显示范围内, 高于或低于窗口上下限的图像数据则分别设置为最高或最低的显示值。这样通过动态地调节窗口的窗宽和窗位, 则可以观察到医学图像的全部细节。
图像测量:在常用的医学图像学检查中, 常常需要对医学图像作测量。由于要求测量的对象比较细小, 测量之前图像要先进行窗位调整, 然后进行降噪, 边缘加强和边缘检测的处理, 最后再进行测量和计算。系统实现了血管狭窄度测量和心脏动态测量这两种最常用的测量。
4 系统的实现
系统运行环境为:硬件配置:Inte l (R) P4以上CPU;1G以上的内存;至少40GB硬盘。
软件环境:Microsoft Windows XP或更高版本操作系统;SQLServer 2000数据库;本系统使用VC++6.0开发。
5 结束语
本文设计并实现了一种基于DICOM标准的图像存储和处理系统。其主要存储和传输部分依靠DICOM标准完成。对于图像处理, 系统根据中小医院的实际, 在实现显示的基础上, 完成通用的医学图像预处理, 以及窗宽窗位调整、图像测量等一系列处理。
摘要:本文研究和实现基于DICOM协议的医学图像存储和处理系统, 其针对中小型医院的需求, 提供经济实用的解决方案。
关键词:PACS,DICOM,图像处理
参考文献
[1]林春漪, 尹俊勋, 马丽红, 等.论解读DICOM医学图像文件及其显示的VC++实施方法[J].广州:现代医学仪器与应用, 2005, 17 (1) :1-4.
[2]ACR-NEMA.″DIGITAL imaging and communication in medi-cine″.Version3.0.2003.
[3]谢长生, 熊华明.DICOM图像显示的研究与实现[J].长沙:计算机工程与科学, 2002, 24 (6) :38-41.
[4]曹玉磊.DICOM标准研究与图像处理工具的实现[D].西安:西安电子科技大学, 2007.
[5]Levine BA, Clery K.R, Norton G.S, et al.Challenges enc ountered while Plementing a multiendor teleradiology network using DICOM3.0.SPIE proceedings Medic al Imaging1997:PACS Design and Evaluation, Engineering and Clinical Issue1997.237-245.
[6]Yongmin K, Steven C.Handbook of Medieal imaging-Volum-e3Display and PACS[M].Bellingham, Washington USA:SPIE Press, 2002.
[7]崔屹.图像处理与分析—数学形态学方法及应用[M].北京:科学出版社, 2000.
医学影像存储传输系统 篇9
由于成像的原理不同,存在有多种成像模式,主要分为描述生理形态的解剖成像模式和描述人体功能或代谢功能成像模式。表1给出几种主要的成像模式。如今人体三维图像已经发展到很高的水平。著名的可视人项目(图1)的图像是以分层形式组成的,可视人数据集已经成为人们研究医学图像和解剖教学的重要工具,一个洞悉人体奥秘的时代为期不远了(图2)。
医学图像所包含的生理信息和病理信息十分丰富,医学图像的长期存储与安全,对于患者、医生和医院都具有举足轻重的作用。
1医学图像的存储
从结构上讲,图形文件分为两种,即位图和矢量图。目前各种图像存储方式都是基于这两种基本图像原理。随着计算机断层扫描(CT)、核磁共振(MR)、心血管造影和超声成像设备的大量出现,它们之间的通信、信息交换问题也越来越显得严重了,为使不同的医疗设备能有效地进行信息交流,国际上制定了医学图像存储和传输的标准,即DICOM(Digital Imaging and Communication of Medicine)标准,它解决了在不同的地点、不同设备制造商、不同国家等复杂的网络环境下的医学图像存储和传输的问题。
但医学图像的存储占据惊人的存储空间,其中含有很多的无用信息,浪费宝贵的数字资源,必须进行有效的图像压缩再进行存储。由于医学图像的特殊性,在进行图像压缩时不能丢失任何对它有用的信息。图像压缩有两种,一是有损压缩,另一种就是无损压缩,为了不丢失图像的有用信息,对于医学图像只能采用无损压缩。
2医学图像的交互式无限存储和安全存储
医学图像所包含的生理信息和病理信息十分丰富,使医生对疾病的诊断变得更加准确。它的存在还有其它很多方面的意义:比如病情的复查、病情的进展情况等。这都是需要将医学图像长期保存的理由,对于患者、医生和医院都具有举足轻重的作用。它的存储、安全就变得非常重要。国家有法规规定,医院对患者的X光片等必须保存十年以上,以便于查阅。在网络和计算机技术十分发达的今天,绝大多数的医院还是用专门的房间来保存那些X光片、CT片等医学图像,这种方法浪费了惊人的人力、物力和财力,实在是一个不科学的做法。为何医院仍旧采取原始的方法来保存这些医学图像呢?那是因为医学图像对于患者、医生和医院的极其重要性,目前还没有一种非常安全的医学图像存储系统让医院实施用计算机来管理、储存各种医学图像,因此成功地解决医学图像安全存储问题具有重要的实际意义和理论价值。
PACS系统是对医学影像及其相关信息实现计算机化和网络化管理的系统,一般PACS系中的设备包括CT、MRI、DSA、CR、DR、经数字化改造后的传统胃肠设备、激光胶片打印机、图像处理工作站,以及添加的报告工作站、肖像型监视器工作站、胶片扫描工作站、注册登记工作站、教学和读片投影工作站等。它有两个十分重要的作用:第一,它是一个信息交流的平台;第二,它是一个巨大的数据库,里面存储着十分重要的医学数据,最主要的数据就是医学图像。保证医学图像能够在PACS系统中安全存储是十分重要的。
医学图像数据量大,每天都会有大量的新的图像需要保存。虽然现在已有公司提出并生产出了1T的硬盘,但它总有一个被存储满的时候。在PACS系统中,常会出现海量的概念,实际是使用硬盘阵列来完成的。本文提出了交互式无限存储医学图像的概念,其实施方案如下:
采用两台配置先进的计算机作图像存储服务器,一台做为主机,一台是备份机,二者同时接收从医疗设备传来的原始图像并进行图像压缩存储,其图像存储、传输标准均使用国际通用标准——DICOM标准。主机和备份机之间每隔一定时间周期通过一个互补算法进行比较数据是否一致,如果不一致,有新图像的那台计算机立即传输新图像到另一台计算机,维持两台计算机信息的一致性。一段时间后当计算机硬盘被存储满时,再给主机和备份机更换新的硬盘,开始新的存储,这样交替存储,从而实现交互式无限存储,交互式无限存储方案图见图3。
如今计算机技术和网络技术的飞速发展,可以轻松实现将信息一分为二两台计算机相互检测、实时更新。但无论是海量存储,还是本文提出的交互式无限存储,在数据量很大的情况下,查询是一个非常费时的技术难题,本文运用了数组和索引的思想解决这个问题。首先,在每一次更换硬盘时,对它进行存档符号标识,标明这块硬盘上存储的医学图像相关信息,并建成一个专门的数据库进行管理,这样就大大地缩短了查询时间,达到了快速查询的目的。
一个完整的PACS系统,并非仅仅只要一个交互式无限存储系统就足够,它还要解决一个最重要的问题——安全问题,这是PACS系统存在的意义。目前许多公司开发的PACS系统都具备一定的安全性,但如果出现了突如其来的自然灾害或存储图像的服务器出现了不可预料的漏洞病毒,现有的PACS系统就会发生崩溃,医学图像的安全存储问题无法得到保障。为解决这个问题,本文对上面提出的交互式无限存储的方案进行改进,能够有效保证图像的安全存储,改进方案如下:
(1)将两台交互式图像存储服务器放在异地,主服务器和备份服务器形成一个交互式异地远程存储系统,达到抵制突如其来的自然灾害的目的;
(2)将两台交互式图像存储服务器装上不同的操作系统,一台用熟悉的Windows系统,另一台用功能强大的Linux系统,由于系统漏洞不可能同时发生在两个完全不一样的操作系统上;
(3)开发针对性很强的软件来保证两台服务器之间所构成的局域网的安全,即要确保两台电脑实时对比更新的是图像,又不让病毒通过这个局域网传播。两台服务器分别装上不同的杀毒软件和防火墙,服务器严禁使用一些可能传播病毒的外设,有效预防病毒的侵害。
按照这种交互式无限存储方案建立的交互式无限存储系统不仅解决了医学图像的无限存储,而且安全有效。
摘要:本文重点讨论了PACS系统中的医学图像的安全存储问题,提出了采用交互式异地存储系统来解决PACS的无限存储和安全存储问题。
医学影像存储传输系统 篇10
1 医学影像图像的分割问题
在对图像的研究和应用上, 人们通常只对图像的某一部分感兴趣, 为了辨识和分析目标, 需要将有关区域分离提取出来, 在此基础上对目标进一步利用, 如进行特征提取和测量;将实现上述要求的技术和过程称做图像分割[1]。
1.1 分割问题的提出
在图像处理的基础上, 对图像或景物进行分析和描述, 就是图像分析。图像分割的提出具有一定的理论依据, 即边缘检测法和区域生长法。边缘检测法是根据区域之间的灰度突变性进行边缘的提取;区域生长法是将内部灰度相似的区域进行合并。
1.2 医学影像图像的研究现状
医学影像能够详细地反映出患者身体内部的信息, 对临床诊断具有非常重要的意义;医学影像医疗新技术的研究, 能够在患者的临床治疗中发挥重要作用。一方面, 人体内部发生的早期病变需要医务工作者通过仪器拍摄的影像进行研究, 从而进行判定, 帮助患者解决病痛, 如肿瘤, 虽然器官表面结构正常, 但其内部已发生了改变, 即新陈代谢;另一方面, 医学影像技术运用了工程学的概念和方法, 帮助医生对人体内部组织、脏器进行检查。影像图像初期是以“荧光屏、胶片、灯箱、诊断”形式的组合被应用于医学诊断中, 但这项影像诊断的流程过于陈旧、不灵活、效率低, 特别是对于某些突发疾病的患者, 非常不适用。到了20世纪六七十年代, 计算机被广泛应用到医学影像图像中, 医学影像技术进入了革命性的阶段。随之出现了一系列先进的技术, 如X射线、超声等。
1.3 医学影像图像的分割方法
目前, 我国使用最广泛的医学影像图像分割方法主要包括基于区域、基于边缘等图像分割以及与特定理论工具结合的方法, 如基于边缘检测法、基于区域增长方法、门限法等。
1.3.1 基于边缘检测法
就是基于不连续性原理, 检测出物体的边缘, 将图像或景物分成不同的区域, 通常也称为基于点相关的分割技术。
1.3.2 基于区域增长方
该方法能够通过物体同一区域内象素的相似性质而把象素点聚集起来, 从初始区域将具有同样性质的相邻象素或其他区域归并到当前区域中, 从而使区域逐渐增长, 直到将同样性质的像素或其他小区域全部归并完为止。判定区域内象素相似性的指标包括平均灰度值、纹理、颜色等。区域增长方法使用比较普遍, 在没有经验、知识可以利用时, 使用该方法, 可使效果达到最佳, 用于比较复杂的图象, 包括自然景物。但区域增长方法属于迭代法, 需要更大的空间和时间。
1.3.3 门限法
该方法具有简单、高效的特点, 对于分割目标以及背景灰度级有明显差别的图像效果较好, 但对目标物和背景灰度一致或较均匀的图像效果较差;此外, 门限法一般情况下只是将图像分割成两个区域, 这对于有多种目标的图像分割基本上没有效果, 因为它只对图像中像素的灰度信息进行处理, 而对像素的空间位置信息却不加理会。
2 医学影像图像的存储
医学影像图像的存储也是医学影像的重要内容。图像只有存储进磁盘或其他装置中, 才能对患者的患病部位进行研究, 还能通过它探访出更多的医学奥秘[2]。现如今, 应用比较广泛的存储系统为PACS系统, 是指影像归档和通信系统。该系统被医院影像科室使用, 能够将日常产生的各种医学影像, 如核磁共振、超声、CT、各种X线机、红外仪、显微仪等设备产生的图像通过模拟、DICOM、网络等接口以数字化的方式储存, 需要时, 在授权下便可迅速调出来, 此外, 还能增加一些辅助诊断的管理功能[3]。对于各种影像设备间的数据传输以及组织存储数据该系统具有重要作用。
2.1 物理层次
PACS在物理层次结构上能够分为网络用户层、接入层、核心层以及资源提供层4层, 是一个类似于“金字塔”的结构。
2.2 应用层次
从应用层次结构上, PACS可以分为3层:MINI-PACS、科室级PACS、全院级PACS, 自内而外构成一个“内嵌型”结构。
3 结束语
关于医学的图像影像分割和存储还有许多值得研究的地方, 对于这项先进的科学技术, 仍需投入更多的人力、财力和物力去深入研究, 以造福更多的人们。
摘要:合理分割影像图像, 是医学影像图像处理的重要所在;存储是医学影像图像得以保存, 方便人们研究患者病情、病因的重要步骤。本文将用专业的语言及若干图形对这一问题予以证实, 为以后医学影像的发展提供宝贵材料。
关键词:医学影像,图像分割,存储,研究
参考文献
[1]霍纪文, 王秀章.医学成像技术[M].沈阳:辽宁科学技术出版社, 1994:30-33.
[2]章宗穆.数字化X射线摄影技术进展[J].世界医疗器械, 2002, 8 (3) :49-53.
网络电视台存储系统架构研究 篇11
【关键词】网络电视;存储系统;架构
【中图分类号】TN711 【文献标识码】A 【文章编号】1672—5158(2012)08—0061-02
1 引言
网络电视台是一个构筑在电信网络、广电网络、互联网络之上的全业务内容运营平台系统,节目通过分发网络向不同地域、不同终端上的用户提供双向的、互动的、交互的内容服务和体验,并最终实现内容的跨平台无缝融合。网络电视台系统由节目制作中心、发布运营平台、传输分发网络和用户终端四个部分组成,由于其问需要存储、调用大量的节目源,这对网络存储系统的构架提出了很高的要求。
2 存储系统解析
2.1 分布式存储
分布式存储就是将数据分散存储在多台独立的客户端上,由客户端通过网络连接将存储的数据共享到网络上或者通过第三方的平台对数据进行集中的处理及共享。分布式存储采用可扩展的系统结构,将存储负荷分担给多台存储服务器,利用位置服务器定位存储的信息。
因为需要通过第三方的平台进行数据的共享和迁移,增加了共享、迁移的复杂性,就造成了数据的共享和迁移不便。
2.2 集中式存储
集中式存储是多个应用系统共享一个存储服务器,所有的客户机IfO请求全部在中央系统进行处理。集中式存储保证了每个终端的使用信息是一致的,在数据共享和负载均匀方面更加有效。客户能够灵活地管理存储资源的规划,统一对数据安全性的访问、备份和恢复等管理,更能对存储空间进行有效的使用。
由于所有的I/O请求都发送到中央系统进行处理,增加了中央系统的存储设备压力。当中央系统处于不同的地理区域,网络处理的延时较大。系统效率不高,存储数据管理灵活性不高,策略单一。
3 存储系统应用比对
3.1 采用分布式存储系统
早期的小型视频网站较多采用分布式存储架构,将其扩展到网络电视台上。在分布式架构的网络电视台的系统中,各个服务器的数据独立存放于服务器自带的硬盘中,或者通过DAS方式连接的独立存储设备中,服务器又通过文件共享的方式使数据在整个網络中得到共享。
这种存储架构带来的问题是十分明显的:一是分布式的存储很难做到负载均衡;二是无法实现集中的高RAID级别保护,可用的存储空间相对减少;三是存储共享困难,要想使某一存储资源在网络中共享,必须为网络中所有的服务器配置此存储资源的挂载点;四是快照、备份、恢复、远程容灾等存储管理功能实现困难且成本较高。
3.2 采用集中式存储系统
目前,很多视频网站采用集中式的存储结构来存放所有媒体数据,一般为NAS架构,通常是一台大容量的文件服务器,而高端的NAS结构是由一个NAS头后面接SAS、SCSI或FC盘阵,还可以是以SAN架构方式连接的磁盘阵列,需要安装共享文件系统,进行块级的数据存储,存储效率更高。集中式存储架构的特点比较明显:一是集中存储使用统一的RAID级别保护、存储空间浪费少;二是便于实现服务的负载均衡,当某台Web服务器繁忙时其他服务器可以提供同一数据的共享访问;三是集中存储同时也是对视频内容的集中管理、减少视频内容的重复存储。
集中式的存储容易解决网络电视台视音频资料的共享难题,但同时也存在I/O瓶颈、容量扩展性差、性能不可扩展、专业高端NAS或SAN存储成本高昂、单点故障等关键问题。
4 网络电视台数据存储特点及构架对策
单纯的集中式存储或分布式存储并不适合网络电视台的存储架构,究其原因是对网络电视台不同应用数据存储的特点没有很好地进行区分。
网络电视台存储和处理的最主要的数据为视音频数据,从视音频数据的生产管理的流程可以将网络电视台的存储分为内容生产平台、内容发布平台、内容管理平台。由于三个平台间对于数据存储和共享性的要求不相同,对于存储设备的选择要求也不相同,应针对各个平台的特点,选择不同特性的存储设备。
4.1 内容生产平台特点与存储对策
内容生产平台主要完成视音频资料的采集、转码、编辑、合成等任务,其保存的数据主要为多种格式、多种高低码流的视音频原始素材。由于其在线制作的需求对存储设备的延时性要求较高,数据位于生产环节,不承担归档备份任务,对存储容量的实时增长要求相对较低。
内容生产平台由于素材格式要求高、高清制作等较高需求同时要求数据I/O精确到帧的高实时性,可以采用高性能的iSCSI或FC存储设备构成SAN结构。但此时需要有共享文件系统的客户端支持,增加了建设成本和存储设备升级维护工作的难度,由于不承担备份、归档等数据管理任务,存储容量增长的实时性不高,采取这种方式的存储设备的代价和维护管理复杂度在可控范围之内。
4.2 内容发布平台特点与存储对策
内容发布平台主要完成多通道的流媒体对外发布,主要由流媒体服务器、Web服务器等构成,存储的数据为多格式可变码流的成品节目,由于节目量和网络带宽迅速增长,对存储设备的带宽和容量宽展都提出了较高的要求。
内容发布平台由于节目量和用户点击量的爆炸性增长,最好采用容量和带宽可线陛增长的存储设备,当前比较流行的集群存储扩展容易、管理简单、共享方便,在扩展容量的同时可线性扩展带宽。但这种存储设备通常由TCP/IP支持,增加了I/O操作的延时性,不论是Web发布、IPTV还是手机电视一般都会采用缓冲的收看方式,对I/O操作的实时性没有太高的要求,可以采用集群存储作为内容发布平台的集中存储。
4.3 内容管理平台特点与存储对策
内容管理平台主要完成生产环节和发布环节的视音频数据的备份、归档以及回迁的服务,由数据备份服务器等构成,有海量的数据存储需求,要求存储设备具有高容量、低价格的特性。
内容管理平台由于承担备份、归档等业务,需要海量的存储设备且扩展方便,可以采用LTO数据流磁带作为存储介质,价格低、能耗小、容量大,虽然采用非线性的读取方式,I/O操作的延时很大,但可以满足备份、归档等业务的非实时性要求。如果网络电视台机房环境相对较差不利于磁带介质的保存,同时对视音频资料的回迁有较高的要求,还要有统计分析等决策支持功能,应当采用D2D的归档策略,使用高容量、低性能的SATA磁盘阵列做磁盘级的归档保存,但购置和运行成本相对于磁带较大。
5 结束语
网络电视台作为一个整体的应用平台,存储系统不应单纯地选择分布式存储架构或集中式存储架构,应根据各种应用数据存储的特点灵活地选择分布加集中的存储方式。DAS、NAS、SAN、集群存储等各种存储设备纷繁复杂,应该根据网络电视台各种应用的特点选择不同特色的存储架构和存储设备,才能做到有的放矢,才能使资源效益最大化。
参考文献
[1]贺松,陆安江,张正平,HE Song,LU An—jiang,ZHANGZheng—ping.农村信息化建设中IPTV系统存储技术研究与应用[J].贵州农业科学.2009,37(6):239—241
[2]王炎.网络电视台存储系统架构浅析[J].现代电视技术.2010(7):90-93
医学影像存储传输系统 篇12
医学影像能清晰准确地展示人体的内部组织, 临床医生借助这些影像能够对患者的病情有直观的了解, 因此医学影像对疾病的诊断和治疗有着不可替代的作用。传统的影像设备产生的影像资料以胶片的形式存在, 不利于存储、复制和转移等处理。随着现代影像技术和图像处理技术的深入发展, 20世纪80年代初由美国Kansas大学的Dwyer等人首先提出了将影像设备通过网络连接的概念[1]。之后为了能够将所产生的数字影像档案进行交换与查阅, 发展出医疗数字影像传输协定技术 (DICOM) [2]。DICOM的出现保证了医疗影像系统从影像设备源头到系统之间的信息交换有了一致的标准的接口, 使得医疗影像系统进入实用化的普及阶段。近年来可供临床、教学和科研用的医学影像数量正在迅速膨胀[3]。早在2002年, 仅University Hospital of Geneva放射每天产生的图像数量已达12, 000幅。在我国一个大中型医院每年产生约1~6TB的影像数据, 全国医院每年产生约2PB以上的影像数据。据IBM全球副总裁Bill Zeitler预测, 5到10年之后全球存储的30%将被用以存储医学影像数据。因此, 医学工作者和相关科研人员如何能够从海量的影像数据中查询和检索到所需要的相关医学影像成为亟待解决的问题。
目前医学影像检索方式主要有三种:一种是传统的基于关键字的检索[4]方式, Tamura在文献中对基于人工注释文本的图像检索技术给出了全面的综述;二是基于内容的检索 (Content-based Image Retrieval, CBIR) [5], CBIR使用颜色、纹理、形状及区域等视觉特征, 而这些视觉特征是唯一可以独立、客观地直接从图像中获得的信息;三是基于语义特征的医学影像检索, 以解决底层的视觉特征与人的理解之间的语义鸿沟的问题。其中基于关键字的检索方式存在用户检索表达能力弱、检索精度低和检索方式单一等不足, 难以满足现实中准确的医学影像检所的需要;基于内容的检索局限于视觉领域的图像特征, 难以满足医学影像行业领域信息检索的需要;基于语义的检索目前正处于研究阶段[6]。针对以上问题, 提出了一种基于XML描述的医学影像存储检索方法, 通过所提出的一种三要素存储模型对医学影像进行语义描述, 同时采用一种基于XML的检索方法来实现对医学影像的检索。最后, 设计实现了一个支持XML描述的医学影像存储检索原型系统, 并通过实验验证了本文所提出方法的可行性与有效性。
2 基于XML的医学影像存储检索方法
2.1 基于XML的医学影像存储模型
医学影像数据例如CT、PET、MRI和MU等, 从内容上没有统一的结构, 数据是以原生态形式 (raw data) 保存的, 因此计算机无法直接理解和处理。为了对不同类型的医学影像数据进行处理, 本文所采用的基本思路是对这些医学影像数据进行描述, 基于描述性信息实现对医学影像数据内容的管理和操作。本文认为一个医学影像数据可以由元数据、关键缩略图以及原始数据3个部分构成, 成为医学影像存储的三要素。其中:
XML元数据包含对医学影像基本属性、语义特征、底层特征等的描述;
关键缩略图为对医学影像内容的快捷视觉表达;
原始数据即为医学影像数据的原生态文件。
本文所提出的三要素存储模型 (如图1所示) , 就是从上述3个方面对医学影像数据进行全面刻画。
定义1医学影像三要素存储模型数据结构。
三要素存储模型数据结构由惟一标识符ID、XML元数据、关键缩略图和原始数据构成, 由一个4元组描述:
Trifactors= (ID, Metadata, Key Thumbnail, RoleData) ;
其中:
ID是三要素存储模型在数据库中的主键, 惟一标识一个三要素组合;
Metadata是基于XML的医学影像元数据描述文件, 包括对医学影像基本属性、语义特征、底层特征等的描述;
Key Thumbnail是对原始医学影像关键内容的视觉刻画, 一般为常用的图片格式, 比如JPEG;
Role Data表示原始数据, 一个节点表示一个医学影像原始数据。
通过三要素模型4元组数据结构的描述, 能够对原始医学影像进行全面性和惟一性描述与标识, 为海量医学影像数据的存储提供了理论基础。
2.2 基于XML的医学影像检索技术
采用XQuery技术对三要素存储模型中的XML元数据进行查询。XQuery是一种用于描述对XML数据源的查询的语言, 具有精确、强大和易用的特点。由于XML元数据与所描述的原始医学影像文件存在一一映射的关系, 因此, 通过XQuery技术找到对应的XML文档就可以定位原始医学影像的位置, 从而实现原始医学影像的查询检索功能。
为了实现XML查询先需要实现XQuery解析器。本论文中XQuery解析器的作用是通过匹配XQuery语句, 提取其中的待查XML文档和XPath表达式。对于字符串形式的XQuery语句, 如何将其中的待查XML文档与XPath表达式识别并且提取出来是需要该解决的问题。在解析的过程中需要对XQuery语句进行词法分析与语法分析。通过XQuery解析器的构建就实现了XML的查询功能。
3 基于XML描述的医学影像存储检索系统及实验分析
3.1 系统设计
如图2所示, 本系统主要分为医学影像存储和检索两大模块。其中存储包括三要素模型描述阶段, 数据持久化阶段。三要素模型描述阶段主要包括原始医学影像XML描述、提取影像关键缩略图和分类归档三个步骤。数据持久化阶段, 对于XML文档, 我们采用开源的纯XML数据库e Xist进行存储;对于缩略图和原始的医学影像数据, 我们采用的是开源的Nosql数据库Sones Graph DB。检索主要是基于XQuery查询的XML检索, 包括XQuery解析、XML查询优化和XML并行查询等三个阶段。由于本文的系统是基于XML原信息的描述、查询与检索, 因此XML的管理就成为了系统的核心, 因此在以上存储检索的模块之间我们添加了一个XML元信息管理器来管理产生的XML文档。
3.2 实验分析
对5M到120M的XML描述文件进行了检索实验, 实验结果数据见表1。实验结果表明:20M以内的XML数据, 基于XQuery的查询能够在容忍的范围内获得检索结果, 当XML文档数据量超过40M的时候, 查询结果在1min左右。
4 结论
本文提出了一种基于XML描述的医学影像存储检索方法:通过提出的一种三要素模型对医学影像进行语义描述, 同时采用一种基于XML的检索方法来实现对医学影像的存储检索。最后, 设计实现了一个支持XML描述的医学影像存储检索原型系统, 并通过实验验证了本文所提出的方法的有效性。但是目前查询的速度和查准率还有待提高, 下一步工作将集中于对查询性能的优化工作。
参考文献
[1]吕浩音.可训练文语转换系统的时长模型优化[J].计算机应用, 2012 (1) :14-15.
[2]Digital Imaging and Communications in Medicine (DICOM) [S].National Electrical Manufacturers Association, 2007.
[3]Henning Muller, Nicolas Michoux, David Bandon, et al.A review of content-based image retrieval systems in medical applications-clinical benefits and future directions[J].Intern ational Journal of Medical Informatics, 2004, 73 (1) :1-23.
[4]Haralick R.M., Shanmugam K., Dinstein.Textural Features for Image Classification[J].Systems, Man and Cybernetics, IEEE Transactions on, 1973, 3 (6) :610-621.
[5]Smeulders A.W.M., Worring M., Santini S., et al.Contentbased image retrieval at the end of the early years[J].Journal of Pattern Analysis and Machine Intelligence, IEEE Trans actions on, 2000, 22 (12) :1349-1380.