NAS数据存储在医院PACS场景的应用与探索_第1页
NAS数据存储在医院PACS场景的应用与探索_第2页
NAS数据存储在医院PACS场景的应用与探索_第3页
NAS数据存储在医院PACS场景的应用与探索_第4页
NAS数据存储在医院PACS场景的应用与探索_第5页
已阅读5页,还剩9页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

需求分析篇1.项目背景在“健康中国2030”国家战略的指导下,某大型三甲医院不断加快智慧医院的建设进程,旨在建立医疗、服务、管理“三位一体”的智慧医院系统,以“智慧服务”、“智慧医疗”、“智慧管理”、“互联网+健康”为重点大力发挥信息技术在现代医院建设管理中的重要作用,不断提高医院治理现代化水平,形成线上线下一体化的现代医院服务与管理模式,为患者提供更高质量、更高效率、更加安全、更加体贴的医疗服务。数字化医院是现代医疗发展的新趋势,数字化医院系统是医院业务软件、数字化医疗设备、IT基础平台所组成的综合信息系统,数字化医院工程有助于医院实现资源整合、流程优化,降低运行成本,提高服务质量、工作效率和管理水平,数字化医院是医院现代化的必由之路,医院只有充分利用数字信息技术,才能解放劳动力,使其在激烈的市场竞争中取得成功。数字化底座是数字化医院建设的基石,我院IT基础设施建设多年,随着医院业务系统的逐渐增多,业务量逐年递增,原有的传统IT基础设施和架构已经难以支撑核心业务系统的业务需求。NAS应用在医院的发展越来越迅速,以PACS业务为主的应用每年产生100TB左右的数据量,作为医院数据增长最快的应用系统,而且数据需要长时间保存,同时涉及多个系统之间的数据联动。我院作为较早一批建设PACS系统的三甲医院,从2014年上线至今已拥有数十亿张影像文件,数据量高达数百TB,业务规模逐渐递增,复杂性日益提高。2.建设目标PACS影像系统是院内核心业务系统,不但承接整个医院的影像数据,而且更承载着医院面向未来发展的基础,因此对PACS影像的稳定性、安全性和运行性能要求较高,按照“继承性与扩充性、先进性和成熟性、高可用性、可靠性”的设计原则,完成基础IT设备的改造。本次建设的主要目标是:-核心业务连续性本次建设主要覆盖医院PACS影像系统,包括PACS数据库、PACS影像文件。随着医院信息化建设的发展,医疗应用的重要程度越来越高,一旦业务系统出现问题,将会对医疗业务产生重大影响。因此,必须设计规划可靠的解决方案,保证在软件、硬件出现局部问题和数据中心出现区域故障的情况下核心业务系统连续运行,医院医疗业务不能中断。-核心业务高效性PACS影像系统承载着医院影像数据,涉及医护人员快速阅片,患者高效就医等关键流程。一旦影像系统访问缓慢,将会对整个就医流程产生极大的影响。因此,必须设计规划高效的影像解决方案,保障院内影像系统高效访问,提升患者就医体验的同时,提升医护人员的工作效率。-合规数据长期留存按照国家卫健委对影像数据存储要求,PACS影像门诊数据需要保存不得少于15年,住院数据需要保存不得少于30年。因此,需要建设数十年影像数据保存的建设方案,保证需要的时候能快速进行影像的获取。-提高基础资源利用率针对支持医院临床业务最消耗硬件资源的PACS系统,必须进行科学的分析,合理设计规划基础资源建设,提高基础资源的利用率。通过存储虚拟化技术将原来存储设备整合到新的基础架构中,既满足了业务需求,节约了投资,又很好的提高了存储资源的利用率,并简化基础架构管理复杂度。3.需求分析与挑战PACS(PictureArchivingandCommunicationsSystem)系统指的是影像归档和通信系统,它主要应用在医院影像科室,其主要任务是将日常产生的医学影像数据通过相应的接口数字化保存起来,医生可以使用PACS系统随时调阅图像。其中医学影像主要包括核磁、CT、超声、X光机、红外仪、显微仪等设备产生的图像。1)性能:业务压力大,小文件性能要求高PACS影像以单序列单线程读取,每序列200-1000张影像,要求单影像序列首幅影像加载时间<3s,单线程每秒>50幅影像,海量小文件的保存,对存储设备性能带来了极大挑战。2)成本:数据增长迅速,性能和成本不能兼顾日门诊量1W左右,PACS系统每天产生40万张影像,每年1-1.5亿影像数据,影像大小100-500KB左右,年增长100TB左右;快速增长的影像数据长期保存,急需低成本的存储成本。3)运维:结构化和非结构化数据共存,数据管理复杂院内PACS系统结构化数据和非结构化数据共存,区域PACS系统跨平台数据整合困难,整体数据结构繁多、数据管理复杂;PACS系统数据特点,在线和离线数据并存,法规遵从PACS数据至少保存15年,多套存储设备共存,数据生命周期管理困难。4)可用:容灾机制不全PACS系统容灾机制不完善,当病毒或误操作等单点故障风险时,无法保障关键影像数据不丢失。4.需求总结综上所述,PACS系统是支持医院医疗业务流程和服务患者的院内重要核心系统,PACS系统的运行质量直接影响医生正常阅片和患者查询各项报告,又由于PACS影像系统的业务专业性质决定了影像数据量巨大,需要保存时间长,调取影像数据快等要求,对于PACS系统的硬件存储提出了很高要求,有一定的难度和技术挑战。所以,我们需要根据国家的具体规定,进行科学的研究分析,采用先进的计算机技术,规划和设计好PACS系统的存储方案,保证从安全性、管理性、易用性、高效性多方面使能PACS系统,满足临床医生和患者的要求。思路与方案设计篇1.前期背景以PACS业务为主的应用每年产生100TB左右的数据量,作为医院数据增长最快的应用系统,而且数据需要长时间保存,同时涉及多个系统之间的数据联动。我院作为较早一批建设PACS系统的三甲医院,从2014年上线至今已拥有数十亿张影像文件,数据量高达数百TB,业务规模逐渐递增,复杂性日益提高。2.设计思路从业界来看,数字化医院系统IT基础平台需要具备足够的灵活性、扩展性、兼容性,以满足数字化医院的这种发展形式。存储设备作为IT基础平台的关键、作为信息化系统最底层的硬件产品,顶层设计和技术规划尤为重要。应该遵循“行业主流、安全稳定”的原则,同时,兼顾性能(主要包含IOPS、MBPS及延时等指标)与成本,并充分考虑国家信息技术应用创新战略。医疗存储设备选型的关键点需关注以下四个方面:(一)存储设备在行业的影响力所选择的存储设备品牌及型号需要在业界(尤其是同行业)有广泛的成功应用案例,经得起同行业的考验。需要有稳定的服务团队,产品和方案落地靠的是人,医院的数据中心存储方案落地,需要有资深的行业架构师和服务人员,才能确保该硬件产品得到强大的后台技术团队支持。参考2020年Gartner企业主存储品牌魔力象限排名,行业领先的象限中不仅有国际存储大厂HDS、Infinidat,而且也有例如华为这样与国际水平相比毫不逊色的国内存储厂商;近年来,某些国外传统存储大厂进行了战略大调整,在国内的存储技术服务力量明显削弱,相对其它厂商而言,华为存储设备的技术支持服务能力较强,能在第一时间响应客户需求。同时核心存储也需要考虑到存储的性能,需要能够应对业务未来不可预测的性能需求,如使用更新的存储协议和存储介质、对于多云平台的支持,如Openstack、VMware、容器等。(二)存储设备具备安全稳定性存储设备重点需要考虑稳定性和数据服务能力,对医院数据中心而言,存储设备牵一发而动全身,存储架构的稳定性及可靠性是数据中心存储选型最基本也是最重要的需求,包含存储架构冗余度较高,各个部件(如:控制器、磁盘、前端接口卡、后端接口卡、网卡及电源等)均为冗余设计、支持在线热插拔,任意部件损坏均不影响主机上业务运行。首先,整个存储系统要具有全冗余与安全性设计,不存在“单点故障”,包括控制器、缓存、硬盘、前端口、后端口、电源、风扇、电池等部件均具有冗余,硬件维护对上层主机访问无感知。作为存储系统中最重要的两个部件“控制器”和“硬盘”,有的存储产品已经可以做到支持控制器四坏三,硬盘可容忍两块甚至三块同时损坏,如:华为最新高端存储甚至可以支持控制器八坏七。其次,各部件可以进行微码在线升级,对主机访问无影响。特别是关键部位控制器,已有最新存储产品可以支持控制器升级微码不重启。(三)存储设备具备可维护性存储设备需具备较高的可维护性,各个部件的预防性维护和更换均为在线操作,控制器、硬盘及接口卡等部件都必须支持在线微码升级,交替重启部件或更换部件时不可以影响到上层业务;可以通过机器学习等先进的存储算法,实现存储服务的自我优化,并且可以智能的监控存储设备的运行状态,预测未来的存储服务需求。(四)存储设备的硬件架构先进性当前存储设备产品根据架构分为“集中式架构存储”及“分布式架构存储”两大阵营。集中式架构存储采用的是块机制,以块为单位实现数据的更新和锁机制,其机制跟数据库管理数据文件的方式类似,性能及安全性可得到有效保障。集中式存储最大的优势在于架构简单、维护相对容易,已有的运维经验能够延续,同时传统存储厂商支持能力相对较强。对于医院信息系统中大多数关键NAS应用,具有高稳定性、高吞吐量和低时延等特性的集中式架构存储是更好的选择,存储设备的各个控制器工作在对称Active/Active模式,各控制器性能负载稳定均衡。3.规划和设计方案3.1建设内容概述本次建设充分利用本院双数据中心优势,通过将医院楼宇间两个数据中心建成双活中心,既可以为每个信息中心内部的应用提供冗余保护,实现站点内部的无缝漂移;又可以实现,当某个信息中心出现故障时,将该站点所有的应用系统,切换到另一个站点中,保证了两个站点之间的应用故障无缝连续运行。最终,满足在不同场景下对业务连续性的要求。基于我院已经建设的双活存储架构,充分利用现网资源。介于目前医院PACS的规模和所面临的挑战,采用现有华为高端双活全闪存储作为PACS应用的在线存储设备,利用存储的SAN+NAS一体化能力实现我院HIS和PACS在线的集中式部署,一套设备部署SAN和NAS两种类型的业务。对于访问频度较低的近线数据采用低转速的大容量硬盘进行存储,降低成本的同时不影响业务访问。通过存储和PACS软件的数据分级实现在线和近线数据,热点和冷数据的自动分级。最后规划通过蓝光光盘库对离线归档数据进行长久保存,符合国家影像数据至少保存15年的要求。针对在线数据(1~6个月内数据),读取频率高,在医院楼宇间两个数据中心建成全闪双活中心,在线数据通过全闪加速,能满足在线数据能够快速读取的核心诉求。最终,满足在不同场景下对在线数据业务连续性和性能的要求针对近线数据(6个月~3年内数据),超过6个月的数据,读取频率相对较低,因此采用低成本的HDD盘进行保存。不但可以满足需要读取的时候能相对快速的数据读取,而且保存成本相比全闪存,极大的降低。针对离线数据(3年~30年数据),超过3年的数据,基本不会读取,按照国家法规要求,同样需要进行保存。可通过蓝光归档库进行长时间的保存,并且随时可调阅。通过针对互联网阅片,通过单独建设互联网影像区域,以满足海量互联网用户的阅片诉求。整体PACS应用建设经历了两个主要阶段,整体架构发展示意图:3.2PACS存储技术要求3.2.1PACS应用快速阅片高性能NAS文件系统在传统NAS文件系统架构中,业界一般采用Active-Passive架构,文件系统归属某1个控制器,在创建文件系统的时候,需要对文件系统的归属进行规划,采用多个文件系统运行在不同的控制器上,实现系统中每个控制器的负载均衡。这样的NAS架构,如果只有1个文件系统那么只能发挥1个控制器的硬件性能,无法把多控制器的硬件资源都利用起来获得更高的性能,因此无法支持单一命名空间。如果采用创建多个文件系统,由于不同文件系统的业务压力各不相同,也很难以实现系统的负载均衡。华为OceanStorDorado18000系列企业级NAS存储采用分布式文件系统架构,文件系统没有归属控制器,通过均衡算法将文件系统的目录和文件均衡写入每个控制器,实现每个控制器接收到的主机读写请求是均衡的,即使只有1个文件系统也能将整个存储集群的资源充分利用,我院可以根据自己的业务规划灵活的使用单一命名空间的文件系统或者多个文件系统。华为的NAS分布式文件系统架构兼具海量小文件和大文件并存的文件共享场景,采用基于目录的分布式打散策略,以目录为粒度将数据均衡打散写入到各个控制器,达到负载均衡的目的。目录与目录下的子文件归属相同的控制器进行I/O处理,避免跨控制器转发,以提升目录遍历查询、属性遍历查询、批量属性设置等场景的性能。闪存加速技术FlashLink®技术的核心是通过一系列针对闪存介质的优化技术,实现了存储控制器和SSD之间的协同和联动,在保证可靠性的同时,最大限度的发挥闪存的性能。FlashLink®针对闪存介质特点设计的关键技术主要有:智能众核技术、低时延保证技术、智能盘框卸载、高效RAID技术、冷热数据分流,保障了全闪存储的稳定低时延和高IOPS。华为OceanStorDorado18000系列高端全闪存储采用鲲鹏920处理器,在同一个控制器内实现了业界最多的CPU数和CPU核数。控制器最多容纳了4颗鲲鹏CPU,每颗CPU48核,总计192核。通过智能众核技术,实现了性能随着CPU数量线性增加;当前绝大部分系统如果直接部署在多CPU系统下,总的系统性能还低于1~2颗CPU的性能,因为在多核系统下有2个关键问题点:1)CPU越多,CPU间通信的开销越大,跨CPU访问内存也越多;2)核数越多,程序互斥产生的冲突越大。通过智能众核技术,实现了性能随着CPU数量线性增加,针对几个问题的关键优化技术点包括:1)多CPU间通过CPU分组分发技术、I/O从多路径入口到后端盘框始终在1个CPU内调度,同时内存分配也保持在当前内存通道上进行,最大程度减少了CPU间通信的开销;2)CPU分组内按业务属性进行分组,前端、后端和网络分别在一个CPU分区内,相同的业务只在CPU分区内产生冲突,大大减小了多核间的冲突。OceanStor的智能硬盘框,硬盘框内有CPU和内存资源,能够对盘故障重构等任务进行卸载,减轻控制器的负载。实现在盘故障场景下,重构对业务性能无影响。3.2.2PACS应用高可靠持续在线双活数据保护PACS影像系统需进行双活保护,配合交换机冗余和数据库自身的集群,当单套存储发生物理损坏、单台交换机故障、单台主机发生物理故障、单个中心发生灾难时,核心数据库均能保持业务零中断,保护医院业务正常开展,极大提升核心业务的可靠性。华为HyperMetro特性又称双活特性(以下统称双活特性),双活特性中的两个数据中心互为备份,且都处于运行状态。存储层的双活特性为业务双活提供了一个双活平台,配合应用集群实现应用层双活。当一个数据中心发生设备故障,甚至数据中心整体故障时,业务自动切换到另一个数据中心,解决了传统灾备中心不能承载业务和业务无法自动切换的问题。提供给用户高级别的数据可靠性以及业务连续性的同时,提高存储系统的资源利用率。存储双活基于这样的一个基本原则,任意一套存储上具有对业务主机而言相同的数据,业务主机在单份数据不可用时,只会当成部分路径故障进行处理,存储层在该转换过程中悬挂自身I/O,并不响应主机,待处理完成后再响应主机,该过程对主机应用而言是透明的。高效RAID技术华为OceanStorDorado18000系列高端全闪存采用ROW满分条写入的设计,ROW满分条写对所有数据都采用新写模式。这样不需要因为传统RAID写流程所需的数据读和校验修改写而产生RAID写惩罚,有效降低了写入过程阵列控制器的CPU开销与对SSD盘的读写压力。相比传统的RAID覆盖写(WriteInPlace)的方式,ROW满分条写方式使得各种RAID级别都能实现高性能。上图以RAID6(4+2)为例,对已有数据进行改写,改写写入的数据为1、2、3、4。采用传统的覆盖写方式,对每个数据所在的CKG均需要进行修改写。以CKG2为例,写入新数据3时,需要读取校验列P、Q和原始数据d,通过冗余算法计算出新的校验位P’、Q’,再把P’、Q’和数据3写入CKG2中。而采用ROW满分条写设计,写入数据1、2、3、4时,直接使用数据1、2、3、4计算出P、Q作为一个新的RAID分条写入硬盘,再修改LBA的指针指向新的CKG,整个过程无需额外的预读。对应传统RAID,以RIAD6为例,D0数据发生变化,需要先读D0、P和Q;再写新的nD0、nP和nQ,因此其读放大是3,写放大也是3。通常对于传统RAID(xD+yP)的随机小IO写其读写放大为y+1。华为OceanStorDorado18000系列高端全闪存在典型场景下RAID5采用23D+1P(D为数据列,P为校验列),RAID6采用22D+2P(P、Q校验列),RAID-TP为21D+3P(P、Q、R校验列),下图展示了采用ROW满分条写在典型场景下的写放大比较。华为OceanStorDorado18000系列高端全闪实现的RAID6与RAID5性能相差5%左右,RAID-TP与RAID6性能相差5%左右,基本做到了性能无损。

方案与实现效果篇1.PACS应用数据融合管理1.1SAN和NAS融合部署PACS影像系统涉及PACS数据库和PACS影像文件两类系统架构,对应的存储服务需要同时提供SAN和NAS服务。通过采用SAN/NAS一体化设计,不再需要NAS网关设备,一套软硬件同时支持SAN和NAS,支持NFS、CIFS、FTP、HTTP等文件访问协议,以及NDMP文件备份协议。通过采用一体化方案设计,优势如下:极简架构:一套设备即可支持SAN和NAS业务,简化IT系统硬件架构,组网简单清晰,降低了日常众多设备运维管理的难度。高性能:新一代SAN和NAS一体化中的NAS采用分布式文件系统架构,文件系统没有控制器归属约束,将文件系统均分到每个控制器,实现每个控制器性能和容量的负载均衡。低成本:相较于传统的SAN存储加NAS存储的方式,一体化解决方案省去了购买多余存储所需要的额外费用,降低了用户的投资成本。高可靠:在采用一体化解决方案的同时,提供SAN和NAS的数据保护能力,例如快照、双活等,保证架构简单统一的同时保证了系统的可靠性,使两种场景均不受硬故障、软故障的影响。保证业务持续在线。文件系统和LUN是平行的部署在Space子系统之上,下面是基于RAID2.0+的块虚拟化存储池子系统。在这个架构中,文件系统和LUN都直接与底层的Space子系统交互。文件系统架构是基于对象的,每个文件或文件夹是一个对象,每个文件系统是由对象组成的对象集。对于LUN来说,LUN分ThinLUN和传统的ThickLUN。两种LUN也都来自于Pool和Space系统,并没有建立在文件系统之上。这样简化的软件栈带来的存储效率比传统的统一存储架构效率要高,同时LUN和文件系统各自保持独立,互不影响。存储的文件系统是基于Extent的ROW型(RedirectOnWrite,写时重定向)文件系统。所谓ROW型文件系统,是指向文件系统新写入或者修改写入数据时,新数据不会覆盖掉原来的旧数据,而是在存储介质上新分配空间来写入数据,此种方式保证了数据的高可靠性和文件系统的高扩展性。整个文件系统布局呈树型结构,数据写入不会覆盖原有数据,而是分配新磁盘空间写入,写入完成后,直接删除(或延迟删除)原有数据。数据每次写入都会记录一个时间点信息,表明写入的时序。时间点实际是一个依次递增的序列号。1.2NAS自动分级与安全归档(1)NAS自动分级文件系统SmartTier是为了简化数据生命周期管理,提升介质利用效率,降低客户成本而推出的面向文件系统的分级特性。文件系统SmartTier的功能是以文件为粒度在不同的介质中进行迁移的技术,介质层分为SSD和HDD(包含SAS或NL_SAS)两层。SmartTier支持两种迁移模式:智能迁移模式和自定义迁移模式(自定义迁移包括周期/每周/立即迁移)。智能迁移模式,是指文件优先写入SSD,然后根据SSD的使用率、文件的访问时间等条件自动进行文件迁移,保证SSD使用率始终保持在一个合理的水平。自定义迁移模式,是指根据用户指定的文件策略(例如:文件名、文件大小、文件类型、文件创建时间、SSD使用率等)和迁移周期,使文件在SSD和HDD之间进行迁移。(2)安全归档针对PACS应用的离线数据,按照国家规定进行15年以上的离线归档保存。此类数据不要求实时查看,对性能没有较高要求,要求实现低成本、低功耗、易管理的长时间留存。针对PACS的数据特点和法规要求,提出的安全归档留存解决方案由归档平台(归档软件)+归档介质存储等核心组件组成,通过多个核心组件的配合,实现医疗数据的安全长期留存,其实现原理分别如下:管理服务器-服务器主要由归档数据库和web服务器构成,它负责归档系统的管理,如用户、组、归档项目、归档数据的保存周期等,同时负责归档作业的调度,将数据移动的作业分发给负责作业执行的ADA代理。一个或多个ADA代理(数据移动引擎)-代理实际负责数据的移动,它从主存储(生产系统)搜集需要归档的数据并写到二级存储,以及采集文件的属性以及定义的元数。介质管理服务MM(SONY光盘库管理组件)-该组件(包括服务器端和客户端)通常安装在ADA服务器平台,负责管理归档系统的光盘

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论