磁盘阵列产品测试方案_第1页
磁盘阵列产品测试方案_第2页
磁盘阵列产品测试方案_第3页
磁盘阵列产品测试方案_第4页
磁盘阵列产品测试方案_第5页
已阅读5页,还剩4页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

磁盘阵列产品测试方案测试要求服务方需到可独立出具测试报告的国家级测试机构进行投标产品系统测试并获取测试报告,测试报告需附上测试机构下述全部6项资质和检测能力证明的复印件,并加盖测试机构公章,否则报告无效,测试不通过。测试机构需满足如下项资质和检测能力:(根据实际填写机构)要求测试设备必须符合对应测试场景的环境要求,并且完成对应场景的测试内容。测试目的通过测试考察投标产品在关键指标上的实际表现。测试过程1、测试环境搭建及测试(1)测试环境检查。测试开始前,由测试方、采购人(监督方)及服务商共同检查系统软件硬件配置及参数。(2)产品测试。测试过程由测试方独立操作,必要时由服务商提供技术支持。采购人有权查看测试过程相关文件。测试机构将对测试过程中的步骤进行全程录屏、截屏并保存,以保证测试过程可复现。测试环境架构为保证测试结果具有指导意义,需要向测试单位提交测试请求的服务商基于投标产品部署网络环境。名称描述数量(台/套)备注PACS数据平台磁盘阵列设备配置满足本次测试要求,所测型号与本项目“PACS数据平台磁盘阵列”投标产品相同。如果不满足配置要求,则不能参加所有测试,相应测试结果记为“不通过”。1台测试涉及的相关配件满足本次测试所必须的其他软硬件,包括但不限于客户端服务器、SAN交换机、局域网交换机,串口线、光模块、光纤、网线等,配置不做详细要求。1套整个测试环境应是封闭的、独立的网络,不允许连接至外界网络环境。测试内容与步骤测试1:内存配置检查项目:内存配置检查测试目的:考察存储内存是否满足要求。测试步骤:登录磁盘阵列管理软件,查看并记录设备控制器的内存容量信息(非性能加速模块、FlashCache、NVRAM、PAM卡,SSDCache等)。将设备下电,打开控制柜检查并记录实际物理内存容量信息。预期结果:磁盘阵列单控控制器内存≥1TB。测试2:在线微码升级项目:在线微码升级测试目的:考察存储器微码在线升级特性是否满足基本要求。测试步骤:存储(四个控制器)运行正常,每个控制器有且只有一条光纤链路连接到光纤交换机。Linux服务器安装和配置了存储厂商研发的多路径软件(非操作系统自带)。存储仅存在一个硬盘跨引擎的LUN(在每个硬盘扩展柜里面都选择一定数量的磁盘创建一个RAID组或者资源池),大小为256GB,命名LUN1。LUN1已经映射给Linux服务器。Linux服务器中,采用Vdbench对LUN1同时持续进行读写直到该用例结束。(IO模型:8KB全随机,16并发,6:4读写,iorate=3000,实时间隔1秒打印结果)登录管理界面,并记录存储系统软件版本。在存储性能监控界面检查四个控制器的前端主机流量。在管理界面中对存储系统进行系统版本升级。在升级过程中,持续的观察Linux服务器Vdbench的业务结果打印,观察Linux服务器的Vdbench读写是否中断或者IO是否跌至零,即出现某一秒Vdbench打印IOPS为0的情况。等待系统升级成功后,查看存储系统版本。在存储性能监控界面检查四个控制器的前端主机流量。预期结果:在步骤5中,四个控制器都能正常工作,能分担负载(每控制器流量不能为0)。在步骤7中,升级过程中,读写业务不中断,在Vdbench每秒结果打印中,无任何一秒IO跌至零。在步骤8中,存储系统版本已经升级到指定版本。在步骤9中,四个控制器都能正常工作,能分担负载(每控制器流量不能为0)。测试3:存储前端IO接口卡在线更换项目:存储前端IO接口卡在线更换测试目的:考察存储控制器前端IO接口卡是否满足在线更换的基本要求。测试步骤:存储(四个控制器)运行正常,每个控制器有且只有一条光纤链路连接到光纤交换机。Linux服务器安装和配置了存储厂商研发的多路径软件(非操作系统自带)。存储仅存在一个硬盘跨引擎的LUN(在每个硬盘扩展柜里面都选择一定数量的磁盘创建一个RAID组或者资源池),大小为256GB,命名LUN1。LUN1已经映射给Linux服务器。Linux服务器中,采用Vdbench对LUN1同时持续进行读写直到该用例结束。(IO模型:8KB全随机,16并发,6:4读写,iorate=3000,实时间隔1秒打印结果)登录存储管理界面,在存储性能监控中观察四个控制器的IO流量。在四个控制器均在线的情况下,拔除一个控制器上有主机IO流量的FCIO接口卡(非仅拔出光纤)。观察存储系统运行状态和系统告警,观察Linux服务器中vdbench读写情况,在存储性能监控中观察四个控制器的IO流量。5分钟后,在四个控制器均在线的情况下,热插入已经拔出的FC接口卡,然后接入光纤线。观察存储系统运行状态和系统告警,观察Linux服务器中Vdbench读写情况,在存储性能监控中观察四个控制器的IO流量。预期结果:在步骤6中,系统运行正常,图形管理界面上有相应的告警信息。IO切换到剩余的控制器,主机IO不中断,存储管理界面中剩余控制器流量与Vdbench测试工具的结果大致相等,差异不超过10%。在步骤8中,系统运行正常,图形管理界面上有相应的告警信息恢复。四个控制器对应端口有流量且均衡,四个控制器流量之和与Vdbench测试工具的结果大致相等,差异不超过10%。在整个测试过程中,四个控制器均正常工作,除FC接口卡拔除告警,链路切换告警外,系统无其余不相干告警选项。存储系统未出现控制器复位,控制器死机等情况。测试4:阵列部件可用性项目:阵列部件可用性测试目的:考察存储控制器故障后可用性是否满足业务连续性要求。测试步骤:存储(四个控制器)运行正常,每个控制器有且只有一条光纤链路连接到光纤交换机。Linux服务器安装和配置了存储厂商研发的多路径软件(非操作系统自带)。存储仅存在一个硬盘跨引擎的LUN(在每个硬盘扩展柜里面都选择一定数量的磁盘创建一个RAID组或者资源池),大小为256GB,命名LUN1。LUN1已经映射给Linux服务器。采用Vdbench对LUN1持续进行读写直到该用例结束(IO模型:8KB全随机,6:4读写,控制并发使得iops在5000左右)。在主机多路径软件检查各路径流量,查看vdbench的流量,在存储管理界面中的存储性能监控中观察各控制器的流量。依次拔除存储四个控制器中的任意三个控制器。每次拔除控制器时间间隔5分钟。持续观察Linux服务器中Vdbench的运行情况。在主机多路径软件检查各路径流量,在存储管理界面中的存储性能监控中观察各控制器的流量将拔除的三个控制器原位插回到存储系统中。待插入的控制器启动成功后,持续观察Linux服务器Vdbench的运行情况。在主机多路径软件检查各路径流量,在存储管理界面中的存储性能监控中观察各控制器的流量。重复步骤5到步骤8,覆盖所有四坏三的场景。预期结果:在步骤4中,主机多路径四条路径都有流量,且流量均衡,差异不超过10%。在存储管理界面中的存储性能监控中四个控制器对应端口都有流量,且流量均衡,差异不超过10%。在步骤6中,在整个过程中,Vdbench读写业务不中断。主机多路径的剩余一条路径有流量,存储性能监控中剩余一个控制器对应端口有流量。在步骤8中,Vdbench读写业务不中断。控制器恢复后,主机多路径四条路径有流量,且流量均衡,差异不超过10%,存储性能监控中四个控制器对应端口都有流量,且流量均衡,差异不超过10%。在步骤9中,每次测试均符合预期结果2到预期结果3。测试5:存储在线容量扩展测试项目:存储在线容量扩展测试测试目的:考察磁盘存储系统能够按照单个硬盘粒度,对存储系统进行扩容。测试步骤:在存储系统中使用所有的磁盘建立一个RAID组或者存储池,不配置热备盘。RAID级别为RAID5。记录存储池的总容量。在存储池中使用所有全部容量建立一个LUN,命名为LUN1,将LUN1映射给主机,在主机上对LUN1建立文件系统,并写入2GB文件。在存储和主机上记录LUN1的总容量。使用Vdbench工具对LUN1的文件系统进行持续的读写,直到用例结束。在系统中插入一个新的硬盘,将硬盘扩展到存储池容量中。扩展后,检查存储池的容量。使用存储池的新增加容量对LUN1进行扩容,在存储和主机侧检查扩容是否成功,Vdbench工具对LUN1的读写是否正常。预期结果:在步骤1中,存储池的总容量空间已经记录。在步骤2中,LUN1的容量已经记录。在步骤4中,存储系统支持单个硬盘扩容。单个硬盘插入后,容量可以扩展到已有的存储池中。存储池的总容量增长。在步骤5中,LUN1的容量得到在线扩展,在扩展过程中,Vdbench工具对LUN1的读写正常。测试6:快照和回滚功能测试项目:快照功能测试测试目的:考察磁盘阵列是否具备完备的快照保护功能,任意快照回滚不影响其余快照。测试步骤:在存储系统中已经创建了一个LUN,名称为LUN1,LUN1已经建立文件系统,写入了A,B,C三个文件。在存储管理界面中对LUN1进行快照,快照名为LUN1_snapshot1。删除A文件。再次对LUN1进行快照,快照名为LUN1_snapshot2。删除B文件。再次对LUN1进行快照,快照名为LUN1_snapshot3。删除C文件。使用LUN1_snapshot2快照对LUN1进行回滚,回滚完毕后,检查LUN1的数据,检查LUN1的快照。使用LUN1_snapshot3快照对LUN1进行回滚,回滚完毕后,检查LUN1的数据,检查LUN1的快照。预期结果:在步骤2、3、4中,快照已经成功建立。在步骤6中,LUN1回滚后仅包含B,C两个文件。回滚后,LUN1建立的三个快照均存在。在步骤7中,LUN1回滚后仅包含C文件。回滚后,LUN1建立的三个快照均存在。测试7:存储Qos功能项目:存储QoS功能测试目的:考察存储是否支持QoS。测试步骤:存储(四个控制器)运行正常,每个控制器有且只有一条光纤链路连接到光纤交换机。Linux服务器安装和配置了存储厂商研发的多路径软件(非操作系统自带)。存储存在两个硬盘跨引擎的LUN(在每个硬盘扩展柜里面都选择一定数量的磁盘创建一个RAID组或者资源池),大小为256GB,命名QoSLiLUN,QoSLUN。QoSLiLUN,QoSLUN均映射给Linux服务器。采用Vdbench对QoSLiLUN,QoSLUN同时下发相同的业务,持续进行读写直到该用例结束(IO模型:8KB全随机,6:4读写)。持续观察Linux服务器vdbench工具的性能值,观察图形管理界面上的性能监控图表。记录QoSLiLUN,QoSLUN的性能值。在中文图形管理界面上QoS管理页面中,创建限制QoSLiLUN最大IOPS为上一步获取的IOPS一半的QoS策略。持续观察Linux服务器vdbench工具的性能值,观察图形管理界面上的性能监控图表。解除QoSLiLUN的QoS限制策略。持续观察Linux服务器Vdbench工具的性能值,观察图形管理界面上的性能监控图表。停止Vdbench工具对QoSLiLUN,QoSLUN的业务下发,解除QoSLiLUN,QoSLUN的主机映射。对QoSLiLUN建立快照QosLiLUN_Snapshot1,将快照QosLiLUN_Snapshot1映射给Linux服务器,采用Vdbench对快照下发业务,持续进行读写直到该用例结束(IO模型:8KB全随机,6:4读写)。记录快照QosLiLUN_Snapshot1的性能值。在中文图形管理界面上QoS管理页面中,创建限制快照QosLiLUN_Snapshot1最大IOPS为步骤9获取的IOPS一半的QoS策略。持续观察Linux服务器vdbench工具的性能值,观察图形管理界面上的性能监控图表。预期结果:在步骤4中,QoSLiLUN和QoSLUN的IOPS值已经被记录。在步骤5中,图形界面有QoS的配置。创建QoS策略成功。在步骤6中,QoSLiLUN的IOPS被控制为原来的一半左右,符合步骤5设置的Qos策略)。与Qos限定值差异不超过10%。在步骤8中,QoSLiLUN的性能回升到步骤4的IOPS。在步骤9中,快照可以映射给主机,并进行读写。Vdbench工具对快照读写正常,Vdbench的测试结果值已经记录。在步骤10中,图形界面支持对快照进行Qos策略的创建。在步骤11中,QoSLiLUN_Snapshot1的IOPS被控制为原来的一半左右,符合步骤10设置的Qos策略)。与Qos限定值差异不超过10%。测试8:镜像卷功能测试项目:镜像卷功能测试测试目的:考察磁盘阵列是否支持物理隔离的镜像卷,支持在任意卷物理损坏时,业务不中断。测试步骤:在存储系统中使用不同的物理硬盘建立两个独立的RAID组或者存储池,分别为POOL1和POOL2。RAID级别为RAID5。在POOL1中建立一个LUN1,并将其映射给主机进行持续读写(IO模型:8KB全随机,6:4读写)。对LUN1建立一个卷镜像,其副本存放于POOL2中,实现物理的隔离保护。检查LUN1的两份副本是否存在于不同的RAID组或者存储池中。直接拔出构成POOL1的所有硬盘,模拟POOL1物理故障。检查Vdbench的读写状态。插回POOL1的所有硬盘,等待POOL1恢复和镜像关系恢复。镜像同步后,直接拔出POOL2的所有硬盘,模拟POOL2物理故障。检查Vdbench的读写状态。插回POOL2的所有硬盘,等待POOL2恢复和镜像关系恢复。预期结果:在步骤2中,Vdbench对LUN1的读写正常。在步骤3中,对LUN1建立卷镜像成功。两个副本在不同的RAID组或者存储池中。在步骤4中,POOL1的所有硬盘拔除后,Vdbench工具读写未中断。在步骤6中,POOL2的所有硬盘拔除后,Vdbench工具读写未中断。测试9:缓存分区测试项目:缓存分区测试目的:测试存储是否支持缓存分区,保障关键业务运行。测试步骤:存储(四个控制器)运行正常,每个控制器有且只有一条光纤链路连接到主机。测试服务器安装和配置了存储厂商研发的多路径软件(非操作系统自带)。磁盘阵列创建8个100GB的LUN,命名为LUN1~LUN8,并且映射给测试服务器,采用Vdbench工具对八个LUN持续进行相同的读写业务测试。在阵列性能监控界面和Vdbench工具中监控8个LUN的IOPS。在阵列图形化管理界面中检查是否有缓存分区的配置界面。在阵列图形化管理界面中创建两个缓存分区,名称为PART1和PART2,设置PART1分区读写缓存大小分别为512MB,设置PART2分区读写缓存大小分别为8GB,并添加LUN1~LUN4到PART1缓存分区中,添加LUN5~LUN8到PART2缓存分区中。在阵列性能监控界面和Vdbench工具中监控8个LUN的IOPS。将LUN1~LUN4从PART1缓存分区中移出,将LUN5~LUN8到PART2缓存分区中移除。删除PATR1和PART2两个缓存分区。在阵列性能监控界面和Vdbench工具中监控8个LUN的IOPS。预期结果:在步骤3中,8个LUN的性能大致相等,差异不超过10%。在步骤4中,存储管理界面中有配置缓存分区的界面。在步骤5中,缓存分区创建成功,LUN1~LUN4添加到缓存分区PART1中成功。LUN5~LUN8添加到缓存分区PART2中成功。在步骤6中,LUN1~LUN4的性能比LUN5~LUN8的性能低。在步骤7中,LUN1~LUN4从缓存分区PART1中移除成功。LUN5~LUN8从缓存分区PART2中移除成功。在步骤8中,LUN1~LUN8的性能大致相等,差异不超过10%。在整个测试过程中,主机Vdbench对8个LUN的读写不中断,无报错。测试10:分级存储测试项目:分级存储测试测试目的:设备是否具备自动分级存储功能,自动将不同活跃程度的数据在不同的存储介质动态移动。测试步骤:存储仅包含12个SAS硬盘和8个SSD。存储系统将一个8个SSD,12个SAS硬盘构成分级资源池,SSD采用RAID10(可用容量大于4TB),SAS硬盘采用RAID5(可用容量大于4TB)。资源池命名为TierPool,在RAID组或者资源池中没有任何LUN存在。检查是否有支持动态分级存储配置界面,是否支持动态分级迁移策略的设置。如下的测试必须在图形管理界面中用自动分级存储功能配置进行。在TierPool中创建一个大小为4TB的LUN,命名为TierLUN,在图形界面中,设定初始分配空间全部为SAS盘,设置TierLUN为不迁移。将TierLUN映射到主机A,主机A扫描磁盘。记录SSD层和SAS层的资源的总容量。使用Vdbench对TierLUN下发带热点的业务。业务热点数据构建为TierLUN中每1GB数据中存在128MB的热点数据。热点数据总量为512GB。Vbench工具仅对这512GB的数据进行读写。(IO模型:8KB全随机50%读50%写,32并发)在主机A观察Vdbench的性能值,在存储系统观察TierLUN的空间分布,在存储系统观察存储池所有硬盘的IO流量。在存储

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论