最新高性能计算平台设计方案模板_第1页
最新高性能计算平台设计方案模板_第2页
最新高性能计算平台设计方案模板_第3页
最新高性能计算平台设计方案模板_第4页
最新高性能计算平台设计方案模板_第5页
已阅读5页,还剩19页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、XxxxxXXXX高性能计算平台建设方案XXXXX2013年4月目 录1概述21.1背景概况21.2建设内容31.3设计原则42总体架构53高性能计算平台硬件系统73.1平台架构图73.2主要设备选型83.3Cluster集群系统93.4计算节点103.5管理节点113.6I/O存储节点113.7网络系统方案113.8管理网络123.9监控网络123.10存储系统124高性能计算平台软件系统134.164位 Linux操作系统134.2集群管理软件144.3作业调度系统144.4并行文件系统154.5集群并行计算环境154.6标准库函数164.7标准应用软件165项目经费预算175.1经费来源

2、175.2经费支出预算17附页高性能计算平台技术参数要求181 概述1.1 背景概况20世纪后半期,全世界范围掀起第三次产业革命的浪潮,人类开始迈入后工业社会信息社会。在信息经济时代,其先进生产力及科技发展的标志就是计算技术。在这种先进生产力中高性能计算机(超级计算机)更是具有代表性。时至今日,计算科学(尤其是高性能计算)已经与理论研究、实验科学相并列,成为现代科学的三大支柱之一。三种科研手段中,理论研究为人类认识自然界、发展科技提供指导,但科学理论一般并不直接转化为实用的技术;实验科学一方面是验证理论、发展理论的重要工具,另一方面,它是在理论的指导下发展实用技术,直接为经济发展服务;计算科学

3、的发展也有相当悠久的历史,只是在计算机这一强大的计算工具问世之前,计算只能利用人类的大脑和简单的工具,计算应用于科学研究有天然的局限性,限制了它作用的发挥;随着计算机技术的发展,使用科学计算这一先进的技术手段不断普及,逐渐走向成熟。科学计算可以在很大程度上代替实验科学,并能在很多情况下,完成实验科学所无法完成的研究工作。科学计算也直接服务于实用科技,并为理论的发展提供依据和机会。在许多情况下,或者理论模型过于复杂甚至尚未建立,或者实验费用过于昂贵甚至不允许进行,此时计算模拟就成为求解问题的唯一或主要手段了。目前,高性能计算已广泛应用于国民经济各领域,发挥着不可替代的重要作用:a) 基础学科中深

4、入的知识发现,问题规模的扩大和求解精度的增加需要更高性能的计算资源。例如,计算立体力学、计算材料学、计算电磁学。b) 多学科综合设计领域中大量多部门协同计算需要构建高性能的综合平台。例如,汽车设计、船舶设计。c) 基于仿真的工程科学结合传统工程领域的知识技术与高性能计算,提供经济高效地设计与实践方法。例如,基于仿真的医学实践、数字城市模拟、核电、油田仿真工具、新材料开发、碰撞仿真技术、数字风洞。d) 高性能计算提升众多行业服务、决策的时效性,提高经济效益。例如,实时天气预报、城市交通控制、视频点播服务、动漫设计、网络游戏、基于RFID的货物跟踪、智能电子商务。e) 数据密集型应用需要高性能数据

5、处理,以应对数据爆炸式增长带来的难题。例如,高能物理实验数据处理、遥感数据处理、商业智能、生物信息学、RFID数据挖掘、金融业分析抵押借贷、移动电话流量分析。1.2 建设内容高性能计算平台是面向全校提供高速计算服务的公共计算平台,主要运行科研计算任务,并且能够根据应用任务对硬件资源的不同需求,动态分配和调整平台资源,管理计算作业。用户通过校园网或VPN远程提交计算作业、获取计算结果,并能够根据权限调整,实现权限控制,硬件细节对用户透明。用户界面实现图形化交互窗口和SSH登陆相结合方式。平台的主要硬件设备有:管理节点、计算节点、存储IO节点、Infiniband交换机、高速存储、千兆以太网交换机

6、;软件方面有:64位Linux操作系统、并行开发环境、并行文件系统、作业调度管理系统、硬件集群管理系统等,利用高速infiniband网络互联构成计算环境,通过并行计算支撑软件和作业调度系统使它们协同工作。平台支持同时运行Ansys、Fluent、Gauss、Materials Studi、ADMS、Opera、HFSS、MTSS、MAGIC、CST、Icepak等商业软件,并支持C(C+)、Fortran77/90等语言的编译和运行环境,以保证学院自编应用程序的计算求解需求。1.3 设计原则高性能计算平台应具有处理大规模的复杂运算,尤其是浮点运算的能力。它将为全校提供优化设计、分析、验证的手

7、段,最终实现提高科研质量、缩短科研周期、降低科研成本。因此,方案设计以用户现场测试结果为基础,根据用户对未来应用模式及业务量需求预测为前提,强调高性能以及可行、合理和低风险。架构设计和系统选型遵循以下原则:先进性本系统方案所采用的技术既要符合业界的发展方向,又要在未来几年内仍具有很高的技术先进性,保持在同类系统中的领先地位。这样有利于提高整个系统的计算与处理能力,保证系统的使用周期。有限投资获取最大计算性能在有限的投资前提下,高性能计算平台应具有优秀的处理能力,它不仅具有符合要求的峰值性能(Peak Performance),更重要的是应具有稳定的应用性能(sustained performa

8、nce)。各种复杂的研究课题在本系统中能够得到准确、快速的计算结果。可扩展性 随着对计算机系统性能的要求不断提高,高性能计算平台应具有较强的扩展能力,可以方便地实现节点增加、系统扩充和升级,以有效保护前期投入。建议采用第三方集群管理和作业调度专业软件,集成安装与硬件设备无关,计算节点的扩展不受硬件品牌限制。开放性和兼容性系统应符合公认的工业标准,包括体系结构,硬件,I/O, 网络,操作系统,开发环境和开发工具等。便于和其他平台上的系统互操作。 应用开发软件丰富本系统的平台上应具有丰富的软件资源,能够提供研究课题的解决方案和相应的软件系统。例如高性能计算方面的开发环境和应用开发软件,linux、

9、专业平台软件商, 不仅提供处理节点间的协调和通信的中间件,使整个系统节点能够真正实现合作,负载均衡,还能针对不同应用需求,提供一系列并行计算应用。性价比优越本系统在性价比方面在同类系统中应具有明显的优势,能满足用户应用的同时,充分考虑后期运维费用,尽量采用绿色节能型设备,降低运维功耗,比如采用刀片式服务器。管理简单,用户易用尽量减少数据中心的设备管理难度,简化架构,底层硬件对用户透明,本着不改变设计师原有使用原则的基础上选择合适的软件架构,突破集中式资源部署应用难的屏障,实现应用简单易用的目的。综上所述,本项目的建设,在遵循统一领导、统一规划、统一标准、统一组织的建设原则之下,最大程度上保证系

10、统按照预期的目标顺利实施。2 总体架构根据我们对学校高性能计算平台的需求调研分析,以及其它高校的高性能计算实验室的考察,结合实际应用需求、当前计算规模大小、存储需求量等一系列的因素,充分结合总体设计原则,针对学校高性能计算应用的特点,从满足应用需求的角度出发,建立一个高可扩展、易管理的Cluster高性能计算平台环境。主要是基于计算网络、存储网络、管理网络、监控网络的一体化网络建设的高性能计算集群系统:计算网络采用Cluster、高速InfiniBand计算网与千兆以太管理网协同工作的架构。计算节点采用刀片服务器。存储网络大部分数据都存放在FC架构存储系统中,选用低端扩展容量大的磁盘阵列,利用

11、SAN交换机互联,通过存储I/O节点为高性能计算平台提供存储服务,便于维护、管理和备份。管理网络通过资源调度管理软件管理整个高性能计算平台。用户通过网络远程访问高性能计算平台,获取高性能计算平台的计算资源进行求解运算。监控网络通过基于硬件设备的专业集群管理软件对硬件系统进行集中管理、配置,减轻管理维护人员的工作负担,为运维人员提供高效便捷的管理方式。硬件部分应包括:Ø 计算节点(集群节点和小型机节点)Ø 管理节点Ø I/O节点Ø 高速互连系统软件部分应包括:Ø 操作系统Ø 集群管理软件Ø 作业调度系统Ø 并行文件系

12、统Ø 并行程序开发环境Ø 数学库、并行库Ø 标准应用软件Ø 客户应用软件1.12.13 高性能计算平台硬件系统根据应用需求,小型机待今后扩展建设。3.1 平台架构图平台整体架构图如下:采用32节点的Cluster高性能计算集群(每个计算节点Intel Xeon X5650 2Processors/6Cores/24G内存),主要运行分布式计算应用,利用MPI现实并行计算,提高应用效率。目前采用1台管理节点作为高性能计算平台的管理服务器,以后根据应用需求将管理节点增加到2台。目前采用2台存储节点作为高性能计算平台的存储I/O节点,以后根据应用需求扩展存储I

13、/O节点。32节点高性能计算集群节点、2节点I/O服务器集群、1台管理节点均通过带宽20Gbps Infiniband高速网络互连。计算集群节点通过20Gbps Infiniband网络连接I/O节点,通过I/O节点的专门并行文件系统访问存储。I/O节点通过4Gbps光纤通道卡连接至磁盘阵列环境中,配置1台磁盘阵列(可选HP P2000G3FF或IBM DS3400),10TB可用容量,以满足高性能计算环境对存储性能和空间的巨大需求,I/O节点存储链路完全多路径融合,与磁盘阵列见无单点。高性能计算平台全部通过管理节点上的高性能计算资源管理平台软件对用户发布使用。管理节点通过1000Base-T

14、千兆以太网连接到校园网络中,各院系通过该网络Web 使用高性能计算平台资源,基于用户原有使用习惯的图形化交互界面,并最终通过网络可视化的查看计算过程,获得计算结果。3.2 主要设备选型计算节点采用32节点的刀片服务器作为计算节点(每个节点采用2 Processors Intel Xeon X5650/6 Cores/18GB memory),Intel六核处理器在中规模的计算量上的性能相当于同主频四核CPU的1.5倍以上。依据见Intel提供的数据分析图:管理节点采用1节点的机架式高端服务器(采用2 Processors Intel Xeon X5650/6 Cores/24GB memory

15、)作为高性能计算平台的管理节点。存储节点采用2节点的机架式高端服务器(采用2 Processors Intel Xeon X5650/6 Cores/36GB memory)作为高性能计算平台的存储I/O节点。计算网络采用至少2台Infiniband高速网络交换机(20Gbps无阻塞)刀片机箱内置模块,作为高性能计算平台核心计算网络。详细指标见附表说明。3.3 Cluster集群系统Cluster采用32台刀片式服务器构成计算节点,通过2台I/O存储节点连接磁盘阵列,I/O节点部署专用并行文件系统,负责向计算节点提供共享存储服务。管理节点部署高性能计算资源管理平台软件,利用应用虚拟化技术,实现

16、用户通过网络对高性能平台的图形化透明使用,远程接入完全遵照用户原有软件使用方式,使用习惯。高效、易用的提供高性能平台计算服务。目前用户大量应用运行在Linux64平台上,为了满足当前用户应用与未来发展的需求,采用Linux并行计算集群进行Cluster的建设。待建Cluster方案架构图Cluster计算节点采用刀片服务器,节点处理器采用英特尔® 至强® X5650 六核核处理器(2 Processors/6 Cores)。Cluster集群系统的计算理论浮点峰值为:2.66G×4×32×2×6=4085.76 G flops = 4

17、 T flops 浮点峰值CPU主频×CPU核每个时钟周期执行浮点运算的次数×服务器数量×每个服务器的CPU核数。Cluster计算集群具有以下特点和优势:Ø 具有很高的性能价格比。采用先进的Beowulf架构,扩展性好即可扩充到几百上千个节点,从而获得很高的性能和比较低的总体成本。Ø 计算集群全部采用高速的Infiniband网络互连,具有极高的性价比。Ø 采用工业标准设备和顺应高新技术发展的趋势。如集群并行计算技术,开放代码程序。Ø 支持Windows平台的应用,具备Linux扩展能力。3.4 计算节点计算节点是高性能计

18、算的核心节点,承担着计算、分析、求解的真正任务,计算节点的性能很大程度上决定整个高性能平台所具有的计算能力,根据调研的具体情况,充分考虑用户环境,采用刀片式服务器做计算节点,每节点配置2 Processors/6 Cores处理器,内存根据经验,每core配置2GB内存,所以为计算节点合理配置24GB内存(内存配置为3的倍数)。特性:Ø 密集计算能力: 英特尔® 至强® 六核处理器配有多个 RDIMM 插槽、多个千兆/万兆服务器适配器,能够提供集中的计算功能和更加出色的系统扩展能力;2个英特尔至强 5600 系列处理器;采用高级 ECC 的96GB PC3-106

19、00 (DDR3-1333) 寄存式 RDIMM;可选择 1 个小外型高性能热插拔串行 SCSI (SAS) 硬盘。Ø 部署多样性:嵌入式技术和 2 个中间件插槽让您可以在高效紧凑的外形中进行多样性部署。可提供高速图形远程控制台功能,以及对服务器状态信息进行远程网络访问的能力;可通过管理程序安装功能、Disk-On-Key 和安全特性提高设备的灵活性3.5 管理节点管理节点用来承接外部用户接入集群系统,进行程序编译、调试、并行计算任务的分发与布署,此节点还安装有集群管理软件,做为主节点对整个集群进行管理和作业调度等工作。目前采用一台机架式高端服务器(2 Processors/6 Co

20、res/24GB内存)作为高性能计算节点的管理节点,根据今后应用需求,可再扩展一台机架式高端服务器。3.6 I/O存储节点I/O节点用来连接后台的大容量数据存储设备,整个集群通过此节点来进行数据的大规模存取与调用。计算节点与I/O节点之间通过InfiniBand高速网络相连,保证充足的I/O数据带宽。目前暂时采用两台机架式高端服务器(2 Processors/6 Cores/36GB内存)作为高性能计算集群的I/O节点,今后根据应用需求,可逐步扩展I/O节点。同时在I/O节点上部署并行文件系统,并发利用I/O节点对磁盘阵列进行读写操作。3.7 计算网络Cluster高性能集群系统的计算节点全部

21、通过高速的Infiniband互连技术实现互联,高速的Infiniband互连网络主要用于计算节点之间进行MPI通讯,交换节点应用进程信息和计算数据。整个高性能集群的管理网络和用户网络通过千兆以太网将每个节点连接起来。管理网络主要用于节点管理信息的传输。存储网络采用SAN交换机和磁盘阵列,主要用于各节点与I/O节点之间的数据传输,包括应用程序和数据的装载、计算结果的保存等等。Infiniband网络Infiniband核心计算网络互连采用多台Infiniband交换机(带宽20Gbps),互连网络拓扑图如下:InfiniBand对性能的影响InifiniBand是一种用于高性能计算集群和企业级

22、网格运算的高性能工业标准网络架构。InfiniBand以其10-40Gbps高速带宽和低延迟的优秀性能显现出卓越的性价比。该技术能使由低端服务器组成的集群或网格,相较于昂贵的高端服务器,以同样甚至更高的速度完成复杂的计算任务,也是实现该功能的第一种高速网络技术。3.8 管理网络管理网络千兆以太网交换机搭建。所有Cluster集群计算节点、I/O节点和管理节点都通过千兆以太网交换机连接起来,构成统一的IP网络环境。3.9 监控网络通过基于硬件设备的集群管理软件对硬件系统进行集中管理、配置,减轻管理维护人员负担。为运维人员提供高效便捷的管理方式。3.10 存储系统高性能计算平台配置一台扩展能力至少

23、支持48个磁盘驱动器的阵列,I/O节点可通过4Gbps光纤通道卡连接至存储环境中。计算节点服务器通过I/O节点访问磁盘阵列,全局部署并行文件系统。4 高性能计算平台软件系统高性能计算平台软件主要包括高性能计算资源管理平台软件、集群管理软件、并行文件系统、64位Linux操作系统、集群并行计算环境等一系列软件。通过优化配置,合理架构,最大化软件应用性能,为客户提供一个简单,易用的高性能计算环境。平台逻辑架构如下:4.1 64位 Linux操作系统由于学校现有用户基本上熟悉Linux运行环境,对于运行在计算节点服务器(X86_64 CPU架构)上的操作系统,目前选择64位Linux高级平台操作系统

24、作为每个集群节点的操作系统。而且,Linux操作系统的优势还体现在以下方面:Ø 开放的标准:开放意味着创新,意味着按需订制;Ø 低成本:软件成本/人员培训成本/移植成本/管理成本;Ø 高性能:表现在Linux系统资源的低占用率和在高性能运算的优势;Ø 操作系统的低占用率;Ø Linux在高性能运算方面的优势;Ø 高可扩展性、可维护性。4.2 集群管理软件为了更好地管理和监控集群系统,方便系统维护,必须配置有效、实用和友好界面的集群管理软件。Ø 集群管理实用程序可以有效地管理大量的计算节点。带有图形用户界面(GUI),可以根据

25、需要和集群中任意数量的节点进行定制。借助集群管理软件,只需在单一显示屏上单击鼠标即可访问所有的计算节点控制台。Ø 通过集群管理软件,可以监控、暂停、启动、重启或关闭选定的任何节点。还可以连接到集群中的多个节点,并通过一次键盘输入以广播的方式向其发出命令。Ø 集群管理软件具有将一个系统配置向集群中的所有计算节点传播的功能。4.3 作业调度系统作业调度系统设计上体现如下几个原则:Ø 图形化的交互界面,采用应用虚拟化技术将仿真求解软件的使用方式完全通过网络透明的提供给用户使用,保证系统使用的易用性。Ø 最终用户和IT基础结构的复杂性相分离的原则,既简化了用户操

26、作,又提高了用户的工作效率。Ø 系统的可扩展性原则,集群系统计算能力的扩展和设备的增减,不会影响前端用户的工作。Ø 安全性原则,保证开放条件下的系统安全性。4.4 并行文件系统并行文件系统是一种主要用于I/O数据,面向应用提供支持的用户级文件系统,它能够有效提高数据的I/O性能和科学计算程序的计算速度。4.5 集群并行计算环境MPICH 消息传递接口MPI(消息传递接口)是全球工业、政府和科研部门联合推出的适合进程间进行标准消息传递的并行程序设计平台,也是目前应用最广的并行程序设计平台,几乎被所有并行计算环境(共享和分布式存储并行机、MPP、集群等)和流行的多进程操作系统所

27、支持,基于它开发的应用程序具有良好的可移植性。MPI的一个最成熟和最广泛使用的版本就是MPICH,它是MPI的一种具体实现,可以免费从网上下载。MPICH的开发与MPI规范的制订是同步进行的。因此MPICH最能反映MPI的变化和发展。MPI程序一般被称为SPMD(Single Program Multiple Data)程序,即相同的程序对不同的数据进行处理。当然用MPI也可以编写出MASTER/SLAVER类的具有明显主从关系的程序。MPI的语言绑定由于MPI是一个库而不是一门语言,因此对MPI的使用必须和特定的语言结合起来进行。FORTRAN是科学与工程计算的领域语言,而C又是目前使用最广

28、泛的系统和应用程序开发的语言之一,因此对FORTRAN和C的支持是必须的。此外,C+作为面向对象的高级语言,随着编译器效率和处理器速度的提高,它可以取得接近于C的代码效率。面向对象的编程思想已经被广为接受,因此在MPI-2中除了和原来的FORTRAN 77和C语言实现绑定之外进一步与Fortran90和C+结合起来,提供了四种不同的接口为编程者提供了更多选择的余地。4.6 标准库函数标准库函数包括支持PORTRAN 77/90 和C/C+语言的数学库、并行库和相关编译器。4.7 标准应用软件目前提出需求的应用软件:Ø Fluent 流体工程仿真计算软件(并行版)Ø Mate

29、rials Studio 化学、材料工业模拟软件Ø ANSYS 通用有限元分析软件Ø ADMS 环境评测模型软件Ø Gauss 量子化学计算软件(注:商业软件的费用不包含在建设经费里面)5 项目经费预算5.1 经费来源由于本项目是学校整合资源,统一建设,共享使用的原则下立项建设,因此,其经费来自不同渠道,见下表:序号项 目 名 称预算经费123合 计5.2 经费支出预算序号设备名称描述数量预算1计算节点(刀片式服务器)刀片机箱、刀片服务器、IB交换机和千兆以太网交换机等32台155万元2管理节点、存储I/O节点机架式服务器3台15万元3磁盘阵列配置24块10Krp

30、ms, 6Gbps,600GB SAS硬盘1台20万元4软件及项目集成专业集群监控软件、专业非开源作业调度软件、64位Linux操作系统、并行开发软件和函数库等,及项目集成安装、培训、售后3年服务1套20万元合计210万元附页高性能计算平台技术参数要求第一部分:计算节点刀片服务器 (32片刀片 )设备设备配置说明数量刀片机箱刀片式服务器,标准机柜安装;最多支持10个服务器,支持不同型号刀片服务器(包括intel/AMD刀片)混插;支持刀片服务器或扩展刀片。2 LCD/LED 显示屏的前端控制面板;支持初始配置向导、本地服务器刀片、机箱和模块的信息以及故障检测。配置最大冗余热插拔电源,支持N+1

31、、N+N电源冗余模式,N2,支持单相/三相,电源模块满配。配置最大冗余热插拔风扇,风扇模块满配,提高刀片性能。支持8个互联模块托架,支持LAN/SAN连接,支持互联交换机和直通模块。配置4X QDR Infiniband内置网络交换模块,10个下行链路,12个上行链路,所有端口支持40/20Gbs(QDR/DDR)带宽,配置相应的线缆(IB 4X QDR/DDR)和配件。配置1Gb或10Gb 以太网交换机内置模块,4个1Gb上行链路,上行链路可堆叠,所有端口全线速。配置相应的堆叠线缆和配件。集成内置管理模块;可远程监控图形界面;可远程从本地光盘启动安装操作系统;集成虚拟电源、虚拟介质、虚拟KV

32、M技术 。在网络上通过浏览器管理,可以实现对物理机的统一管理。自动发现、更新机箱和服务器;监控设备配置和变化;监控硬件、软件运行情况。集群计算节点每个节点配置两颗 CPU Intel Xeon X5650 (主频2.66 GHz, 12MB L3 Cache,1333MHz前端总线)。32每个刀片配置DDR3-1333内存, 采用RDIMM内存或FBDIMM,12个内存插槽;每个刀片服务器配置内存24GB。每个刀片4X QDR/DDR InfiniBand ConnectX IB 双通道适配卡。 每个刀片配置1个146GB 10K SFF 2.5” SAS硬盘,能够实现在线热插拔硬盘功能。每个

33、刀片配置嵌入式双端口 1Gb或 10GbE 多功能服务器网络适配器。配置快速分发软件,可同时分发安装windows,Linux等主流操作系统。  第二部分:管理、存储I/O节点 设备设备配置说明数量管理节点机架式服务器(带上机架导轨)。1 节点配置两颗 CPU Intel Xeon X5650 (主频2.66 GHz, 12MB L3 Cache,1333MHz前端总线)。配置DDR3-1333内存, 采用RDIMM内存或FBDIMM,支持高级ECC,服务器配置内存24GB 。配置硬件SAS RAID控制器,高速缓存512MB,带电池保护;支持硬件RAID 0/1。配置2个146GB

34、 10K SFF 2.5" SAS硬盘,能够实现在线热插拔硬盘功能。集成双端口多功能千兆服务器网络适配器卡。配置冗余电源和风扇。三年原厂保修。I/O节点机架式服务器(带上机架导轨)。2节点配置两颗 CPU Intel Xeon X5650 (主频2.66 GHz, 12MB L3 Cache,1333MHz前端总线)。配置DDR3-1333内存, 采用RDIMM内存或FBDIMM,服务器配置内存36GB。配置硬件SAS RAID控制器,高速缓存512MB,带电池保护;支持硬件RAID 0/1。配置2个300GB 10K SFF 2.5" SAS硬盘,能够实现在线热插拔硬盘功

35、能。集成双端口多功能千兆服务器网络适配器卡。配置冗余电源,风扇。配置1块Qlogic 4Gb HBA卡。配置Infiniband 4x QDR/DDR HCA卡。三年原厂保修。第三部分: 存储系统设备设备配置说明数量磁盘阵列厂家自主研发,拥有完整知识产权,非OEM产品。1 配置双冗余控制器,缓存每控制器1GB (双控2GB)。主机接口每控制器2个主机端口, 光通道 (FC) 4Gbps自感应1 Gbps/2 Gbps。RAID级别RAID-0, -1, -3, -5, -10。支持的最大驱动器数48 个硬盘驱动器,支持6Gb/s SAS、SATA磁盘。配置最大冗余风扇和电源, 热插拔。机架支持

36、业界标准的19英寸机架。配置容量许可的图形化磁盘阵列存储管理软件;磁盘阵列管理软件为满配容量或不限制容量许可证,未来磁盘扩容,不需要磁盘阵列管理软件升级费用。SAN支持的不同类型FC交换机。配置主流操作系统AIX,HP_UX,Solaris,Windows,Linux等相应平台支持软件。配置24块SAS硬盘,转速10Krpms,容量 600GB ,带宽6Gbps,配置相应的磁盘扩展柜。支持主流的操作系统:HP-UX、IBM AIX、SUN Solaris、MS windows、Linux等。支持快照克隆,增强数据保护。配置多路径故障切换和负载均衡功能,提供至少2个支持Linux64的许可。可实

37、现128个LUN,无需LUN扩展许可;最大LUN容量1TB。支持的主机最大数量16,且无需额的主机扩展许可。三年原厂保修。第四部分:集群系统软件 软件软件配置说明数量操作系统支持集群的Linux 64位版本。1并行环境MPICH(支持以太网MPI环境)。1 Mvapich2。OpenMPI(Infiniband和以太网的MPI环境)。Mvapich(支持Infiniband的MPI环境)。应用开发环境GNU C/C+编译器。1GNU Fortran77编译器。Intel C/C+编译器(支持OpenMP)。Intel Fortran 77/90编译器(支持OpenMP)。PGI C/C+编译器(支持OpenMP)。PGI Fortran 77/90编译器(支持OpenMP)。BLAS、GOTO、Atlas、LAPACK数学库。ACML GPU/CPU高性能数学库。并行文件系统Lustre、GPFS等。1集群监控软件作业调度软件君富EasyCluster、GridView、Platform Rocks等,非开源的专业软件,集成安装与硬件设备无

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论