版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
word.最文件 仅供参考 已改成 word文本 便利更改赠人玫瑰,手留余香。方案建议书1/29
超融合数据中心方案建议书|word.22/29名目\l“_TOC_250018“需求分析 3\l“_TOC_250017“现状和需求 3\l“_TOC_250016“数据中心进展趋势 3\l“_TOC_250015“超融合与传统架构选择 5\l“_TOC_250014“超融合方案设计 7\l“_TOC_250013“设计原则 8\l“_TOC_250012“方案设计 9\l“_TOC_250011“计算资源 9\l“_TOC_250010“存储资源 11\l“_TOC_250009“网络拓扑 13\l“_TOC_250008“容灾方案 15\l“_TOC_250007“方案优势 17\l“_TOC_250006“横向扩展优20\l“_TOC_250005“性能优势 22\l“_TOC_250004“牢靠性 23\l“_TOC_250003“易于部署 24\l“_TOC_250002“集中治理 24\l“_TOC_250001“自动故障恢26\l“_TOC_250000“配置清单 273/293/29需求分析现状和需求融合架构建设云平台,供给计算和存储的资源。数据中心进展趋势回忆数据中心的进展,可以分为3个阶段。1990年月,称为客户端效劳器时代,特点是数据中心以小型机支撑业务系统为主,各系统独立建设,不同系统之间相互隔离,后来消灭了 SAN存储,实现了不同系统之间的数据共享。2000 千年开头,X86 效劳器开头渐渐普及,效劳器虚拟化的兴起 ,使得SAN/NAS存储称为数据中心虚拟化的标准配置。虚拟化时代数据中心效劳器资源可以横向扩展,但是SAN存储不能横向扩展,只能纵向升级,不能适应虚拟化对性能的要求。2010年后进入了云时代,企业需要建立云数据中心,效劳资源和存储资源都需要资源池化,传统的SAN存储架构已经不能适应云时代的数据中心要求,需要承受软件定义的方式来构建存储资源池,需要支持多种Hypervisor,企业私有云需要能够和公有云对接。word.1.1数据中心进展趋势据WikiBon的争论推测,传统SAN/NAS存储的销售额呈现明显下滑的趋/ServerSAN取代,将来五年,超融合架构的市场份额会超过传统SAN/NAS存储,十年后,SAN/NAS的市场占有份10%以下。4/29超融合数据中心方案建议书|word.1.2存储进展趋势超融合与传统架构选择超融合根底架构〔Hyper-ConvergedInfrastructure,或简称“HCI”〕是指在同一套单元设备中不仅仅具备计算、网络、存储和效劳器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展〔 out〕,形成统一的资源池。HCI是实现“软件定义数据中心”的终极技术途径。HCI类似Google、Facebook等互联网数据中心的大规模根底架构模式,可以为数据中心带来最优的效率、敏捷性、规模、本钱和数据保护。使用计算存储超融合的一体化平台,替代了传统的效劳器加集中存储的架构,使得整个架构更清楚简洁。5/29
超融合数据中心方案建议书|word.1.3超融合架构示意图下表列举了使用超融合架构〔计算+存储〕和传统数据中心三层架构〔效劳器+光纤交换机+存储〕的比照:性能
超融合架构 传统数据中心根底架构尽可能供给本地吞吐,并使用 SSD 随着访问集中存储的 越保证应用IO需求。不存在性能瓶颈 多,性能瓶颈将日益凸显可以简洁的在集群中增加节点以扩由于架构限制,无法实现横向扩展展集群规模和性能可以通过三副本的方式容忍最多两个节点同时故障,并且硬件故障时 通过raid技术实现高可用性,但面对数据重建速度快,性能几乎不受影 硬件故障时,性能下降严峻。响整合比 虚拟机密度高,是传统2倍以上 虚拟机密度低内置容灾功能,支持同步和异步容内置容灾 配置和购置,实施本钱高灾6/29超融合数据中心方案建议书|word.
超融合架构30分钟即可完成安装配置WEB界面治理,维护便利LUN、卷、Raid组使用超融合架构:2U〔包含效劳器
传统数据中心根底架构2天时间需要厂商支持。2路效劳器至少空间占用 和存储〕4节点。超融合方案设计
1U,另加存储空间。77/29超融合数据中心方案建议书|器的资源使用都远低于其实际的处理力量,计算力量和存储容量难以充分利用。实施虚拟化/云计算数据中心,可以有效整合效劳器及存储资源,形成计算资源池,依据一代数据中心各项应用的实际需要动态安排计算资源,最大效率的利用现有效劳器及存储设备,并对数据中心硬件设备进展有效治理和监控。8/298/29设计原则在方案设计中我们将遵循以下总体原则:以业务需求为导向等。遵循互联网标准据中心设计和建设标准,吸取互联网架构的优势。提高资源利用率工程中,提高资源利用率成为一个重要的任务。动态扩展性在IT进展趋势中,动态根底架构已经成为IT根底架构的进展方向。使ITITIT实时地运营过程可进展敏捷的资源动态调整。资源扩展要表达在计算资源和存储资源的同时扩展。分布式一切99/29架构的无单点故障、无单点瓶颈问题,保障一代的业务系统强健性。安全性运行。方案设计计算资源Block区块)和NutanixNode(节点)2.2Block(区块)2个机架单元(2U高)NutanixBlock(区块)Nutanix节点,每个Node(节点)都是一立的x86效劳器。却能够供给4台标准2路IntelCPUx8648TB存储容量。word.2.1:NutanixBlock(Node()Nutanix 的计算资源池是通过 x86 效劳器虚拟化来实现的,可以支持VMwarevSphere、MicroSoftHyper-v及NutanixAcropolis平台供给的KVM等Hypervisor,如图2.3。在虚拟化Hypervisor层形成计算资源池,为业务系统的虚拟机供给不同的效劳质量和力量,包括了高可用(HighAvailability)、容错(Fault、在线迁移(LiveMigration/vMotion、资源动态负载均衡(DistributedNutanix可以支持业务虚拟机在不同的Hypervisor之前进展迁移,也就是V2V的力量,例如从vSphere迁移到KVM等。10/29超融合数据中心方案建议书|1word.图2.2超融合架构计算资源池x86效劳器虚拟化〕存储资源Nutanix供给的分布式文件系统〔NDFS〕可以将一组集群内的节点组成一个统一的分布式存储平台。NDFS对于x86虚拟化平台软件而言就是一个集中的共享式存储,与任何其他集中式存储阵列一样工作,且供给更为简洁便捷的存LUNRaid组。11/29超融合数据中心方案建议书|1word.2.3Nutanix分布式存储架构和功能Nutanix分布式存储架构不仅同样供给传统存储的力量外,还供给更多的力量。针对于虚拟化方面供给快照、克隆等机制,数据层实现本地优先访问、存储分层等性能机制,对数据进展压缩和去重提高存储可用容量,借助两份以上冗余数据供给存储的牢靠性,增加或削减节点数据分布会自动平台,当节点宕机或磁盘损坏后具备数据自恢复力量等。Nutanix每个节点供给两种磁盘,标准配置为1-2SSD,容量从480GB到1.6TB;4SATAHDD1TB2TB(4TB6TB的HDD)。2.4分布式存储系统规律架构NDFS被设计成为格外动态的平台,可以适用于不同工作负载的应用,并且允许混合节点类型:例如将计算密集型节点和存储密集型节点混合在一个集群中。对于集群内部磁盘容量大小不同的,确保数据全都的分布格外重要。NDFS有自带的称为磁盘平衡的技术,用来确保数据全都的分布在集群内部各节点上。磁盘平衡功能与各节点的本地磁盘利用率和内置的NDFSILM〔数据生命周期治理〕一同工作。它的目标是使得全部节点的磁盘利用率大致相等。12/29超融合数据中心方案建议书|113/13/291另外,Nutanix节点通过ILM实现SSD和HDD的数据热分层。简洁而言,SSDHDDILM负责触发数据在热分层之间的迁移。本地节点的SSD在热分层中是最高优先级的,负责全部本地虚拟机IO的读写操作。并且还可以使用集群内全部其他节点的SSD,SSD层总是能供给最好的读写性能,并且在混合存储环境中尤为重要。在超融合的虚拟化环境中,全部IO操作都将由本地节点上的NutanixControlerVM(CVM)接收,以供给极高的性能。据以往阅历及用户习惯分析,一般运行效劳器虚拟化的虚拟机对IO性能要求在200-300IOPS左右,而单个Nutanix25000IOPS,4100,000IOPS。完全可以满足需求。网络拓扑在每个单节点上,默认供给如下网络端口:2*1GbE,1*1GbEIPMI端口10GbE以下图为Nutanix推举的网络拓扑图:word.2.5网络拓扑在计算虚拟化资源池中的每台虚拟化Hypervisor节点上会运行多台虚拟机,多台虚拟机之间共享网络,为了便利治理建议承受虚拟交换机来配置和治理网络,虚拟交换机可在数据中心级别供给集中和聚合的虚拟网络,从而简化并增加虚拟机网络。在虚拟交换机的网络划分上,仍旧可以承受VLAN的方式划分不同的子网,实现不同子网段的安全和隔离。在每个Nutanix物理节点上有多种网络需求,包括管内部通讯网络、治理网络、生产网络等,因此每个Nutanix节点需配置多块网卡,网络设计建议如下:类型 设计 备注Nutanix物理节点之 10Gb以太网
每个节点通过两条万兆链路分别连接两台万兆交换14/29超融合数据中心方案建议书|1word.间的内部通讯网络双链路冗余机,保证网络设备和链路的冗余度。Nutanix建议用户使用万兆网络互联物理节点,当发IO时,万兆网络能保证供给足够带宽满IO同步流量。对外效劳网络硬件治理网络
10Gb以太网,双链路冗余
每个节点通过两条千/万兆链路分别连接两台千/万兆交换机,保证网络设备和链路的冗余度。/万兆链路可以实现与后端存储流量隔离。每个节点都有独立的千兆链路,用于连接特地的管(IPMI)容灾方案
1Gb以太网 理网络,实现治理网络与业务网络、存储网络分离。可以最大限度保证治理的敏捷性和安全性。1515/29超融合数据中心方案建议书|1Nutanix 平台自带的存储层面及基于虚拟机粒度的备份恢复功能 Stream。用户可以针对每个虚拟机设置不同的备份策略,包括备份打算和备份保存周期,Time Stream 会自动通过存储快照方式对虚拟机进展备份。全部TimeStream的快照均是基于存储层面的,与虚拟化层面的快照不同,存储层面的快照不会影响虚拟机的性能,对于虚拟化软件是完全透亮的。传统的备份方式通过网络传输备份数据,需要特定的备份窗口以免影响业务正常运行。TimeStream备份可以与传统的备份策略互补,既能保证对于重要的虚拟机进展高频度备份又不会占用额外的网络带宽。例如:对于一般虚拟机可以使用传统的备份方式每周进展全备,将备份数据保存在外部存储〔例如磁带库中〕;TimeStream备份进展每天12小时的备份,数据直接保存在存储上以便快速恢复。1616/291对于比较重要的虚拟机可以使用传统备份每周全备、每天增量的方式,将备份数据保存在外部存储〔例如磁带库中〕;同时使用TimeStream备份进展每2小时甚至每小时的备份,数据直接保存在存储上以便快速恢复。NutanixMetroAvailability和RemoteReplication。都是基于虚拟机快照的方式将更数据异步复制到远程的Nutnaix集群中。MetroAvailability可以实现同城双数据中心之间的RPO接近于“零”〔需要裸光纤支持〕,即便是标准RemoteReplication也能实现RPO为1小时〔基于网络带宽和更数据量〕,满足绝大多数异地容灾的业务需求。Nutanix容灾支持双向、一对多、多对一各种不同的复制模式。并且可以通过 自带的治理界面激活容灾中心的虚拟机进展容灾演练。不再需要额外繁琐的灾难恢复打算,基于鼠标点击即可完成容灾切换。路坦力的复制方案供给如下几个特色功能:保护域〔PD/ProtectionDomain〕主要角色:同时保护的多个“虚拟机/文件”的规律组描述:一组多个虚拟机或文件基于某个一样的保护策进展复制保护。一个PD可以保护一整个容器〔Container〕或你所选中的多个虚拟机或文件。全都性组〔CG/ConsistencyGroup〕主要角色:PD中多个相关联的VM或文件构成的一个子集,以实现故障时全都性。1717/291描述:PD中多台相关联的VM或文件需要在“同一时刻”发起快照。从而PDCG。复制时间策略〔ReplicationSchedule〕主要角色:快照、复制的时间策略PDCGVM供给定制的快照、复制的时间策略保存策略〔RetentionPolicy〕主要角色:本地或远程站点中保存的快照数量保存/复制方案优势使用Nutanix虚拟化根底架构,在保证用户数据的高速访问和高牢靠性同时,不再需要传统的集中式存储架构,避开在今后运行过程中消灭设计初期无视的性能问题。依据效劳器和存储使用现状,建议使用Nutanix来支撑现有应用。在今后随着业务进展,可以便利的依据节点进展扩容,避开建设初期一次性投资过大,后期却觉察性能问题,需要追加投资的问题消灭。Nutanix适用于最重要的国防、医疗、教育等领域,可为数据中心虚拟化带来横向扩展架构、高可用性和牢靠性等优势。争论显示,并非全部的企业数据中心工程真正做到了全面部署,很大一局部工程通常由于根底设施的本钱不断攀升而束之高阁。传1818/291性。Nutanix将融合根底设施、横向扩展架构和软件定义存储的各种优势结合在一起,可供给极佳的数据中心虚拟化体验,而其本钱仅为传统效劳器和存储器的一小局部。Nutanix完整集群是一种能够横向扩展的计算和存储根底设施,它使各组织机构无需存储网络〔SAN或NAS〕即可实现数据中心虚拟化。Nutanix特地为虚拟化而设计,能够供给全面的计算和存储力量,以及企业级的性能、可扩展性、可用性和数据治理功能。它承受英特尔芯片、固态硬盘等符合行业标准的硬件组件,以及市场领先的高级治理程序,以便供给开箱即用的解决方案,让数据中心虚拟化变得极其简洁有效。互联网架构的分布式计算Nutanix架构与Google的架构相类似,是一种可以横向扩展的计算存储融合的根底架构,消退了对于集中式存储对于网络的依靠。并且在基于Google的架构之上,供给了适合企业环境的解决方案。GFS是一种特定的解决方案为Google内部的应用所使用〔Gmail〕,Nutanix供给的是一种通用的虚拟化环境解决方案。另外,Nutanix有更好的横向扩展力量,供给更好的企业级数据治理特性,通常这些特性需要额外的网络或者存储硬件才能实现,例如,高可用性、备份、快照、灾难恢复等。专为虚拟化设计1919/291Nutanix是针对虚拟化环境而设计的,因此可以很好的支持虚拟化环境中基于传统存储架构所实现的功能,包括虚拟机的热迁移和高可用性等。Nutanix架构是虚拟机感知型的,它抑制可传统架构下解决方案的一些弊端,例如,当一个存储设备〔LUN〕共享全部虚拟机使用时,很难使用在存储上使用基于虚拟机的备份、复制和快照功能,并且当架构越来越简单时,很难诊断性能瓶颈。Nutanix架构抑制了这些限制。存储分层优势NutanixSSD固态硬盘的优势,由于传统存储都是针对机械硬盘而设计的,而传统的机械硬盘与SSD硬盘的数据访问方式完全不同,机械硬盘需要旋转和寻道,而SSD硬盘则完全没有这些限制,因此不能SSD硬盘的性能优势。Nutanix架构使用SSD来保存大量常常访问的数据,从虚拟机的元数据到业务数据都保存Cache中已供给极高的IO性能,并且保存在长久化的存储中以便于存取。NutanixIOSSD磁盘,包括:SSDIO敏感的操作;中;自动迁移“冷”数据〔或者不常访问的数据〕SATA硬盘中,并SSD磁盘。2020/292横向扩展优势Nutanix给虚拟化环境带来的重要差异化因素之一就是,根底设施在进展扩展时其性能仍旧保持不变。在Nutanix架构中,在每个物理节点本地都运行一个虚拟存储掌握虚机〔CVM〕。CVM负责本地全部其他虚拟机的IO操作。当集群扩展时,增加节点的同时也增了 CVM,保证了整个集群性能的横向扩展。与传统集中存储不同,传统架构下集中存储只有两个存储掌握器,在集群扩展时,存储掌握器无法进展有效的扩展,从而必定成为整个架构的瓶颈。为了展现这种力量,Nutanix曾实施过一个巨型的VDI工程,模拟桌面启动3003000台时,其性能从最终用户体验的角度来看保持了全都。在大多数传统的存储环境中,最正确性能仅消灭在第一天,由于应用程序或工作负载越来越多,导致性能随着时间的推移不断下降,直至需要进展叉车式升级,承受全的存储阵列。3000VDI方案设计中的横向扩展现意图。通常办公类虚3000100个虚拟桌面,每增加一个节点,可以100个虚拟桌面,真正实现线性的横向扩展:word.2.7线性扩展现意图以下图说明白从300台桌面扩展到3000台时,应用响应时间保持不变:相对应用性能虚拟桌面数量与应用响应时间2.8不同VDI数量下的相应时间21/29超融合数据中心方案建议书|2word.2222/292性能优势Nutanix解决方案在数据中心虚拟化环境中的主要优势之一就是性能,而性能优势是通过传统的效劳器和存储架构实现的。在传统的架构中,时延是由于NFSiSCSI等协议供给存储本身没有问题,但网络会增加时延。NutanixNFS协议的优势及其易用性,而通过所谓的“无网络NFS”消退了网络时延。Nutanix分布式文件系统直接对虚拟机进展检测,然后将特定虚拟机的全部数据存放到本地物理效劳器上。因此,虚拟机不是通过网络、而是通过高速内部总线访问其数据。并且全部节点SSDIOPS以满足虚拟化环境各种类型应用需求,无论是虚拟桌面还是效劳器虚拟化场景。更为重要的是,每个节点的SSD磁盘并非有每个节点单独使用,而是在整个集群范围内作为一个整体使用。言下之意,不会由于单个节点本地的SSD耗尽而导致其性能急剧下降。当消灭这种极端状况时,节点会使用集群中其他节点的SSD空间。由于即使跨网络访问其他节点SSD磁盘也会比访问本地SATA磁盘快很多。因此极端最差状况时性能也与使用传统集中存储架构时效劳器通过网络访问数据的场景相当。其实不会消灭这种极端状况,由于当SSD利用率超过肯定阈值后,Nutanix的CVM会自动觉察并将最少访问的数据从SSD迁移到SATA上,以保证SSD有足够容量满足突发的IO恳求。这一自动热分层技术对虚拟化主机而言完全透亮。用户无需关心数据保存在哪里,这完全由CVM依据数据访问频度而自动调度。11“:///wiki/Paxos_(computer_science)“:///wiki/Paxos_(computer_science)23/292牢靠性Nutanix平台使用复制因子〔RFReplicationFactor〕和校验和〔checksum〕来保证当节点或者磁盘失效时,数据的冗余度和可用性。当数据写入SSD时,12NutanixCVMSSD之中〔RF设置为或者3〕,当这个操作完成之后,此次写操作才被确认〔Ack〕。这样能确保23个独立的节点上,保证数据的冗余度。全部节点都参与数据的复制操作,这样能消退“热点节点”,并保证线性的性能扩展。当数据被写入时,同时计算该数据块的校验和,并且作为数据块RF的前提下,被“异步”推送到HDD中。当发生节点或者磁盘失效,数据块会重在全部节点间进展复制以满足复制因子的设置。任何时候,读取数据块并同时计算其校验和以确保数据块有效。当数据块检查结果不匹配校验和时,副本数据将会掩盖该无效数据块。Nutanix分布式文件系统中NDF,我们使用了一些关键技术来确100时间内都是可用的〔即“强全都性NDFSPaxos算法1。NDFSKey-Value构造的分布式数据库来保存重要的元数据。为了确保元数据的可用性和冗余度,也同样引入了复制因子〔R。一旦n个其他节点〔n打算与集群的大小。集群中大多数2424/292〔majority〕commitPaxos算Nutanix易于部署Nutanix开箱即用的部署方式,可以免去传统集中存储环境下存储的规划、连接、配置等简单的治理操作,无需再配置Raid组、LUN、卷等。设备安装20分钟即可完成初始化配置,用户可以马上开头部署应用虚拟机。Nutanix集群的扩展也格外便利,通过鼠标点击即可扫描并自动觉察安装的节点,依据提示完成IP地址配置之后,节点即完成参加集群操作,增资源也自动纳入资源池统一调度治理。集中治理NutanixPrism界面实现全部根底架构的治理操作,包括安康检查、物理机治理、虚拟机治理、存储治理、数据保护、告警监控、报表分析等内中完成,极大削减的治理简单程度。并且可以通过设置不同权限的用户,支持AD整合,将域用户和角色对应Nutanix的用户和组,从而实现分级的运维治理。word.2.9统一治理界面Prism全部物理和虚拟治理对象均供给具体的性能采集数据,包括CPU、内存、磁盘容量、IOPS、吞吐、读写延迟等指标,不再依靠于专用的监控工具和简单的监控脚本。2.10统一监控力量维护的工作量。25/29超融合数据中心方案建议书|2word.2.11自定义监控指标另外,NutanixPrismCentralPrism治理界面集中治理,不仅可以节约治理员在多个集群之间切换的繁琐动作,更能够将多个集群的状态数据进展汇总,可以便利治理员快速定位当前整个IT架构中是否存在
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 对企业有利的加班合同(2篇)
- 二零二五年智能家电技术服务合同范本3篇
- 宜宾酒王二零二五年度800亿控量保价市场占有率提升合同2篇
- 二零二五年度酒店会议住宿套餐定制合同2篇
- 2025年度电子信息产业设备采购与技术服务合同3篇
- 二零二五版工程款分期支付还款协议合同范本3篇
- 二零二五版碧桂园集团施工合同示范文本6篇
- 二零二五版豆腐出口贸易代理合同3篇
- 二零二五年度韵达快递业务承包合同及综合运营支持协议3篇
- 2024年物流运输承包合同3篇
- 《文化苦旅》读书分享 PPT
- 氧化铝生产工艺教学拜耳法
- 2023年十八项医疗核心制度考试题与答案
- 气管切开患者气道湿化的护理进展资料 气管切开患者气道湿化
- 管理模板:某跨境电商企业组织结构及部门职责
- 底架总组装工艺指导书
- 简单临时工劳动合同模板(3篇)
- 聚酯合成反应动力学
- 自动控制原理全套课件
- 上海科技大学,面试
- 《五年级奥数总复习》精编课件
评论
0/150
提交评论