浙江省高速公路服务器虚拟化与运维管理解决方案模板_第1页
浙江省高速公路服务器虚拟化与运维管理解决方案模板_第2页
浙江省高速公路服务器虚拟化与运维管理解决方案模板_第3页
浙江省高速公路服务器虚拟化与运维管理解决方案模板_第4页
浙江省高速公路服务器虚拟化与运维管理解决方案模板_第5页
已阅读5页,还剩164页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

浙江省智慧高速公路云平台方案浙江省智慧高速公路云平台方案TIME\@"yyyy/M/d"2015/4/22

目录TOC\o"1-3"1 概述 61.1 项目背景 62 VMware服务器虚拟化与运维管理解决方案概述 82.1 服务器虚拟化解决方案 92.2 虚拟化环境下的运维管理解决方案 103 服务器虚拟化解决方案 143.1 vSphere体系架构 143.1.1 基于vSphere的虚拟数据中心基础架构 143.1.2 ESXi体系结构 163.1.3 资源分配方式 193.2 计算功能特性 213.2.1 虚拟机计算性能 213.2.2 虚拟机性能 283.2.3 关键应用虚拟化 283.2.4 虚拟机迁移 293.2.5 向大数据扩展 343.2.6 CPU和内存的热添加和磁盘的热扩展 353.2.7 分布式资源调度DRS 363.2.8 分布式电源管理DPM 383.3 网络和安全功能特性 393.3.1 vSphere标准交换机(VSS) 403.3.2 vSphere分布式交换机(VDS) 413.3.3 网络I/O控制(NIOC) 453.3.4 无代理终端安全防护 473.4 存储功能特性 523.4.1 虚拟化环境的存储 533.4.2 vSphere存储体系结构 543.4.3 StorageDistributedResourcesScheduler(DRS) 553.4.4 基于存储策略的管理 573.4.5 StoragevMotion 593.4.6 存储I/O控制 623.4.7 VirtualMachineFileSystem(VMFS) 633.4.8 StorageThinProvisioning 663.4.9 存储API 673.4.10 VirtualVolumes 693.4.11 vSphereFlashReadCache 713.5 可用性功能 743.5.1 VMwareHighAvailability 753.5.2 VMwareFaultTolerance 793.5.3 VMwareDataProtection 823.5.4 vStorageAPIsforDataProtection 853.5.5 vSphereReplication 863.6 管理和自动化 933.6.1 集中式控制和主动式管理 933.6.2 自动化管理与调配 974 虚拟化环境下的运维管理解决方案 1024.1 主要价值 1024.2 体系架构 1024.3 基本功能 1044.4 典型应用场景 1074.4.1 性能监控与故障修复 1074.4.2 容量优化 1124.4.3 vSphere安全加固 1155 VMware云门户方案 1205.1.1 建设目标 1215.1.2 建设原则 1225.2 云门户业务流程 1225.2.1 云资源申请流程 1225.2.2 部署管理流程 1245.3 云门户规划架构 1255.4 云门户功能 1275.4.1 资源概览 1275.4.2 我的云 1285.4.3 审批管理 1365.4.4 部署管理 1365.4.5 稽核管理 1385.4.6 所有的云 1395.4.7 预算管理 1405.4.8 系统管理 1435.4.9 运维管理 1485.4.10 个人信息管理 1495.5 云门户标准实施服务 1495.5.1 实施前提 1495.5.2 实施内容 1515.5.3 实施周期 1525.5.4 交付物 1525.5.5 实施限制 1526 方案优势总结 1547 配置清单及说明 1567.1 虚拟化软件配置需求 1568 专业服务 1578.1 VMware专业服务介绍 1578.2 专业咨询服务内容 1578.2.1 VMwareAccelerate咨询服务 1578.2.2 技术咨询服务 1588.2.3 技术客户经理(TAM)服务 1588.3 专业服务实施流程 1598.3.1 评估 1608.3.2 规划与设计 1608.3.3 实施 1608.3.4 运维 1619 支持服务概述 1629.1 VMware支持的角色和职责 1629.2 全球技术支持服务 1629.3 自助服务支持 1639.3.1 社会支持 1639.3.2 其他资源 16410 培训服务 16510.1 培训课程和认证体系 165

概述项目背景浙江省智慧高速是浙江省首批启动的13个示范试点项目之一,旨在通过智慧高速建设,提升行业协调管理能力,为公众提供更加优质更加智慧化的出行服务,并通过加强高速公路智能化的监控及检测设施的规划布局,以提升交通事件预判能力和巡查监控的及时性。浙江省高速公路信息服务是实现浙江省智慧高速建设的重要组成部分,高速公路IT系统主要承载高速公路监控业务、收费等业务,网络需要为上述业务提供高性能、稳定、可靠、安全的承载,并且,需要通过覆盖全省的高速公路的网络系统,将全省所有路段各监控中心、区域运行服务中心和智慧高速数据中心互联,实现全省范围内的路段监控、信息采集、语音、信息发布、指挥调度的大集群,并为用户提供随时随地的出行咨询、查询等服务。不断增长的业务对IT部门的要求越来越高,所以数据中心需要更为快速的提供所需要的能力。如果不断购买新的服务器,又会增加采购成本和运作成本,而且还会带来更多供电和冷却的开支,同时,目前的服务器还没有得到充分的利用。通常情况下,企业的服务器工作负载只利用了5%,这导致了大量的硬件、空间以及电力的浪费。同时由于应用程序兼容性的问题,IT人员只能通过在不同场所的不同服务器中分别运行应用的方式,将应用程序隔离起来,而这又会导致服务器数量的增长。购置新的服务器是一项漫长的过程,这使得IT部门更加难以应对业务快速成长和不断变动的需求。例如,对于新业务系统平台的供应和拆除需求,往往就需要消耗大量宝贵的资源和时间。从IT管理员的角度来看,推动虚拟化技术发展的主要动力是基础架构设施的迅猛增长,而硬件部署模式又进一步加剧了基础架构的复杂程度。应用越来越多,也越来越复杂,因此就变得更加难以管理、更新和维护。用户希望能采用各种桌面设备、笔记本电脑、家用PC和移动设备来进行工作。服务器价格急剧下降,服务器散乱现象仍然存在。随着图形和多媒体的发展,数据也变得越来越丰富,文件的平均大小也在不断上升,要求不间断的在线存储。纵观整个数据中心,技术不断增多,分布也越来越广,另外,业界和法律法规也在不断要求企业加强IT管理控制。在这种环境下,虚拟化技术就体现了整合的优势。应用在IT的不同层面,从逻辑层将物理层抽象出来意味着逻辑组件会得到更一致的管理。从安全监督来看,虚拟化技术提升了X86服务器的可靠性、可用性,从基础架构层面获得了原先单机系统无法想象的功能,大大提高了业务连续性的级别,降低了故障率、减少了系统宕机的时间。从服务器的角度来看,虚拟化技术让每台设备都能托管多套操作系统,最大化了利用率,降低了服务器数量。从存储的角度来看,虚拟化技术可网络化、整合磁盘设备,并让多个服务器共享磁盘设备,从而提高了利用率。从应用的角度来看,虚拟化技术将应用计算从用户设备中分离出来,并在数据中心对应用及相关数据进行整合,通过集中化技术改善了管理和系统的安全性。从IT管理的角度来看,云计算技术出现,为IT实现自动化、自助化等全自动化管理成为功能,使IT信息服务为公众服务的敏捷性和便捷性大大提高。浙江省智慧高速公路作为国内大型企业,信息化建设不断发展。目前信息化网络以信息中心为运营维护单位,覆盖高速公路监控业务、收费等业务,随着新业务的开展,对服务器资源需求量日益庞大。出于经济效益和管理安全性考虑,针对基础架构的虚拟化平台建议和云化平台建设已势在必行。浙江省智慧高速公路决定以VMware虚拟化技术为基础,建设以运维监控为管理手段,以云自动化统一平台为资源管理平台,打造属于自己的云计算平台,以全新的理念和技术服务全省高速公路用户。VMware服务器虚拟化与运维管理解决方案概述随着服务器虚拟化的持续发展,用户需要主动型管理解决方案来清晰地了解自己的业务运行健康状况,虚拟数据中心的工作负载容量和性能,以确保高效利用资源,并防止出现影响业务的故障和性能问题。而VMware的服务器虚拟化与运维管理解决方案(vSpherewithOperationsManagement,vSOM)将全球领先的虚拟化平台与一流的管理功能相结合,它可以使用户了解整个虚拟化环境的运营状况,实现性能提升,同时优化容量,确保关键应用的稳定健康运行。借助vSOM,用户可以使用单一控制台来优化容量和监控工作负载性能,例如:用户能够回收未使用的容量、将虚拟机调整至适度规模、改善利用率并提高整合率,从而充分利用虚拟化平台。vSOM支持来自1,650多家ISV合作伙伴的3,000多个应用,它为虚拟化关键业务应用提供了最广泛的选择。vSOM是一款包含了vSphere与vRealizeOperations标准版的解决方案套件,它高度集成了全球最可靠的虚拟化平台与强大的自动化运维管理工具。图:vSOM高度集成了vSphere与vRealizeOperationsvSOM是一个托管式虚拟化平台,其中,vCenterServer从vSphere主机收集实时性能数据并将数据存储在vCenter数据库中,同时保留历史数据汇总信息。vRealizeOperations则从vCenter收集指标,并提供对IT基础架构的运行状况、风险和效率的全面和深入地分析,同时将这些信息以图形化的方式展现出来。图:vSOM体系结构下面将分别对vSOM的服务器虚拟化与运维管理解决方案进行介绍。服务器虚拟化解决方案VMware的服务器虚拟化解决方案vSphere是业界领先的用于构建云计算基础架构的虚拟化平台。它使得IT能以最低的TCO(总体拥有成本)满足要求最严格的关键业务应用的SLA。vSphere通过在计算、存储、网络、可用性、安全和自动化等方面提供的一整套应用和基础架构服务实现了一个完整、高效,安全的虚拟化平台。vSphere所提供的服务如下图所示。图:VMwarevSphere虚拟化平台vSphere具有如下的优势。通过提高利用率和实现自动化获得高效率:可实现15:1或更高的整合率,将硬件利用率从5%~15%提高到80%甚至更高,而且无需牺牲性能。大幅降低IT成本:可使资金开销最多减少70%,并使运营开销最多减少30%,从而为vSphere上运行的每个应用降低20%~30%的IT基础架构成本。兼具敏捷性和可控性:能够快速响应不断变化的业务需求,而又不牺牲安全性或控制力,并且为vSphere上运行的所有关键业务应用提供零接触式基础架构,并内置可用性、可扩展性和性能保证。可自由选择:借助基于标准的通用平台,可以充分利用各种现有IT资产及新一代IT服务,而通过开放式API,可借助来自全球领先技术提供商体系的解决方案使vSphere提供更强大的功能。作为一款先进的虚拟化平台,vSphere拥有如上诸多的优势,但是,仅仅使用vSphere会存在一些运维管理方面的不足,例如:性能优化与容量管理。这些不足使得vSphere的优势不能够完全发挥出来。因此,为了将vSphere的优势发挥到极致,一套与之紧密结合的运维管理工具是必不可少的。而vSOM是vSphere与vRealizeOperations标准版的集合,它除了可以高效地完成服务器虚拟化,让整个数据中心更加地灵活,敏捷,高效外,还可以深度监控整个IT基础架构的容量与性能,可以实现更高的容量利用率、整合率和硬件节约,同时还可以缩短问题诊断和解决的时间,避免业务受到影响,下面将介绍vSOM所提供的运维管理解决方案。虚拟化环境下的运维管理解决方案vSOM中的vRealizeOperations标准版提供了虚拟化环境下的运维管理解决方案。功能特性vSOM的运维管理解决方案具有如下的功能特性。全面的可见性,便于vSphere管理员使用 获取关于基础架构和应用运行状况、风险和效率的全面视图和深入运营洞察信息自动从vCenter收集数据以vCenter窗格的方式深入集成直观的屏幕引导用户发现需要注意的问题降低虚拟机管理成本并优化vSphere管理效率主动管理性能停止监控,转而开始主动管理基础架构和应用性能自动化的根本原因分析和修复建议可帮助管理员快速发现并消除潜在瓶颈容量优化发现容量不足和超额配置情况,以便合理调整虚拟机大小、回收闲置资源并放心提高整合率通过增加ESXi上的虚拟机密度降低基础架构成本vSOM的运维管理解决方案的管理界面可以显示虚拟基础设施的健康状态、风险和效率。此外,管理界面还可以显示当前虚拟基础架构中各节点(可以在vCenter级别,数据中心级别,集群级别,ESXi主机级别以及虚拟机级别上显示节点信息)的资源使用情况和资源需求情况,并以数字的形象直观地呈现负载的高低。对于主要的环境资源,包括CPU,内存,网络以及存储等,进行使用情况汇总。图:vSOM运维管理的基本界面vSOM提升了vSphere的价值如果只使用vSphere,用户可以节约28%的运维成本,如果在vSphere环境下使用vRealizeOperations,那么可以节约50%的运维成本,因此,vRealizeOperations可以大幅提升vSphere的价值。图:vRealizeOperations提升了vSphere的价值ManagementInsightTechnologies对vSOM的调查研究表明,vSOM可以使客户获得比单独运行vSphere更多的好处,一些主要的优势提升数据如下:提高基础架构和应用可用性将应用的停机时间减少36%将故障诊断和解决问题的时间减少26%降低成本实现约双倍的vSphereIT成本节约提高容量利用率将vSphere容量利用率提高40%,将整合率提高37%vSOM相对于单独使用vSphere所带来的运维成本收益,如下图所示。图:在vSphere环境下部署vRealizeOperations所带来的运维收益除了可以节约运维成本,vSOM在关键性能指标上,相对于单独使用vSphere都提高了30%~40%,具体的性能收益数据如下图所示。图:在vSphere环境下部署vRealizeOperations所带来的性能收益可见,无论在降低运维成本还是提高整体性能方面,vSOM都可以在很大程度上提升vSphere的价值,它拥有单独部署vSphere所无法比拟的优势。:vSOM各版本比较服务器虚拟化解决方案本章节将从体系结构、计算、网络与安全、存储、可用性以及管理与自动化等方面对vSOM的服务器虚拟化解决方案vSphere进行介绍。vSphere体系架构基于vSphere的虚拟数据中心基础架构vSphere可加快现有数据中心向云计算的转变,同时还支持兼容的公有云服务,从而为业界唯一的混合云模式奠定了基础。vSphere,许多群体称之为“ESXi”,即底层虚拟化管理程序体系结构的名称,这是一种采用尖端技术的裸机虚拟化管理程序。vSphere是市场上最先进的虚拟化管理程序,具有许多独特的功能和特性,其中包括:磁盘空间占用量小,因此可以缩小受攻击面并减少补丁程序数量不依赖操作系统,并采用加强型驱动程序具备高级内存管理功能,能够消除重复内存页或压缩内存页通过集成式的集群文件系统提供高级存储管理功能高I/O可扩展性可消除I/O瓶颈基于VMwarevSphere的虚拟数据中心由基本物理构建块(例如x86虚拟化服务器、存储器网络和阵列、IP网络、管理服务器和桌面客户端)组成。图:vSphere数据中心的物理拓扑vSphere数据中心拓扑包括下列组件:计算服务器 在祼机上运行ESXi的业界标准x86服务器。ESXi软件为虚拟机提供资源,并运行虚拟机。每台计算服务器在虚拟环境中均称为独立主机。可以将许多配置相似的x86服务器组合在一起,并与相同的网络和存储子系统连接,以便提供虚拟环境中的资源集合(称为群集)。存储网络和阵列光纤通道SAN阵列、iSCSISAN阵列和NAS阵列是广泛应用的存储技术,VMwarevSphere支持这些技术以满足不同数据中心的存储需求。存储阵列通过存储区域网络连接到服务器组并在服务器组之间共享。此安排可实现存储资源的聚合,并在将这些资源置备给虚拟机时使资源存储更具灵活性。IP网络每台计算服务器都可以有多个物理网络适配器,为整个VMwarevSphere数据中心提供高带宽和可靠的网络连接。vCenterServervCenterServer为数据中心提供一个单一控制点。它提供基本的数据中心服务,如访问控制、性能监控和配置功能。它将各台计算服务器中的资源统一在一起,使这些资源在整个数据中心中的虚拟机之间共享。其原理是:根据系统管理员设置的策略,管理虚拟机到计算服务器的分配,以及资源到给定计算服务器内虚拟机的分配。在vCenterServer无法访问(例如,网络断开)的情况下(这种情况极少出现),计算服务器仍能继续工作。服务器可单独管理,并根据上次设置的资源分配继续运行分配给它们的虚拟机。在vCenterServer的连接恢复后,它就能重新管理整个数据中心。管理客户端 VMwarevSphere为数据中心管理和虚拟机访问提供多种界面。这些界面包括VMwarevSphereClient(vSphereClient)、vSphereWebClient(用于通过Web浏览器访问)或vSphereCommand-LineInterface(vSphereCLI)。ESXi体系结构ESXi架构和组件 ESXi是组成vSphere基础架构核心的虚拟化管理器,可直接安装在物理服务器之上,并允许多个虚拟机运行于虚拟化层之上。每个虚拟机与其他虚拟机共享相同的物理资源,并且它们可以同时运行。与其他虚拟化管理程序不同,ESXi的所有管理功能都可以通过远程管理工具提供。由于没有底层操作系统,安装空间占用量可缩减至150MB以下。ESXi体系结构独立于任何通用操作系统运行,可提高安全性、增强可靠性并简化管理。紧凑型体系结构设计旨在直接集成到针对虚拟化进行优化的服务器硬件中,从而实现快速安装、配置和部署。如下图所示,从体系结构来说ESXi包含虚拟化层和虚拟机,而虚拟化层有两个重要组成部分:虚拟化管理程序VMkernel和虚拟机监视器VMM。ESXi主机可以通过vSphereClient、vCLI、API/SDK和CIM接口接入管理。图:ESXi体系结构VMkernelVMkernel是虚拟化的核心和推动力,由VMware开发并提供与其他操作系统提供的功能类似的某些功能,如进程创建和控制、信令、文件系统和进程线程。VMkernel控制和管理服务器的实际资源,它用资源管理器排定VM顺序,为它们动态分配CPU时间、内存和磁盘及网络访问。它还包含了物流服务器各种组件的设备驱动器——例如,网卡和磁盘控制卡、VMFS文件系统和虚拟交换机。VMkernel专用于支持运行多个虚拟机及提供如下核心功能:资源调度I/O堆栈设备驱动程序VMkernel可将虚拟机的设备映射到主机的物理设备。例如,虚拟SCSI磁盘驱动器可映射到与ESXi主机连接的SANLUN中的虚拟磁盘文件;虚拟以太网NIC可通过虚拟交换机端口连接到特定的主机NIC。虚拟机监视器VMM每个ESXi主机的关键组件是一个称为VMM的进程。对于每个已开启的虚拟机,将在VMkernel中运行一个VMM。虚拟机开始运行时,控制权将转交给VMM,然后由VMM依次执行虚拟机发出的指令。VMkernel将设置系统状态,以便VMM可以直接在硬件上运行。然而,虚拟机中的操作系统并不了解此次控制权转交,而会认为自己是在硬件上运行。VMM使虚拟机可以像物理机一样运行,而同时仍与主机和其他虚拟机保持隔离。因此,如果单台虚拟机崩溃,主机本身以及主机上的其他虚拟机将不受任何影响。虚拟机虚拟机是一个由VMkernel控制的软件构造体。所有虚拟机配置信息、状态信息和数据都封装在存储在数据存储中的一组离散文件中。这使虚拟机具有可移动性,并且易于备份或克隆。图:虚拟机文件虚拟机的特性虚拟机具有如下基本特性:分区:可在一台物理机上运行多个操作系统,并在多个虚拟机之间分配系统资源隔离:虽然多个虚拟机可以共享一台计算机的物理资源,但它们相互之间保持完全隔离。由于隔离的原因,虚拟环境中运行的应用在可用性和安全性方面远优于在传统的非虚拟化系统中运行的应用。封装:虚拟机实质上是一个软件容器,它将一整套虚拟硬件资源与操作系统及其所有应用捆绑或封装在一起。通过封装,虚拟机获得了超强的移动性并且易于管理。硬件抽象化:虚拟机完全独立于其底层物理硬件。可以为虚拟机配置与底层硬件上存在的物理组件完全不同的虚拟组件。由于虚拟机独立于硬件,再加上它具备封装和兼容性这两个特性,因此可以在不同类型的x86计算机之间自由地移动它,而无需对设备驱动程序、操作系统或应用进行任何更改。事实上,您可以在一台物理计算机上混合运行不同类型的操作系统和应用。图:虚拟机特性资源分配方式主机、集群、资源池可以在非集群(独立式)vSphere主机和集群中配置CPU和内存资源池。主机、群集和资源池提供了灵活而动态的方法,来组织虚拟环境中聚合的计算和内存资源,并将其链接回基础物理资源。主机表示x86物理服务器的聚合计算和内存资源。例如,如果x86物理服务器具有四个双核CPU(每个以4GHz速度运行)和32GB的系统内存,主机将提供32GHz计算能力和32GB内存来运行分配给它的虚拟机。群集可作为单个实体发挥作用和进行管理。它表示共享相同网络和存储阵列的x86物理服务器组的聚合计算及内存资源。例如,如果服务器组中包含8台服务器,每台服务器有四个双核CPU(每个CPU以4GHz的速度运行)和32GB内存,群集将聚合256GHz的计算能力和256GB的内存来运行虚拟机。资源池是单个主机或群集的计算及内存资源的分区。资源池可以是分层的,也可以是嵌套的。管理员可以将任何资源池划分为较小的资源池,以进一步划分资源并将其分配给不同的组或用于各种不同的目的。借助资源池,管理员可以根据业务需要分层次地划分并分配CPU和内存资源。划分并分配CPU和内存资源的原因包括维护行政界限、执行收费政策,或者适应地域或部门划分。资源池还用于向其他用户和组委派权限。图:资源池份额、限制、预留vSphere使用份额、限制和预留来确保主机上(或集群中)一起运行的虚拟机能够获得足够的资源,如CPU、内存、网络和存储。份额份额可以保证为虚拟机提供资源(CPU、RAM、网络或存储I/O)的特定百分比。默认情况下,每个虚拟机将能够访问相同比例的资源。例如,如果vSphere主机上运行4个虚拟机,则每个虚拟机可以访问25%的可用CPU资源。如果有多余的容量可用,则虚拟机可以利用更多。份额指定虚拟机(或资源池)的相对重要性。如果某个虚拟机的资源份额是另一个虚拟机的两倍,则在这两个虚拟机争用资源时,第一个虚拟机有权消耗两倍于第二个虚拟机的资源。份额通常指定为高、正常或低,这些值将分别按4:2:1的比例指定份额值。还可以选择自定义为各虚拟机分配特定的份额值(表示比例权重)。指定份额仅对同级虚拟机或资源池(即在资源池层次结构中具有相同父级的虚拟机或资源池)有意义。同级将根据其相对份额值共享资源,该份额值受预留和限制的约束。为虚拟机分配份额时,始终会相对于其他已打开电源的虚拟机来为该虚拟机指定优先级。限制限制则可以为资源分配提供硬性上限。即使有更多CPU容量可用,也可以将虚拟机可获得的虚拟CPU频率设置为不超过1GHz。限制通常会在客户支付资源使用费的共享基础架构配置中使用。限制功能为可以分配到虚拟机的CPU、内存或存储I/O资源指定上限。服务器分配给虚拟机的资源可大于预留,但决不可大于限制,即使系统上有未使用的资源也是如此。限制用具体单位(兆赫兹(GHz)或兆字节(MB)或每秒I/O操作数)表示。CPU、内存和存储I/O资源限制默认为无限制。如果内存无限制,则在创建虚拟机时为该虚拟机配置的内存量将成为其有效限制因素。预留预留指定保证为虚拟机分配的最少资源量。仅在有足够的未预留资源满足虚拟机的预留时,vCenterServer或ESXi才允许打开虚拟机电源。即使物理服务器负载较重,服务器也会确保该资源量。预留用具体单位(兆赫兹(GHz)或兆字节(MB))表示。例如,假定有2GHz可用,并且为VM1和VM2各指定了1GHz的预留量。现在每个虚拟机都能保证在需要时获得1GHz。但是,如果VM1只用了500MHz,则VM2可使用1.5GHz。预留默认为0。可以指定预留以保证虚拟机始终可使用最少的必要CPU或内存量。计算功能特性虚拟机计算性能CPU虚拟化VMware通过CPU虚拟化技术解决了如何在一个操作系统实例中运行多个应用的难题。实现这一任务的困难之处在于每一个应用都与操作系统之间有着密切的依赖关系。一个应用通常只能运行于特定版本的操作系统和中间件之上。这就是Windows用户常常提到的“DLL地狱”。因此,大多数用户只能在一个Windows操作系统实例上运行一种应用,操作系统实例独占一台物理服务器。这种状况会导致物理服务器的CPU资源被极大地浪费。能够使多个操作系统实例同时运行在一台物理服务器之上,是VMware所提供的CPU虚拟化技术的价值所在。通过整合服务器充分利用CPU资源,可以给用户带来极大的收益。服务器整合的益处能够得以实现的前提是工作负载并不需要知晓它们正在共享CPU,虚拟化层必须具备这种能力。这是CPU虚拟化与其它虚拟化形式所不同的地方。具体实现方式是为每个虚拟机提供一个或者多个虚拟CPU(vCPU)。多个vCPU分时复用物理CPU。VMM必须为多个vCPU合理分配时间片并维护所有vCPU的状态,当一个虚拟机vCPU的时间片用完需要切换时,要保存当前vCPU的状态,将被调度的vCPU的状态载入物理CPU。VMkernel在调度vCPU的时候采用“插槽-核心-线程”的拓扑逻辑。“插槽”指处理器单个封装件,该封装件可以具有一个或多个处理器内核且每个内核具有一个或多个逻辑处理器。当vCPU需要运行时,VMkernel会将一个vCPU映射到处理器调度一个执行线程的能力,它对应于一个CPU核心或一个超线程(如果CPU支持超线程)。超线程或多核CPU提供两个或多个调度vCPU运行的硬件基础。可以将虚拟机配置为最多具有128个vCPU。主机上许可的CPU数量、客户机操作系统支持的CPU数量和虚拟机硬件版本决定着管理员可以添加的vCPU数量。与vCPU和管理vCPU相关技术和概念如下:处理器管理:从客户操作系统vCPU发往ESXiVMkernel的指令被VMM拦截。在固定时间间隔内,VMKernel动态地在服务器和不同处理器(或多核处理器的内核)中分配VM工作负载。因此,VM指令根据每个处理器的工作负载从一个处理器(或内核)转移到另一个处理器。多内核和虚拟化多核处理器为执行虚拟机多任务的主机提供了很多优势。Intel和AMD均已开发了将两个或两个以上处理器内核组合到单个集成电路(通常称为封装件或插槽)的处理器。例如,双核处理器通过允许同时执行两个虚拟CPU,可以提供几乎是单核处理器两倍的性能。同一处理器中的内核通常配备由所有内核使用的最低级别的共享缓存,这有可能会减少访问较慢主内存的必要性。如果运行在逻辑处理器上的虚拟机正运行争用相同内存总线资源且占用大量内存的工作负载,则将物理处理器连接到主内存的共享内存总线可能会限制其逻辑处理器的性能。研究显示使用多核心可以导致可观的耗电下降,并提供良好的性能。虚拟化是最好地利用多内核提供的高性能的技术之一,因为ESXi能够像管理物理处理器一样地管理核心。对称多处理器vSphere虚拟对称多处理技术(VirtualSMP)可以使单个虚拟机同时使用多个物理处理器,并能够在处理器之间均衡负载。必须具有虚拟SMP,才能打开多处理器虚拟机电源。一些关键业务,比如数据库类应用(MicrosoftSQL、Oracle、IBMDB2、SAP)和商业、科研应用,在开发的的时候就考虑了并行执行任务的需求,具有多个物理处理器的服务器就能利用SMP并从中获益。超线程超线程是在一个物理处理器或者内核上创建两个逻辑内核实例,从而在核心中并行执行任务,提高效率。在vSphere虚拟机的处理器分配中,一个超线程可以对应一个vCPU。CPU虚拟化类型从架构上看,传统的X86平台并不是为支持多操作系统并行而设计的。因此CPU厂商如AMD和Intel都需要重新设计CPU,增加虚拟化特性,以解决上述问题。当前x86虚拟化平台的主要厂商如VMware等,也已经开始充分利用芯片厂商在处理器架构中构建的硬件辅助功能,以提高系统运行效率,降低Hypervisor带来的系统开销。在传统的x86运行环境下,操作系统使用保护环提供保护级别以完成不同任务代码的执行。这些环以等级排列,从最有特权的(Ring0)到最少特权的(Ring3)。在未虚拟化的服务器上,操作系统拥有在Ring0运行设备I/O等核心指令的权利,同时应用运行在Ring3。在虚拟化系统上,Hypervisor和虚拟机监控器(VMM)需要运行在Ring0,因此虚拟机子操作系统必须运行在Ring1。但由于多数操作系统的设备I/O等核心指令必须运行Ring0,那么VMM工具通过捕获特许指令和模拟Ring0到子虚拟机,让子操作系统以为它运行在Ring0。这样就产生了延时和开销。因此,Intel和AMD等芯片厂商在CPU内引入了一个新的、具有超级特权和受保护的Ring-1位置来运行虚拟机监控器(VMM),因此VMM能运行在新的叫做Ring-1的环里,这允许GuestOS天生运行在Ring0里。这种CPU架构上的虚拟化支持扩展提升了性能。VMM不再让GuestOS以为自己运行在Ring0里,因为GuestOS已经能在此操作,并且不会与VMM冲突——VMM已经移动到新的Ring1级别。选择支持这些虚拟化优化扩展的CPU,这可以更好地降低系统开销、提升虚拟化效率。基于以上设计,Intel和AMD分别推出了VT-x和AMD-v这两种主要的X86处理器架构的虚拟化硬件辅助功能。CPU负载均衡CPU调度器可以让多个虚拟机复用逻辑处理器(逻辑处理器的单位是一个CPU核心或一个超线程),提供給虚拟机类此于传统对称多处理器(SMP)的执行能力,并使他们之间相互独立。例如,配有2个VCPU的虚拟机可以让虚拟处理器运行在属于相同内核的逻辑处理器上,或运行在不同物理内核的逻辑处理器上。VMkernel智能地管理处理器时间来保障工作负载在处理器内核间的迁移。每隔2-40毫秒,VMkernel检查把vCPU从一个逻辑处理器迁移到另一个来保障负载均衡。如果存在超线程,VMkernel尽量把相同虚拟机的vCPU负载分散到不同内核的线程上来实现性能的优化。图:CPU负载平衡ESXiCPU调度程序可以解释处理器拓扑(包括插槽、内核和逻辑处理器之间的关系)。调度程序使用拓扑信息优化虚拟CPU在不同插槽上的放置位置,以最大化总体的缓存利用率,并通过最小化虚拟CPU迁移来改善缓存关联性。在未过载的系统中,ESXiCPU调度程序在默认情况下将负载分配到所有插槽。这样便可通过最大化可供正在运行的虚拟CPU使用的缓存总量来改善性能。因此,单个SMP虚拟机的虚拟CPU在多个插槽之间分配(除非每个插槽本身还是NUMA节点,在这种情况下,NUMA调度程序会限制虚拟机的所有虚拟CPU都驻留在同一插槽上。)综上所述,对CPU的调度管理功能要求如下:支持基于Intel/AMDX86指令集架构的处理器,支持最新的处理器硬件辅助虚拟化功能;支持处理器多核技术;支持虚拟多路运算,每个虚拟机可以支持多达128个虚拟CPU(vSMP)以满足高负载应用环境的要求;可以灵活分配调度物理服务器上的CPU资源,如可按主频赫兹分配给虚拟机计算时间片;对CPU的调度应能实现虚机按需使用,随用随取,不用即释放,使得计算资源能被充分利用;在虚拟机操作系统支持的前提下,应能支持虚拟机的CPU热添加技术。内存虚拟化当运行一个虚拟机时,vSphere的VMKernel为虚拟机生成一段可编址的连续内存,与普通操作系统提供给上层应用使用的内存具有相同的属性特征。引入内存虚拟化之后,同样的内存地址空间,允许VMkernel同时运行多个虚拟机并保证它们之间使用内存的独立性。VMwarevSphere的三层内存映射结构如下图所示:图:内存三层映射ESXi裸机体系结构的强大功能主要体现在内存优化方面,这些功能可提高内存使用效率。ESXi主机的内存管理支持安全地过量分配内存。分配给每个虚拟机的内存总和可超过主机上安装的物理内存总和。ESXi主机采用了几种有效方法来支持安全的内存过量分配。例如,过量分配率为2:1时,通常只会对性能产生非常小的影响。图:内存的过量分配内存通常是最有限的资源,vSphereVMkernel管理服务器的RAM,可进行多种资源节约操作。通过VMware设计的若干功能,vSphere可支持实现RAM的高效使用和更高的整合率,包括透明页共享、客户机内存回收和内存压缩。实现过量分配的内存管理机制如下:透明页共享TPS(Transparentpagesharing)TPS是VMware独有的一种内存优化方法。VMkernel可检查虚拟机存储的每个内存页面,以便识别相同的页面,并仅存储一个页面副本。图:透明页共享气球内存回收ESXi主机使用一种随VMwareTools提供的内存释放驱动程序,该程序安装在每个虚拟机中。如果内存不足,则VMkernel将选择一个虚拟机并扩充其内存,也就是说,它会通知该虚拟机中的释放驱动程序从客户操作系统要求更多的内存。客户操作系统通过生成内存满足这一需求,然后VMkernel会将释放出的页面分配给其他虚拟机。图:气球内存回收内存压缩当内存过量分配时,内存压缩可以帮助提高虚拟机性能。默认情况下已启用该功能。因此当主机内存过量分配时,ESXi

会在尝试将该页面交换到磁盘前压缩虚拟页面并将其存储在内存中。图:内存压缩主机级SSD交换文件每个虚拟机都包含一个VMkernel交换文件。如果多个虚拟机需要完全使用分配给它们的内存,则ESXi主机将根据为每个虚拟机指定的内存资源设置,按比例将其内存区域交换到本地或网络固态驱动器(SSD)设备中。将虚拟机内存分页移到磁盘中:如非必要,系统不会使用VMkernel交换空间,因为这种方式的性能很差。图:交换文件综上所述,对内存的调度管理功能满足了如下需求:单个虚拟机能够支持扩展到最大4TB的内存;可以灵活分配调度物理服务器上的内存资源,如可按MB大小分配给虚拟机内存资源;对内存的调度应能实现虚机按需使用,随用随取,不用即释放,使得计算资源能被充分利用;具有合理的内存调度机制,能够实现内存的过量使用,支持不同虚拟机中内存相同数据部分的页面共享技术,保障内存资源的充分利用;在虚拟机操作系统支持的前提下,应能支持虚拟机的内存热添加技术;支持内存压缩技术,减少虚拟内存在虚拟机高压力内存状态下交换到磁盘上的概率,从而提升性能;虚拟机性能虚拟机有一个对应的硬件版本的概念,该硬件版本指示虚拟机支持的虚拟硬件特性,如BIOS或EFI、虚拟插槽数、最多CPU数、最大内存配置和其他硬件特征。创建虚拟机所用的vSphere主机的版本决定了虚拟机的硬件版本。最新版本支持的最大虚拟机能力为:128个虚拟CPU、4TB内存、1000000IOPS的磁盘读取速度以及36Gbs以上的网络吞吐量。远远大于典型应用的需求,足以满足关键应用和甚至大数据的需求。这足以满足每天处理20亿次交易的大规模数据库的需求,只需一台虚拟机,即可存储NASDAQ每天20亿笔交易的全部信息关键应用虚拟化下图可见,越来越多的关键应用已经运行在虚拟化平台之上。图:关键应用虚拟化比例虚拟化给关键应用带来了如下的好处:效益:降低应用程序成本敏捷性:提高应用程序服务质自由度:缩短应用程序生命周期图:动态扩展应用程序的资源已适应不同SLA将关键应用部署到虚拟化平台可以使应用程序的资源按需扩展,以满足业务变化和适应不同SLA的需要。支持动态的扩展:热添加容量:CPU和内存热添加利用vMotion迁移到更强大的主机,不影响业务的连续性。在几分钟内就可以调配附加的应用程序实例。实验得出,超过95%以上的应用程序在VMwarevSphere上可达到甚至超过本机性能。VMware虚拟机扩展性能很好128个虚拟CPU,4TB内存开销很小(通常为2%至10%)虚拟化的主机更易于扩展使用所有核心(64个核心或更多)Exchange服务器容量增大一倍性能基准测试设定了标准8,900个并发TPC-C事务SPECweb2005的结果为“优于物理”创世界纪录的TPC-H性能虚拟机迁移vMotion简介vSpherevMotion能在实现零停机和服务连续可用的情况下将正在运行的虚拟机从一台物理服务器实时地迁移到另一台物理服务器上,并且能够完全保证事务的完整性。vMotion是创建动态、自动化并自我优化的数据中心所需的关键促成技术,它的主要优点是:即时迁移正在运行的虚拟机轻松管理和安排实时迁移图:vSpherevMotion即时迁移正在运行的整个虚拟机VMware的客户中,80%都在生产中部署了vMotion技术,此技术利用服务器、存储和网络连接的完全虚拟化,可将正在运行的整个虚拟机从一台物理服务器立即迁移到另一台物理服务器上,同时,虚拟机会保留其网络标识和连接,从而确保实现无缝的迁移过程,管理员可以使用这种热迁移技术来完成如下操作:在零停机、用户毫无察觉的情况下执行实时迁移持续自动优化资源池中的虚拟机在无需安排停机、不中断业务运营的情况下执行硬件维护主动将虚拟机从发生故障或性能不佳的服务器中移出,从而保证虚拟机的运行效率轻松管理和安排实时迁移迁移向导可以使管理员轻松管理和安排虚拟机的迁移操作,它可以:执行任何虚拟机的多个并行迁移,虚拟机可以跨任何受vSphere支持的硬件和存储并运行任何操作系统几秒钟内即可确定虚拟机的最佳放置位置安排迁移在预定时间发生,且无需管理员在场可以实现跨边界迁移和远距离迁移凭借vSphere6.0,VMware通过提供可以跨分布式交换机和vCenterServer的边界实施的新vMotion功能,不断革新工作负载实时迁移技术,如下图所示。图:跨分布式虚拟交换机执行vMotion图:跨vCenterServer执行vMotion此外,现在还可以执行远距离vMotion迁移,其往返时间(RTT)最长仅为100毫秒。远距离vMotion迁移使RTT提高了10倍,有了它,位于纽约和伦敦的数据中心以及位于美国东西海岸的数据中心能够相互之间实时迁移工作负载,如下图所示。图:长距离vMotion实现原理与工作机制使用VMwarevMotion将虚拟机从一台物理服务器实时迁移到另一台物理服务器的过程是通过如下三项基础技术实现的。虚拟机的整个状态由存储在数据存储(如光纤通道或iSCSI存储区域网络(SAN),网络连接存储(NAS)或者物理主机本地存储)上的一组文件封装起来。vSphere虚拟机文件系统(VMFS)允许多个vSphere主机并行访问相同的虚拟机文件。虚拟机的活动内存及精确的执行状态通过高速网络快速传输,从而允许虚拟机立即从在源vSphere主机上运行切换到在目标vSphere主机上运行。vMotion通过在位图中连续跟踪正在进行的内存事务来确保用户察觉不到传输期,一旦整个内存和系统状态已拷贝到目标vSphere主机,vMotion将中止源虚拟机的运行,将位图的内容拷贝到目标vSphere主机,并在目标vSphere主机上恢复虚拟机的运行。整个过程在以太网上需要不到两秒钟的时间。底层vSphere主机将对虚拟机使用的网络进行虚拟化。这样可以确保即使在迁移后也能保留虚拟机网络标识和网络连接。因为使用vMotion进行虚拟机迁移可以保留精确的执行状态、网络标识和活动网络连接,其结果是实现了零停机时间且不中断用户操作。即使两个主机没有任何共用的共享存储,vSphere也能使虚拟机同时更改其数据存储和主机。它不仅能够实现大型数据中心内多个集群之间的虚拟机迁移(这些集群之间可能并没有一组共用的数据存储),还能实现小型环境中虚拟机迁移,而无需访问昂贵的共享存储设备。执行vMotion迁移时,运行中的进程在整个迁移过程中都将保持运行状态。虚拟机的完整状态都会被移到新的主机中,而数据存储仍位于原来的数据存储上。虚拟机的状态信息包括当前的内存内容以及用于定义和标识虚拟机的所有信息。内存内容包括事务数据以及内存中的操作系统和应用程序的数据。状态中存储的信息包括映射到虚拟机硬件元素的所有数据,如BIOS、设备、CPU、以太网卡的MAC地址、芯片集状态、注册表等。图:基于共享存储的vMotion迁移上图中显示的是一种基于共享存储的基本配置,用于说明在将虚拟机A(VMA)从名为esx01的主机迁移到名为esx02的主机时,vMotion是如何工作的(vSphere5.1后,没有共享存储也可进行vMotion操作)。源主机和目标主机都可以访问用于存放虚拟机文件的共享数据存储。用户可以通过“Production”(生产)网络访问虚拟机A。管理员使用迁移向导启动迁移时,vMotion将通过vMotion网络将虚拟机的内存状态从源主机复制到目标主机。当vMotion复制内存时,用户可以继续访问虚拟机,而且还可以更新内存中的页面。vMotion会在源主机的内存位图中保存一份已修改页面的列表,vMotion在将虚拟机的大部分内存从源主机复制到目标主机之后,会将虚拟机置于静默状态,也就是说,它将使虚拟机处于一种无法进行其他任何活动的状态。在此静默期间,vMotion通过传输虚拟机设备状态和包含迁移过程中更改页面列表的内存位图,完成最后切换到目标主机的过程。vMotion会保留源虚拟机,以便在迁移过程中出现故障时将虚拟机返回到源主机。vMotion在将源主机上的虚拟机置于静默状态后,会立即对目标主机上的虚拟机进行初始化。反向ARP请求会告知子网,虚拟机的MAC地址现在位于新的交换机端口中,此时,用户访问的是目标主机上的虚拟机,而非源主机上的虚拟机。当用户访问目标主机上的虚拟机时,vMotion会将内存位图中标识的剩余内存从源主机复制到目标主机,如果某个应用在此期间试图读写任何已修改的内存,相应的页面将从源主机获取。在将所有剩余内存都复制到目标主机后,目标主机将通知源主机迁移已完成。此时,vMotion将从源主机中彻底删除虚拟机。vSphere允许将vMotion和StoragevMotion组合到一个过程中。这种组合式迁移通过网络将虚拟机内存及其磁盘同时复制到目标主机。发送完所有内存和磁盘数据后,目标虚拟机将开始运行,同时源虚拟机将被关闭。这意味着,管理员可以在主机间、集群间或数据中心间实时迁移整个虚拟机而不会造成中断,所涉及的主机间也不需要有共享存储。向大数据扩展VMware正努力推进vSphere为基础的数据中心和虚拟化平台,使其能够支持ApcheHadoop的工作负载,帮助企业在一个通用的虚拟化基础架构上部署、运行和管理Hadoop集群以及周边的核心应用,以发掘大数据的价值,为业务决策提供真实的依据。vSphere计算平台内置的敏捷性、弹性、负载均衡、可靠性和安全性,为大数据拓展铺平了道路。敏捷性使用vSphere虚拟化Hadoop可以实现更高级别的敏捷性,有助于部署、运行和管理Hadoop集群,同时保持与物理部署不相上下的系统性能。通过一个易于使用的用户界面,企业只需单击相应按钮即可部署资源,以适应不断变化的业务需求。弹性扩展通过将数据与计算分离开来,以实现弹性扩展,同时保持数据的持久性,可以大幅扩展Hadoop集群。通过将计算和数据放置在单独的虚拟机中,管理员可以使用/停用无状态计算节点来适应快速变化的业务需求,同时保持数据的持久性和安全性。智能扩展能力使企业能够提高资源利用率和灵活性,通过对弹性Hadoop环境中的资源进行池化来适应突发性工作负载。混合工作负载功能不再需要为Hadoop集群购买专用硬件。通过对计算和存储资源进行池化,企业可以通过创建多个运行于一个物理集群上的分布式工作负载,重新分配未使用的资源,用于运行其他工作负载。这使企业能够创建真正的多租户机制,以使多种不同类型的应用同时运行在一个物理集群上。可靠性和安全性利用vSphere为Hadoop工作负载提供的在企业中广泛接受的高可用性解决方案,同时通过虚拟机级隔离,保证数据始终受到保护。使用vSphere虚拟化Hadoop集群使企业能够放心地运行利用率极高的高性能集群。CPU和内存的热添加和磁盘的热扩展功能描述热添加使管理员可以在虚拟机需要时为其增加RAM和CPU资源,同时不会中断虚拟机的使用。这样可减少停机时间并确保虚拟机中的应用始终拥有所需的资源。即使制定了最好的规划,应用所需的资源有时还是超出预期,Sphere支持热添加vCPU和内存以及热添加/热扩展虚拟磁盘,从而实现虚拟机资源的动态添加。通过在不中断应用或终端用户的情况下为虚拟机调配添加vCPU,内存和硬盘,热添加和热扩展能力允许IT为应用添加可用资源。所有虚拟机都支持虚拟磁盘的热添加/热扩展。所有在物理服务器上本地支持热添加vCPU/内存的客户操作系统,都支持虚拟机CPU/内存的热添加。工作原理当虚拟机的电源已打开,且已启用CPU热添加时,可以将虚拟CPU热添加到正在运行的虚拟机。如图所示,在启用CPU热插拔且虚拟机正在运行的情况下,可以从虚拟插槽数下拉菜单中选择要添加的插槽数。每个插槽的内核数下拉菜单不可用,保留值为2。如果选择3个虚拟插槽,则可以向1个插槽添加2个内核,这样虚拟机便会具有6个虚拟CPU。分布式资源调度DRS功能描述vSphereDistributedResourceScheduler(DRS)可以跨vSphere服务器持续地监视利用率,并可根据业务需求在虚拟机之间智能分配可用资源。DRS能够从以下三个层面帮助客户调度资源:根据业务优先级动态地调整资源平衡计算容量降低数据中心的能耗根据业务需求调整资源DRS将vSphere主机资源聚合到集群中,并通过监控利用率并持续优化虚拟机跨vSphere主机的分发,将这些资源动态自动分发到各虚拟机中。将IT资源动态分配给优先级最高的应用为业务部门提供专用的IT基础架构,同时仍可通过资源池化获得更高的硬件利用率使业务部门能够在自己的资源池内创建和管理虚拟机平衡计算容量DRS不间断地平衡资源池内的计算容量,以提供物理基础架构所不能提供的性能、可扩展性和可用性级别。提高服务级别并确保每个虚拟机能随时访问相应资源通过在不中断系统的情况下重新分发虚拟机,轻松部署新容量自动将所有虚拟机迁出物理服务器,以进行无停机的计划内服务器维护允许系统管理员监控和有效管理更多的IT基础架构,提高管理员的工作效率DRS使用户可以跨集群中的所有主机创建资源池,并应用集群级别的资源分配策略。除资源池和资源分配策略之外,DRS还提供以下资源管理功能:初始放置当集群中的某个虚拟机启动时,DRS会将其放在一个适当的主机上,或者根据选择的自动化级别生成放置建议。负载平衡DRS可以跨集群中的vSphere主机分配虚拟机工作负载。DRS持续监控活动工作负载和可用资源,并执行或建议执行虚拟机迁移,以最大限度提高工作负载性能。集群维护模式DRS可以根据当前集群情况确定可以同时进入维护模式的最佳主机数量,从而加快VMwareUpdateManager修补过程。限制更正在主机出故障或主机进入维护或待机模式后,DRS可以根据需要在vSphere主机间重新分配虚拟机,以便符合用户自定义的关联性和反关联性规则。关联性、反关联性规则:虚拟机的关联性规则用于指定应将选定的虚拟机放置在相同主机上(关联性)还是放在不同主机上(反关联性)。关联性规则用于系统性能会对虚拟机之间的通信能力产生极大影响的多虚拟机系统。反关联性规则用于负载平衡或要求高可用性的多虚拟机系统。工作原理VMwareDRS可将物理主机的群集作为单个计算资源进行管理。可以将虚拟机分配到群集,DRS会找到运行该虚拟机的相应主机。DRS放置虚拟机的方式可确保群集中的负载保持平衡,并强制执行群集范围内的资源分配策略(例如,预留、优先级和限制)。启动虚拟机时,DRS在主机上执行虚拟机的初始放置。当群集条件更改(例如,负载和可用资源)时,DRS可根据需要将虚拟机迁移(使用VMotion)到其他主机。向群集添加新的物理服务器时,借助DRS,虚拟机能够立即自动利用新资源,因为它负责分发运行的虚拟机。可将DRS配置为自动执行虚拟机放置、虚拟机迁移和主机电源操作,或为数据中心管理员提供可用于评估并对其进行手动操作的建议。图:DRS图例分布式电源管理DPM功能描述分布式电源管理vSphereDistributedPowerManagement(DPM)可持续优化数据中心的能耗。当DRS集群中的虚拟机所需资源较少时(例如在夜间和周末),DPM会将工作负载整合到较少的服务器上,并关闭其余服务器以减少能耗。当虚拟机资源需求增加时,DPM会让关闭的主机恢复联机,以确保达到服务级别要求。在利用率较低的时段,最多可使数据中心日常的电力和散热成本降低20%自动管理数据中心的能效工作原理启用DPM后,系统会将集群级和主机级的容量与集群中运行的虚拟机的需求做比较。如果正在运行的虚拟机的资源需求可由集群中的一部分主机满足,DPM会将虚拟机迁移到这部分主机上,然后关闭不需要的主机。资源需求增加时,DPM会重新启动这些已关闭的主机并将虚拟机迁移到这些主机上。DPM执行的这一合理的动态集群规模调整操作不但降低了集群的能耗,而且不会影响虚拟机性能或可用性,集群能耗的降低也节约了成本。此外,还可以将DPM设置为仅就开机/关机操作提出建议。图:能源优化DPM图例网络和安全功能特性vSphere向主机和虚拟机提供了四种类型的网络虚拟化服务:该平台可将单台主机内的虚拟机相互关联起来;将虚拟机连接到物理网络;还可将VMkernel服务(例如NFS、iSCSI和vSpherevMotion)加入物理网络;最后,它还向负责为vSphere主机运行管理服务的管理接口提供网络连接。vSphere平台包含两个网络连接逻辑构造块:虚拟以太网适配器和虚拟交换机。虚拟以太网适配器可以为虚拟机配置一个或多个虚拟以太网适配器,并虚拟机硬件呈现给客户操作系统。客户操作系统将虚拟适配器视为通用网卡,因而将采用标准驱动程序。此外还有若干专用的虚拟以太网适配器可用来在虚拟机环境中实现优化的性能,VMtools中为它们提供了相应的操作系统驱动程序。虚拟交换机通过虚拟交换机,同一vSphere主机上的虚拟机可以使用与物理交换机相同的协议相互通信。虚拟交换机模拟传统物理以太网络交换机,在数据链路层转发数据帧。一个vSphere主机可以有多个虚拟交换机,每个交换机分别提供1,000多个内部虚拟端口供虚拟机使用。vSphere平台支持vSphere标准交换机和vSphereDistributedSwitch;前者是主机级别的虚拟交换机配置,后者是跨多个关联主机的单一虚拟交换机。图:标准虚拟交换机vSphere是唯一一款具有丰富虚拟网络连接网络组件的解决方案,它使数据中心内的虚拟机网络连接就像在物理环境中一样轻松、简单。此外,它还具有一系列在物理环境中由于诸多限制而根本无法实现的新功能。虚拟环境提供了与物理环境类似的网络组件,例如虚拟网络接口卡、vSphereDistributedSwitch(VDS)、分布式端口组、vSphereStandardSwitch(VSS)和端口组。与物理机类似,每个虚拟机都有自己的虚拟网卡,也称作vNIC。操作系统和应用程序通过标准设备驱动程序或经VMware优化的设备驱动程序与虚拟网卡进行通信,此时虚拟网卡就像物理网卡。对于外部环境而言,虚拟网卡具有自己的MAC地址以及一个或多个IP地址,和物理网卡完全一样,它也能对标准以太网协议做出响应。事实上,仅当外部代理检查MAC地址中6个字节的供应商标识符时,才能确定自身正在与虚拟机通信。虚拟交换机(或vSwitch)的工作方式与第二层物理交换机的工作方式类似。使用VSS,每个主机均拥有自身的虚拟交换机配置,在VDS中,单个虚拟交换机配置则跨多个主机。vSphere标准交换机(VSS)VSS概念vSphere标准交换机的运行方式与物理以太网交换机十分相似。它检测与其虚拟端口进行逻辑连接的虚拟机,并使用该信息向正确的虚拟机转发流量。可使用物理以太网适配器(也称为上行链路适配器)将虚拟网络连接至物理网络,以将vSphere标准交换机连接到物理交换机。此类型的连接类似于将物理交换机连接在一起以创建较大型的网络。即使vSphere标准交换机的运行方式与物理交换机十分相似,但它不具备物理交换机所拥有的一些高级功能。VSS架构和网络特性端口组为每个端口指定了诸如宽带限制和VLAN标记策略之类的端口配置选项。网络服务通过端口组连接到标准交换机。端口组定义通过交换机连接网络的方式。通常,单个标准交换机与一个或多个端口组关联。端口组将多个端口聚合在一个公共配置下,并为连接到带标记网络的虚拟机提供稳定的定位点。每个端口组都由一个对于当前主机保持唯一的网络标签来标识。使用网络标签,可以使虚拟机配置可在主机间移植。对于数据中心中物理连接到同一网络的所有端口组(即每组都可以接收其他组的广播),会赋予同一标签。反过来,如果两个端口组无法接收对方的广播,则会赋予不同的标签。图:vSphere标准交换机网络vSphere分布式交换机(VDS)借助vSphereDistributedSwitch(VDS),管理员可以从一个集中界面为整个数据中心设置虚拟机访问交换,从而简化了虚拟机网络连接。得益于此,管理员可以轻松地跨多个主机和集群调配、管理和监控虚拟网络连接。VDS还提供了丰富的监控和故障排除功能,并为高级vSphere网络连接功能提供支持。VDS概念vSphereDistributedSwitch在数据中心上的所有关联主机之间充当单一交换机。这使得虚拟机可在跨多个主机进行迁移时确保其网络配置保持一致。分布式端口是连接到主机的VMkernel或虚拟机的网络适配器的vSphereDistributedSwitch上的一个端口。分布式端口组是与vSphereDistributedSwitch相关联的端口组,用于指定各成员端口的端口配置选项。分布式端口组可定义通过vSphereDistributedSwitch连接到网络的方式。VDS架构vSphereDistributedSwitch就像是所有关联主机之间的一个交换机。这使管理员能够设置跨所有成员主机的网络配置,并使得虚拟机可在跨多个主机进行迁移时保持其网络配置一致。图:vSphereDistributedSwitch网络与vSphere标准交换机一样,每个vSphereDistributedSwitch也是虚拟机可以使用的网络集线器。分布式交换机可以在虚拟机之间进行内部流量转发或通过连接到物理以太网适配器(也称为上行链路适配器)链接到外部网络。还可向每个分布式交换机分配一个或多个分布式端口组。分布式端口组将多个端口分组到一个公共配置下,并为连接到带标记网络的虚拟机提供稳定的定位点。每个分布式端口组都由一个对于当前数据中心唯一的网络标签来标识。VLANID是可选的,它用于将端口组流量限制在物理网络内的一个逻辑以太网网段中。利用网络资源池,可以按网络流量的类型来管理网络流量。功能摘要vSphereDistributedSwitch(VDS)提供了一个集中式界面,通过此界面,管理员可以为整个数据中心配置、监控和管理虚拟机访问交换。VDS的功能特性如下:简化虚拟机的网络配置增强的网络监控和故障排除功能支持高级vSphere网络连接功能图:vSphereDistributedSwitch图解简化虚拟机的网络配置利用以下VDS功能特性,可以简化跨多个主机调配、管理和监控虚拟网络连接的过程:集中控制虚拟交换机端口配置、端口组命名、筛选器设置等链路聚合控制协议(LACP),用于协商并自动配置vSphere主机与访问层物理交换机之间的链路聚合网络运行状况检查功能,用于验证vSphere到物理网络的配置增强的网络监控和故障排除功能VDS提供了监控和故障排除功能:支持使用RSPAN和ERSPAN协议进行远程网络分析IPFIXNetflow版本10支持SNMPv3用于修补和更新网络配置的回滚和恢复功能支持对虚拟网络连接配置进行备份和恢复的模板基于网络的核心转储(网络转储),无需本地存储即可调试主机支持高级vSphere网络连接功能VDS为vSphere环境中的许多网络连接功能提供了构造块:为NIOC提供了核心要素在虚拟机跨多个主机移动时保持其网络运行时状态,支持嵌入式监控和集中式防火墙服务支持第三方虚拟交换机扩展,如CiscoNexus1000V和IBM5000v虚拟交换机支持单根I/O虚拟化(SR-IOV),以实现低延迟和高I/O工作负载包含BPDU筛选器,可防止虚拟机将BPDU发送到物理交换机详细技术信息VDS扩展了虚拟网络的特性和功能,同时简化了调配以及日常的配置、监控和管理过程。vSphere网络交换机可以划分为两个逻辑部分:数据板和管理板。数据板执行数据包交换、筛选、标记等任务。管理板是一个控制结构,供操作员用来配置数据板的功能。每个vSphere标准交换机(VSS)均既包含数据板又包含管理板,各交换机由管理员逐一配置和维护。VDS将网络作为一个聚合资源进行处理,从而减轻了这种管理负担。各个主机级别的虚拟交换机被抽象处理成一个在数据中心级别上横跨多个主机的大型VDS。在这种设计中,数据板依然在每个VDS的本地,但管理板为集中式的。每个vCenterServer实例最多可以支持128个VDS;每个VDS最多可以管理500个主机。其他详细信息:分布式虚拟端口组(DV端口组)-为每个成员端口指定端口配置选项的端口组分布式虚拟上行链路(dvUplink)-dvUplink为每个主机上的物理网卡(vmnic)提供一个抽象级别专用VLAN(PVLAN)-由于支持PVLAN,因此与采用此技术的现有网络环境有更广泛的兼容性NetworkvMotion-通过跟踪每个虚拟机在VDS上从一个主机移动到另一主机时的网络连接状态(例如计数器和端口统计信息),可以简化监控和故障排除双向流量调整-将流量调整策略应用到DV端口组定义,这些策略通过平均带宽、峰值带宽和突发规模加以定义第三方虚拟交换机支持-具备交换机可延展性,因而可集成第三方控制板、数据板和用户界面,包括CiscoNexus1000v和IBM5000v网络I/O控制(NIOC)利用NIOC可以为每个虚拟机设置规则和策略,以确保关键业务应用得以优先访问网络。NIOC会持续不断地监控网络负载,发现拥塞时,它会为最重要的应用动态分配可用资源,提升和保障它们的服务级别。功能摘要使用NIOC可在虚拟机级别配置规则和策略,并确保始终有I/O资源可供关键业务应用使用。NIOC会对网络进行监控。一旦发现拥塞,它就会自动向管理员的业务规则所定义的最高优先级应用程序转移资源。得益于NIOC,管理员可以达到更高的工作效率,企业可以跨更多工作负载扩展虚拟化,企业的基础架构也会拥有更加广泛的用途。vSphere6.0的NIOCVersion3可以在虚拟机的虚拟网卡或整个分布式端口组上预留带宽,这使得其他虚拟机或者多租户环境中的租户不会影响共享同样上行链路的虚拟机或者租户的SLA。图:NIOC体系结构图解达到并提高关键业务应用的服务级别减少管理员花在亲自开展性能管理工作上的时间,从而提高工作效率。通过各资源的802.1标记在虚拟与物理基础架构服务质量间建立联系。设置、查看和监控网络资源份额和限制。优化工作负载虚拟化更多工作负载,包括I/O密集型关键业务应用。确保云环境中的每个租户都能获得为其分配的I/O资源份额。在整个集群范围内设置并强制执行网络优先级(每个虚拟机的优先级)。获得敏捷、灵活的基础架构减少单个虚拟机或应用所需的专用网络接口。实现多租户部署。详细技术信息如今的很多虚拟化数据中心都在转而使用10千兆位以太网(10GbE)网络适配器,而不是配置多张1GB网卡。10GbE可以提供多个流量共用同一条物理链路所需的带宽。10GbE适配器可以简化网络连接基础架构,弥补1GB适配器存在的其他缺陷,例如带宽不足和利用率较低。尽管10GbE拥有这些优势,仍有必要确保各个流量可以获得充足的带宽。利用NIOC,多种不同的工作负载可以共存于同一网络连接管道中,这充分发挥了10GbE的优势,从而满足了这一需求。对于CPU和内存,NIOC也围绕着与这些类似的资源池来发挥作用。它赋予vSphere管理员以控制权,确保在多种类型的流量争用相同物理网络资源时能够实现可预测的网络性能。仅支持将NIOC与vSphereDistributedSwitch(VDS)一起使用。NIOC为管理员提供以下功能:隔离-确保流量隔离,这样给定流量就绝不会在所有流量中占主导地位,从而可防止数据丢失。共享-允许采用灵活的网络连接容量划分机制来帮助用户处理多个流量争用相同资源时的情况。限制-对VDS的整组dvUplink强制实施流量带宽限制。基于负载的分组-高效地使用VDS的一组dvUplink来提供网络连接容量。IEEE802.1p标记-对从vSphere主机传出的出站数据包进行标记,以便物理网络资源能够正确处理这些数据包。NIOC将流量划分为多个预定义的资源池:vMotioniSCSIFT日志记录管理网络文件系统(NFS)虚拟机流量vSphereReplication流量用户定义的流量无代理终端安全防护概览终端安全管理是一项费时费力的工作,终端分布广泛,种类繁多,难于管控。传统的终端安全防护手段需要在终端上部署代理程序,保证这些代理始终有效且能得到及时更新,是一项充满挑战的工作,很多企业为此不得不应用终端管理和网络准入控制等解决方案来保证终端的可控。虚拟化和云计算时代的到来,彻底的改变了这种局面。虚拟基础架构为企业计算环境带来了新的管控手段,使无代理安全防护成为可能。图:无代理终端安全防护vShieldEndpoint彻底革新了大家固有的如何保护客户虚拟机免受病毒和恶意软件攻击的观念。该解决方案优化了防病毒及其他端点安全保护功能,可以更高效地工作于VMwarevSphere和VMwareView环境。vShieldEndpoint通过将病毒扫描活动从各

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论