版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
数据中心的定义一说到数据中心,人们经常会想到一个高科技IT环境,大小和足球场差不多,其中装满了来自许多厂商的设备,并拥有充足的空调系统,即使伦敦动物园的企鹅,也能一直保持好心情。事实上,数据中心一词适用于为机柜或机架专门分配的任何空间,其中装有网络设备,这些设备要么为其他网络设备提供效劳(一般通过通用布线传送),要么从外部电信网络中获得效劳(如程控交换机、光纤或来自ISP的ADSL连接),要么为外部网络提供效劳(典型代表是虚拟主机设施)。我们一般还会认为数据中心是一种多客户端环境,由第三方提供环境维护效劳。但是,数据中心同样适用于最终用户内部网络中的主通信间。换句话说,数据中心可以是效劳器室,可以是设备间,也可以是并放设施。对数据中心的关注程度不断提高现代企业高度依赖这些IT设施,必需特别注意这些设施,保证创立安放设备的环境,支持连续无故障操作。近几年来,托管数据中心正在不断增长。尽管这可能是为节约资金而进行的外包活动,但我们认为,这更可能是网络所有者日益认识到自己的业务与IT的相关性,但又缺乏预算或跨领域的专业知识,因而不能内部满足这些需求。这要求协调各种技术效劳,包括电力、HVAC、网络、火灾检测及抑制和广域电信效劳供货商。本文中考察的技术和概念同样适用于单一客户环境和多个客户环境,我们可以很容易看到,为什么多个客户环境给资源有限、而又非常忙的网络管理员提供了极具吸引力的解决方案。适用的标准电信行业协议已经出版了一项新的标准:数据中心电信设施标准TIA-942。这一标准的目的是为数据中心或机房的设计和安装提供要求和指导准那么。其面向的用户是需要全面了解数据中心设计的设计人员,包括设施规划、布线系统和网络设计。通过提供跨越不同设计领域的信息,并促进设计时间与建设阶段的协作,TIA-942使得设计人员能够在大楼开发流程的早期考虑数据中心,从而有利于确定建筑结构。尽管EN50173Part5正在致力填补这一空白,但目前在ISO/IEC或CENELEC领域中还没有专门编写的监管布线实现的标准。EN50173Part5使用人们熟悉的光纤和平衡铜缆介质,并采用层级方法,与BS(EN)50173Part2“办公环境通用布线标准”类似。在数据中心内部,我们将看到主配线架(可能容纳一台核心交换机),支持区域配线架(可能是工作组交换机或支持机架过道的交连),连接到设备埠上(预计将位于设备机架内部)。把主配线架连接到水平布线区或区域布线区的电缆被视为主干电缆的一局部。主干最可能使用的传输介质是光纤电缆。尽管可以敷设传统室内光纤电缆,但新的概念已经演变,简化了布线过程。其中一个实例是Molex提供的ModLink系列光纤产品,通过这些产品,对主干进行重新配置和重新选路变得象“即插即用”一样简便。数据中心内部安装的很大一局部布线仍将是UTP或FTP电缆。这将作为水平电缆使用。从数据中心运营要求的高带宽角度看,应该安装高性能六类系统,如MolexPowerCat6系列产品。另外还将增加一个外部网络接口及相关布线,用来连接外部环境和效劳供货商网络。这些对合格的安装组织都不应该成问题,在文档出版后必然会成为许多文章进一步探讨的主题。网络运营商面临的主要问题不管数据中心的大小如何,所有者、运营商和租用者都首先要注意三点,即灵活性、访问能力和可靠性。灵活性灵活的根底设施可以容纳各种类型的设备,并适应TIA-942提供的数据中心层级布线方法。在客户拥有和运营的数据中心中,对部署的设备的控制能力通常会更强;其本身非常灵活,以适应未来技术开展或IT战略变化。而在并放或虚拟主机设施中,灵活性那么是日常运营的前提条件。客户设备会在通知之后不久就到达现场,要求立即连接和投入运行,以使中断时间到达最小,保证满足效劳水平协议。在数据中心内部部署各种设备的要求可能会影响大楼的物理单元。可能需要考虑地板的承重极限,如地板是结构化地板,还是相连的任何活地板系统。普通效劳器机架不可能带来任何问题,但可能需要专门考虑大型不间断电源和存储局域网络竖井。很明显,最好在大楼设计时间、而不是在准备入住阶段完成这些工作。访问能力访问能力无疑具有重要意义。设备不能自己进行安装和配置,而需要相应人员接触设备,安排完成这些工作。这对确定数据中心的规模具有重大影响,因为技术人员工作和操纵设备需要空间。TIA/EIA-569A和BS(EN)50174都提供了某些帮助,建议在机柜周围有米的间隙。在理想条件下,确定数据中心的规模只需确定有多少个机架,然后在整体外观尺寸上加上要求的间隙即可。接触设备还需要考虑门的大小、是否靠近电梯、能否进入装货舱。许多安装人员会遇到这样的问题,即800mm机柜过不去2’6”的门。简单地指定两扇门,有助于解决这类问题,这在数据中心设计时间要容易得多、廉价得多,而不是在设备安装时再指定!在已经确定数据中心内的设备对业务具有关键意义后,还需要考虑设备故障导致的非预计的中断时间。很明显在发生故障时,要求调度技术人员,因此通常要遵守严格的平安政策,安排进入现场。很明显,还要求接触设备和相关布线,这可能需要翻开机柜和活地板格。必需知道,尽管这可以完成维修工作,但它也把其他设备暴露给技术人员(直接暴露或通过共享布线设施暴露),因此不能无视人为错误的威胁。必须有相应的程序,以使这一危险到达最小。可靠性网络可用性对数据中心的运营至关重要。这进一步增强了数据中心存在的必要性。但是要认识到,访问能力和灵活性需求可能会给可靠性带来负面效应。最大的访问能力可能会导致缺乏对现场人员的控制,使得数据中心很容易发生人为错误。最大的灵活性可能要求电路中有多条连接,以便能够进行重新配置。有更多的连接会带来更多的故障点。似乎必需掌握好一个平衡尺度,必需找到一种方法,根据各组成局部量化数据中心中可能的可靠性。美国运行时间协会描述的四个层就是这样一个体系,值得我们进一步进行考察。他们认识到实现99.999%(5个9)的可靠性是不切实际的,要求的本钱极高,因此他们提出了四个更加容易实现的等级,具体如下:o
第一级–一条电源和冷却分配路径,没有冗余器件,99.671%的可用性。
o
第二级–一条电源和冷却分配路径,有冗余器件,99.741%的可用性。
o
第三级–多条电源和冷却分配路径,但只有一条路径可用,有冗余器件,可以并发维护,99.982%的可用性。
o
第四级–多条电源和冷却分配路径,有冗余器件,容错,99.995%的可用性。可以很容易看到,第四级方法提供的弹性要高于第一级,预计其非预计中断时间每年不到27分钟,而第一级那么接近29个小时,当然第四级的本钱要高得多。另外值得一提的是,在N+1配置中,在第四级数据中心发生故障时,可以实现第二级的可靠性。设计成N+2或N+N可以解决这个问题,但其本钱一般不允许这样做。加速修复比拟适宜,这也正是智慧根底设施管理(IIM)系统具有重要意义的原因所在。监测数据流程量的网络管理工具在市场上已经出现了许多年,而布线那么一直是一个盲区。现在,我们不仅能够检测到未经授权断开连接,还可以把它与数据中心内的物理地点关联起来,并通知相应的效劳热线发生故障,从而可以安排补救措施。相关的楼宇效劳在考察数据中心内部要求的其他效劳前,需要指出的是数据中心不应该提供哪些效劳。除数据中心中使用的效劳外,不应有任何其他效劳穿越数据中心,从而降低发生水灾或污染设备环境的危险。尽管数据中心也要求门禁、闭路电视和照明等效劳,但关键效劳是空调、电力、火灾检测及抑制。空调控制数据中心温度的目标是冷却安装在机柜中的设备,使其保持在工作温度范围内,而不是冷却机柜外面的空气。密闭机柜会阻碍冷空气自由流动,积聚成热区,因此要求某些明智的设计来克服这个问题。通常采用热过道和冷过道的概念。机柜的相邻舱配置设备,其面向位于之间过道的冷空气出口。然后设备风扇把冷空气吹出机架。这作为热空气吹到反面,然后在整个流程中形成对流,从而形成冷热过道交替。其效果取决于影响空气流动的特定设备。开放机架可以帮助空气流动,因为风扇托盘可以强制空气流通。在理想情况下,任何HVAC系统还应创造略微正向的压力,帮助减少尘土和其他杂质进入房间。电力任何数据中心都要求充足的市电分配。确切的电力要求取决于大量的因素,而不只是安装的网络设备的耗电量。必需考虑照明。HVAC设施可能会带来明显的负荷。即使处于备用状态下,UPS仍会产生负荷。数据中心内部的弹性水平也有影响。简单地说,作为备份提供的设备越多(不管是网络设备还是备用HVAC和照明),要求的电力会越多,运行本钱也就越高。在设计配电系统时,为每个机柜提供两条馈电并不少见。这可能会来自不同的配电板,甚至来自能源公司不同的配电设施。还应提供多个通用的电源插座,以满足偶尔使用的电开工具或真空吸尘器。这些插座应清楚地贴上标签,不能用来为机架安装的设备供电。不注意而断开连接的风险非常高,是不能接受的。火灾检测及抑制尽管消防机构很少要求,但在安放贵重设备的地方最好使用没有腐蚀性的气体抑制系统。在使用比拟传统的喷淋系统时,最好使用干管系统,其中POC(燃烧产物)检测器必需准备好填装管道,另外在热量积聚到一定程度时单独的喷淋头要突然喷水。这可以很好地防止系统意外泄漏,进而导致发生水灾。如果安装湿管系统,至少应该考虑喷头周围的线箱。总结在设计数据中心时,明确要求进行认真设计。尽管可能会实现几乎整体网络可用性,但其所要支付的价格会非常高。为到达可以接受的可用性,从一开始就管理客户的预期至关重要。而最终要问的问题是:“您的数据到底有多珍贵?”数据中心设施的设计谋略摘要Cisco®企业数据中心网络体系结构是CiscoSystems®公司为满足IT环境的业务需求提供灵活支持而设计的一种集成化和具有适用性的网络体系结构,它在很大程度上依靠根底物理设施来提供保证IT环境完美、可靠运行的电源设备、冷却设备、物理机架、布线、物理平安和防火措施。本白皮书讲述了支持新兴的虚拟运算环境的各项设施的设计谋略。简介数据中心的管理员们如今更趋向于考虑如何让IT更好地为商业策略效劳、提高运营效率和为持续开展提供技术平台这些问题。Cisco企业数据中心网络体系结构是一种集成化和具有适用性的网络体系结构,它在支持新兴的面向效劳的架构、根底设施虚拟化以及按需计算的同时,也支持IT组织对〔数据〕整合、业务持续性和平安的直接需求。这种体系结构让IT管理者可以配备对其目前商业目标提供最正确支持的技术,并且可以高效地引入未来的效劳和应用。Cisco企业数据中心网络体系结构的关键局部之一是让IT环境得以运转的物理设施——电源设备、冷却设备、物理支架、布线、物理平安和防火措施。业界的一些企业,包括APC,用术语“网络关键物理根底设施”〔NCPI〕来概括这套设施:
•
电源设备——供电根底设施包括楼宇电力供给入口、主配电设备、发电机〔组〕、不间断电源〔UPS〕供给系统和电池、过电压保护、变压器、配电盘,以及断路器。
•
冷却设备——数据中心的散热系统,包括机房专用空调机组〔CRAC〕及其相关子系统〔制冷装置、冷却塔、冷凝器、风道(ductwork)、泵组、管道系统(piping)〕以及机架级或行级制冷设备或空气分配设备。
•
布线——数据线缆用不同的材料和连接器来优化系统性能和灵活性,而系统管理那么为长距离通信保持这种优化。关于电源线,在本白皮书中也有说明。
•
机架和物理结构——这些要素中最重要的是放置IT设备的机架结构、房间的物理要素〔如:吊顶和活动地板〕,以及布线通道。
•
管理系统——要让系统可靠地运行,对所有物理组件进行监控是很重要的。管理系统包括各种系统,如:楼宇管理系统、网络管理系统、网元管理器以及其他监控软件和硬件。
•
接地——这包括普通接地网络和保护数据中心设备不被静电放电损坏的接地设备。
•
物理平安和防火措施——这里所说的子系统是指室内和机架级的物理平安设备以及火灾隐患检测/排除系统。如果按照传统方法将以上要素单独落实,得到的将是一个复杂而且无法估量的系统,其组件并不能协同工作。对这些组件的管理工作也变得冗杂,因为必须将各种不同的管理系统拼凑到一起来,即使这样可能都无法为可靠关键业务操作提供必需的完全监控。然而,如果这些要素被整合到一个由全局系统管理系统支持的完善的端对端系统中,该系统将会提供支持Cisco企业数据中心网络体系结构所需的必要根底设施。数据中心的供电问题和不间断电源(UPS)问题如今的IT系统出现了一些在三十年前研发现代数据中心供电原理时无法预见到的新供电问题。专家提出了五个解决目前供电系统问题的根本要求,供电系统应该:1.是一个模块化的、能方便开展并适应不断变化的供电需求的供电系统。系统需求很难预测,而且大多数系统都过于庞大。研究说明,现在的标准数据中心利用率还不到其根底设施实际能力的50%。产业前景预测也显示了不断攀升且不可预计的功率密度需求,而新的数据中心必须符合至少未来10年内的需求。2.采用能减少或简化规划和定制设计的一种预先设计组件的标准供电解决方案,以加快工作进度。传统供电系统的规划和独立设计需要6至12个月,与大多数企业的规划期比起来过于漫长。设计消耗时间、价格昂贵且是后续质量问题的根源之一,这让后期安装的扩展和修改变得非常困难。3.是一个具有防错功能且能减少单点故障以增加系统可用性的供电系统。根据UptimeInstitute提供的信息,40%的宕机时间都是人为故障造成的。另外,传统不间断电源供给系统使IT设备负载过高,以至于需要使用更多断路器来模拟单点故障。4.是一个提供机架级和电源级供电监控的管理系统。效劳器间的动态功率变化以及机架级的持续变化、调整的负载,会引起意外的超负荷和机架过热情况。随着每个机架的功率密度不断提高,这些问题只会越来越严重。5.是一个使用标准化、可热交换和用户耐用的模块以减少平均修复时间〔MTTR〕的供电系统。在传统系统中,没有随时可用的备用部件,诊断和修复都需要进入系统操作。这些系统太复杂了,所以技术效劳人员和维护人员往往会在操作和维护系统时犯错或中断放弃。为满足以上要求,必须对现在的设计思路进行一些改良。供电设备的技术和设计,以及如何测定数据中心的供电情况,都需要改良。对供电系统组件的集成工作应从目前惯用的独立系统设计的设计思路转变为采用预先设计甚至预先生产的解决方案。UPS系统设计配置从楼宇的市电电源配电给数据中心的临界载荷是UPS系统设计的五种配置之一。为特定应用选择哪一种配置,取决于可用性需求、风险承受能力、数据中心负载类型、预算以及现有供电根底设施。很多因素都会影响系统的可用性,包括人为故障、组件可靠性、维护安排和修复时间。在很大程度上来说,因素对整个系统可用性的影响,取决于该系统选择哪种配置。表1列出了五种配置以及其相应的可用性排名、“等级”和本钱。表1.UPS配置可用性与本钱UPS配置描述可用性排名等级*每套机架所需费用〔US$〕容量(N)单一UPS模块或一组并联UPS模块1=最低等级Ⅰ13,500至18,000美元串联冗余正常情况下由一个主要的UPS模块为负载供电;一个辅助的〔“独立”〕UPS为主UPS模块的静态旁路供电2等级Ⅱ18,000至24,000美元并联冗余〔N+1〕多个并联的容量相同的UPS模块共享一条输出总线3分布式冗余三个或多个具有独立输入和输出电路的UPS模块4等级Ⅲ24,000至30,000美元双总线系统(2N,2N+1)两条完全独立的供电线路,每条都可以独立支持负载5=最高等级Ⅳ36,000至42,000美元*“等级”根据由UptimeInstitute(upsite)定义的特定目标来划分系统可用性。计算数据中心的功率需求除了选择UPS配置方案,计算数据中心的电力需求也是必要的。这就需要了解制冷系统、UPS系统和IT负载所需的电量。虽然这些元素的功率需求可能实际上相差很多,但是如果已经确定了已规划IT负载的功率需求,就可以准确估计出这些元素的功率需求。除了估计电力线路的容量,这种计算还可以用于估计备用发电机系统的功率输出容量。表2是一张数据中心功率需求的合理估算的数据表。一旦确定了电力线路的容量大小,就可以在有资质的设备系统提供商〔如果是大型数据中心,那么是咨询工程师〕的帮助下,开始规划工作。表2.数据中心功率需求数据表工程所需数据计算合计〔kW〕功率需求——电力临界载荷—来自APC网站的估算计算器值每个IT设备的额定功率(计算器总VA值x0.67)/1000#1____________kW对于估算计算器中没有列出的设备,临界载荷—铭牌合计VA值〔包括消防、平安和监控系统〕(合计VA值x0.67)/1000#2____________kW未来的负载每个预期IT设备的铭牌VA值[(未来设备的累计VA额定值)x0.67]/1000#3____________kW由于临界载荷变化导致的峰值功率下降稳定状态临界载荷的总功率下降值(#1+#2+#3)x1.05#4____________kWUPS功率损耗和电池充电实际负载+未来负载(#1+#2+#3)x0.32#5____________kW照明设施与数据中心有关的地板总面积0.002x地板面积(平方英尺)或0.0215x地板面积(平方米)#6____________kW用于满足电源需求的总功率上述#4、#5和#6的总和#4+#5+#6#7____________kW功率需求—制冷用于满足制冷需求的总功率上面#7中的总和对于制冷机系统对于DX系统#7x1.0#8____________kW总功率需求用于满足电源和制冷需求的总功率上面#7和#8中的总和#7+#8#9____________kW估算电力线路容量满足NEC和其他标准组织的需求上面#9中的总和#9x1.25#10____________kW线路入口处提供的三相交流电压交流电压#11____________kW需要从供电公司获取的电力容量〔以安培计〕#10中的总和以及#11中的交流电压(#10x1000)/(#11x1.73)____________安培估算备用发电机容量〔如果可用〕需要备用发电机的临界载荷上面#7中的总和#7x1.3*#11____________kW需要备用发电机的制冷负载上面#8中的总和#8x1.5#11____________kW所需发电机的容量上面#12和#13中的总和#12+#13_____________kW*1.3变量适用于使用功率因子完全修正后的UPS。如果使用带有输入谐波滤波器的传统双转换UPS,那么必须乘以3.0。数据中心的冷却自1965年以来,数据中心的冷却设施设计只有过很少的改动。这使得与冷却有关的问题日渐突显,尤其是在高密度计算出现以后。目前的冷却系统都必须符合表3中列出的五种关键要求。表3.冷却系统的五种关键要求要求描述可扩展性和适应性冷却系统的需求很难预测,并且,为了满足未来的需要,冷却系统体积普遍较大,因为很难在现有运行空间中加强冷却能力。设备负载常常在不知道冷却系统是否受到影响的情况下悄然改变。标准化客户定制设计是一项费时、高本钱的工作,并且是后续质量问题的主要根源之一,因为典型的安装工作会涉及到一大批供货商。系统的规划和特别设计需要6至12个月时间,跟大多数企业的规划期相比,这个时间过于漫长。而从特别设计的系统中获得的经验又很难应用到其他系统,因为特别的解决方案会出现特别的问题。简单化复杂的冷却系统因为人为故障而发生宕机的可能性要高得多,尤其是在修复工作复杂而且费时的情况下。此外,在处理定制的冷却解决方案时要规划和校验冗余也比拟困难。智能化机架的上下温差可能高达18ºF(10°C),这会给单个IT设备带来意外的压力,致使设备过早损坏。管理传统冷却管理系统报告的数据通常与实际的故障征兆关系甚微,很少会提供对错误诊断有帮助的信息。其冷却性能数据通常不是统计于单个的CRAC单元,因此无法深入了解系统的整体性能。同供电系统一样,要解决冷却系统的问题,需要对现在的设计思路进行一些改良。这包括冷却设备技术上和设计上的改良,以及如何测定数据中心的冷却要求。冷却系统组件——特别是空气分配和返回系统——的标准化和集成化将极大地提升数据中心的可用性。适度冷却与精确冷却当今的技术室需要精密、稳定的环境,以便高敏感度的电子设备到达最正确运行状态。IT设备会产生不寻常的的集中热负荷,同时,其又对温度和湿度的变化非常敏感。标准空气调节系统并不适合数据中心使用,会造成系统关闭和组件故障。设计条件应该在72~75°F(22~24°C)之间,相对湿度35~50%。不利的环境条件极具破坏性,温度的快速波动也会对IT设备造成不良影响。之所以硬设备不处理数据也要一直通电,这是原因之一。精确空气调节系统用于长期将温度变化保持在1°F(0.56°C)之内,湿度变化保持在3~5%之内。而普通的“适度冷却”系统,那么用于在夏季95°F(35°C)和湿度48%的外界条件下,使室内保持80°F(27°C)的温度和50%的湿度。数据中心环境假设维护不善,会对数据的处理和存储操作造成负面影响:•
高温或低温——高温、低温或快速变化的温度可能使数据处理崩溃并造成整个系统关闭。温度变化可能改变电子芯片和其他板卡组件的电子、物理特性,造成误操作或故障。这些问题可能只是暂时出现,也可能持续数日。不过即使是暂时出现的问题,也可能难于检测和修复。
•
高湿度——高湿度可能会造成磁带和外表变质、磁头损坏、机架结露、腐蚀、纸张处理问题、造成组件和板卡故障的金银脱离等问题。
•
低湿度——低湿度在很大程度上增加了静电放电的可能性,这会破坏数据并损坏硬件。精确空调系统的设计是为了进行精确的温度和湿度控制。精确空调系统具有方便的效劳、系统灵活性和冗余性,可保证数据中心常年24小时正常运行。计算数据中心的冷却需求估算精确冷却系统的冷却容量需要了解IT设备和数据中心里其他热源的发热量。发热率的常用度量单位包括BTU〔英国热量单位〕/小时、吨/天和瓦特。不同度量单位的混用给用户和规那么制定者造成了很多不必要的混淆。令人欣慰的是,全球范围内的标准化组织都倾向于使用统一的标准单位:瓦特(W)。BTU和吨〔指冰的冷却能力〕这两个古老的术语将逐渐退出历史舞台。IT设备通过数据线传输的能量可以忽略不计。因此,交流电源干线所消耗的能量根本上都会转换为热量。〔PoE设备与远程终端的数据传送可能会消耗多达30%的能量,但是本白皮书为简化问题,假设所有能量都消耗在本地设备上。〕这样一来,IT设备的发热量就可以简单地等同于该设备的电力消耗量〔均以瓦特为单位〕。更简单地说,系统总发热量〔即冷却需求总量〕即为各组件发热量的总和,包括IT设备和其他工程,如UPS、配电系统、空调设备、照明设施以及人员。不过,这些工程的发热率可以通过简单的标准化规那么轻松测算出来。UPS和配电系统的发热量由两局部组成:固定的损耗值和与运行功率成正比的损耗值。对于不同品牌和型号的设备,它们的这两局部热量损耗是十分一致的,因此可以比拟准确地估计它们的发热量。照明设施和人员所产生的热量也可以用标准值很快估算出来。需要用户指定的变量,只有少数极易获取的数值,如地板面积和电力系统的额定功率等。虽然空调设备的风扇和压缩时机产生巨大的热量,但是这些热量都被排放到室外,不会增加数据中心内部的热负荷。然而,这些不可防止的能量损失会降低空调系统的效率,如果空调系统比拟庞大,那么这局部损失在计算时也应加以考虑。可以根据数据中心中各项设备的发热量来进行详细的热量分析,不过利用简单规那么而进行快速估算的结果也是在复杂分析结果的允许误差范围之内。这种快速估算法的优势还在于,不具备专业知识或未经过专业培训的任何人都可胜任这一工作。根据表4中的数据,可以迅速可靠地确定数据中心的总的热负荷。如果数据中心的墙壁或屋顶受到强烈的日照,或者还有其他的环境热量释放源,那么应由HVAC咨询师来评估这些热源如何影响整个热量需求。表4.数据中心散热量计算数据表工程所需数据散热量计算散热量分类汇总IT设备IT设备总负载〔所有IT设备电源输入功率之和〕等于IT设备总负载功率〔瓦特〕___________W带电池的UPS供电系统额定功率〔UPS系统的额定功率,不包括冗余模块〕(0.04x电源系统额定值)+(0.06xIT设备总负载功率)___________W配电系统供电系统额定功率x电源系统额定值)+(0.02xIT设备总负载功率)___________W照明设施地板面积〔单位:平方英尺或平方米,换算为瓦特〕2.0x地板面积〔平方英尺〕,或21.53x地板面积〔平方米〕___________W人员数据中心最大人员数,换算为瓦特100x最大人员数___________W合计___________W大型节点环境的制冷随着高密度效劳器(Bladeserver)技术的采用,空气分配和冷却能力方面又出现了新问题。因为高密度效劳器将电源和冷却需求集中在一个小型因子中,数据中心设施面临着效劳器集群提出的新问题。表5提出了对这类环境进行制冷的五种建议方法。表5.大型节点环境制冷方法方法描述分散负载设备室的供电和冷却能力到达最大设备数以下的平均值,并且通过拆分多个机柜中设备的方法来分散机柜上那些负载超过设计平均值的设备。运用规那么借用闲置冷却能力设备室的供电和冷却能力到达最大设备数以下的平均值,并且运用规那么使高密度机柜能够借用周围机柜的闲置冷却能力。补充制冷设备室的供电和冷却能力到达最大设备数以下的平均值,并且根据需要使用补充的冷却设备去冷却密度超过设计平均值的机柜。特定高密度区域设备室的供电和冷却能力到达最大设备数以下的平均值,在具有高冷却能力的房间内划出一块特殊限制区域,只把高密度机柜安放在那里。全局制冷设备室中的每个机柜都具有满足最大机柜密度的供电和冷却能力。空气分配系统配置在设计数据中心的冷却系统时,其目标是创立一个从冷空气源头到效劳器通风口之间的洁净通道。根据性能、本钱和实施难度不同,有九种根本方法可以提供IT设备的进出空气流。而空气的供给和返回都有三种根本方法来完成CRAC装置和负载之间的空气输送:〔1〕洪灌方式,〔2〕局部管道方式,〔3〕全管道方式。表6图解了九种可能的组合方式。APC第55号白皮书,“关键设备的空调结构选择方案”描述了这九种空气配送方法及其各自的优点。表6.冷却系统类型
洪灌方式回风局部管道方式回风全管道方式回风洪灌方式送风
小型局域网机房〔功耗低于40kW〕:·可冷却功耗最高为3kW的机架·安装简单·本钱低一般用途:·可冷却功耗最高为3kW的机架·不需要活动地板·本钱低/安装简单适合解决高热机架问题:·可冷却功耗最高为8kW的机架·不需要活动地板·可提高CRAC装置的效率局部管道方式送风
活动地板环境
活动地板环境
活动地板环境
硬地板环境
硬地板环境
硬地板环境一般用途:·可冷却功耗最高为3kW的机架一般用途:·可冷却功耗最高为5kW的机架·高性能/高效率适合解决高热机架问题:·可冷却功耗最高为8kW的机架·可改型〔视厂商而定〕全管道方式送风
活动地板环境
硬地板环境一般用途:·有垂直气流的机柜/大型机·适合活动地板静压室环境一般用途、大型机:·有垂直气流的机柜/大型机·适合活动地板静压室环境适合解决高热机架问题:·可冷却功耗高达15kW的机架·需要专门安装使用高密度效劳器所致冷却问题的十种最正确解决方法一旦冷却系统设计安装完成,为保证系统的高性能,进行后续检查工作是很重要的。更重要的是,要维护从效劳器排出的热空气到CRAC装置的回流空气管道之间的洁净通道。很多因素都会降低现有冷却系统的运作效率和功率密度能力。表7列出了十种最正确解决方法,按执行方式由简到难、本钱由低到高的顺序排列。表7.高密度效劳器部署所致冷却问题的十种最正确解决方法方法描述进行“健康检查”•
检查总的冷却能力,确保数据中心的IT设备对冷却的需要没有超过总的冷却能力。•
检查所有风扇和报警装置是否运行正常。确保过滤器的清洁状态。•
检查冷却器和/或外部冷凝器、泵送系统和初级冷却回路的状况。•
检查数据中心信道中重要位置的温度。•
记录每套机架底部、中部和顶部的空气入口处的温度,并与IT设备生产商的推荐值进行比拟。•
检查可能影响冷却性能的机架间隙〔没装挡板的闲置机架空间、没装挡板的空刀片插槽、未封闭的电缆开口〕或多余的缆线。启动冷却系统维护制度应该实行定期维护制度,以到达冷却设备生产商推荐的指导方针。在机架中安装挡板,实行电缆管理制度机架内未被利用的纵向空间让设备底部流出的热空气可以通过快捷方式回到空气入口处,致使设备不必要地升温。去除地下障碍物并封闭地板间隙地下障碍物,如网络和电缆,会阻碍空气流动并削弱对机架的冷气供给。将高密度机架分开如果高密度机架紧密聚集在一起,那么大多数冷却系统的冷却能力都不够用。采用热信道/冷信道布置如果机架空气入口都朝向一个方向,那么上一排机架排出的热空气在通道中将和供给空气或室内空气相混合,然后进入到下一排机架的前面。将CRAC设备与热通道对齐当CRAC设备与热通道对齐时,可到达最正确冷却效率。在这种情况下,热空气可以直接流入回风管道,而很少有时机与冷空气流混合。管理地板通风孔机架气流和机架布局是影响冷却性能的关键因素。送风和回风通风孔的位置如果不当,会使得热信道/冷信道设计的种种优点丧失殆尽。安装气流辅助装置在有足够平均冷却能力,但却存在高密度机架造成的热点的场合,可以通过采用有风扇辅助的设备来改善机架内的气流,并可使每一机架的冷却能力提高到3kW~8kW。安装自给高密度设备在功率密度接近或超过每机架8kW的场合,需要将冷空气直接供给到机架的每一层〔而不是从顶部或底部〕,以便使从上到下的温度保持一致。以上方法可以使得数据中心能够在其峰值效率运行,以保证其可以胜任对商务过程的支持,并预防未来可能发生的问题。前八种方法可帮助典型数据中心在其原始设计的界限内正常运行。最后两条是对如何扩充典型数据中心冷却密度设计界限的建议〔无需进行较大的重新设计和建造〕,方法是通过安装“自给”冷却方案,以便满足高密度效劳器应用场合的需要。数据中心的布线问题布线拓扑结构数据中心拥有大量的设备,网络结构复杂,所以必须要有布线拓扑结构。由于有在1991年首次发布的ANSI/TIA/EIA-568标准,网络设计师对结构化布线很熟悉。TIA〔电信行业协会〕不久前又通过了一项名为TIA-942“数据中心的电信根底设施标准”的标准。该标准用图1所示的拓扑结构来描述数据中心。下面列出这种拓扑结构中用到的根本要素。水平布线和主干布线如图1所示,有两种布线类型:主干布线和水平布线。主干布线连接总配线区〔MDA〕和水平布线区〔HDA〕——包括电信室和引入室〔ER〕。主干布线由主干电缆、主交叉连接、水平交叉连接、机械终端、接插线或用于主干对主干交叉连接的跳线组成。水平布线将设备连接到MDA或HAD中的连接。水平布线由水平电缆、机械终端和接插线/跳线组成,还可以包括一个区域插座。ER或MDA中的交叉连接接入电缆和数据中心电缆以某种形式在交叉连接处集合。理想状态下,它们都接入同一个实际上成为“分界线”的交叉连接数组(lineup)。将连接到所有接入提供商的这些“分界线”集中摆放,通常称为“meet-meroom”。不过,局部接入提供商更愿意将电缆接入自己的机架。分界交叉连接通常摆放在引入室,如果数据中心没有引入室,那么摆放在总配线区。总配线区〔MDA〕中的主交叉连接根据TIA-942标准,每个数据中心都必须有一个总配线区,总配线区应配备核心以太网交换机与路由器、可能的核心存储局域网络〔SAN〕交换设备、PBX设备、网络管理设备以及接入设备。总配线区还包括主交叉连接〔MC〕,用于在主干布线和核心交换机与路由器之间建立连接。因为主干布线通常采用光纤,所以主交叉连接必须设计为可处理光缆、接插线和配线架。根据平安、外观和电缆管理的不同需要,交叉连接配线架和网络设备被安放在机柜内或机架上。电信室、HDA或MDA中的水平交叉连接水平交叉连接〔HC〕是一个大型的接插区域,水平电缆从这里被分配到各个设备。一般来说,水平交叉连接的主要任务是提供一个将水平电缆连接到接入交换机端口的装置。TIA-942标准还给出了一种光缆的集中布线方法的指导,在这种方法中,水平电缆被直接连接到多光纤主干电缆,而不是交换机。区域分配区〔ZDA〕中的区域插座或整合点通常,将一组水平电缆外接到公用终接点比拟有利。采用新设备后,水平电缆也可以通过区域插座连接到网络上。与固定到设备机柜的设备插座相比,区域布线提供更大的灵活性。区域分配区用于未来使用的“precable”区域,或简化频繁的重配置。区域分配区中的插座很多数据中心的设备分配区的大局部都被效劳器机柜中的效劳器占据。水平电缆通常外接到机柜,连接到配线架上,配线架即被称为“插座”或“互连”,如图1所示。TIA-942标准认可图1中拓扑结构的某些变化形式。例如,小型企业数据中心可以将接入室、水平布线、总配线区和电信室合并为计算机室内的一个区域。另外,大型互联网数据中心可以拥有两个接入室〔保持冗余度〕或者兼容多种接入效劳商,也可以将总配线区和水平布线区分别划入不同的房间或笼内以增加平安度。具体的拓扑结构依数据中心规模、可扩展性、可靠性等因素而定。电缆介质对于现在的数据中心LAN和SAN环境,“交换机到效劳器”连接要求布线具有高性能和灵活性,并且具有适应未来高带宽应用的剩余空间〔见表8〕。千兆位以太网连接具有广泛的支持根底:交换机埠、网卡、超五类非屏蔽双绞线〔Category5eUTP〕和六类非屏蔽双绞线〔Category6UTP〕。然而,以太网在不断地开展,许多组织都在关注万兆位以太网在支持新应用要求方面的优势。网络规划者们应该仔细考虑如何运用这些新电缆技术,以将带宽优势融入到电缆根底设施中。表8.电缆介质类型电缆介质连接类型参数最小弯曲半径最大数据速率最大传输距离*公共应用超五类双绞线RJ-450.193英寸1.00英寸1千兆/秒100米老式局域网六类双绞线RJ-450.260英寸1.04英寸10千兆/秒55米IP增强六类双绞线第七类双绞线RJ-450.310英寸1.24英寸10千兆/秒100米高端工作站Infiniband〔CX4双轴〕XENPAK0.371英寸4.00英寸10千兆/秒15米效劳器集群多模光纤〔OM3〕LC、SC、ST、FC、FJ、MPO、XENPAK0.059英寸2.00英寸10千兆/秒220米存储区域网单模光纤〔OS1〕LC、SC、ST、FC、FJ、MPO、XENPAK0.118英寸2.00英寸10千兆/秒40千米广域网*可以保持最高数据速率的最大传输距离超五类非屏蔽双绞线千兆以太网的出现让这种电缆普及起来。因为其使用的是IEEE最早期的标准,所以新的电缆在数据传输速度上已超过它。如果您的商业计算仅限于文字处理和简单的数据表格,并且不打算彻底改变这种现状,那么超五类非屏蔽双绞线的系统可能就足够了。六类非屏蔽双绞线六类非屏蔽双绞线适用于能支持多种效劳类型的具有灵活性的根底设施。它提供的带宽远大于千兆的速度,并且在10Gbps的最高数据速率下最大传输距离为55米。对于将效劳器数组连接到附近的水平布线区的小型计算机室或模块化数据中心,可以设计55米或更短的水平布线线路。但是许多中到大型的数据中心需要更长的线路。例如,可能需要将所有联网设备整合到一个总配线区,由总配线区分配电缆到大量的托管或第三方托管(collocation)用效劳器机柜。增强六类非屏蔽双绞线当电缆铺设长度大于55米时,UTP技术中唯一能到达以10Gbps的速率传输100米的,是新一代的称为“增强六类”〔C6A〕的电缆。随着802.3标准的开展,IEEE打算用双绞线铜缆通过四个连接器(4-connector)、100米的管道支持10Gbps的数据传输速率。该标准要求将六类电缆的参数从当前的250MHz扩展到500MHz。要支持10Gbps的数据传输速率,必须设计一种新的电缆,增加电缆束中的导线间距,并且设计新的连接头以免电缆的改良成果在传输途中丧失。万兆位以太网系统中的任何组件都是很重要的:插孔模块、铜缆、配线架、接插线都必须经过精密调谐,以到达10Gbps的速度。InfiniBand与CX4虽然InfiniBand与CX4类似,但是CX4已做过小小的改良,以更好地处理串扰和回波损耗。这里将两种介质一起讨论,因为他们都用24AWG的电缆以传输15米为目标,并且使用相同的连接头配置。这种电缆有屏蔽层,内含8对双轴屏蔽线。连接头和电缆都是由InfiniBandTradeAssociation依据InfiniBand标准研发。虽然15米的距离不适合进行长距离传输,但InfiniBand已为它找到了新用途:效劳器集群和网格计算。这类应用要求用短距离传输以便连接多个效劳器,要求10Gbps的带宽以便建立强大的效劳器环境。InfiniBand通过质量效劳〔QoS〕机制加强了应用集群间的联系,这对优先处理的事务安排有所帮助。虽然InfiniBand并不适合按TIA-942标准下结构完整的布线线路,但是它在效劳器集群方面的用途已被Cisco、IBM等处于行业领先地位的公司所认可并频繁使用。InfiniBand连接线还可用于SAN中,代替昂贵的与光纤信道一起使用的主机总线适配器〔HBA〕。基于从布线拓扑结构中撤下HBA的优点,应对照光纤信道的带宽和可靠性来进行测量。光缆如表8所示,IEEE802.3标准提供一系列的在光纤上进行10-Gbps传输的可选方案。公用的纤维光学传输装置可分为以下三大类:
•
发光二极管〔LED〕——LED价格廉价,但是仅限于低于1Gbps的低速传输。
•
长波激光器——这种激光器在波长1310~1550nm之间工作,速度和本钱都远远高于LED。
•
短波激光器——垂直腔面发光型半导体激光器〔VCSEL〕技术是作为低本钱激光器的生产方法被开发出来的。用于10Gbps的VCSEL目前被归类为短波激光器,其工作波长为850nm。针对10Gbps的下一步开展将是长波〔1310nm〕VCSEL。以上三种光纤类型加上短波激光和长波激光技术,为用户在平衡距离和本钱方面提供了多种选择。
•
多模光纤〔OM3〕——OM3光纤被归类为激光优化是因为电缆生产商的产品必须百分之百通过检测,因为只有最好的光纤才有资格被划分为“激光优化”类。有效模式带宽等于或大于2000MHz/km的光纤才能被定级为OM3。差分模延迟〔DMD〕标准对激光优化类光纤仍然有效,但是OM3类别在DMD上作了一些限制。由于每个脉冲信号都通过光纤传送,所以其初始形态保持得比拟好,接收器可以判断接收到的脉冲信号代表0还是1。更先进的误码率〔BER〕检测现在用于测算脉冲信号被误解的频率。为数据中心配置多模光纤时,强烈推荐使用OM3类光纤。
•
单模光纤〔OS1〕——进行10Gbps传输的最后一个选项是单模光纤。10GBASE-LR和10GBASE-ER是基于标准单模光纤和长波激光器的,所以其最大传输距离远远长于OM3类光纤。这类技术更为昂贵,是因为它们使用边缘发光长波激光器。10GBASE-LR和10GBASE-ER主要用于跨校园或不同建筑之间的远距离应用。数据中心的实际光纤部署商业应用会产生大量的数据,必须放入随时可以访问、平安并且非常可靠的存储系统。SAN满足以上要求,通过整合策略,将SAN结构变成一种灵活、可扩展且能很快适应数据更改要求的方法。SAN的连接由光缆支持,因此在每一个放置或将要放置现在或将来需要接入SAN的应用的设备区,布线时都应提供光纤接口。推荐的一种策略是:为每个效劳器机柜铺设一定数量的光纤对——可以是12、24或48,视最大方案需求而定。方案需求量由效劳器类型、功率/发热负载和方案SAN接入数量决定。同样,光纤对也必须从SAN交换机一直铺设到存储设备。在建设初期,配线可以铺设到每个机柜和现场终端。场地终接是一项复杂、费时而且杂乱的工作,所以许多数据中心宁愿采用预安装终接好的中继电缆或即插即用光纤解决方案。即插即用解决方案的配线是厂家已经终接到MPO或MTP连接器上的,一般每个连接器接12条光纤。安装者只需简单地将MTP电缆插入水平交叉连接和设备插座上的LC或SC连接器即可。电缆通道电缆根底设施应被视为一项需要具备功能性和保护性的容器的投资。每次增加新的效劳器机柜都把数据电缆丢在活动地板面层下的水泥板上的做法,现在已经不被接受了。负责开展和修改的IT专业人员,依赖铺设良好的、灵活的、易接近的电缆通道。关键应用要求保护电缆不受突然损坏或长期老化,不断增加的热负荷也需要仔细考虑,以防止通道阻碍制冷。在规划电缆通道时并没有通用的解决方案。设计者必须考虑将通道置于地面下还是地面上的问题。表9中的标准说明了电缆通道该如何铺设。表9.电缆通道的铺设标准标准描述结构上的问题·利用现有的——活动地板、天花板夹层和房间结构的完整性决定了你应该如何设计你的电缆通道。·条理性与直观性——将通道分为几层,以便分开供电和数据电缆。·灵活性——允许增减机柜。·维护通道与对应设备数量的比例——一条通道将负责供给两排地下通道的设备;对于架空的信道,一般一条信道负责一排设备机柜。容量·空间最大占用率为50%——计算出的空间占用率到达50%时,由于电缆间的空间、随机摆放的物品等原因,线架实际已被占满。·电缆托架占用率25%——最大的电缆通道占用率应该不超过25%,以便为将来的开展留出空间。这个比率适用于电缆托架、铁线篮、梯架和硬电缆托架。电力线与数据线的别离·UTP电缆和未屏蔽供电电缆——100~600mm〔4~24英寸〕·UTP电缆和已屏蔽供电电缆——50~300mm〔2~12英寸〕可达性与平安性·平衡措施——在允许更改电缆根底设施的同时,保护电缆不受外部损坏。火灾危险·具有管辖权的当地管理机构——该机构在从阻燃电缆到防火措施的可行性方面有最终决定权。光纤保护·40~60%占用率——铜和光纤具有不同的特性,所以应该采用不同的电缆通道策略。数据中心的机架和机柜问题选择机架的标准对于用于安装设备和接插面板的开放式机架和封闭式机柜,数据中心设计者有很多种选择,每一种都有其优点和缺点。与电缆通道一样,这也没有通用的解决方案。关于宽度,效劳器、交换机和接插面板的规格为19英寸;引入室中的载波设备和其他宽度更大的设备的适用规格为23英寸。最正确高度为7英寸,最大允许高度为8英寸。其他方面诸如地震因素、有关瓷砖的布置、可调整轨道、配电盘等,在标准中也作了说明。设计者应根据表10中列出的标准来决定选择开放式机架还是机柜。表10.机架类型机架类型描述最大负重应用双柱开放式机架800磅·低容量交换机/路由器·配线四柱开放式机架1000~2000磅·高容量交换机/路由器·效劳器机柜2000磅·效劳器集群·存储数组·存储转换电缆入口假设使用开放式机架,电缆可以轻松地从架空的或地板下的信道接入竖直线缆管理器。假设使用机柜,注意要比拟电缆数量和电缆入口孔的大小。带有高电缆密度的设备,如交换机和单机架效劳器,可使用足够容纳上百根数据线和电源线的电缆入口孔。必要口径A用40%的占用率〔0.4〕按以下方式计算:
对于第六类双绞线,参数D的值为0.25英寸,A的计算结果为41平方英寸。对于扩展六类线,D的值为0.35,A的计算结果为81平方英寸。电缆管理可以为宽敞、方便进入的竖直线缆管理器轻松配备机架。很多机柜没有足够的空间来容纳竖直线缆管理器。通常,仅有的空间就是狭窄、竖直的转角处和相邻机柜间的空隙,而这两种地方都不容易进入。前一局部提到的公式不仅适用于电缆入口孔,也适用于电缆管理器横截面积的计算。无论机柜中是否安装了配线架,都应该在导轨和门之间留出最少100mm〔4英寸〕的高度,以便安装线缆管理器。平安机柜有带锁的柜门。开放式机架没有锁,但是将其置于笼内或单独的房间来保证其平安。数据中心管理员都担忧有入侵者或未经授权的人员接近机房设备。对于关键应用,在设备上进行的操作应该严格依照访问规定小心控制。例如:网络组的技术人员有接近交换机和交叉连接设备的许可;效劳器组的技术人员有效劳器机柜的钥匙;SAN组那么拥有SAN机柜的密码。在第三方托管环境中,效劳器租用者希望出租方提供平安的机柜和空间,以保证其他租用者不会损坏自己的设备和相关网络根底设施。负载能力和深度在负载能力方面,机柜和四柱机架有一种优点。例如:某生产商的19英寸的标准铝机架具有3英寸的支架,能承受800磅的负载。同一厂商的重型机架带有6英寸的支架,能承受多达1500磅的负载。四柱机架和机柜的额定负载量可到达2000磅或更多。机柜可支持纵深较大的设备。大多数网络交换机都比拟薄,如果符合安装说明中的允许条件,就可以放置在双柱机架上。最正确机架式效劳器纵深16~33英寸,大局部高26~30英寸,而且与双柱机架一般不兼容,因为这会引起结构上的不稳定悬臂和可能的平安隐患。机柜和四柱机架提供后部安装轨,以增加对设备的支持和包围纵深较大的设备。安装轨应该可以调节以适应一系列的设备纵深度。螺距在某些情况下,保持24英寸的螺距来与地板相匹配是很重要的。使机架或机柜与地板相匹配让其可以使用所有地板通用的标准电缆保险装置。普通机柜宽度为24、28、29.5〔750mm〕或32英寸。用于效劳器,尤其是长效劳器队列时,24英寸宽的是最常用的。更宽的螺距已被配电和配线应用所接受,在这些应用中,大捆电缆的管理是首要问题。配备竖直线缆管理器的机架尺寸大于24英寸的地板尺寸。电源调节机柜的设计便于将配电盒安装在纵向支持通道中。当机柜中装的是使用冗余电力供给的单机架或双机架式效劳器时,必须使用带有20个或更多插座的长配电盒。有一点要注意的是,开放式机架不支持长的竖直配电盒。不过,根据配电盒宽度或机架通道宽度不同,在配电盒及其安装支架互不影响的情况下,在开放式机架的后部安装竖直配电盘也是可能的。一般开放式机架不带整理电源线的功能,也没有遮蔽配电盘的盖板或门。安装轨安装轨应该带有符合TIA-310-D标准的螺孔设计。机架上的这些孔一般带有内螺纹,以便安装配线架等大量的组件。然而机柜一般带有为锁紧螺丝准备的方形螺孔。将锁紧螺丝嵌入方形螺孔内并咬合到位以后,才能继续安装设备。锁紧螺丝有多种螺纹样式,包括#12-24、#10-32和M6。安装轨上应该做上标记,不要遮住机架单元的边缘,而为机架单元编号那么可方便安装。电缆管理一旦水平电缆安装完成,就应做好保护工作并且不再对其进行操作。之后的任何网络配置改变,都应通过移动水平交叉连接上的接插线来完成。这样,接插区域就成了物理层管理所关注的对象,因此,在设计接插区域时,应注意其长期的管理性、可靠性、平安性和扩展性。表11中列出的八种最正确管理方法可以将水平交叉连接的功能性从简单的接插区域提升为复杂的交换中心,使其能够进行电缆管理、热交换、冷却及对接插区域变化的智能追踪。表11.电缆管理的最正确方法方法描述包括有效的水平和纵向电缆管理·机架间的竖直线缆管理器宽度不能小于83mm〔3.25英寸〕;对于一行有两或两个以上机架的情况,推荐宽度为250mm〔10英寸〕。·机架行列末端的线缆管理器宽度应该不小于150mm〔6英寸〕。在每个电缆转弯处都提供弯曲半径控制·备用管理器和到电缆信道的过渡,也应设有适宜的弯曲半径。·应使用圆角边缘的指状物将电缆导入水平或竖直线缆管理器。充分利用可用空间·具有配套的角型配线架、竖直电缆管理器等高密度解决方案,能将更多连接集中到更小的区域中。保护关键根底设施·通过机柜锁和笼子建立不同的平安等级。拆离电缆以允许进行热交换·将电缆拆离设备时,要考虑在需要升级或更换时,风扇部件、模块和电力供给设施应如何拆卸和重新安装。考虑气流方式·将接插区域和配电根底设施设计为交互式,以使气流最大化。对物理层更改的记录和管理·接插区域包含数百或数千个埠,因此为接插区域贴上卷标以便技术人员快速识别每个埠是很重要的。使互联与交叉连接到达平衡使用互联的理由:·占用空间更少·连接数更少,因此插入损耗较少·前期花费较少·容易进行追踪使用交叉连接的理由:·损坏交换机的可能性更小·是交换机机柜的唯一选择·更高的灵活性·与物理层管理相容数据中心的接地问题接地系统不仅仅是针对雷击的保护措施,它是一个活动的、为人员和设备提供保护的有效系统。对有效系统性能进行正确接地是很有必要的。没有被接地系统完全疏散的过压电,会对数据电缆产生电子干扰。这会造成错误的数据信号以及丢包情况,因而降低您网络的吞吐量和总效率。根据保险行业的数据,每年因通信系统非正常接地而被雷电损坏的财产和设备价值五亿美元。IT产业协会〔InformationTechnologyIndustryCouncil〕称,接地是网络设备表现其可靠性能所应具备的最重要的条件。修复受损设备的组件花费实质上只是牵涉到复杂的电路板,而人力和停机时间造成的损失那么更高。电气和电子工程师协会(IEEE)表示,标准的三插AC插头接地几乎很少能有效保护网络设备不受损害。因为非正常接地导致的人员触电事故可能会给当事人造成无法估量的痛苦并带来巨大的开销。当过压电涌产生的热量在到达地面过程中遇到高阻,就会造成火灾隐患。数据中心接地的标准
数据中心接地应遵循以下标准:•
TIA-942,《数据中心的电信根底设施标准》——TIA-942详细说明了保证贯穿机架材料的电力连续性以及使机架和机架上安装的设备正确接地的方法。这是解决数据中心特有问题的唯一一份说明。
•
J-STD-607-A-2002,《商业建筑电信接地和屏蔽要求》——该标准关注电信设施的接地问题。它定义了一套从接入设施到电信设施主接地母线〔TMGB〕、再到电信室的本地电信设施接地母线〔TGB〕的系统。
•
IEEEStd1100(IEEEEmeraldBook),《电子设备供电和接地的IEEE推荐方法》——IEEE对如何通过公用屏蔽网络〔CBN〕为计算机室环境设计接地结构进行了详细说明。CBN是一套金属组件,通过有意或无意的互联,在进行远程通信的楼宇内部起主要屏蔽和接地的作用。这些组件包括钢结构或钢筋、金属管道、AC供电管道、电缆架,以及屏蔽导线。CBN是连接到外部接地电极系统的。数据中心接地系统的特性接地系统的目的是为过压电涌和瞬态电压创造一条接地的低阻通道。过压电涌和瞬态电压一般由闪电、错误的电流、电流转换〔开关发电机〕和静电放电引起。有效的接地系统可以将这些过压电涌的不良影响降到最低。设计合理的接地系统应具有以下特性:•
应有针对性。就是说,每个连接都应合理设计。接地系统与其连接一样脆弱。
•
应该可以通过肉眼检验。
•
应该有足够大的规模。
•
应该能够将破坏性电流引离设备。
•
数据中心的全部金属组件都应被连接到接地系统〔如图2〕。此外,所有接地导线都应该采用铜芯;组件应采用认证测试室〔如UL〕推荐的产品;并遵守当地电工规程。为保证接地系统的长期完整性,应坚持使用压紧式连接器,而不是机械式连接器。机械式连接器用固定螺钉来固定导线,当暴露在振动环境中时〔如:附近有风扇或蜂鸣设备〕,螺钉有可能松动。在过压电涌发生时,松动的连接会形成高阻抗而失去保护作用。而压紧式连接器已永久变形,不会因振动而松动。在遵循接地结构时也应有逻辑顺序,例如:从设备底盘到机架,然后到数据中心接地设施,再到本地的TGB,本地TGB再接入电信设施屏蔽主干〔TBB〕,TBB最后回到接地的主TGB〔TMGB〕。表12概述了其中的重点。表12.数据中心接地的要点要点描述设备底盘·三插接地不完全有效。·安装设备时一定要遵守生产商提供的接地考前须知。机架/机柜的连续性·螺栓〔bolt-together〕机架附带的硬件并非为了接地而设计。·装配机架时应在螺钉下以及螺母和机架间参加能穿透涂层的〔paint-piercing〕的接地垫圈,以提供电力连续性。·应在侧轨背后连接完整长度的机架接地片,用螺纹型螺钉固定,以保证金属间的连接。机架/机柜接地·用#6AWG或更大的接地导线将每套机架或机柜与已连接到数据中心接地设施的接地片相连。·不要将机架或机柜串联。数据中心接地根底设施·建立数据中心接地设施的一个通用方法是,为遍布整个计算机室的0.6~3m〔2~10英尺〕的空间架设一个铜导线网。电信设施接地排·用#1AWG或更大导线将数据中心接地设施接入TGB。·最好使用双孔压紧式铜接线柱,因为其操作不可逆,并且即使扭曲〔受到冲撞〕或在振动环境也不会松动。电信设施连接带·接入TBB时应保持导线连续性,尽量防止出现接头。·铺设接地导线时防止使用金属管道。·虽然为保证平安,大楼的钢结构和金属水管都必须接地,但这些都不能替代TBB。电信设施主接地母线·接地主母线应连接到效劳设备〔供电〕已接地〔接地电极系统〕的底座。接地系统的例行检查接地设施作为关键设施,应该为其制定一个方案,每年或半年进行一次全面检查。按照作业列表逐项进行检查可以及早发现潜在的问题,如:连接松动或腐蚀、卷标缺失、导线被损坏/割断/撤除、新的需要连接到CBN的金属部件。为便于检查,接地系统应全部使用连接器、母线和导线,这样通过肉眼即可检验连接情况。其他问题物理平安物理平安〔即限制人员接近设备〕对于保持数据中心的高效性来说非常关键。随着生物鉴别、远程平安数据管理等新技术越来越普及,传统的“通行卡-门卫”的平安措施正在逐渐被淘汰,取而代之的是能够进行有效身份验证并追踪人员在数据中心内和附近活动的平安系统。在购置设备前,IT管理员都必须仔细评估他们的特别平安需求,并为他们的设备选择最适宜、最经济的平安措施。平安规划的第一步,是画一张物理设施的地图,标明需要使用不同进入规那么或平安级别的区域和进入点。这些区域可能有同心或并列的边界。例如:计算机区可能会显示为一个大区域〔如:楼宇周界〕中的一个方块。而并列边界的例子包括会客区、办公室和公共区域。同心的区域可能具有不同的或逐渐严格的进入要求,提供越来越高的保护性,这成为“平安等级”。根据平安等级,靠里的区域除了受本身进入要求的保护,还要受到其他外部区域的保护。另外,闯入任何一个外部区域后,都可能会遇到下一个内部区域的进入限制。平安规划图画好后,下一步是要制订访问规定。人员对平安区域的访问权限,主要基于其身份、目的和是否有必要进入等因素,还有各组织自己制订的其他标准。鉴别人员身份的方法主要分三大类,以下按平安性和本钱由低到高的顺序排列:
•
你有什
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
评论
0/150
提交评论