![AI散热站上新风口_第1页](http://file4.renrendoc.com/view/82827a96a1f0fe3330135eb16594b53e/82827a96a1f0fe3330135eb16594b53e1.gif)
![AI散热站上新风口_第2页](http://file4.renrendoc.com/view/82827a96a1f0fe3330135eb16594b53e/82827a96a1f0fe3330135eb16594b53e2.gif)
![AI散热站上新风口_第3页](http://file4.renrendoc.com/view/82827a96a1f0fe3330135eb16594b53e/82827a96a1f0fe3330135eb16594b53e3.gif)
![AI散热站上新风口_第4页](http://file4.renrendoc.com/view/82827a96a1f0fe3330135eb16594b53e/82827a96a1f0fe3330135eb16594b53e4.gif)
![AI散热站上新风口_第5页](http://file4.renrendoc.com/view/82827a96a1f0fe3330135eb16594b53e/82827a96a1f0fe3330135eb16594b53e5.gif)
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
一、算力密度提升叠加能耗指标要求,驱动冷却市场创新升级AI等应用带动功率密度升高,风冷达到功率上限AI应加速数据中心向高密化趋势演进面对AI带来的数据量和计算量的爆发式增长,在数据中心资源尤其是一线城市资源日趋紧张的情况下,只有通过提高机房单位面积内的算力、存储以及传输能力,才能最大程度发挥数据中心的价。高算力AI芯片导入将加速服务器高功率密度演进趋势据UptimeInstitute发布的《全球数据中心调查报告》显示,2020年全球数据中心平均单机架功率为8.4kW/机架,相比于2017年的5.6kW/机架有明显的提高。其中1-4kw占25,5-9kw占46,10-19kw占13,中国目前与全水平仍有差距据CDCC调研,国内全行业数据中心中8kW功率密度以上的机柜占比由21年的11提升至22年的25,高功率机柜占比提升明显未来,随人工智能模型训练推理等应用增,多样化算力协同成为常态,单IT机柜主流功率密度将从6-8KW/柜提高到12-15KW/柜,超算、智算中心功率密度将提升至30kW以上。6%5%4%3%2%1%0%6%5%4%3%2%1%0%<kW4kW6kW>kW221222CDCC, uptimeinstitute,大数据生、业务模式变迁强调实时业务的重要性,导致高性能计算集群对于散热的要求提升随着ChatGPT引爆新一轮人工智能应用的热情,海内外数据中心、云业务厂商纷纷开始推动AI基础设施建设AI服务器出货量在全部服务器中的占比逐渐提高。根据TrendForce的数据2022年搭载GPGPU的AI服务器年出货量占全部服务器的比重接近1,2023年在ChatGPT等人工智能应用加持下AI服务器出货量有望同比增长8,2022~2026年出货量CAGR有望达10.8,AI服务器用GPU,主要英伟达H100、A100、A800(主要出货中国)以及AMDMI250、MI250X系列为主,英伟达与AMD的占比约8:2。图表3:AMDGPU功耗发展 图4:IntelNBCPU功耗发展AMD, Intel,图表:英伟达GPU功耗发展英伟达人工智能芯片多用传统型芯片,或用昂贵的图形处理器(GP),或用现场可编程门阵列芯片配合中央处理器(FG)为主,用以在云端数据中心的深度学习训练和推,通用/专用型I芯片AI,也就是张量处理器或特定用途集成电路(S),主要是针对具体应用场景,三类芯片短期内将共存并在不同应用场景形成互补。类别UAAC特点性能高、算能功耗高通用性好可编程性类别UAAC特点性能高、算能功耗高通用性好可编程性灵活耗和用介于U与AC之间定制化设性能稳定优秀的功控制代表公司英伟达、D赛灵思寒武纪、平线比特陆、谷歌()ALIK摩尔定律发展晶体管数量增多,产品功耗瓦数升高,对于散热的要求提。随着C制程、晶片效能、小型化升级,芯片瓦数大幅提升,表面高单位密度发热,对于导热、散热的要求提。以主流厂商为例,ntel10nm以下制程需采均热片以解决发热问题AD7nm制程使用均热片5nm则必须采用均热片进行散热。未来随着先进制程比如3nm推进,同时搭配3D封装,对于散热效率的要求更高。芯片级散热的方式是通过热传导原理,将芯片不断产出的热能持续地传导至散热元件,热能量传递通常是在非常接近热源的散热器上进行的。以笔记本电脑为例电子产品朝轻化、高性能化方向发展,晶片功需要大幅增加,晶体管数量增多,对于散热要求提升。电子设备PU硅半导体不耐热,过温度下无法作为电子电路发挥作用。②中央处理器和集成电路向电机等发出操作命令,产生的大部分能量都转化为热量③小型化使得能量越集中,温度越高,发热密度更高早笔记本散热模使用2根热管,现在增加为4至6根,高端产品使均热板。图表7:芯片TDP随着工艺发展不断提升 图8:随着摩尔定律发展对功耗要求更高半导体芯科技, 双鸿法说会,风机转超过4000r/min后对热阻的效是有限。根据CNKI,风冷系统中风机转速从1000r/min提高到4000r/min,芯片散热中对流占主导,流速增加对流换热系数显著增加,风冷方式能有效改善芯片散热问题。而风机转速超过4000r/min后,传热热阻下降比较平缓,转速增加只能改善与空气的导热传热散热效果降。芯片级液冷是未来发展趋势。服务器2U空间下250W大约是风冷解热极限4U以上风冷可以解到400-600W;AI芯片TDP普遍超过400W,大多使用4-8U。根据CNKI,芯片的平均热流密度将达到500W/cm2,局部热点热流密度将会超过1000W/cm2,传统风冷散热已经达到极限而芯片温度的控制对于稳定持续工尤为重要,最高温度不能超过85℃,温度过高会导致芯片损坏,在70—80℃内,单个子元件的温度每升高10℃,系统可靠性降低50%,因此在功率提升的背景下,散热系统将向芯片级液冷升。图表:风机转对热阻边际效用降低KI风冷达到功率上后性价比下降液体吸热能力更强。根据《2021-2022年度中国数据中心基础设施产品市场总报告2021年我国单机柜功率在10kW以上的数据中心市场规模增速超过10,其中30kW以上增速达31。据预测2025年全球数据中心平均功率提升至25kW。GG认为每机柜15-25kW的功率密度作为“未使用背板换热器等其他制冷设备”的风冷解决方案的上限,当自然风冷的数据中心单机柜密度一般只支持8-10kW,冷热风道隔离的微模块加水冷空调水平制冷在机柜功率超过15kW后性价比大幅下降。在同样单位体积下,液体吸收热量的能力更高。因此液冷技术能够更高效地散热,以及让芯片能够更高效地工。特点 空气 水25℃下的导热特点 空气 水25℃下的导热率(W/m*K))0.0260.6089密度(KGm3)1.291比热容(J/kg*))1.0044.2单位体积的热容量(J/(m3K))1.34200比较基准3243施耐德电气,液冷降低能耗压力,满足数据中能耗要求随着相关政策的制定、建设布局政策出台,节能减排、高质量发展成为共识。作为散热厂家主要关注的是PUE和WE指标在绿色低碳目标下,东部地对数据中心提出规划方案,多地明确提出加大节能技术改造力度新建数据中心PUE限制在1.3以下,存量数据中心PUE不高于1.4。城市气温℃数据中心PE要求北京12.3年能源消费量小于1城市气温℃数据中心PE要求北京12.3年能源消费量小于1万吨标准煤的项目PUE值不应高于1.;年能源消费量大于等于1万吨标准煤且小于2万吨标准煤的项目,E值不应高于125;年能源消费量大于等于2万吨标准煤且小于3万吨标准煤的项目,PUE值不应高于12;年能源消费量大于等于3万吨标准煤的项目,PE值不应高于115;1.4<PUE≤1.8,每度电加价¥.2;PUE>1.8,每度电加价05上海16.6到2024年,新建大型及以上数据中心UE降低到1.3以下,起步区内降低到1.25以下。推动数据中心升级改造,改造后的PUE不超过1.4。广东22.6新增或扩建数据中心PUE不高于1.3,优先支持PUE低于1.25的数据中心项目,起步区内PUE要求低于1.25浙江16.5到2025年,大型及以上数据中心电能利用效率不超过13,集群内数据中心电能利用效率不得超过.25江苏15.5到2023年底,全省数据中心机架规模年均增速保持在20左右,平均利用率提升到65,全省新型数据中心比例不低于30,高性能算力比达10,新建大型及以上数据中心电能利用效率PU)降低到1.3以下,起步区内电能利用效率不得超过125山东14.7自2020年起,新建数据中心PUE值原则上不高于.3,到222年年底,存量改造数据中心UE值不高于.4。到2025年,实现大型数据中心运行电能利用效率降到1.3以下。优先支持PUE值低于1.25,上架率高于65的数据中心新建、扩建项目青岛12.7新建1.3,至222年存量改造1.4重庆18.4到2025年,电能利用效率PE)不高于.3。集群起步区内UE不高于1.25。甘肃:到023年底,大型及超大型数据中心的PUE降到1.3以下,中小型数据中心的UE降到1.4以下;到205年底,大型及超大型数据中心的PUE力争降到1.25以下,中小型数据中心的E力争降到1.35下四川15.3到2025年,电能利用效率PE)不高于.3。集群起步区内UE不高于1.25。各市(州)要充分发挥已建在建数据中心作用,除天府数据中心集群外,区域内平均上架率未达到60、平均UE值未达到及以下的,原则上不得新建数据中心。内蒙古4.3到2025年,全区大型数据中心平均PUE值降至1.3以下,寒冷及极寒地区力争降到.25以下,起步区做到12以下宁夏9.5到2025年,建成国家(中卫)数据中心集群,集群内数据中心的平均PUE≤1.15,WUE≤0.8,分级分类升级改造国家(中卫)数据中心集群外的城市数据中心,通过改造或关停,到025年,力争实现UE降至1.2及以下。贵州15.5引导大型和超大型数据中心设计PUE值不高于1.3;改造既有大型、超大型数据中心,使其数据中心PUE值不高于1.4。实施数据中心减量替代,根据PUE值严控数据中心的能源消费新增量,PE低于1.3的数据中心可享受新增能源消费量支持。信通院,发改委,数据中心PUE下降趋势放缓,亟需新节能技术改造根据uptimeinstitute跟踪的PUE数据显示经过2007-2010年代大幅度效率提升,PUE降幅趋缓相比风冷,液冷除了能够满足高功率密度机柜的散热要求,还能实现较低的PUE和较高的出电(GUE)。相比于传统风冷,冷板式液冷PUE普遍在1.1x,GUE可达75以上,而浸没式液冷PUE低至1.0x,GUE可达80以上。同时使用液冷技术可以去除部分甚至全部的IT设备风(通常风扇能耗也计算在服务器设备能耗中对于浸没式液冷,去除服务器风扇可以将服务器能耗降低大约4-15。图表12:PUE降低进入瓶颈期,需要新技术导入 图13:不同热处理方式的PUE比较2.512.51.981.651.671.581...55252321191715205 210 215 220 225uptimeinstitute, 双鸿法说会,1.3风冷VS液成本测:液冷价值量高且能降数据中心建设TCO制冷系是DC前期建设和后期运的主要成本来源之一根据施耐德电气,制冷系统(传统风冷方案,包含冷冻水机、精密空和冷却塔)在数据中心CAPEX占比在20-25。电力成本在数据中心OPEX中占比超过50,根据国际能源署的研究数,2021全球数据中心用电量为220-320TWh,约占全球最终电力需求的0.9-1.3,而其中冷系统电力成本占比达到40,仅次于T设备。图表14:制冷系统在数据中心建设成本占超20 图15:制冷系统在数据中心电力能耗占达40冷却塔列头
照明及辅助机柜6%精密空调7%冷水机组8%配电8%
6% 4%PS电源18%
组23%电力用户站20%
IT45%
设备 供配电系统5% 10%冷却系统40%施耐德电气, CDCC,市场普遍认为,液冷服务器需深入定制,初始投资较高,且后期维护较复,但我们根据施耐德电气测算发现,虽然液冷设备的前期成本较高,但液冷数据中心建设能够通过去掉冷冻水机组、减少机架、节省IDC占地面积等方降低IDC前期整体建设成本(CAPEX,同时液冷更加节能,节省电费进一步减少运营成本OPEX:APEX对比:我们选取常见风冷冷冻水机组和基于T机箱的浸没式液冷架构,在相同功率密度下对数据中心CAPEX进行测算。假设数据中心总容量为2MW,单机架功率密度为10kW,制冷冗余均为N+1。风冷冷冻水机组 基于IT机箱风冷冷冻水机组 基于IT机箱的浸没式液冷电源冗余2N配电、2NUPS、N+1发电机IT设备成本不含服务器成本制冷冗余N+1冷水机N+1干冷器、水泵等IT设计容量2000kw1880kw不含制冷的服务器容量1820kw1820kwIT设备节省不适用9机架功率密度10kw/架10kw/架架构施耐德电气,液冷降低数据中心CAPEX,提升制冷系统价值量测表明,功率密为10kW/机架,风冷和液冷数据中心的投资成本大致相(7美/kw。在提升数据中心功率密度时,液冷数据中心在节省占地空间和机架数量的成本优势愈发明显提升2倍功率密(每机架20kW)可使初投资可降低10。如果提升4倍功率密度(每机架40kW,可节省高达14的投资成本。同时制冷系统在整个前期CAPEX占比由风冷的15提升至液冷的对制冷系统价值量由0.98美/W提升至1.83美元W。机架功率假设风冷数据心建设成去掉冻水组添加机架功率假设风冷数据心建设成去掉冻水组添加冷技添干器更换泵和管道减少开关和US容节省间、架液冷数据心建设成每机架0w7.02-0.910.770.310.03-0.14-0.16.98每机架0w7.02-0.910.710.310.03-0.14-0.636.39每机架0w7.02-0.910.680.310.03-0.14-0.96.09制冷系统在IDC建占比1430制冷系统本0.9881.827施耐德数据中心投资成本计算器,PEX对比:液冷数据中心PUE可降至12以下,可节省电费,降低数据中心运行成本根据中兴通讯冷却技术白皮书数据显示以规模为10MW的数据中心为例,比较液冷方案PUE1.15)和风冷/冷冻水方案(PUE1.35:风冷、冷板式液冷和浸没式液冷一年的电费分别为841/196/56万元。图18:液冷减少冷却能耗,节省电费支出100100100806040200冷
冷却能W 冷却电费万元来源:中兴通讯冷却技术白皮书,二、散热市向液芯片级演进冷板式成熟度高,浸没式冷却效率高,成本有望进一步优化液冷技术分为接触式及非接触式两种,接触式液冷是指将冷却液体与发热器件直接接触的一种液冷实现方式,包括浸没式和喷淋式液冷等具体方案。非接触式液冷是指冷却液体与发热器件不直接接触的一种液冷实现方式,包括冷板式等具体方案。其中,冷板式液冷采用微通道强化换热技术具有极高的散热性能,目前行业成熟度最高;而浸没式和喷淋式液冷实现了100液体冷却,具有更优的节能效。图19:液冷技术分类总览IDC圈,冷板式液成熟度高。冷板式液冷是通过液冷板将发热器件的热量间接传递给封闭在循环管路中的冷却液体,系统主要由冷却塔CDU、一次侧&二次侧液冷管路、冷却介质、液冷机柜组成;芯片设备热量通过热传导传递到液冷板,工质在CDU循环泵的驱动下进入冷板,之后在液冷板内通过强化对流换热吸收热量温度升高,高温工质通过CDU换热器将热量传递到一次侧冷却液,温度降低;低温的工质再进入循环泵,一次侧冷却液最终通过冷却塔将热量排至大气环境中。图20:冷板式液冷整体链路图英特尔《冷板液冷系统设计参考》喷淋式液冷是面向芯片级器件精准喷淋,通过重力或系统压力直接将冷却液喷洒至发热器件或与之连接的导热元件上的液冷形式,属于直接接触式液冷。喷淋式液冷系统主要由冷却塔CDU、一次&二次侧液冷管路、冷却介质和喷淋式液冷机柜组成;其中喷淋式液冷机柜通常包含管路系统、布液系统、喷淋模块、回液系统等。图21:喷淋式液冷示意图中兴通讯《液冷技术白皮书》浸没式液冷技术通过浸没发热器件,使得器件与液体直接接触,进而进行热交换。浸没式液冷技术主要由冷却液、腔体结构、换热模块及相关的连接管道等设施构成。其中,冷却液为数据中心的换热介质,具有高绝缘、低黏度以及超强的兼容特性,是浸没式液冷技术的主要媒介。图22:浸没式液冷示意图中科曙光,液冷市场需求保持逐年增长状态,冷板式液冷和浸没式液冷是行业内目前共存的两条主流技术路线;伴随国家双节能政策驱动,市场对液冷的需求将逐步提升。考虑到技术成熟度、可靠性、技术通用性、结构颠覆性等多个方面,当前液冷数据中心仍以冷板式液冷占据主流地。冷板式浸没式喷冷板式浸没式喷淋式初始投资冷板规格多、定制成本高,系统带大量的快速头和阀门,投资较高冷却液用量最大,特密封压力容器或卧式冷箱体,成本居中可以采购传统机改造,服务器增必要的密封腔、液板,成本较小IT热管理冷却液通过流道、冷板壳与IT器件换热,属于非触式间接换热,IT设备还有部分风冷系统,热管理较为复杂冷却液与器件或其扩表面充分接触,冷却在箱体的大截面流速低,对流换热系数不冷却液与器件或扩展表面精准接触,且具备一定速度的接触式强对流散热节能效果中等,PUE在11-.3优秀,PUE在1051.1优秀,PUE在1.05-1.1兼容性未与主板和芯片模块进行直接的接触,材料兼容较强直接接触,材料兼容较差直接接触,材料容性较差工程安装优秀(与IT设备连接的管和快接较多,支持热插播)较差(架构改变大,装调试复杂;冷却液般单独运输)中等(冷却液单灌装运输,需考回液箱的布置)空间利用率较高中等最高ASHARE白皮书,风冷为芯级散热主要方案,功耗上限在800W左右芯级散热包含导热、散热两大环节,目前以风冷系统为。芯片散风系统主由散热模、系统风扇组。其中散热模组负责导热将热量从芯片发热源转移到散热,散热端主要风通过空流排出热。相较于液冷方案(通过液体流通将热量吸走,风冷方成更低、技术相对成熟维护方,但是能够覆盖的散热功耗有限且风扇会发出噪声,而液冷散热效率更、噪音更小、散热功耗覆盖范围更高,但成本高、维护困难。图表24:芯片散热方比较芯片散热方式 原理 优点 缺点 散热原理图 对应服务器示例风冷散热风冷散热通过散热器将CPU发出的成本低,维护方便、应用时热量转移至散热模块,过风扇将热气吹走间长、技术成熟噪音、有率限制液冷散热 通过液体流通降温达到散安静、降温效率更高,功耗成本高,热目的 更低 护困难CSDN芯片级散热系统核心为由热管、均热板构成的散热模。一般来说,服务器散热系的作用是将内部热量发散到机柜之外而其中芯片是最主要的发热源。芯片散热模块原理即将芯片热量通过热管、均热等导热材料传导,沿着导热环节到达散热鳍片位。散热鳍片是纯铜制造,多褶结构,与空气接触面积大,传导至散热环节通启动风进行主动散热,风扇的转速会根据散热量的多少自动调,从而完成导热至散热的环节。图25:散热模组常用材料及热流示意图eSun,散热模主要包含导热界面材料热管、均热板和3Daporhaber等。散热模组采用不同的元件,对应的散热功耗上限、成本有差异。从功耗情况来看,风冷模块通常是热管、均热板搭配风扇使用,目前双鸿、健策等厂商也在推进3Daporhaber方案,风冷对应的功率上限在700-800W左右。从价值量的角度来看,传统风冷模块单机价值量是15-20美金,预计随着功率的提升,应3Daorhaber会是翻倍的增长,而水冷的成本则更高具体几种元件来看:导热介面材:普遍应用于所有散热模组中用填补电子材料表面和散热器接触过程中间隙存在的微小空隙及表面凹凸不平的孔洞,加速热能传导,将晶片热能传导到散热鳍片上,降低晶片温度、提高晶片寿命及产品使用效能。导热介面材料的类型包含导热矽胶片、导热胶带、导热膏、导热胶泥,不同材料的核心差异在于导热系数、材料可靠度、耐电压、软硬度等等。热导管:利用物质汽态、液态二相变化,和对流原理设计而成。热管的主要特性是快速均温,是现在电子产品散热装置中最普遍高效的导热元件,运用范围、普及率更高,普遍运用于各式热交换器、冷却器等器件中。均热片(VaporChamber,均温:两相热传基础元件均热片采用平面格式的两相冷却的高热传输能力,可将高温点热源快速传到至大面积上散热,功能及工作原理与热导管相同,由封闭于板状腔体中的流体蒸发、凝结,循环作动。散热风扇:散热风扇已成为各散热产品的重要组成元件,在散热模组中,散热空间受限,风扇可以实现强制空气对流的功从而进行散。通过不同的扇叶设计,扇叶运转时产生空气流动,制造强风压,降低操作设备的温度,维持电子产品时脉频率稳定,避免热损造成设备性能降低风扇通常数量固定,通过转速提升响应散热需,1U通常是8颗4x42U通是6颗6x6者4颗8x8,U通常是8颗8x8。图26:导热界面材料分类tglobal,原理与理论架来看,均热片与热管是相同,是芯片级散热的重要元件。由于芯片功率增加、芯片尺寸缩小,整体功率密度上升,相较于热导管,均温板平面式的应用使其导热速度更加、导热效果更均匀原理上来看,热管的热传导方式是一维的,是线的热传导方式,而均热片的热传导方式是二维的,是面的热传导方式。此外,由于均热片是扁平型的,可做成弯曲复杂的形状,不像热管能做成直管或弯管,且均热片可装置的散热鳍片相对较热管的鳍片多,因转移热量更大。图27:热管与均热板原理图台达电子官网,热管、均热下游应用领域广泛应用涵盖伺服器、通讯基地台、车用、游戏机PC等领域,近年更朝向车用、高速运算HPC、AI等的深化应用。预计热管2029年市场规模将达到38亿美元6年CAGR为4.6。全球热管主要厂商Furukawa、Aavid、Fujikura、CoolerMaster、AVC等,全球前五大厂商共占有超过的市场份额。目前亚太地区是全球最大的热管市场,占有超过45的市场份额,之后是欧洲和北美市场,二者共占有超过40的份额根据QYR数据统计及预测2022年全热管市场销售额达到了28亿美元,预计2029年将达到38亿美元,年复合增长率CAGR为4.6。预计均热板2028年市场规模将达到17.82亿美元7年CAGR为14.20%。根据QYR数据统计,全球均热板市场主要生产商有双鸿科技、尼得科、健策精密工业等企业,排名前三的企业占全球市场约50的份额其中中国是主要市场,占全球约80的市场份额据GlobalInformation数据统计2021年增加到7.364亿美元,预计到2028年达到17.82亿美元,7年CAGR达14.20%,整个市场45被智能手机市场占据。三、I大模型带来了多液冷市增量?多样化新兴技术带中国智能算力规高速增长我国大型及以上数据中心机架规模增长迅速,近年来我国数据中心机架规模稳步增长,按照标准机架2.5kW统计,截至2021年底,我国在用数据中心机架规模达520万架,近五年CAGR超30,其中大型及以上机架规模20万架,占比80。我国数据中心主要通用算力为主,随着AI、边缘计算需求的提升,超算、智算数据中心数量有待增长。当前通用算力机架规模占比超过90,超算中心主要应用于国家科研,商业场景较少;算中心逐步从早期实验探索走向商业试点,随着人工智能应用场景的丰富,预期规模增速将达到70。图图28:大型及以上机架规模增长较快,占比达8080706050403020100217
218
219
220
221
22E总机架数量(万架) 大型规模以上机架数量(万架)来源:工信部,图表29:中国智能算规模CAGR超图30:中国通用算力规模CAGR近浪潮与IDC测算:2021年中国智能算力规模达155.2每秒百亿亿次浮点运算EFLOPS2022年智能算力规模将达到268.0EFLOPS,预计到2026年智能算力规模将进入每秒十万亿亿次浮点计算(ZFLOS)级别图表29:中国智能算规模CAGR超图30:中国通用算力规模CAGR近10010010080604020
101080604020021922022122E22E22E22E22E
021922022122E22E22E22E22EIDC&浪潮信息《中国人工智能计算力发展评估报告》, IDC&浪潮信息《中国人工智能计算力发展评估报告》,大模型训+推理驱动液冷市场总量增加和边际增速提升训练阶段:根据OpenAI团队发表于2020年的论文LanguageModelsareFew-ShotLearners,训练1次1746亿参数的GPT-3模型需要的算力约为3640Petaflop/s-day,假设当前大模型每次训练需要一个月的时,则对应算力需求为121petaflops。随着模型参数增加和训练时间缩短,远期算力需求会有明显增长AI训练芯片参考英伟达A100参数,算力5.67TFlops,有效算力约为30。推理阶段:与用户活跃数、提问字数等参数有关。此处不考虑峰值,假设访问需求平均分配在全天各个时段随着AI应用深化,用户活跃数、模型参数会呈现明显增长,此外访问时延降低AI推理芯片参考英伟达T4参数,算力8TFlops,假设有效算力利用率30。算力需求算 2023E 2024E 2025算力需求算 2023E 2024E 2025E 2026E 2027E训练阶段训练一次需要的算力PFlops3640546081901228518428训练一次时间天30181164算力需求PFops12130375818964740AI训练芯片算力TFlops15.722314360有效算力利用率3033364044AI训练芯片数量个2581041900680191104017923推理阶段日活千万人次235710每次提问字数10001000100010001000token亿40060090013502025模型参数亿15002250337550637594回答时延秒54.03.22.62.0算力需求pfops138.9390.6109863089986904AI推理芯片算力tflops6.08121623有效算力利用率3033364044AI推理芯片数量个7716014098257394700485835openAI,英伟达,
参考相应训/推理芯片热设计功耗分别为00/200W,且未来随着芯片性能呈正比例增长,得到散热总需求。2023E2024E2025E2023E2024E2025E2026E2027EAI训练芯片设计热功耗w400448502562629AI推理芯片设计热功耗w200224251281315散热需求kw257565033798695194120382961国内具备大模型的科技公司和院校量15121086总散热需求kw3.9E+56.0E+59.5E+51.5E+62.4E+6英伟达,
计算结果表明,一个设计容量为5MW、单机柜功率密度20kW的数据中心前期建设成本为20/W,其中制冷系统占比为35,对应冷板式液冷成本在7108元/kW。浸没式液冷需要的绝缘冷却液成本较高,我们预计其成在25000元/kW。条件数据中心位置中国数据中心设计容量5000Kw平均功率密度条件数据中心位置中国数据中心设计容量5000Kw平均功率密度20Kw制冷系统冷水机+干冷器CRHUPS架构传统不可扩展UPS冗余级别N配电;N+1UP;+1发电机组开关柜N+1CRAH;N+1冷冻水泵N1冷水机组结果数据中心成本元/W20.17配电系统占比42.91制冷系统占比35.24其他21.85制冷系统成本元/kW7107.908来源:施耐德数据中心投资成本计算器,当前冷板式液冷技术成熟度较高,在液冷技术路线中处于主流,假设当前占比为80未来随着浸没式液冷技术成熟及,整体占比有望逐步提升。综合测算AI大模型训+推理会带来0亿元的液冷市场空间,随着模型参数增加、使用推广,未来四年带来液冷市场60+年复合增速。2023E2024E2025E2023E2024E2025E2026E2027E总散热需求kw3.9E+56.0E+59.5E+51.5E+62.4E+6冷板式液冷占比8070605040浸没式液冷占比2030405060冷板式液冷单价元/W70006300567051034592.7浸没式液冷单价元.W25000225002025018225164025液冷市场规模亿元41.067.4109.0173.9274.8 施耐德电气,英伟达,
根据我们测算,预计服务器散热模规模至2026年能保持接近30的复增长。基于下假设1)IDC预测2026年全球服务器出货量1877万台;2)AI服务器的占比逐年提升3)随着功率增加,水冷渗透率提升,水冷服务器数量每年以25增长;4)随着率增加散热要求提,风冷、水冷ASP价格逐年上涨,分别为15、10。图表35:全球服务器散热模块市场规模测算20222023E2024E2025E2026E全球服务器出货量(万)1,4951,4931,6251,7631,877YoY10.4-0.18.88.46.5风冷服务器占比90.089.487.885.983.5风冷服务器数量(万)1,3451,3351,4271,5141,567风冷散热模块ASP(美元)17.019.622.525.929.7风冷市场规模(万美元)22,86726,09132,08239,15646,580水冷服务器占比8.510.612.214.116.5水冷服务器数量127159198248310水冷散热模块ASP(美元)180198218240264水冷市场规模(万美元)22,86731,44243,23259,44481,736服务器散热模块市场规模(万美元服务器散热模块市场规模CAGR45,73357,53275,3142998,600128,316来源:测算
四、投资建议我们认为AI大模型有望引领算力需求升级,带动高功率密度的智算和超算中心建设,加速配套设施液冷系统导入市,未来伴随新建数据中心建设和存量数据中心改造,整体渗透率有望快速提升。当前液冷行业仍处在发展早期,看好在技+产能领先布局的厂商。考虑到竞争壁垒在于对场景定制化程度的理解,平台能力的快速延展,我们建议三条主线关注液冷技术的发展和投资机会1)华为电气艾默生系的专业温控厂商:最早从事精密空调研发设计具备多年的产业洞,对技术研发具备前瞻性,且形平台化的散热布局赋能多行业应用2)布局液冷技术的服务器厂商:冷却技术由房间级向行级甚至服务器内部芯片级延伸,能够参与液冷技术方案的服务器厂商,有望更快迎来算力升级的机遇,强化产品竞争;3)提供包含芯片级散热的完整解决方案的供应:芯片作为服务器核心热量源,随着芯片功率提升,散热方案服务器内部芯片升级。主线一华为电气-艾默生的专业第三方温控厂商国内机房空调市场一超多强,维谛技术龙头地位稳固。据ICTResearch数据,2019年国内机房空调市场维谛技术市占率30左右,佳力图、艾特网能、依米康、华为和英克各占10左右。维谛技术前身是艾默生网络能源,在数字基础设施领域深耕多年,续16年在国内机房空调市场排名第一。全球范围内,维谛术有广泛的客户基础,目前在网运行超过100万套空调产品,未来存量数据中心产品替换具有规模优势。图36:机房空调呈现一超多强竞争格局申菱环境 其他海信2% 6%3%4%世图兹5%
维谛技术30%英维克9%华9%ICTResearch,
依米10%
10%
12%艾默生系公司普遍具备基础的散热技术平台,且拥有技术横向复用、业务横向开拓的能力艾默生系诞生一批国内电力电子技术龙头公司,如汇川技术、麦格米特等,基于电力电子技术,聚焦在细分领域的应用,并逐步实现场景化的扩张市值由十亿级走向百亿和千亿级。我们认为,艾默生系公司普遍是聚焦行业的领头羊具备领先于行业技术研发和产品推广,一方面基于多年的产业洞察,对技术研发具备前瞻性,另一方面形成平台化的布局,赋能多行业应用从温控产业来看,行业龙头维谛技术是来源于艾默生网络能源的独立上市,英维克、依米康和艾特网能等公司创始人均来自力博-华为电气-艾默生体系,也是国内最早从事精密温控空调研发设计,对行业know-how理解深刻,定制化能力和平台响能力较。图表37:艾默生深耕多年,诞生出国内优秀的数字能上市公司wind,英维克国内精密温控龙头端到端全链条液冷布局公深耕精密温控领域,产品矩阵丰富,机房与机柜温控份额领先。公司是国内领先的精密温控节能解决方案和产品提供商,在精密温控领域客户基础与品牌优势显著,兼具差异化与规模效应四大产品线助力公司高成长历史十年总体营收与归母净利润复合增速均在45,业绩较为稳健公司已初步形成基于统一技术和业务平台的汇集多个业细分领域的业务布局,兼具差异化门槛与规模效应双重优势。现有机房温控节能产品、机柜温控节能产品、客车空调和轨道交通列车空调及服务四大产品线。其中,公司于2018年收购上海科泰,成功新增轨道交通列车空调业务线,增厚公司经营业绩。图表38:英维克具备平台化能力实技术+产品+应用的横纵拓展英维克官网,wind,发布端到端的全链条液冷解决方案22年液冷收入同比增长四倍2021年英维克发布全链条液冷解决方案,并实现单机柜200千瓦批量交付2022年,英维克发包括coolinside在内的全链条液冷六大集成交付方,包括冷板液冷、浸没液冷等多技术可用于大型、中型、小型等各类数据中心应用场。截至23年3月,已实现500MW交付。得益于液冷需求的快速增长公在液冷的“全链条”平台优势,来自数据中心机房及算力设备的液冷技术相关营业收入在2年约为21年度的5倍左右。图39:英维克发布全链条液冷解决方案英维克公众号,依米康精密空调外延至全生命周期解决方案,赋能BATH数据中心建设公司全面推进“解决方案驱动”模式,发展成为数字基础设施全生命周期解决方案服务商。公司基于精密空调产品线的完善,结合自身系统集成、运营管理等方面的经验积累,不断优化信息数据领域的整体解决方案,是行业内少有的产业布局横跨精密空调、系统集成和运营管理等专业领域的企业。公司凭借对行业及客户场景的深度理解,以精密空调等关键设备为基础,逐步外延覆盖数据中心“-边端”基础设施架构设计、集成、总包服务,形成数字基础设施产业的温控设备、工程技术、物联软件、智慧服务的四驱动全产业链布局。业务类别 提供的产品、服务关键设备云数据中心、通信信业务类别 提供的产品、服务关键设备云数据中心、通信信息机房、边缘数据中心、基站等精密环境所需的精密空调、微模块、UPS电源、冷通道、磁悬浮冷水机组智能工程云边端数据中心基础设施整体设计、布局、集成、预制化、总包等服务物联软件数据中心动环监控、能源管理、CIM系等软件、智能巡检机器人、智慧园区智慧服务数据中心智慧运行维护、智慧乡镇、整节能改造组合方案等服务依米康年报, 依米康年报,公司深耕行业,积累优质客户资源公司具有二十余年的数据中心服务经验,是行业内唯一连续11年入围中央政府采购名录的企业,也是三大运营商的主要集采供应。同时与互联网巨头和诸多行业头部企业建立了良好持续的合作,具有一定的客户资源优势,形成了较强的示范效应,拥有规模效应带来的供应链成本优势。图表42:依米康与下游多行业客户形成深度合作依米康官网,
华为数字能源:比特管理瓦特AI-iCooling开启温控散热智能时代数字能源业务是华为打造的第四条S曲,利用ICT技术加速能源数字。2022年华为数字能源业务收入508亿元,同增长50+,乐观预计未来三年营收有望达到200亿美元华为数据中心能源中,智能温控采取间接蒸发冷却逐步替代传统冷冻水方案2021年8月华为京东联合推出全新一代间接蒸发冷却方案成都智算中心一期项目人工智能机柜(Atlas)单柜功率密度达46kW,采华为液冷技术高效制冷,机柜数量占比约5图43:华为智能温控散热产品NetCol5000A行级风冷智能温控产品NetCol5000C行级冷冻水智能温控产品NetCol8000A房间级风冷智能温控产品NetCol8000C房间级冷冻水智能温控产品FusionCol800C风墙智温控产品华为数字能源官网,
智能化数据中心温控产品,通常部署于机柜列间,易于扩容,智能匹配负载需求,采用高送回风温度设计,降低PUE行级冷冻水温控产品,是一种安装在机房内的末端送风单元,通常与冷水机组、水泵、冷冻水管道等共同组成一个完整的制冷系统房间级风冷智能温控产品,由室内机和室外机组成完整制冷系统,采用全变频设计,支持上、下送风,满足不同机房制冷需求房间级冷冻智能温控产品,通常与冷水机组、水泵、冷冻水管道等共同组成一个完整的制冷系统风墙智能温控产品,通常与冷水机组、水泵、冷冻水管道等共同组成一个完整的制冷系统主线二领先布液冷技术的服务器厂商未来温控冷却由房间级向行级、芯片级演进,需要服务器厂商架设计的配合。液冷温控本身具备极高的定制化程度,服务器厂商参与液冷技术的研发能更好掌握冷却阈值与算力上限的平衡最大程度提升服务器算和产品竞争力。根据IDC公布的服务器市场份额数据,浪潮信息22年市场份额1稳坐行业头部,此外超聚变和中兴通讯份额提明显,由21年的3.2/3.1提升至22年的10.1/5.1,当前头部服务器厂商均有技术布局。图44:浪潮和新华三在国内服务器市场份额领先超聚变中兴通讯增速较快3%3%
31%19%1819%1817%%3%3%17286%6%8%5%7%5% 5%6%6%10%2%2%1%1%5%0%浪潮 新华三 超聚变 宁
中兴 戴
联想
ohrs221 222云头条,IDC,中兴通讯:算网龙头推出ICT液冷一体化方案2022年中兴通讯服务器及存储营业收入百亿元,同比增长近80。在中国服务器市场额.3位列第五在电信行业,公司服务器及存储产品发货量蝉联第一据通信产业统计2022年三大运营商发布的服务器相关招标公,公司市场份额超过25,是三大运营商的主流供应。图45:22年中兴通讯在运营商服务器市场蝉联市占率第一其他神州数码4%神州数码4%汉长江%通信%26%%新华三10%17%武4烽火47超聚变16%运营商招标公告,通信产业网,公司推出ICT液冷一体化解决方案最新发布G5系列服务器支持液冷散。随着对技术不断的积累和创新,公司已将液冷技术应用到通讯领域,完成单板级、插箱级、机柜级、机房级四个不同维度的液冷技术攻关,并推出ICT液冷一体化解决方案,实现DC液冷数据中心机房IT液冷服务器设备CT液冷路由交换设备一体化集成开发。此外最新发布G5系列服务器产品,支持液冷散热,采用最新的英特至第四代可扩展处理器,双路最大支持120核,具备高密度算和异构算,提供更加强劲的算力支撑。图46:中兴通讯推出的一体化ICT液冷解决方案来源:中兴通讯液冷技术白皮书,浪潮信息:服务器龙头,战略发展Allin液冷”根据Gartner和IDC数据,1H22公司服务器出货量位居全球第二、中国第一AI服务器市占率20.9,多节点服务器市占率13.1,长期保持全球第一,边缘服务器以市占率持续领跑国内市场22年公司发布全栈液冷产品,实现通用服务器、高密度服务器、整机柜服务器AI服务器四大系列全线产品均支持冷板式液冷,并提供液冷数据中心全生命周期整体解决方,目天液冷基地年服务器产能超10万台。与京东云联合发布天枢液冷整机柜服务器,实现散热效率提升50,能耗降低40以上,已在京东云据中心实现规模化部署。图47:浪潮信息液冷产品实现全栈布局来源:浪潮信息生态伙伴大会,中科曙光:超算龙头铸就数据中心液冷领军中科曙光是国内超算龙头“曙光星云”赋能多智算超中心建设,在全国建设运营50多个云计算数据中。中科曙光2011年投入液冷研发,2015年上线第一批商用冷板式液冷设备,其提出的浸没相变液冷技术,可使PUE最低降至1.04,相比传统风冷数据中心能效比提升30。孵化出子公曙光数创国内服务器液冷领军企业22IPO募集资金近2.3亿元用于液冷数据中心产品升级及产业化研发项目。拟以募集资金项目名称 周期投入金额液冷数据中心产升级及产拟以募集资金项目名称 周期投入金额液冷数据中心产升级及产业化研36个月17457万元补充流动资金2023至20255295万元合计22752万元曙光数创招股说明书, 曙光数创招股说明书,曙光数专注数据中心高效冷毛利率40+行业领。公主要产品分为浸没相变液冷、冷板液冷以及模块化数据中心三大,历史五年收入CAGR达35.5,22年收入5.2亿元公司浸没式优势显著,贡献近八成收入,未来冷板式将逐步放量贡献收入增速。图表图表50:曙光数历史五年收入CAGR35.5,毛利率40+605040302010
5%4%3%2%1%0 0%215 216 217 218 219 220 221 222总营收 8000全浸式液冷 7000冷板式液冷 模块化数据中心 I配套设备 运维 毛利率%wind,曙光数创招股说明书,主线三:提供包含芯片级散热的完整解决方案的供应商双鸿科技:全球笔电散热龙头,积极布高算力液冷方案双鸿科技股份有限公司成立于1998年,以NB散热设计、加工制造和销售发家,后切入非NB产品线,包括服务器、绘图显卡、一体成型计算机等的散热模块,成为全球第一大笔记型计算机散热模块设计及制造厂。客户包含DELL、广达、仁宝、纬创、三星、和硕、英业达与鸿海,近期持续拓展服务器HPC等相关应用领,目前双鸿科技核心业务包括NB/DT、智能手机VGA/Gaming、服务器和汽车等散热模块设计和制。全球笔电散热龙头,游戏散热器内外兼施。根据双鸿科技2021年度财务报告书PC类散热模组NB+DT)全球出货量市占率达25。GamingMB热处理系统主要包括IO级外壳ClassIOCOVER、动态触控板DynamicTouchPanel、磁吸LED(MagneticLED)和散热器M.2ShieldFrozr。游戏散热器不仅要求更好的散热效率,而且在外上的设计上也提出了更高要求IDdesign是主要发展方向。图表51:双鸿科产品发展 图52:双鸿科应用产业主要产品双鸿科技官网, 双鸿科技官网,大数据催生高性能计算系统,高算力提升冷却需求。对于服务器与数据中心的热处理解决方案,双鸿科技的冷却方案为风冷(AurasAirCoolingSolution,AACS)和液冷(AurasLiquidCoolingSolution,ALS,主要是闭环模块(CLM)和开放模块(OLM。AACS具体包括服务器CPU、AIGPU、交换芯片Switch)和控制器DDRALCS具体包括冷却板ColdPlateModules、冷却分配装置(CoolingDistributionUnits、Rack、背板热交换器RDHx、风扇门板FanDoor)和集水管Manifold)六大关键组成。按照双鸿科技提供的散热方案当热功耗较较低时,在1000瓦以或可采取风冷方式,主要是高性能路由、高性能直接接触HDC)和各类均热板(VCwithHP/3DVC/3DLoopVC)三种方案,并且随着瓦数的增长,散热空间高度增大。当瓦数较高时,可采取闭环液冷方式,当瓦数上升到1500瓦时,一般采用开路液冷方式。通过不同热功耗大小选择合适的散热方式,提高热处理效果,满足服务器系统散热需求。图表53:双鸿科风冷液冷解决方案 图54:双鸿科技液冷产品系统双鸿科技法说会, 双鸿科技法说会,健策精密:全球均热片主要供应厂商深入车用、高速运算HPC、AI等领域健精密产品主要包括均热片LED导线架及电子零件2022年Q1-Q3,LED导线架、散热产(含均热片及车用水冷散)、电子零组件及其他,营收分别占比22、50、18、10。健策精密均热片应用终端广泛,涵盖服务器、通讯基地台、车用、游戏机PC等,近年产品线发展逐渐深入车用、高速运算HPC和AI等领域。健策精密电子设备冷却产品包括散热器(HS)和均热板(C)两类,两者主要应用于CPU/GPU、数据中心、服务器、笔电手机领域HS是覆盖在CPU处理器的金属外壳,起到保护芯片和将芯片产生的热量向外部快速散发的作用;均热板是一种扁平状的导热器件,相比HS散热性能更好健策精为中国台湾少数具均热片生产经验者,在均热片的设计、冲压、电镀等制程灵活性高,使用的设备符合整合型晶片的趋势发展,其均热片可以适用于不同尺寸的晶片。图表55:健策精密电子设备冷却应用领域 图56:健策精散热器HS)和均热板VC)健策精密官网, 健策精密官网,深布局车用、高速运算HPC等领域。车用散热的应用领域包括逆变器功率模组散热地板+框、无人驾驶运输中心冷却板和锂电池冷却,健策精密产品涵盖IGBT半导体冷却器AISiC垫片ECU(发动机控制单元)冷却板和电池冷却板四类。对于PinFin散热片IGBT功率模块安装在水冷用的针翅基片上,可以提高IGBT产品的热循环能力及寿命ALSiC垫片双面冷却结构可以大幅提高散热效率AlSiC(铝碳化)复合材料是一种新型的IGBT散热材料,可以提供良好热鼓胀系数的材料,大大提升了IGBT功率模块的性能。ECU冷却板主要用于自动驾驶汽车,对控单元(对图像传感器得到的图像和数据进行处理)进行水冷冷却。电池冷却板主要用于新能源汽车,起到控制锂离子电池温度的作用,以保证电池性能和寿命,冷却板可以根据电池形状进行定制设计。图表57:健策精车用冷却应系统 图58:健策精车用、HPC等领域冷却产品健策精密官网, 健策精密官网,富信科技:解决方案覆盖全产业链,高端TEC逐步国产替代富信科技主要业务包括半导体热电器件及系统、热电整机应用等,具备全产业链技术解决方案及核心器件的独立研发制、综合运用能力2022H1富信科技热电整机营收占比58.19,半导体热电系统营收占比16.92,半导体热电器件占比14.06。富信科解决方案涉及军事、消费品、汽车、半导体、工业、通讯和生命科学领域,是全球半导体热电产业中,少数涵盖从核心部件到下游热电整机应用的全产业链技术解决方案自主研发的企业之一。按热电转换的应用方向不同富信科生产的半导体热电器件包括半导体热电制冷器件和温差发电器件,其中半导体热电制冷器件销量和营收占比较大富信科是目前
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 校园文化建设与学校发展战略
- 行为习惯与孩子未来家庭教育的长远影响
- DB6103T 80-2025猕猴桃园覆土栽培香菇技术规范
- 不可撤销物业服务合同范例
- 中保人寿幸福家园保险合同范本(A)
- 临街旺铺租赁合同样本
- 二手车买卖合同(权威版)
- 业务拓展与培训合作合同
- 上海市物流运输合同范本
- 个人信用担保贷款合同范文
- 美容卫生管理制度
- 铜陵2025年安徽铜陵郊区周潭镇招聘乡村振兴专干和村级后备干部5人笔试历年参考题库附带答案详解
- 2025年纪检办公室工作计划范文
- 七年级上学期历史期末考试模拟卷02(原卷版)
- 华北理工儿童口腔医学教案06儿童咬合诱导
- 中国建筑项目管理表格
- 高一3班第一次月考总结班会课件
- 公共政策分析导论教学课件汇总完整版电子教案
- 我国油菜生产机械化技术(-119)
- 大跨度斜拉桥上部结构施工技术(图文并茂)
- 论人口模型论文计划生育政策调整对人口数量结构及其影响
评论
0/150
提交评论