AIGC行业市场前景及投资研究报告:液冷AI时代“光模块”_第1页
AIGC行业市场前景及投资研究报告:液冷AI时代“光模块”_第2页
AIGC行业市场前景及投资研究报告:液冷AI时代“光模块”_第3页
AIGC行业市场前景及投资研究报告:液冷AI时代“光模块”_第4页
AIGC行业市场前景及投资研究报告:液冷AI时代“光模块”_第5页
已阅读5页,还剩34页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

液冷,AI时代的下一个“光模块”AIGC行业深度报告(16)2024年7月24日核心逻辑:

为什么说液冷是AI的下一个光模块:

AI高速互联时代,高算力与高效传输架构相匹配,从40G取代10G,100G取代40G,400G取代100G,800G取代400G,1.6T有望取代800G,升级之路永不停息;液冷已经从“选配”到“必配”,高温环境下,芯片内部的电子元件会因为长时间工作而受到损耗,从而缩短芯片的使用寿命,风冷的极限芯片散热功率是800W,英伟达部分产品已经突破风冷能力上线,例如GH200以及最新款B200、GB200

。此外单机柜密度来说,

2025年AI集群算力单机柜密度将有望到20-50kW,也远远超出了风冷的上限。政策为液冷市场扎入“强心剂”,国家政策对PUE值要求趋紧,呈逐年下降趋势。

深度拆解液冷的核心价值链:液冷分为冷板式液冷,浸没式液冷、喷淋式液冷,我们判断冷板式液冷有望率先放量。根据我们的测算,2024、2025年我国的液冷市场规模分别为208.17、1700.23亿元,同比增速分别为756.6%、716.8%。液冷散热系统通常由至少两个相互隔离的循环回路组成,一次侧主要的散热设备主要有三种:干冷器、冷却塔和制冷机组,冷板式液冷的二次侧组件包括:冷板组件、快速接头QDC、机柜工艺冷媒供回歧管RCM、环路工艺冷媒供回歧管LCM、冷量分配单元CDU及工艺冷媒,相关公司有望在液冷趋势下快速放量。

深度拆解液冷的受益公司类型:维谛技术(Vertiv)深度绑定英伟达从而迈向成长,公司2023年3月31日股价为11.75美元,公司2024年3月31日公司股价为81.67美元,我们判断其背后的原因为由于AIGC爆发,公司相关液冷数据中心产品业绩迎来高增。我们将液冷产业链的受益公司简单拆解为三类,分别是服务器内侧端、液冷建设端、液冷基础设施提供商;我们将服务器内侧端定义为服务器内部的组件,可直接受益高功率AI芯片放量。液冷建设端,由于建设主体的不同,我们将液冷建设端分为液冷全链条式解决方案厂商、服务器厂商以及IDC厂商,每种类型厂商独具优势。液冷基础设施提供商即可提供相关液冷单独产品,随着液冷的升级换代,其相关产品有望量价齐升。

投资建议:在AI芯片架构升级的大趋势下,高算力与高功耗相匹配,英伟达相关产品功耗已经超过风冷极限,液冷已经从“选配”到“必配”,受益标的为:服务器内侧端:服务器内侧端:飞荣达等;液冷建设端,全链条式解决:

英维克、申菱环境、高澜股份等;液冷建设端,服务器厂商:

工业富联、浪潮信息、曙光数创等;液冷建设端,IDC建设:润泽科技、奥飞数据、数据港等;液冷基础设施提供商:强瑞技术、淳中科技、朗威股份、川环科技、海鸥股份等;

风险提示:

核心技术水平升级不及预期的风险、AI伦理风险、政策推进不及预期的风险、中美贸易摩擦升级的风险。2目录01液冷已经从“选配”到“必配”02深度拆解液冷的核心价值链03梳理液冷产业链的受益公司04投资建议05风险提示301

液冷已经从“选配”到“必配”41.1算力在大模型时代迎来爆发,光模块需求高增

大模型参数呈现指数规模,引爆海量算力需求:

根据财联社和OpenAI数据,ChatGPT浪潮下算力缺口巨大,根据OpenAI数据,模型计算量增长速度远超人工智能硬件算力增长速度,存在万倍差距。运算规模的增长,带动了对AI训练芯片单点算力提升的需求,并对数据传输速度提出了更高的要求。根据智东西数据,过去五年,大模型发展呈现指数级别,部分大模型已达万亿级别,因此对算力需求也随之攀升。

大模型参数量的增长,数据中心互联互通成为核心关键:在万亿级大数据的背景下,单卡/单服务器算力已经无法支撑庞大模型的训练,而芯片与芯片之间的互联成为重中之重,集群的效应显得尤为关键,因此在AI的大背景下,由于叶脊网络架构中的服务器交换流量较大,因此服务器与交换机互联的统一互联互通的数据中心均使用光模块,而光模块传输速度越高,证明其互联互通的效率也就越高,因此在整体算力芯片架构升级的大背景下,传输速率较高的光模块成为当下的首选。近年大模型的参数规模增长趋势光模块细分市场预测51.1算力在大模型时代迎来爆发,光模块需求高增

AI高速互联时代,高算力与高效传输架构相匹配:复盘英伟达数据中心芯片产品,其中明显可以看到显存带宽与互联互通传输速度的稳定增长。AI高速互联时代,高算力与高效传输架构相匹配架构型号规格英伟达Volta架构V100英伟达Turing架构T4英伟达Ampere架构V100sPCIeA100A800PCIePCIeSXM2PCIeSXMPCIeSXMNVIDIAAmpereNVIDIAAmpere芯片架构NVIDIAVoltaNVIDIAVoltaNVIDIAVoltaNVIDIATuringNVIDIAAmpere

NVIDIAAmpereNVIDIAAmpere显存显存带宽32GB或16GBHBM2

32GB或16GBHBM232GBHBM21134GB/s8.2TFLOPS16GBGDDR6320GB/S80GBHBM2e1935GB/s80GBHBM2e2039GB/s40GBHBM2

80GBHBM2e1555GB/s

1935GB/s80GBHBM2e2039GB/s900GB/s7TFLOPS900GB/sFP64算力7.8TFLOPS254.4GFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPS9.7TFLOPS

9.7TFLOPS19.5TFLOPS

19.5TFLOPS19.5TFLOPS

19.5TFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPSFP64TensorCoreFP32算力14TFLOPS15.7TFLOPS125TFLOPS16.4TFLOPS8.1TFLOPS65TFLOPSFP32算力(Tensor)TensorFloat32(TF32)TF32(TensorCore)FP16算力(TensorCore)BFLOAT16(TensorCore)FP8(TensorCore)INT8算力

(TensorCore)CUDA核心数量156TFLOPS312TFLOPS312TFLOPS312TFLOPS-156TFLOPS312TFLOPS312TFLOPS312TFLOPS-156TFLOPS

156TFLOPS312TFLOPS

312TFLOPS312TFLOPS

312TFLOPS312TFLOPS

312TFLOPS156TFLOPS312TFLOPS312TFLOPS312TFLOPS-112TFLOPS130TFLOPS--624TOPS6912432130TOPS2560320624TOPS624TOPS624TOPS624TOPS51206406912432TensorCores核心数量功耗250瓦300瓦211250瓦70瓦136300瓦400瓦250瓦300瓦542400瓦晶管数量(亿)制成(nm)5427nm12nm12nm7nmNVLink:600GB/sPCIe4.0:64GB/sNVLink:600GB/sPCIe4.0:64GB/sNVLink:400GB/sPCIe4.0:64GB/sNVLink:400GB/sPCIe4.0:64GB/s互联速度32GB/s300GB/s32GB/s32GB/S61.1算力在大模型时代迎来爆发,光模块需求高增

英伟达Blackwell架构发布,传输速率更上一层楼:可以看到英伟达Blackwell架构下的新品传输速率和显存带宽相较于Hopper架构有显著提升;AI高速互联时代,高算力与高效传输架构相匹配架构型号英伟达Hopper架构H800Blackwell架构B200H100PCIeH200SXMGH200B100GB200规格SXMNVLSXMNVIDIAHopperPCIe芯片架构NVIDIAHopper

NVIDIAHopper

NVIDIAHopperNVIDIAHopperNVIDIAHopperNVIDIAHopper+ARMNVDIABlakwellNVDIABlakwellNVDIABlakwell显存显存带宽80GBHBM33.35TB/s34TFLOPS67TFLOPS67TFLOPS80GBHBM2e2TB/s188GBHBM37.8TB/s80GBHBM380GB

HBM32TB/s141GBHBM3e4.8TB/s96GB|144GBHBM3e512GB/s(CPU)34TFLOPS192GB8TB/s192GB8TB/s384GB3.35TB/s1TFLOP16TB/sFP64算力26TFLOPS51TFLOPS51TFLOPS68TFLOPS134TFLOPS134TFLOPS0.8TFLOP0.8TFLOP51TFLOPS34TFLOPS67TFLOPS67TFLOPSFP64TensorCoreFP32算力1TFLOP67TFLOPS30TFLOPS40TFLOPS90TFLOPS67TFLOPS67TFLOPSFP32算力(Tensor)TensorFloat32

(TF32)67TFLOPSTF32(TensorCore)494.5TFLOPS378TFLOPS756.5TFLOPS756.5TFLOPS1513

TFLOPS1513TOPS16896989.5TFLOPS

494.5TFLOPS1979TFLOPS

989.5TFLOPS1979TFLOPS

989.5TFLOPS3958

TFLOPS

1979TFLOPS378TFLOPS756.5TFLOPS756.5TFLOPS1513TFLOPS1513TOPS494.5TFLOPS989.5TFLOPS989.5TFLOPS1,979TFLOPS1,979TOPS16896494TFLOPS990TFLOPS990TFLOPS1,979TFLOPS1,979TOPS0.9PFLOPS1.8PFLOPS1.8PFLOPS3.5PFLOPS3.5PFLOPS1.12PFLOPS2.25PFLOPS2.25PFLOPS4.5PFLOPS4.5PFLOPS2.5PFLOPS5PFLOPS5PFLOPS10PFLOPS10PFLOPSFP16算力(TensorCore)

989.5TFLOPSBFLOAT16(TensorCore)

989.5TFLOPSFP8(TensorCore)INT8算力(TensorCore)CUDA

核心数量1979TFLOPS1979TOPS3958TOPS1979

TOPS16896TensorCores核心数量功耗528528528700瓦300-350瓦8002x350-400W

高达700瓦300-350瓦700瓦1000瓦700W1000W2700W晶管数量(亿)制成(nm)8004nm8004nm4nm4nmNVLink:600GB/sPCIeGen5:NVLink:400GB/sPCIe5.0:128GB/sNVIDIA

NVLink®:·900GB/S·PCleGen5:128GB/sNVLink:

NVLink:900GB/sPCIe

600GB/sPCIeGen5:128GB/s

Gen5:128GB/sNVLink:400GB/sPCIe5.0:128GB/s互联速度900GB/sbidirectional

NVLink:1.8TB/sNVLink:1.8TB/sNVLink:2x1.8TB/S128GB/s71.2

液冷已经从“选配”到“必配”,液冷拐点已经到来

为什么说液冷是AI的下一个光模块:电子产品升级迭代规律使然,从上文证实的光模块成长路径,AI高速互联时代,高算力与高效传输架构相匹配。从40G取代10G,100G取代40G,400G取代100G,800G取代400G,1.6T有望取代800G,升级之路永不停息,全部体验到从“奢侈”、“尝鲜”到“普及”、“刚需”的过程。同样,散热领域也是相同,相关技术也在提升,先是自然风冷、空调风扇、散热片,继而是液冷。液冷也有喷淋式、冷板式和浸没式等等。

为什么说液冷已经从“选配”到“必配”

芯片:环境温度对芯片的影响不容忽视,高温环境下,芯片内部的电子元件会因为长时间工作而受到损耗,从而缩短芯片的使用寿命。温度升高会引起电容、电阻以及金属线等材料的热膨胀,进而导致它们的机械变形和结构破坏,最终影响芯片的正常运行。根据与非往消息,而单从芯片来看,风冷的极限芯片散热功率是800W,英伟达部分产品已经突破风冷能力上线。

数据中心:根据与非往消息,自然风冷的数据中心,单机柜密度一般只支持

8-10kW,在机柜功率超过

10kW

后性价比大幅下降。而根据与非网数据,2025年AI集群算力单机柜密度将有望到20-50kW,也远远超出了风冷的上限。Transormer架构(左图Encoder,右图Decoder)随着功率密度降低,液冷成本显著降低7.27.026.9876.86.66.46.266.336.025.85.65.4风冷/10kW液冷/10kW液冷/20kW液冷/40kW81.1算力在大模型时代迎来爆发,光模块需求高增

AI高速互联时代,高算力与高功耗相匹配:复盘英伟达数据中心芯片产品,其中明显可以看到其芯片算力和芯片的功耗成明显的正相关。AI高速互联时代,高算力与高效传输架构相匹配架构型号英伟达Volta架构V100英伟达Turing架构T4英伟达Ampere架构V100sPCIeA100A800PCIe规格PCIeSXM2PCIeSXMPCIeSXMNVIDIAAmpereNVIDIAAmpere芯片架构NVIDIAVoltaNVIDIAVoltaNVIDIAVoltaNVIDIATuringNVIDIAAmpere

NVIDIAAmpereNVIDIAAmpere显存显存带宽32GB或16GBHBM2

32GB或16GBHBM232GBHBM21134GB/s8.2TFLOPS16GBGDDR6320GB/S80GBHBM2e1935GB/s80GBHBM2e2039GB/s40GBHBM2

80GBHBM2e1555GB/s

1935GB/s80GBHBM2e2039GB/s900GB/s7TFLOPS900GB/sFP64算力7.8TFLOPS254.4GFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPS9.7TFLOPS

9.7TFLOPS19.5TFLOPS

19.5TFLOPS19.5TFLOPS

19.5TFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPSFP64TensorCoreFP32算力14TFLOPS15.7TFLOPS125TFLOPS16.4TFLOPS8.1TFLOPS65TFLOPSFP32算力(Tensor)TensorFloat32(TF32)TF32(TensorCore)FP16算力(TensorCore)BFLOAT16(TensorCore)FP8(TensorCore)INT8算力

(TensorCore)CUDA核心数量156TFLOPS312TFLOPS312TFLOPS312TFLOPS-156TFLOPS312TFLOPS312TFLOPS312TFLOPS-156TFLOPS

156TFLOPS312TFLOPS

312TFLOPS312TFLOPS

312TFLOPS312TFLOPS

312TFLOPS156TFLOPS312TFLOPS312TFLOPS312TFLOPS-112TFLOPS130TFLOPS--624TOPS6912432130TOPS2560320624TOPS624TOPS624TOPS624TOPS51206406912432TensorCores核心数量功耗250瓦300瓦211250瓦70瓦136300瓦400瓦250瓦300瓦542400瓦晶管数量(亿)制成(nm)5427nm12nm12nm7nmNVLink:600GB/sPCIe4.0:64GB/sNVLink:600GB/sPCIe4.0:64GB/sNVLink:400GB/sPCIe4.0:64GB/sNVLink:400GB/sPCIe4.0:64GB/s互联速度32GB/s300GB/s32GB/s32GB/S91.2

液冷已经从“选配”到“必配”,液冷拐点已经到来

英伟达部分产品已经超过风冷极限:如下图所示,GH200以及最新款B200、GB200的功耗已经超过风冷极限,H200和B100的功耗已经接近风冷极限;AI高速互联时代,高算力与高效传输架构相匹配架构型号英伟达Hopper架构H800Blackwell架构B200H100PCIeH200SXMGH200B100GB200规格SXMNVLSXMNVIDIAHopperPCIe芯片架构NVIDIAHopper

NVIDIAHopper

NVIDIAHopperNVIDIAHopperNVIDIAHopperNVIDIAHopper+ARMNVDIABlakwellNVDIABlakwellNVDIABlakwell显存显存带宽80GBHBM33.35TB/s34TFLOPS67TFLOPS67TFLOPS80GBHBM2e2TB/s188GBHBM37.8TB/s80GBHBM380GB

HBM32TB/s141GBHBM3e4.8TB/s96GB|144GBHBM3e512GB/s(CPU)34TFLOPS192GB8TB/s192GB8TB/s384GB3.35TB/s1TFLOP16TB/sFP64算力26TFLOPS51TFLOPS51TFLOPS68TFLOPS134TFLOPS134TFLOPS0.8TFLOP0.8TFLOP51TFLOPS34TFLOPS67TFLOPS67TFLOPSFP64TensorCoreFP32算力1TFLOP67TFLOPS30TFLOPS40TFLOPS90TFLOPS67TFLOPS67TFLOPSFP32算力(Tensor)TensorFloat32

(TF32)67TFLOPSTF32(TensorCore)494.5TFLOPS378TFLOPS756.5TFLOPS756.5TFLOPS1513

TFLOPS1513TOPS16896989.5TFLOPS

494.5TFLOPS1979TFLOPS

989.5TFLOPS1979TFLOPS

989.5TFLOPS3958

TFLOPS

1979TFLOPS378TFLOPS756.5TFLOPS756.5TFLOPS1513TFLOPS1513TOPS494.5TFLOPS989.5TFLOPS989.5TFLOPS1,979TFLOPS1,979TOPS16896494TFLOPS990TFLOPS990TFLOPS1,979TFLOPS1,979TOPS0.9PFLOPS1.8PFLOPS1.8PFLOPS3.5PFLOPS3.5PFLOPS1.12PFLOPS2.25PFLOPS2.25PFLOPS4.5PFLOPS4.5PFLOPS2.5PFLOPS5PFLOPS5PFLOPS10PFLOPS10PFLOPSFP16算力(TensorCore)

989.5TFLOPSBFLOAT16(TensorCore)

989.5TFLOPSFP8(TensorCore)INT8算力(TensorCore)CUDA

核心数量1979TFLOPS1979TOPS3958TOPS1979

TOPS16896TensorCores核心数量功耗528528528700瓦300-350瓦8002x350-400W

高达700瓦300-350瓦700瓦1000瓦700W1000W2700W晶管数量(亿)制成(nm)8004nm8004nm4nm4nmNVLink:600GB/sPCIeGen5:NVLink:400GB/sPCIe5.0:128GB/sNVIDIA

NVLink®:·900GB/S·PCleGen5:128GB/sNVLink:

NVLink:900GB/sPCIe

600GB/sPCIeGen5:128GB/s

Gen5:128GB/sNVLink:400GB/sPCIe5.0:128GB/s互联速度900GB/sbidirectional

NVLink:1.8TB/sNVLink:1.8TB/sNVLink:2x1.8TB/S128GB/s101.3

液冷政策为液冷市场扎入“强心剂”

PUE值(电能利用效率)是衡量数据中心绿色程度的关键指标。PUE(Power

Usage

Effectiveness),即电能利用效率。PUE是数据中心消耗的所有能源与IT负载消耗的能源的比值。PUE的值越高,数据中心的整体效率越低。当该值超过1时,表示数据中心需要额外电力开销以支持IT负载。PUE值越接近于1,说明数据中心的电大部分被服务器、网络设备、存储设备消耗,该数据中心的绿色化程度越高。在数据中心中,制冷系统能耗占数据中心总体能耗较高。根据中国通信学会通信电源委员会数据,在典型的数据中心能耗构成中,比重最大部分为IT设备,占比50%,其次为制冷系统设备,占比35%,最后为供配电系统设备以及其他消耗电能的数据化中心设施。在制冷系统中,主要包括空调设备、提供冷源设备以及新风系统,具体能耗构成如下表所示。

与传统风冷相比,液冷技术PUE值普遍更低。根据CSDN数据,传统风冷的PUE值大概为1.3,而采用液冷技术,PUE值会显著降低。其中,采用传统冷板技术的PUE值大概为1.2,浸没液冷的PUE值在1.05-1.07之间。典型数据中心能耗数据中心能耗构成不同冷却技术的PUE值对比IT设备制冷系统供配电系统其它子系统冷却技术传统风冷PUE值IT支撑类提供冷源设备服务器类

存储类网络类空调设备新风系统送风风扇5%10%机房专用空调风冷室外机替代能源系统(光伏、风能等)机架式磁带库交换机KVM办公区域电灯照明1.31.2虚拟带库监控

行间精密管理刀片式塔式路由器防火墙冷水机组冷却塔回风风扇风阀配电柜人事部门负载户外灯空调湿度调节空调机房专用空调50%自动转换开关(ATS)不间断电源(UPS)35%VPN负载均衡“白空间”的电灯照明传统冷板水泵水处理静态转换开关(STS)

机电室的电灯照明液冷灾难恢复电力系统发电机其他控制设备浸没液冷1.05-1.07IT设备

制冷系统

供配电系统

照明及其他电源分配单元(PDU)111.3

液冷政策为液冷市场扎入“强心剂”

国家政策对PUE值要求趋紧,呈逐年下降趋势。根据国务院相关部门文件,对于新建大型及以上数据中心,在总算力要求提高的同时,还要求其PUE值在2021年底降至1.35以下;到2023年底,降低到1.3以下,严寒和寒冷地区力争降低到1.25以下;到2025年底,在此基础上绿色低碳等级达到4A级以上。

制冷系统政策导向明显,利好液冷技术。2023年,在财政部等三部门联合发布文件《绿色数据中心政府采购需求标准(试行)》中,明确提出,鼓励数据中心相关设备和服务优先选用新能源、液冷、分布式供电、模块化机房等高效方案。国务院相关部门关于各数据中心PUE值政策要求政策文件名称发布时间2019年1月2021年5月发布部门内容摘要到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到1.4以下,高能耗老旧设备基本淘汰。《关于加强绿色数据中心建设的指导意见》《全国一体化大数据中心协同创新体系算力枢纽实施方案》工业和信息化部等三部门国家发展改革委等四部门

支持开展“东数西算”示范工程。建立健全数据中心能耗监测机制和技术体系。到2021年底,全国数据中心平均利用率力争提升到55%以上,总算力超过120

EFLOPS,新建大型及以上数据中心PUE降低到1.35以下。《新型数据中心发展三年行动计划(2021-2023年)》2021年7月工业和信息化部到2023年底,全国数据中心机架规模年均增速保持在20%左右,平均利用率力争提升到60%以上,总算力超过200

EFLOPS,高性能算力占比达到10%。国家枢纽节点算力规模占比超过70%。新建大型及以上数据中心PUE降低到1.3以下,严寒和寒冷地区力争降低到1.25以下。到2025年,数据中心和5G基本形成绿色集约的一体化运行格局。数据中心运行电能利用效率和可再生能源利用率明显提升,全国新建大型、超大型数据中心平均电能利用效率降到1.3以下,国家枢纽节点进一步降到1.25

以下,绿色低碳等级达到4A级以上。全国数据中心整体利用率明显提升,西部数据中心利用率由30%提高到50%以上。《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》2021年11月

国家发展改革委等四部门《工业能效提升行动计划》工业和信息化部等六部门

到2025年,新建大型、超大型数据中心电能利用效率优于

1.3。2022年6月2022年8月推动绿色集约化布局。加强数据中心统筹布局,推进“东数西算”工程,梯次布局全国一体化算力网络国家枢纽节点、省内数据中心、边缘数据中心。加快国家绿色数据中心建设,引导企业建设绿色集约型数据中心,加快“老旧小散”存量数据中心资源整合和节能改造。《信息通信行业绿色低碳发展行动计划(2022-2025年)》《绿色数据中心政府采购需求标准(试行)》工业和信息化部等七部门财政部等三部门到

2025

年,全国新建大型、超大型数据中心电能利用效率降到

1.3

以下。2023年3月数据中心相关设备和服务应当优先选用新能源、液冷、分布式供电、模块化机房等高效方案。121.3

液冷政策为液冷市场扎入“强心剂”各省市对数据中心PUE值要求汇总

各省、一级PUE标准向国家政策标准靠拢。在国务院政策标准基础上,将数据中心细化为大型及超大型数据中心及中小型数据中心;存量改造智算中心及新建智算中心,进行差异化政策制定。对大型、超大型数据中心以及新建数据中心要求更严格。年平均气温℃城市北京数据中心PUE要求年能源消费量小于1万吨标准煤的项目PUE值不应高于1.3;年能源消费量大于等于1万吨标准煤且小于2万吨标准煤的项目,PUE值不应高于1.25;年能源消费量大于等于2万吨标准煤且小于3万吨标准煤的项目,PUE值不应高于1.2;年能源消费量大于等于3万吨标准煤的项目,PUE值不应高于1.15;1.4<PUE≤1.8,每度电加价¥0.2;PUE>1.8,每度电加价¥0.512.3到2025年,新建智算中心PUE值达到1.25以下;存量改造智算中心PUE值达到1.4以下;智算中心内绿色能源使用占比超过20%,液冷机柜数量占比超过50%上海广东浙江江苏山东青岛重庆16.622.616.515.514.712.718.4新增或扩建数据中心PUE不高于1.3,优先支持PUE低于1.25的数据中心项目,起步区内PUE要求低于1.25到2025年,大型及以上数据中心电能利用效率不超过1.3,集群内数据中心电能利用效率不得超过1.25

液冷机柜数量开始列入政策硬性要求。2024年3月,上海市通信管理局等11个部门联合印发《上海市智能算力基础设施高质量发展

“算力浦江”智算行动实施方案(2024-2025年)》正式发布。该方案表示:至2025年,新建智算中心PUE值达到1.25以下;存量改造智算中心PUE值达到1.4以下;智算中心内绿色能源使用占比超过20%,液冷机柜数量占比超过50%。到2023年底,全省数据中心机架规模年均增速保持在20%左右,平均利用率提升到65%,全省新型数据中心比例不低于30%,高性能算力占比达10%,新建大型及以上数据中心电能利用效率(PUE)降低到1.3以下,起步区内电能利用效率不得超过1.25自2020年起,新建数据中心PUE值原则上不高于1.3,到2022年年底,存量改造数据中心PUE值不高于1.4。到2025年,实现大型数据中心运行电能利用效率降到1.3以下。新建1.3,至2022年存量改造1.4到2025年,电能利用效率(PUE)不高于1.3。集群起步区内PUE不高于1.25。到2023年底,大型及超大型数据中心的PUE降到1.3以下,中小型数据中心的PUE降到1.4

以下;到2025年底,大型及超大型数据中心的PUE力争降到1.25以下,中小型数据中心的PUE力争降到1.35下甘肃

0~14℃到2025年,电能利用效率(PUE)不高于1.3。集群起步区内PUE不高于1.25。各市(州)要充分发挥已建在建数据中心作用,除天府数据中心集群外,区域内平均上架率未达到60%、平均PUE值未达到1.3及以下的,原则上不得新建数据中心。四川15.34.3内蒙古到2025年,全区大型数据中心平均PUE值降至1.3以下,寒冷及极赛地区力争降到1.25以下,起步区做到1.2以下到2025年,建成国家(中卫)数据中心集群,集群内数据中心的平均PUE≤1.15.WUE≤0.8,分级分类升级改造国家(中卫)数据中心集群外的城市数据中心,通过改造或关停,到2025年,力争实现PUE降至1.2及以下。宁夏贵州9.5引导大型和超大型数据中心设计PUE值不高于1.3;改造既有大型、超大型数据中心,使其数据中心PUE值不高于1.4。实施数据中心减量替代,根据PUE值严控数据中心的能源消费新增量,PUE低1.3的教据中心可享受新增能源消费量支持15.5131.4深度绑定英伟达,维谛技术(

Ver

tiv)迈向成长

维谛技术数字建设基础设施的提供商:提供硬件、软件、分析和延展服务技术的整体解决方案,帮助现代数据中心、通信网络、商业和工业设施用户所面临的艰巨挑战,提供全面覆盖云到网络边缘的电力、制冷和IT基础设施解决方案和技术服务组合,其前身为艾默生,该公司专注于提供关键基础设施技术及服务,包括电源、热管理和IT基础设施解决方案。

公司数据中心产品与服务是公司的核心竞争力,最主要包括电力、热管理等一体化的解决方案:

关键电源管理:可提供直流电源、交流不间断电源、配电、变频器、电源监控等一系列解决方案;

热管理:即风冷、液冷整体解决方案等;

IT管理:即一体化解决方案、后续市场的监控、管理、服务等等。维谛技术冷板液冷解决方案示意图维谛技术产品分类示意图基础设施和解决方案一体化机架解决方案一体化解决方案服务和备件关键电源管理热管理监控和管理服务数字化基础设施解决方案交流不间断电源(UPS)

房间级精密空调机架&模块化机房原厂服务直流电源系统配电列间级精密空调预制式户外空调综合布线户外电源串口管理器IPKVM切换器桌面KVM和键鼠切换器监控工程服务创新服务备件管理工业交流和直流系统高热密度解决方案电源监控和控制变频器IT管理风能AI智能运维和软件141.4深度绑定英伟达,维谛技术(

Ver

tiv)迈向成长

维谛技术收购CoolTera,强强联合加大强液冷布局:2023年12月11日,根据今日热点网消息,维谛技术子公司将收购购数据中心液冷技术基础设施提供商CoolTera全部股份和相关资产。CoolTera成立于2016年,是一家总部位于英国的数据中心液冷基础设施解决方案厂家,具备冷量分配单元、二次侧管路和Manifold的专业原厂研发设计制造能力。此前,Vertiv与CoolTera在液冷技术领域已密切合作三年,共同部署了全球多个数据中心和超算系统。我们判断,本次收购进一步增强了Vertiv的热管理能力和行业影响力。

Vertiv参与了英伟达COOLERCHIPS

计划,并被指定为唯一的制冷系统合作伙伴:我们判断AIGC与液冷趋势有望稳定其龙头地位。

此前Vertiv已经与英伟达专家团队进行高密度数据中心制冷方案进行测试,根据极目新闻消息,实测结果显示IT负载从100%风冷转型为75%液冷的方案时,服务器风扇用电量降低最多达到80%,使总体使用效率(TotalUsageEffectiveness,

TUE)提高15%以上;

根据搜狐网消息,今年3月,英伟达NVIDIA

与维谛Vertiv

共同提出的机架式混合冷却系统方案,是业界首次将两种液冷技术:冷板液冷和浸没液冷耦合到同一系统中的解决方案这项创新系统预计可冷却运行环境高达

40℃的机架式数据中心,单机柜IT功率可达200kW,是目前常规服务器单机柜功率的

25倍。与传统风冷相比,两种液冷混合冷却模式的成本更低,运作效率可提高

20%。英伟达混合液冷解决方案示意图维谛技术与英伟达合作图示151.4深度绑定英伟达,维谛技术(

Ver

tiv)迈向成长

基础设备及解决方案是公司核心产品:复盘公司2020年至2023年各产品收入增速,其中基础设施产品收入占比最大且增速较快,2020年公司基础设施产品收入为160.36亿元,占比为56.23%,2023年收入为315.12亿元,占比为64.83%,增速为30.19%,超过公司收入增速。

美洲为公司销售产品的核心地区:复盘公司2020年至2023年地域收入,美洲(拉丁美洲)为公司核心销售区域,2020年美国和加拿大公司公司收入为121.24亿元,占比42.51%,2023年美洲地区相关收入为275.15亿元。

踏浪AIGC,公司股价迎来增长:公司2023年3月31日股价为11.75美元,公司2024年7月24日公司股价为91美元,我们判断其背后的原因为由于AIGC爆发,公司相关液冷数据中心产品业绩迎来高增。维谛技术产品收入(亿元)及同比增速维谛技术业务占比示意图维谛技术股价涨跌幅60011510595857565554535253000250020001500100050050040030020010002020202120222023欧洲,中东,非洲地区

美国/加拿大亚洲欧洲0中东及非洲亚太区拉丁美洲美洲成交金额VERTIV1602

深度拆解液冷的核心价值链172.1液冷的概念及分类及比较

液冷:一种确保计算机在安全的温度下运行的冷却方法。液冷技术通过利用流动液体的高比热容来吸收并迁移计算机内部元件产生的热量到外部,这种方法的优点在于利用液体传热,相较于空气,液体的高比热容能更高效地传递热量,从而降低能量消耗。

液冷技术根据接触方式不同,分为直接液冷技术和间接液冷技术。间接液冷技术中,冷却液体与发热器件不直接接触,主要包括冷板式。直接液冷技术中,冷却液体与发热器件直接接触,主要包括浸没式和喷淋式液冷,其中浸没式根据冷却介质是否发生相变又可分为单相浸没式和相变浸没式。

与传统风冷技术相比,液冷技术节能效果显著提高。根据《绿色高能效数据中心散热冷却技术研究现状及发展趋势》数据显示,风冷散热下数

据中心的

PUE

值通常在

1.5

左右;根据开放数据中心委员会ODCC数据,冷板式液冷PUE值为1.1-1.2,相变浸没式液冷PUE值小于1.05,单相浸没式液冷PUE值小于1.09,喷淋式液冷PUE值小于1.1。液冷技术分类液冷通用技术原理液冷方案各指标比较及总体分析单项冷板式两相冷板式浸没式相变浸没式

单相浸没式液冷方案投资成本冷板式喷淋式冷板式结构改造及液体消耗成本大,液冷系统初始投资成本低间接冷却初始投资中等,

初始投资及运

初始投资及运维成本高运维成本低维成本高PUE1.1-1.2<1.05<1.09<1.1可维护性较简单复杂复杂液冷方式阿里巴巴、H3C、绿色云图、云酷职能、曙光数创、浪潮、曙光、联想、超聚变等主流供应商单相浸没式相变浸没式供应商仅曙光仅广东合一浸没式喷淋式数据中心场景无批量使用应用案例多超算领域较多较多初始投资中等,

初始投资最高,运维成本低,

PUE收益最高,PUE

收益中等,

需使用专用机部署方式与风冷

柜,服务器结相同,从传统模

构需改造为刀初始投资较高,运维成本高,液体消耗成本高,PUE收益中等,部署方式同浸没式,服务器结构需改造初始投资较高,PUE

收益较高,部分部件不兼容,服务器结构需改造直接冷却分析式过渡较平滑片式182.1液冷的概念及分类及比较

冷板式液冷技术:通过设置在设备内部的液冷板间接传递发热器件的热量至循环管路中的冷却液体,利用冷却液体将热量有效带走,实现散热,为设备提供一种高效的散热方式。

液冷系统的架构分为室外侧和室内侧两部分。室外侧包括冷却塔(一次侧冷源的核心部件)、一次侧管网和一次侧冷却液;室内侧包括CDU(核心组件之一)、液冷机柜、ICT设备、二次侧管网和二次冷却液。其中,CDU确保冷却液的有效循环和热量的有效转移,分为分布式CDU和集中式CDU。集中式

CDU适用于规模部署液冷服务器机柜的场景。

冷板式液冷目前应用最广泛,具有诸多优势。存量的数据中心机房由风冷向液冷改造时,冷板式液冷的改造成本相对更低。同时,其PUE值更低(1.2)、可实现在线维护方案。集中式CDU与分布式CDU对比冷板式液冷及其系统原理图集中式CDU分布式CDU机柜形态,与一个服务器机柜尺寸

设备形态,宽、深与服务器尺寸基本相基本相同

本相同,高度4U左右形态部署方式与服务器机柜并排部署,可同时为

部署在服务器机柜底部,只能为所在服多个务器机柜提供制冷能力

个服务器机柜提供制冷能力服务器机房需要进行二次侧管路部报务器机房免二次侧管路部署,部署复杂部署复杂性服务器机房免二次侧管路部署,部署简单每个机柜1台CDU,无法实现CDU间冗余能力,可靠性低(理论上可以通过两个机柜间CDU1+1备份提高可靠性)通过多个CDU集群方式提供N+M冗余能力,可靠性高可靠性冷量分配单元CDU分类示意图CDU需占用机柜安装空间,液冷机

CDU不占用机柜安装空间,液冷机柜规柜规模较小时,空间利用率较分布

模较小时,空间利用率较高;规模部署空间利用率

式CDU低;规模部署液冷机柜时,

液冷机柜时,空间利用率较集中式CDU空间利用率高

低小规模时成本较分布式CDU高,大

小规模时成本低,大规模时较集中式规模时成本高

CDU高成本适用场景大型数据中心,液冷大规模部署中小型数据中心,液冷小规模部署192.1液冷的概念及分类及比较

浸没式液冷技术:一种通过将发热器件完全浸没于冷却液中,实现部件与冷却液之间直接接触且发生热交换的冷却方法。浸没式液冷系统室外侧包含冷却塔、一次侧管网、一次侧冷却液;

室内侧包含

CDU、浸没腔体、IT

设备、二次侧管网和二次侧冷却液。

单相浸没式液冷:在热量传递过程中,传热介质二次侧冷却液只会经历温度的改变,没有发生任何相态的变化,即热量的传递完全依赖于物质的感热变化。制冷过程:CDU的循环泵推动二次侧的冷冷却液自浸没腔体的底部进入,在流过竖直放置于浸没腔中的IT设备时,移走设备热量。随后,吸收了热量并升温的二次侧冷却液从浸没腔体的顶部离开,流向CDU。在CDU中,通过板式热交换器,冷却液将其所携带的热量转移给一次侧的冷却液。然后,已经升温的一次侧冷却液经过冷却塔,将热量释放至大气中,完成整个冷却过程。

相变浸没式液冷:二次侧冷却液在热量传递过程中发生相态转变,依靠物质的潜热变化传递热量。传热路径与前者基本相同,区别在于,二次侧冷却液只在浸没腔体内循环,且浸没腔体内部形成了液态和气态两个区域:顶部为气态区,底部为液态区。IT设备被完全沉浸在具有低沸点的液态冷却液中,当冷却液吸收了设备产生的热量后沸腾并转化为高温气态。这些气态冷却液的密度较低,会逐渐上升到浸没腔体的顶部,在那里与顶部的冷凝器进行热交换并冷凝成低温的液态。这些冷却液在重力的作用下重新回到腔体底部,从而完成IT设备的散热过程。单相浸没式液冷技术原理示意图浸没式液冷冷却液部分性能对比对比项成本碳氢及有机硅类冷却液碳氢类冷却液碳氟化合物全氟三丁胺,XP68电子冷却氟化液天然矿物油合成油有机硅油全氟碳化合物3MFC40氢氟烃氢氟醚低较高高高可靠性及寿命低,3-5年高,超过10年相变浸没式液冷技术原理示意图导热率惰性高低低高粘性高,不便于维护,需要清洗剂维护性粘性低,易挥发,便于维护对高速信号传输有一定影响介电常数低低低低1.91.9资料:

《绿色高能效数据中心散热冷却技术研究现状及发展趋势》,通讯《液冷技术白皮书》,华西证券研究所202.1液冷的概念及分类及比较

喷淋式液冷:一种将冷却液直接喷洒到芯片级器件或其连接的导热元件上的直接接触式冷却方式,通过重力或系统压力实现精准冷却。这种系统主要包括冷却塔、冷却配送单元(CDU)、一次侧和二次侧的冷却管路、冷却介质,以及配备有管路系统、布液系统、喷淋模块和回液系统的喷淋式液冷机柜。目前,喷淋式液冷应用较少。

制冷过程:在喷淋式液冷系统中,经CDU冷却的冷却液被泵送至喷淋机柜,直接通过分液器进入与服务器对应的布液装置进行喷淋,或先输送至进液箱以获得驱动喷淋的重力势能。冷却液在经过IT设备的发热部件或其连接的导热材料时进行喷淋制冷,加热后的冷却液再通过回液箱收集并被泵送回CDU,进行下一轮的冷却循环。

喷淋式液冷与浸没式液冷各有优劣。喷淋式液冷实现了

100%液冷,其结构颠覆性优于浸没式液冷;但节能效果差于浸没式液冷,且存在与浸没式液冷相同的局限性问题,如器件选型的局限性、维护局限性以及机房环境的特殊性。喷淋式液冷原理图不同液冷方式的优劣对比优势劣势产品架构兼容性:可兼容现有硬件架构冷板式液冷未能实现

100%

液体冷却,因此存在机柜功耗低、液冷占比低时,节能收益不显著问题维护性:易开展维护性设计,可实现在线维护方案机房适应性:灵活适用于旧机房改造和新建机房节能:数据中心的PUE

值可降至1.2

以下可靠性:液体与设备不直接接触,可靠性更高噪声:风机转速大幅降低,噪声值可至70dB

左右冷板式液冷液冷板设计需要考虑现有设备的器件布局,结构设计和实现的难度较大,标准化推进难度大节能:低温液体直接与发热芯片接触散热,传热路径更短;传热方式为液液换热和蒸发汽化换热,传热效率更高紧凑:支持高密机柜,单柜散热量高达

160kW;机柜间无需隔开距离,机房不需要空调、无需安装冷热通道封闭设施;浸没式

高可靠:设备完全浸没在液体中,排除了温度、风机振动、灰尘维护局限性:浸没式液冷设备维护时需要打开

Tank

上盖,并配备可移动机械吊臂或专业维护车实现设备的竖直插拔,维护复杂度高,耗时长;且开盖维护过程有一定的冷却液挥发问题,增加运行成本液冷等带来的可靠性问题低噪声:100%

液体冷却,无需配置风扇,实现极致“静音”机

机房环境特殊性:因浸没式液冷系统Tank

内充满冷却液,整柜重量大幅增加,结构颠覆性:区别于传统意义上的立式机架结构,浸没液冷所用

对机房有特殊承重要求,普遍要求浸没式房的浸没腔体为卧式Tank液冷机房地板承重应大于1500kg/m2节能效果差于浸没式液冷,且存在与浸没式液冷相同的局限性问题喷淋式液冷实现了100%

液冷,其结构颠覆性优于浸没式液冷212.2液冷市场空间测算:

千亿市场蓄势待发

市场拆分:

根据我们的判断,液冷或风冷的市场规模根据IDC的建设情况来判断,而整个IDC市场基本可以分为云计算、超算、智算市场,而根据云计算、超算、智算市场下游又可以分成CPU服务器及通用服务器和AI服务器,其中智算中心的AI服务器为液冷的直接增量因素。

渗透率:根据财联社与浪潮信息数据,我国的液冷发展是逐步迭代的过程,2023年渗透率在5%左右,到2025年则有望超20%。

价格/KW:根据知乎的数据,以单kw计价,风冷在6000元左右,冷板在10000元,浸没式液冷在12000元。

AI服务器的液冷测算:根据中商研究院数据,2023年AI服务器出货量为35.4万台,我们假设2024年AI服务器增速为120%,2025年行业增速增速为80%,其中2023年、2024年、2025年服务器型号分别为DGX

A100、DGX

H100、DGXB200(不考虑美国禁令因素),根据英伟达数据,其单个服务器功耗分别为6.5

KW、10.2KW、14.3KW,我们假设平均功耗为巅峰功率的80%,2023年液冷渗透率为10%,2024年液冷渗透率为30%,2025年液冷渗透率由于芯片工艺原因渗透率为100%。2023-2025冷板式液冷占比分别为95%、90%、80%其余全为浸没式液冷。AI服务器增量液冷的市场规模202335.4202477.88120%30%2025140.18480%AI服务器数量(万)同比增速液冷渗透率10%3.546.5100%AI服务器液冷数量(万)服务器巅峰功耗(KW)平均功耗比例23.3610.280%140.1814.380%80%服务器平均功耗冷板式液冷占比单体价单价(万)冷板式液冷规模(亿)浸没式液冷占比浸没式液冷单价浸没式液冷规模(亿)液冷市场合计5.28.1690%11.4480%95%11117.495%171.5910%1282.9620%1.21.21.21.1018.5922.88194.46384.891667.85222.2液冷市场空间测算:

千亿市场蓄势待发

通用服务器的液冷测算:根据中国信息通信研究院数据我国2022年通用服务器出货量为384.6万台,由于AI时代的到来,采购商对于通用服务器的预算降低,我们预测2023-2025年行业平均增速为5%,由于2U服务器满载功耗约为350W,由于服务器更新换代导致功耗增加,我们假设2023年、2024年、2025年通用服务器满载功耗分别为350W、400W、450W,我们假设平均功耗为巅峰功率的80%,此外,我们假设通用服务器2023年、2024年、2025年液冷的渗透率为5%、10%、20%,2023-2025冷板式液冷占比分别为95%、95%、95%其余全为浸没式液冷。

整体液冷市场规模测算:我们测算2024、2025年我国的液冷市场规模分别为208.17、1700.23亿元,同比增速分别为756.6%、716.8%。通用服务器增量液冷的市场规模液冷市场规模预测202320242025通用服务器数量同比增速403.835%424.025%445.225%液冷渗透率5%10%20%202320242025通用服务器液冷数量(万)服务器巅峰功耗(KW)平均功耗比例20.190.3580%42.400.489.040.4580%液冷市场合计同比增速24.30208.17756.6%1700.23716.8%80%服务器平均功耗冷板式液冷占比单体价单价(万)冷板式液冷规模(亿)浸没式液冷占比浸没式液冷单价浸没式液冷规模(亿)液冷市场合计0.2895%0.3295%0.3695%1115.3712.8930.455%5%5%1.21.21.20.345.710.8113.701.9232.38232.3液冷产业生态拆分

液冷产业生态涉及产业链上中下游,包括上游的产品零部件提供商、中游的液冷服务器提供商及下游的算力使用者。

产业链上游:上游主要为产品零部件及液冷设备,包括快速接头QDC、冷量分配单元CDU、电磁阀、浸没液冷

TANK、分级液器Manifold、冷却液、环路工艺冷媒供回歧管LCM等组件或产品供应商。部分代表厂商有英维克、3M、云酷、竞鼎、诺亚、广东合一、绿色云图、维谛技术、润和材料等。

产业链中游:中游主要为液冷服务器、芯片厂商以及液冷集成设施、模块与机柜等。部分代表厂商有、、浪潮信息、中科曙光、新华三、联想、超聚变、英特尔等。

产业链下游:下游主要包括三家电信运营商,百度、阿里巴巴、腾讯、京东等互联网企业以及信息化行业应用客户,主要在电信信息、互联网、政府、金融、交通和能源等信息化应用。根据搜狐网消息,目前,阿里巴巴以单相浸没式液冷为主要发展方向,其他用户以冷板式液冷试点应用居多。液冷产业生态图解上游CDU/CDM中游下游液冷服务器快速接头芯片厂商机柜电信信息金融政府电磁阀冷却液互联网能源液冷集成设施、模块TANKManifold交通242.3.1

液冷产业生态拆分——一次侧

液冷散热系统通常由至少两个相互隔离的循环回路组成。供给设备的内循环也称作二次侧,将热量传递给外界环境的循环也叫一次侧,两个循环通过

CDU

内置的板换进行隔离和交换热量。

一次侧主要的散热设备主要有三种:干冷器、冷却塔和制冷机组。干冷器、冷却塔属于自然冷却系统,制冷机组属于机械制冷系统。液冷系统一次侧与二次侧示意图不同一次侧进水温度等级下的冷源配置机械制冷系统【制冷机组】自然冷却闭式冷却塔液冷水温等级一侧进水温度冷源配置风冷冷冻水系统水冷冷冻系统开式冷却塔干冷器W17W27W32W40W45W+17℃27℃32℃40℃45℃水冷冷水机组冷冻水泵冷却水泵冷却塔板式换热器等冷水机组辅以水经济器(板式换热器)风冷冷水机组冷冻水泵及配套设施组成图示将管式换热器置于塔内,通过室外流通的空气、喷淋水与管内的循环冷却水进行热交换,向大气散热。液态制冷剂在循环冷却水直接喷淋到冷却塔填料上,由通过室外空气来冷却换热器盘管内的冷却水,从而降低冷却水的温度,达到冷却目的冷却塔或干冷器辅以冷水机组或区域热回收系统液态制冷剂在其

蒸发器盘管内蒸发器盘管内直

直接蒸发为气接蒸发为气态,

态,实现对盘原

风机带动冷却塔内气流流动,通过室外空理

气与冷却水之间的热质交换冷却循环水,冷却后的循环水在冷却塔底部出水由内循环和外循环两个系统组成。内循环通过与被冷却设备连接,构成一个封闭式系统,将系统热量带到冷却塔,即内循环水通过换热盘管将热量传递到大气中;外

增加喷淋设备强化冷却。循环由循环喷淋泵、布水系统、集水盘及管路组成,外循环水不与内循环水相接触,只是通过冷却塔内的换热器吸收内循环水的热量,然后通过和空气直接接触来散热原

实现对盘管外的

管外的冷冻水理

冷冻水吸热制冷,吸热制冷,并根据室外条件,可选择性并通过风冷冷凝

通过水冷冷凝

配的方式将气态制

的方式将气态

套冷剂冷却为液态

制冷剂冷却为液态一般需要增设可拆卸的板式换热器隔离使用,否则易因水质问题导致CDU内不可拆卸的焊接式板式换热器脏堵干冷器中的冷却水通常使用乙二醇溶液来防冻,需要根据项目地冬季极端温度选取溶液浓度设施冷却塔或干冷器辅以区域热回收系统>45℃能耗制冷机组>>干冷器>冷却塔(但是冷却塔需要消耗大量的水,对于无水区域则难以使用)对比制冷机组可以获得7-12℃的冷却水;干冷器出来的冷却水高于环境干球温度

8.3-11.1℃;冷却塔可以获得高于环境湿球温度2.8-3.9℃(开式)/3.9-6.7℃(闭式)的冷却水制取水温注:最低供水温度不低于2℃252.3.2

液冷产业生态拆分——二次侧:

冷板式

冷板式液冷的二次侧组件包括:冷板组件、快速接头QDC、机柜工艺冷媒供回歧管RCM、环路工艺冷媒供回歧管LCM、冷量分配单元CDU及工艺冷媒。

冷板组件包括:冷板、配套管路、扣具、转接头、快速接头QDC、漏液检测装置等主要零部件。

快速接头QDC:连接在服务器的冷板组件和RCM/RCM和LCM之间的零件。根据安装位置不同分为自锁式快速接头和球阀式快速接头。

软管:软管连接包括机柜级软管和服务器级软管,机柜级软管作用是连接

RCM

LCM,服务器级软管作用是连接

RCM

与冷板。冷板组件图例及实物冷板组件图例及实物软管图示自锁式快速接头球阀式快速接头图示连接一般规格冷板组件与RCM1/8寸~1/2寸RCM与LCM1寸、2寸(丹佛斯FD83)功能液冷系统带液插拔维护功能自带球阀,可手动调节球阀通断的快速接头安装便捷:左右两半接头完全相同销锁设计:左右接头耦合前,阀芯不能开启;阀芯闭合前,左右接头无法断开。避免意外打开导致泄漏。带压通断:可以实现热连接、断开和在线流体通断。当插头和插座断开时,弹簧自复位确保供液中断,工艺冷媒不会溢出到系统外,以避免频繁工艺冷媒补液,污染甚至危及服务器工作特点多种尾端:多种接口方式,可以直接连接软管和硬管。标准OCP标准中提供性能参数,接头需提供流量-压降曲线262.3.2

液冷产业生态拆分——二次侧:

冷板式

机柜工艺冷媒供回歧管RCM:安装于液冷机柜内部,功能为分液、集液和排气等,一般由排气阀、分支管路和主管路等组成。分支管路的软管端部安装有QDC,实现与服务器内冷板组件的连接。主管路接口位于上端或下端,是工艺冷媒供回液冷机柜的接口,与LCM通过软管连接。

冷量分配单元CDU:CDU的作用是将进入服务器冷板组件的工艺冷媒与冷源侧的冷却水进行隔离,并将冷却后的工艺冷媒分配给不同服务器的冷板的冷却设备。根据布置方式不同,分为机架式CDU和柜式CDU。其比较具体见2.1.1。

环路工艺冷媒供回歧管LCM:LCM一般安装于数据中心地板底部,有时也会安装于机柜顶部,具备分液、集液和排气等功能。LCM一般由排气阀、分支管路、主管路、阀件等组成。LCM将从CDU冷却的工艺冷媒,通过分支软管输送到RCM处。

工艺冷媒:主要选择纯水液和配方液。纯水液主要为去离子水,配方液主要为乙二醇或丙二醇溶液。RCM图示及设计要求CDU内部器件示意图CDU不入列LCM布置架构方案RCM图示左为机架式CDU,右为柜式CDUCDU入列LCM布置架构方案通常采用

304

以上方钢,20

个分支管路以上的

RCM,建议尺寸30×30mm或

40×40mm设计要求主路上限流量下的压损建议不超过

5kPa作为分集液器,应保证流量均匀,各分支管路的最大流量与最小流量之差建议不超过

10%设计压力建议不小于

1.0MPa资料:

ODCC《冷板液冷标准化及技术优化白皮书》,华西证券研究所272.3.3

液冷产业生态拆分——二次侧:

浸没式

浸没式液冷的二次侧组件可分为:浸没腔体TANK、液冷换热模块CDM、水平/竖直分液集气单元以及浸没式液冷冷却介质等。

浸没腔体TANK:单项浸没式液冷系统的核心部件。由密闭箱体、液体分配单元、温度传感器、液位传感器等组成,作为电子元件与液体进行热交换的场所,为电子元器件提供安全可靠的冷却环境。底部宜采用多孔板加填充块设计,需要注意保证进入各节点的液体流量均匀。填充块固定在Tank两侧和下部,形成Tank内液体流道,同时起到减少液体使用量的作用。

液冷换热模块CDM:用于二次侧气态冷却介质与一次侧冷源进行换热,对液冷IT设备提供冷量分配与智能管理的模块,是为解决相变浸没式液冷服务器散热问题所推出的一体化散热模块。

水平/竖直分液集气单元(HCDU/VCDU):前者分为集气器和水平分液器两部分,部署于计算刀箱的后部;后者连接如下图所示。

浸没式液冷冷却介质:浸没式液冷冷却介质与服务器直接接触,应具有良好的化学稳定性、良好的热稳定性、绝缘性等。相变浸没式液冷冷却介质还应具备较低的沸点和较高的汽化潜热。碳氟化合物是满足以上条件的最佳材料,也是浸没式液冷核心技术之一。TANK形态示意图CDM特点及原理上为VCDU,下为VCDUCDM超低能耗、高制冷效率、低噪声、高可靠性特点在二次侧循环中,通过冷却介质的相变实现热量的转移:低温液态冷却介质由CDM输送至热源散热器中,冷却介质在热源散热器沸腾变成气态冷却介质,然后冷却介质气体汇集进入CDM的冷凝器中与一次侧水进行换热,冷凝成为低温液态冷却介质,然后再次被CDM输送至热源散热器中,完成二次侧循环。在一次侧循环中,通过水的温升实现热量的转移:低温水在CDM换热器中升温后变成高温水,高温水由一次侧循环水泵输送到室外冷却塔中与大气进行换热,变成低温水。然后低温水再被输送到CDM换热器中,完成一次侧循环。工作原理CDM原理图为冷却介质提供循环动力将冷却介质携带的热量传递到一次侧控制循环系统中冷却介质的温度、压力和流量功能服务器充排液标准化预制机柜设备支撑架为计算机柜和CDM提供支撑为CDM提供水力调节和冷却介质循环配套设备28梳理液冷产业链的受益公司03293.1液冷受益产业链——服务器内侧端

我们将液冷产业链的受益公司简单拆解为三类,分别是服务器内侧端、液冷建设端、液冷基础设施提供商。

服务器内侧端:

我们将服务器内侧端的定义为服务器内部的组件,直接受益于高算力、高功率的AI芯片放量,此类公司的代表性产品冷板组件、快速接头QDC等产品,采购方为或服务器厂商、英伟达或英伟达服务器厂商。

代表公司:

飞荣达:其散热器件产品包括服务器液冷散热产

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论