版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
电子行业市场分析研究一、计算芯片:看好AI催化GPU/CPU等各类计算芯片投资机会1.1GPU为AI训练算力之源,国产替代和自主可控逻辑进一步加强在人工智能发展的早期,缺乏算力和数据资源以及算法模型的局限性使得企业难以将偏通用的场景落地到企业场景中。而随着Transformer模型统一底层算法模型后,算力和数据则逐渐成为最宝贵的资源。ChatGPT爆火的背后则代表着AI领域的未来发展趋势,大模型先在大规模公开数据集上完成预训练,随后迁移到具体应用场景上无需或仅需少量调整即可应用。预训练大模型的崛起以及算力成本的不断下降,使得大模型逐渐成为AI领域的基础设施,而GPU则是AI训练算力之源。AI大模型时代,算力需求提升明显,并保持指数级增长。2015至2016年左右,AI大模型问世,大模型趋势始于2015年底AlphaGo的出现并一直延续至今。期间,这些大规模模型由科技巨擘训练,他们拥有的更多训练预算打破了以往的趋势,大模型由于参数数量大幅增加,所需要的算力也相较常规模型大幅增长。目前ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要7~8个投资规模30亿、算力500P的数据中心才能支撑运行。大模型算力增加呈指数级变化,每9至10个月翻一番。2015年推出的AlphaGoLee大模型所需要的训练量算力超过10^21FLOPs,而2021年推出的大模型Megatron-TuringNLG530B的训练算力需求已经超过了10^24FLOPs,算力提升了1000倍左右。中美在AI大模型赛道上展开激烈竞争,背后比拼的是算力以及数据资源。根据OpenBMB的数据,截至2022年12月,拥有大模型数量前十名的组织中,中国和美国分别占据4和6席;拥有大模型参数量前十名的组织中,中国和美国同样分别占据4和6席。GPU直接受益于全球算力需求激增。根据VerifiedMarketResearch的数据,2021年全球GPU市场规模335亿元,2028年全球GPU市场规模有望达到4774亿元,22-30年CAGR达33.3%。英伟达是GPU市场的主导者,全球独立显卡市占率高达80%。其高端GPU如H100,A100和V100等占据了AI算法训练市场绝大部分的份额。我们测算2026年全球数据中心GPU市场规模将达到749亿美元。随着ChatGPT引爆新一轮人工智能应用的热情,我们看好人工智能将成为未来无所不在的工具,海内外数据中心、云业务厂商纷纷开始推动AI基础设施建设,AI服务器出货量在全部服务器中的占比逐渐提高。根据TrendForce的数据,2022年搭载GPGPU的AI服务器年出货量占全部服务器的比重接近1%,2023年在ChatGPT等人工智能应用加持下,根据我们对产业链上下游的调研,我们看好2023-2025年AI训练服务器出货量实现50%左右的高增速,2026年出货量增速保持在30%左右。目前数据中心GPU主要以英伟H100、A100、A800(主要出货中国)以及AMDMI250、MI250X系列为主,英伟达与AMD的占比约8:2。我们测算2026年全球数据中心GPU市场规模有望达749亿美元,22-26年CAGR达44%。目前国内厂商GPU市占率不足1%,美国对华制裁加速GPU国产替代。2015年以来美国对GPU的制裁不断升级,美国国防部研究员曾提出中美竞争中,利用人工智能更多且更快的一方将获胜。前几年主要是美国将中国超算中心及相关GPU芯片企业拉入实体清单,以此达到限制中国AI以及超级计算机的发展,但是限制范围限于超算单一场景。2022年9月,美国针对AI、HPC及数据中心研发所用的高端GPU发出限制,英伟达的A100和H100以及AMD的MI250芯片暂停向中国客户销售。2022年10月,美国升级禁令限制范围,对高算力芯片的连接速度和每秒运算次数等具体参数做限制,除英伟达和AMD外,国内厂商海光信息的部分产品也被加入到限制范围内。美国将制裁限制范围由应用场景扩大到芯片和产品层面,其实也是代表着国内相关GPU产品或下游应用发展超过美国政府的预期。我们认为美国持续加大对中国高端芯片的出口限制,高速运算相关的GPU芯片国产化进程必然加快。1.2AI及信创推动核心行业服务器CPU国产替代浪潮国产服务器在运营商、政府以及企业上渗透主要由信创推动:党政信创先行,八大行业全面推进。国家层面提出的是2+8体系,“2”代表党、政,“8”则是代表国民生计的八大行业:金融、电力、电信、石油、交通、教育、医疗、航空航天。党政机关是信创国产化的领头羊,据零壹智库的数据显示,信创应用进展落地最快是党政,落地实践率为7.01%。而八大行业中,金融行业是最早开始推进信创应用同时也是进度最快的行业,落地实践率为29.55%,其次是电信和电力行业。英特尔和AMD垄断全球CPU市场,英特尔在服务器CPU市场占据绝对优势。根据IDC的数据,2022年全球服务器市场规模有望达1216亿美元,2026年全球服务器市场规模有望达1665亿美元,22-26年CAGR达10.2%。截至23Q1,intel在全球CPU市场中的占比为63。0%,在全球服务器CPU市场中的占比为94.2%,在服务器CPU市场中占据绝对主导地位。国产服务器CPU芯片渗透率低,对应巨大国产替代空间。根据海光信息招股说明书的数据,2020年国内x86服务器芯片出货量698.1万颗,绝大部分市场份额被Intel和AMD两家公司占据,合计市场份额超过95%,其中Intel产品市场占有率遥遥领先。2020年海光信息CPU产品销售量约占总体市场份额的3.75%,占据了国产x86服务器CPU绝大部分市场份额。除了海光之外,国内CPU厂商主要有海思、龙芯、兆芯、飞腾、申威等。我们测算国内x86服务器用CPU市场规模为315.1亿美元。IDC数据显示,预计2025年国内x86服务器出货量将达到525.2万台。根据x86服务器出货量和x86服务器路数分布情况进行计算,2020年中国市场x86服务器芯片出货量约为698.1万颗。假设到2025年x86服务器的平均路数为3,预测2025年中国市场x86服务器芯片出货量可达1575.6万颗,对应市场空间可达315.1亿美元,22-25年CAGR达19%。我们测算2025年整体x86架构国产PC+服务器端CPU国产替代空间达554.3亿元,22-25年CAGR为32%。我们认为服务器领域国产替代空间,主要在于政府机关、事业单位以及核心国央企等,有望率先放量。测算逻辑如下:1)相关人数测算:根据人社部2016年发布的《2015年人力资源和社会保障事业发展统计公报》,中国共有公务员716.7万人,我们假设目前公务员人数为800万人。根据国家统计局,2020年我国国有单位就业人员共5563万人,此口径以政府机关、事业单位为主,根据国家统计局,剔除教育、卫生&社会保障和社会福利院后,2020年中口径国有单位就业人员共3032万人,因此假设国央企及事业单位人数预计有8000万人。2)假设每人配备一台PC,PC与服务器配置比例为10:1,根据海光3000系列,PC端CPU单颗价值1000元/颗,服务端:海光目前最高端7200芯片ASP11000元,低端7100ASP4000元,整体服务器CPU均价大约8000元/颗。3)假设到2025年党政机关国产服务器替换比例为95%,其中国产x86服务器占比20%;国央企及事业单位国产x86服务器替换比例为20%。那么测算得出,预计2022年X86架构国产PC+服务器CPU替换空间为242.8亿元,到2025年有望达到554.3亿元,22-25年CAGR为32%。二、PCB:AI催化算力需求,看好服务器主板和载板投资机会1)AI需求兴起,服务器PCB/CCL升级大潮将至需求端,为了更高的数据运算和传输效率来支持技术不断迭代更新云计算平台,PaaS对IaaS以及更上游零部件提供的新代更优产品有较为迫切的需求。供应端,数据运算和传输效率的性能提升来自两方面:服务器设备数量的增加和单设备算力的提升,其中服务器算力的提升主要依靠整个服务器平台(CPU+芯片组+总线)。AI需求兴起将加速服务器平台向更强大性能设备方向的产品换代需求。PCB/CCL行业在这一发展过程中将呈现产品价值量普遍提升的趋势。从主流厂商规划来看,目前Intel服务器平台正经历从Whitley升级至EagleStream的过程,其中PCB层数将从12-16层升级到16-20层,价值量将会至少提升50%,CCL等级将从LowLoss升级至VeryLowLoss,价值量将提升50%~100%,可见服务器升级将给PCB/CCL带来显著的价值增长。从格局上来看,大陆PCB厂商因配合国内服务器厂商研发和供应,已经在全球服务器PCB竞争中占有一席之地,只要服务器升级放量,则会对相应的大陆PCB厂商带来拉动;大陆CCL在全球市场竞争中布局相对较慢,全球特种基材CCL市场(包括高速CCL)竞争中仅有生益科技进入全球前十大供应商,可见国内CCL在高端CCL市场仍处于追赶的阶段。2)算力对CPU/GPU要求大幅提升,先进封装凸显载板价值AI对算力提出了较高要求,但随着先进制程的提升越发缓慢,先进封装将成为解决多芯片之间高速互连的关键方向(预计未来复合增速达到9.8%),而载板作为先进封装的核心材料(成本占比达到50%),有望在算力提升的大背景下打开价值空间。载板的作用是为CPU等芯片与PCB母板之间提供电气连接与物理支撑。随着GPU/CPU芯片的性能提升,其对相应载板的要求也水涨船高,具体来说,FCBGA载板最能够满足AI运算高性能需求。AI技术发展对先进封装技术要求进一步提升,而FCBGA作为能够实现芯片高速化与多功能化的高密度半导体封装基板,相较FCCSP产品而言具有层数多、面积大、线路密度高、线宽线距小等特点,能够承载AI高性能运算。根据CPCA,PGA/LGA/BGA产品2021-2026间CAGR将达11.5%,到2026市场空间超120亿美元,为载板产品中增长最快、价值量最高的产品。载板因产业链壁垒和技术壁垒较高,因此该市场长期被日韩台厂商高度垄断,根据2021年数据,目前国内主要载板公司深南电路、兴森科技在全球的市占率合计不到5%。我们认为随着半导体产业链国产替代趋势凸显,国内厂商布局步伐加快将带来快速成长机会,行业上升空间较大。国内载板厂商已经形成鲜明的布局梯队,其中深南电路、兴森科技、珠海越亚因布局较早成为国内布局第一梯队厂商,景旺电子、博敏电子、中京电子、崇达技术等也在相应做载板相关布局,我们认为在当前国产替代迫在眉睫的阶段,应当首先关注第一梯队厂商与大客户配合情况,其次应跟踪第二梯队厂商的技术突破情况。基于边际变化分析的角度,我们认为可以通过两方面的对比来把握未来变化关键点,一方面对比DGXA100和普通服务器,以观测AI带来的价值增量;另一方面对比DGXA100和DGXH100,以观测未来AI技术继续迭代的情况下PCB的增量点。2.1普通vsA100:普通单机2425元,95%的价值增量贡献来自GPU板组依据前述拆解方式,我们选取市面上较为先进的2U普通服务器华为2288HV6(双路服务器,PCIE4.0)为普通服务器代表,通过拆解分析,我们估测普通服务器的PCB用量面积为0.630平方米,并且根据产业链调研,普通服务器功能板块的PCB板型规格与AI服务器中CPU母板组和配件组相差不大,由此合计估测单机价值量为2425元。对比普通服务器和以DGXA100为代表的AI服务器,AI服务器所用PCB单机价值量相对普通服务器提升532%,增量贡献主要来自算力需求(贡献增量的95%)和集中度提升(贡献增量的5%),其中载板级的单机价值量提升490%、增量贡献主要来自算力需求(贡献增量100%),PCB板级的单机价值量提升580%、增量贡献90%来自算力而10%来自集中度提升。2.2A100vsH100:H100单机1.95万元,83%的价值增量贡献来自GPU板组再对比新款DGXH100和DGXA100,我们发现新产品架构有一些变化,同样分三个部分来看:1)GPU板组,性能提升之后相应PCB的规格也会有所提升,具体来看,GPU载板,芯片性能增加,封装架构也会升级(如搭配HBM3),根据产业链调研,H100单片载板价值量会提升30%、约为150美元/片,在数量和面积变化不大的情况下,估测单机价值量为7800元,单机价值量相对A100方案提升50%;NVSwitch,集成度提高导致数量减少为4片,单价估测提升至40美元/片,因此对应单机价值量为1040元,单机价值量相对A100方案有所下降11%;GPU加速卡(OAM),由于芯片性能有所提升,加速卡的工艺规格升级为5阶HDI,对应单价提升至15000元/平方米,在数量和面积没有变化的情况下,估测单机价值量提升至3600元,相比A100提升25%;GPU模组板(UBB),集成度提高使得模组板的设计相对更紧凑,但层数和工艺变化不大,对应单价提升至11000元/平方米,在数量和面积没有变化的情况下,估测单机价值量提升至3300元,相比A100提升10%。由此,DGXH100GPU板组PCB用量的面积为0.612平方米,单机价值量提升至15700元,相比A100版本提升28%,主要提升点来自GPU载板、GPU加速卡(OAM)和模组板(UBB)。2)CPU母板组,CPU母板有升级,网卡集成度显著提升,具体来看,CPU载板,CPU芯片虽然有相应升级,但封装承载结构变化不大,根据产业链调研预估DGXH100的CPU载板价值量保持为1300元;CPU母板,DGXH100采用PCIE5.0总线标准,CPU芯片平台升级,根据产业链调研PCIE5.0服务器主板的单价会提升至5000元/平方米,因此在面积不变的情况下单机价值量提升至1900元,相比A100方案提升67%;其他配板,整体变化不大,值得一提的是网卡板的形态由A100的Mellanox成熟设计插拔的方案变为2张集成4芯片的ConnectX-7的PCB板(对应8个端口)、2张单芯片双端口的NVIDIABlueField-3DPUVPI网卡板、1张RJ45接口板载网卡、1张以太网可选网卡合计6张网卡板,相较A100方案网卡板数量下降但集成度和性能有所提升;综合计算,我们估测DGXH100CPU板组PCB用量的面积为0.628平方米,单机价值量提升至3554元,相比A100版本提升25%,主要提升点来自CPU母板。3)配件,DGXH100仍然保持电源6个、硬盘8个、前控制台板1块的配置,PCB板规格变化也不大,因此我们估测配件用量仍为0.188平方米,单机价值量为226元。我们估测DGXH100服务器的PCB用量面积为1.428平方米,单机价值量为19520元,其中GPU板组单机价值量达到1.57万元、占比达到81%,CPU母板组单机价值量为3554元、占比为18%,其他配件单机价值量226元、占比为1%;从板级的分类来看,载板级别单机价值量为10140元、占比达到51.9%,PCB板级单机价值量为9380元、占比为48.1%。对比DGXA100和DGXH100,平台升级将使得PCB单机价值量提升27%,增量贡献83%来自GPU板组、17%来自CPU母板组,其中载板级的单机价值量提升32%、增量贡献主要来自GPU板组(贡献增量100%),PCB板级的单机价值量提升23%、增量贡献59%来自GPU板组而41%来自CPU母板组。2.3价值增量来自GPU板组,后续升级载板增速高于PCB板级综合前文拆解情况,我们认为AI服务器相对普通服务器的PCB单机价值量增幅为532%,其中载板级别增幅490%、PCB板级别增幅580%,PCB板级增幅较大的原因在于普通服务器的PCB的价值量低于载板级产品;再者,AI服务器升级过程中,载板级别增幅为32%、PCB板级别产品增幅为23%,可以想见AI服务器升级中与GPU相关度越高则增值幅度越大。2.4AI服务器PCB存在三种供应关系,须分别把握产业链逻辑AI服务器涉及到的三个部分,供应关系的决定权会有一定的区别,具体来看:1)GPU板组,所涉及到的4个板块均由GPU设计厂商全权设计,对应的PCB板的供应关系决定权也就由GPU设计厂决定;GPU设计厂通常给品牌服务器厂商(国内产业链为主)和云计算厂商(海外产业链为主)交付整个GPU板组,有些情况GPU设计厂会给客户交付GPU加速卡(PCIE版本),极少情况GPU设计厂会直接给客户交付芯片。综合来看我们认为PCB在GPU板组供应链的决定权主要掌握在GPU设计厂手中。2)CPU板组,遵循既有的服务器厂商供应链关系,即CPU载板由CPU设计厂决定,CPU模板和一些整套系统所需要用到的拓展卡板由终端客户决定,而其他带芯片的PCB板大部分的场景是客户向功能件厂商提出设计需求,然后由功能件厂商自行决定PCB的采购。3)配件,配件通常是客户直接购买模组厂成熟的产品,部分场景是客户会向配件模组厂商提出一定的设计需求,但不影响模组厂商对PCB采购的决定权。基于此,在考虑PCB厂商在AI服务器中的成长机会时,应当区分供应产品所处的产业链关系,从而把握逻辑真相。三、存储芯片:关注服务器DDR5渗透率提升及HBM显存投资机会3.1服务器用DDR5即将放量英特尔已于23年1月份正式推出支援4800MT/s,DDR5的Intel7服务器CPUSapphireRapids,而AMD在22年1月推出的5nm服务器Zen4CPUGenoa,也将支援5200MT/s的DDR5。我们认为DDR5将比DDR4芯片面积及价格提升25-30%,意思就是消耗掉更多的内存DRAM芯片产能。根据Yole的数据,2022年全球内存模组市场规模达420亿美元,其中PC市场规模66亿美元,同比下滑36%,服务器市场规模331亿美元,同比增加0.4%。2028年全球内存模组市场规模有望达963亿美元,22-28年CAGR达16%,服务器端CAGR达19%。2022年全球内存模组出货量5.11亿,其中DDR4出货5.0亿,DDR5出货0.11亿。2028年全球内存模组出货量有望达6.5亿,DDR5占比超过98.7%,22-28年DDR5内存模组出货量CAGR达97%。除此之外,为了能够梳理CPU与DDR5内存之间大量的数据存取,整体DDR5模组中DDR51+10内存接口芯片比重应该会提升超过10%,内存接口芯片面积也会加大,还要推新串行检测,温度传感,电源管理芯片等配套芯片。TrendForce研究机构还预期DDR5模组的电源管理芯片因产能短缺,可能面临缺货的窘境。我们估计2022年澜起,Renesas/IDT,Rambus将分食40%/40%/20%的DDR5内存接口芯片份额,而目前仅澜起及Renesas/IDT能提供完整的内存接口芯片加配套芯片解决方案。根据Yole的数据,2022年内存接口芯片及配套芯片市场规模达11亿美元,2028年市场规模有望成长到40亿美元,21-28年CAGR达28%。3.2AI爆火带动GPU需求激增,HBM有望持续受益“3D堆叠+近存储运算”突破内存容量与带宽瓶颈,成为处理大量数据和复杂处理要求的理想解决方案。高带宽存储器(HBM,HighBandwidthMemory)是一款新型的高带宽、高附加值DRAM产品。凭借独特的TSV信号纵向连接技术,HBM内部将数个DRAM芯片在缓冲芯片上进行立体堆叠,其内部堆叠的DDR层数可达4层、8层以至12层,从而形成大容量、高位宽的DDR组合阵列。TSV是在DRAM芯片上搭上数千个细微孔并通过垂直贯通的电极连接上下芯片的技术。该技术在缓冲芯片上将数个DRAM芯片堆叠起来,并通过贯通所有芯片层的柱状通道传输信号、指令、电流。相较传统封装方式,该技术能够缩减30%体积,并降低50%能耗。凭借TSV方式,HBM大幅提高了容量和数据传输速率。与传统内存技术相比,HBM具有更高带宽、更多I/O数量、更低功耗、更小尺寸等特征。除此之外,HBM堆栈不通过外部互连线的方式与GPU/CPU/Soc连接,而是通过中间介质层紧凑快速地连接信号处理器芯片。在传统的冯诺依曼计算架构中,处理器CPU存储器之间通过数据总线进行数据交换,而由于存储与计算单元的结构、工艺、封装不同,导致存储单元的访问速度远远跟不上计算单元的数据处理速度,系统每进行一次运算都需要将参数输入存储器进行一次读写,因此信息交换速度的提高极其受制于存储器的性能。相比之下,HBM通过3D堆叠多层DDR提供海量并行处理能力、通过集成型HBM提供极高的存储器带宽,并使得数据参数距离核心计算单元更近,从而有效降低数据搬运的延迟和功耗。在系统集成方面,HBM将原本在PCB板上的DDR内存颗粒和计算芯片一起集成到SiP,有效利用空间、缩小面积。相比于GDDR5,HBM能大幅提高数据处理速度,其每瓦带宽可高至3倍以上,且能够降低63%的功耗以及节省94%的芯片面积。以HBM为代表的超高带宽内存技术生成类模型也会加速HBM内存进一步增大容量和增大带宽。目前三代HBMDRAM价格约是传统DRAM价格的5倍。HBM融合了3D堆叠以及近存储运算技术,可消除内存受限、计算密集型工作负载的处理与内存瓶颈,因此十分适合用于对性能要求高的计算系统领域,如:AI服务器、超级计算机、机器学习、数据库加速、新一代防火墙和高级网络测试器等应用领域。除此之外,HBM在系统集成方面做到有效缩小芯片体积,也与半导体行业小型化、集成化的发展趋势相吻合,作为存储速度最快的DRAM产品,HBM或成为下一代DRAM高性能解决方案,为快速发展的数据中心及云计算人工智能提供更高的AI/ML性能与效率。ChatGPT横空出世使得AI服务器爆火,催生对高算力GPU以及高性能存储的需求,高带宽HBM或将持续成长。HBM当前渗透率依然较低,截至2021年,HBM位元需求占整体DRAM市场的比例仍未达1%,主要由于:(1)消费级应用场景对于价格极其敏感,且数据处理复杂程度相对不高,传统存储器足够满足其需求,几乎不需要使用到HBM;(2)服务器市场出于性价比考虑往往不会优选HBM,大部分传统服务器仍使用GDDR5、GDDR6来提升内存性能,目前搭载高端AI算力芯片的服务器占比仅1%左右。这几年因为英伟达的GPU大量被使用在人工智能的云端辨识系统,从每台服务器加两片高速运算GPU卡,4片到8片GPU卡都有,让英伟达在数据中心芯片市场的份额从2018-2019年的不到10%,到2021年的超过25%,全球人工智能服务器占比也逐年提升至2021年近10%。以英伟达7nm芯片A100为例,芯片面积虽然高达826mm2,最大耗电量达400W,但其在浮点半精度,单精度,双精度稀疏及理论峰值运算都明显优于同业,为了让A100的DGX人工智能服务器系统发挥效能,除了要配备512GB-2TBDDR4-3200MT/sDRAM给AMDCPU用外,还要另外配备320-640GBHBM给GPU使用。以英伟达A10080GB配置4或8张GPU卡来计算,其HBM用量约为320~640GB。随着AI模型逐渐复杂化,将刺激更多的存储器用量,并带动Server端DRAM、SSD和HBM的需求成长。所以全球AI服务器(使用GPU,ASIC来做人工智能整数,浮点运算)出货占比的提升,对HBM内存需求同比增长有明显的拉动作用,占比逐年提升可期。2023年以来Microsoft、Meta、Baidu和ByteDance相继推出基于生成式AI衍生的产品服务而积极加单,根据TrendForce的数据,AI服务器用GPU,主要以英伟达H100、A100、A800(主要出货中国)以及AMDMI250、MI250X系列为主,英伟达占比约80%,这些高性能AI芯片均采用HBM,因此TrendForce预计2023-2025年HBM市场CAGR有望达40-45%以上。根据我们对产业链上下游的调研,我们看好2023-2025年AI训练服务器出货量实现50%左右的高增速,2026年出货量增速保持在30%左右,我们测算得2026年HBM市场规模有望达56.9亿,2022-2026年CAGR有望达52%,符合市场预期。目前全球HBM市场仍旧由海力士与三星垄断,SK海力士HBM技术起步早,从2014年推出首款HBM后,SK海力士一直是HBM行业领头羊,目前海力士占据全球HBM市场一半以上的市场份额。后期在美光、Synopsys等企业加入布局HBM产品推动行业加速竞赛后,HBM内存技术已从HBM、HBM2、HBM2E升级至HBM3标准(第四代HBM)。2021年SK海力士发布的全球首款HBM3适用于AI、HPC等容量密集型应用,该产品已于2022年6月开始量产并供货英伟达。英伟达对HBMDRAM的应用,标志着高性能存储在数据中心的应用迎来了一个新的时代。2023年4月,SK海力士宣布已在全球首次实现垂直堆叠12个单品DRAM芯片,实现最高容量24GB,容量较上一代HBM3DRAM提升50%,目前已向客户提供样品,正在接受客户公司的性能验证,将在上半年内完成量产准备。目前海力士也正在进行HBM4的研发,预计后续将广泛应用于AI、超算、高性能数据中心、推荐引擎、800G路由器交换机、数据库加速、防火墙监测等应用领域。根据TrendForce的数据,2022年三大原厂HBM市占率分别为SK海力士(SKhynix)50%、三星(Samsung)约40%、美光(Micron)约10%。此外,伴随AI训练与推理模型拉动高阶深度学习AIGPU规格的提升,其热度也将进一步向上传导至HBM产品的需求拉升与技术更迭。目前已有NVIDIAH100与AMDMI300正式搭载HBM,三大原厂海力士、三星、美光也已规划在2023下半年进行相对应规格HBM3的量产。海力士作为HBM创始者具备先发优势,预计在今年将有更多客户导入HBM3的情况下,海力士整体HBM市占率有望进一步提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM市占率分别为38%及9%。四、服务器散热:AI大模型带来了多少液冷市场增量?4.1AI等应用带动功率密度升高,风冷达到功率上限AI应用加速数据中心向高密化趋势演进。面对AI带来的数据量和计算量的爆发式增长,在数据中心资源尤其是一线城市资源日趋紧张的情况下,只有通过提高机房单位面积内的算力、存储以及传输能力,才能最大程度发挥数据中心的价值。高算力AI芯片导入将加速服务器高功率密度演进趋势。据UptimeInstitute发布的《全球数据中心调查报告》显示,2020年全球数据中心平均单机架功率为8.4kW/机架,相比于2017年的5.6kW/机架有明显的提高。其中,1-4kw占25%,5-9kw占46%,10-19kw占13%,中国目前与全球水平仍有差距。据CDCC调研,国内全行业数据中心中8kW功率密度以上的机柜占比由21年的11%提升至22年的25%,高功率机柜占比提升明显。未来,随着人工智能模型训练推理等应用增加,多样化算力协同成为常态,单IT机柜主流功率密度将从6-8KW/柜提高到12-15KW/柜,超算、智算中心功率密度将提升至30kW以上。人工智能芯片多用传统型芯片,或用昂贵的图形处理器(GPU),或用现场可编程门阵列芯片配合中央处理器(FPGA+CPU)为主,用以在云端数据中心的深度学习训练和推理,通用/专用型AI芯片(ASIC),也就是张量处理器或特定用途集成电路(ASIC),主要是针对具体应用场景,三类芯片短期内将共存并在不同应用场景形成互补。摩尔定律发展晶体管数量增多,产品功耗瓦数升高,对于散热的要求提升。随着IC制程、晶片效能、小型化升级,芯片瓦数大幅提升,表面高单位密度发热,对于导热、散热的要求提升。以主流厂商为例,Intel10nm以下制程需采均热片以解决发热问题,AMD7nm制程使用均热片,5nm则必须采用均热片进行散热。未来随着先进制程比如3nm推进,同时搭配3D封装,对于散热效率的要求更高。芯片级散热的方式是通过热传导原理,将芯片不断产出的热能持续地传导至散热元件,热能量传递通常是在非常接近热源的散热器上进行的。以笔记本电脑为例,电子产品朝轻薄化、高性能化方向发展,晶片功能需要大幅增加,晶体管数量增多,对于散热要求提升。①电子设备CPU硅半导体不耐热,在过高温度下无法作为电子电路发挥作用。②中央处理器和集成电路向电机等发出操作命令,产生的大部分能量都转化为热量。③小型化使得能量越集中,温度越高,发热密度更高。早期笔记本散热模组使用2根热管,现在增加为4至6根,高端的产品使用均热板。风机转速超过4000r/min后对热阻的效用是有限的。根据CNKI,风冷系统中,风机转速从1000r/min提高到4000r/min,芯片散热中对流占主导,流速增加对流换热系数显著增加,风冷方式能有效改善芯片散热问题。而当风机转速超过4000r/min后,传热热阻下降比较平缓,转速增加只能改善与空气的导热传热,散热效果降低。芯片级液冷是未来发展趋势。服务器2U空间下,250W大约是风冷解热极限;4U以上风冷可以解到400-600W;AI芯片TDP普遍超过400W,大多使用4-8U。根据CNKI,芯片的平均热流密度将达到500W/cm2,局部热点热流密度将会超过1000W/cm2,传统风冷散热已经达到极限。而芯片温度的控制对于稳定持续工作尤为重要,最高温度不能超过85℃,温度过高会导致芯片损坏,在70—80℃内,单个电子元件的温度每升高10℃,系统可靠性降低50%,因此在功率提升的背景下,散热系统将向芯片级液冷升级。风冷达到功率上限后性价比下降,液体吸热能力更强。根据《2021-2022年度中国数据中心基础设施产品市场总报告》,2021年我国单机柜功率在10kW以上的数据中心市场规模增速超过10%,其中30kW以上增速达31%。据预测,2025年全球数据中心平均功率提升至25kW。TGG认为每机柜15-25kW的功率密度作为“未使用背板换热器等其他制冷设备”的风冷解决方案的上限,当前自然风冷的数据中心单机柜密度一般只支持8-10kW,冷热风道隔离的微模块加水冷空调水平制冷在机柜功率超过15kW后性价比大幅下降。在同样单位体积下,液体吸收热量的能力更高。因此液冷技术能够更高效地散热,以及让芯片能够更高效地工作。4.2冷板式成熟度高,浸没式冷却效率高,成本有望进一步优化液冷技术分为接触式及非接触式两种,接触式液冷是指将冷却液体与发热器件直接接触的一种液冷实现方式,包括浸没式和喷淋式液冷等具体方案。非接触式液冷是指冷却液体与发热器件不直接接触的一种液冷实现方式,包括冷板式等具体方案。其中,冷板式液冷采用微通道强化换热技术具有极高的散热性能,目前行业成熟度最高;而浸没式和喷淋式液冷实现了100%液体冷却,具有更优的节能效果。冷板式液冷成熟度高。冷板式液冷是通过液冷板将发热器件的热量间接传递给封闭在循环管路中的冷却液体,系统主要由冷却塔、CDU、一次侧&二次侧液冷管路、冷却介质、液冷机柜组成;芯片设备热量通过热传导传递到液冷板,工质在CDU循环泵的驱动下进入冷板,之后在液冷板内通过强化对流换热吸收热量温度升高,高温工质通过CDU换热器将热量传递到一次侧冷却液,温度降低;低温的工质再进入循环泵,一次侧冷却液最终通过冷却塔将热量排至大气环境中。喷淋式液冷是面向芯片级器件精准喷淋,通过重力或系统压力直接将冷却液喷洒至发热器件或与之连接的导热元件上的液冷形式,属于直接接触式液冷。喷淋式液冷系统主要由冷却塔、CDU、一次侧&二次侧液冷管路、冷却介质和喷淋式液冷机柜组成;其中喷淋式液冷机柜通常包含管路系统、布液系统、喷淋模块、回液系统等。浸没式液冷技术通过浸没发热器件,使得器件与液体直接接触,进而进行热交换。浸没式液冷技术主要由冷却液、腔体结构、换热模块及相关的连接管道等设施构成。其中,冷却液为数据中心的换热介质,具有高绝缘、低黏度以及超强的兼容特性,是浸没式液冷技术的主要媒介。液冷市场需求保持逐年增长状态,冷板式液冷和浸没式液冷是行业内目前共存的两条主流技术路线;伴随国家双碳节能政策驱动,市场对液冷的需求将逐步提升。考虑到技术成熟度、可靠性、技术通用性、结构颠覆性等多个方面,当前液冷数据中心仍以冷板式液冷占据主流地位。4.3多样化新兴技术带动中国智能算力规模高速增长我国大型及以上数据中心机架规模增长迅速,近年来我国数据中心机架规模稳步增长,按照标准机架2.5kW统计,截至2021年底,我国在用数据中心机架规模达520万架,近五年CAGR超30%,其中大型及以上机架规模420万架,占比80%。我国数据中心主要以通用算力为主,随着AI、边缘计算需求的提升,超算、智算数据中心数量有待增长。当前通用算力机架规模占比超过90%,超算中心主要应用于国家科研,商业场景较少;智算中心逐步从早期实验探索走向商业试点,随着人工智能应用场景的丰富,预期规模增速将达到70%。4.4大模型训练+推理驱动液冷市场总量增加和边际增速提升训练阶段:根据OpenAI团队发表于2020年的论文《LanguageModelsareFew-ShotLearners》,训练1次1746亿参数的GPT-3模型需要的算力约为3640Petaflop/s-day,假设当前大模型每次训练需要一个月的时间,则对应算力需求为121petaflops。随着模型参数增加和训练时间缩短,远期算力需求会有明显增长。AI训练芯片参考英伟达A100参数,算力15.67TFlops,有效算力约为30%。推理阶段:与用户活跃数、提问字数等参数有关。此处不考虑峰值,假设访问需求平均分配在全天各个时段。随着AI应用深化,用户活跃数、模型参数会呈现明显增长,此外访问时延降低。AI推理芯片参考英伟达T4参数,算力8TFlops,假设有效算力利用率30%。计算结果表明,一个设计容量为5MW、单机柜功率密度20kW的数据中心前期建设成本为20元/W,其中制冷系统占比为35%,对应冷板式液冷成本在7108元/kW。浸没式液冷所需要的绝缘冷却液成本较高,我们预计其成本在25000元/kW。当前冷板式液冷技术成熟度较高,在液冷技术路线中处于主流,假设当前占比为80%。未来随着浸没式液冷技术成熟及,整体占比有望逐步提升。综合测算,AI大模型训练+推理会带来40亿元的液冷市场空间,随着模型参数增加、使用推广,未来四年带来液冷市场60%+年复合增速。五、光芯片/光模块:ChatGPT大幅提振算力需求,带动通信产品量价齐升5.1光芯片:数通和电信市场水大鱼大,光芯片国产替代空间广阔受益于全球数据量快速增长,光通信逐渐崛起。在全球信息和数据互联快速成长的背景下,终端产生的数据量每隔几年就实现翻倍增长,当前的基础电子通讯架构渐渐无法满足海量数据的传输需求,光电信息技术逐步崛起。光通信是以光信号为信息载体,以光纤作为传输介质,光芯片实现电光转换,将信息以光信号的形式进行信息传输的系统。光通信传输过程中,发射端将电信号转换成激光信号,然后调制激光器发出的激光束,通过光纤传递,在接收端接收到激光信号后再将其转化为电信号,经调制解调后变为信息,其中需要光芯片来实现电信号和光信号之间的相互转换,光芯片是光电技术产品的核心,广泛应用于5G前传、光接入网络、城域网和数据中心等场景,处于光通信领域的金字塔尖。光芯片可以进一步组装加工成光电子器件,再集成到光通信设备的收发模块实现广泛应用。光芯片按功能可以分为激光器芯片和探测器芯片。激光器芯片主要用于发射信号,将电信号转化为光信号,探测器芯片主要用于接收信号,将光信号转化为电信号。激光器芯片根据谐振腔制造工艺的不同可分为边发射激光芯片(EEL)和面发射激光芯片(VCSEL)。边发射激光器芯片是在芯片的两侧镀光学膜形成谐振腔,沿平行于衬底表面发射激光,而面发射激光器芯片是在芯片的上下两面镀光学膜,形成谐振腔,由于光学谐振腔与衬底垂直,能够实现垂直于芯片表面发射激光。面发射激光器芯片有低阈值电流、稳定单波长工作、可高频调制、容易二维集成、没有腔面阈值损伤、制造成本低等优点,但输出功率及电光效率较边发射激光芯片低。面发射芯片包括VCSEL芯片,边发射芯片包括FP、DFB和EML芯片;探测器芯片主要包括PIN和APD两类。需求端,数据中心和电信双轮驱动,预计2027年全球光模块市场规模超200亿美元,22-27年CAGR达11%。随着光电子、云计算技术等不断成熟,更多终端应用需求不断涌现,并对通信技术提出更高的要求。受益于全球数据中心、光纤宽带接入以及5G通讯的持续发展,光模块作为光通信产业链最为重要的器件保持持续增长。根据LightCounting的数据,2027年全球光模块市场规模预计将超过200亿美元,22-27年CAGR达11%。供给端,海外光芯片厂商具备先发优势,国内厂商乘国产替代东风正迎头赶上。我国光芯片产业参与者主要包括海外头部光通信厂商、国内专业光芯片厂商及国内综合光芯片模块厂商。1)海外头部光通信厂商:三菱电机、住友电工、马科姆(MACOM)、朗美通(Lumentum)、应用光电(AOI)、博通(Broadcom)等;2)国内专业光芯片厂商:源杰科技、武汉敏芯、中科光芯、雷光科技、光安伦、云岭光电等;3)国内综合光芯片模块厂商或拥有独立光芯片业务板块厂商:光迅科技、海信宽带、索尔思、三安光电、仕佳光子等。从竞争格局和产品布局看,以住友电工、马科姆(MACOM)、博通(Broadcom)为代表的欧美日综合光通信企业在高速率光芯片市场占据主导地位,而中国厂商在中低速率芯片市场占据优势,国产化率较高,但高速光芯片仍存在差距。5.2光模块:英伟达NVLink与网络架构升级,带动光模块向高速率趋势演进DGXSuperPOD有四个网络:计算网络,通过8个200Gb/s单端口连接每个DGXA100系统;存储网络,使用来自CPU连接的两个端口;带内管理网络,使用DGXA100系统上的两个100Gbps端口连接到专用以太网交换机;带外管理网络,将每个DGXA100系统的基板管理控制器(BMC)端口连接到附加的以太网交换机。总结来看,共有8个200G单端口和两个100G双端口。NVLink实现服务器集群中每个GPU之间的高速无缝通信,将AI训练时间由数月缩短至数天或数小时。过去的PCIe带宽有限,成为限制高速通信的瓶颈所在。NVLink是NVIDIA的高带宽、高效能、低延迟、无丢失的GPU与GPU互连。从16年至22年,NVLink经历四轮迭代,第四代NVIDIA®NVLink®技术可为多GPU系统配置提供高于以往1.5倍的带宽,以及增强的可扩展性。单个NVIDIAH100TensorCoreGPU支持多达18个NVLink连接,总带宽为900GB/s,是PCIe5.0带宽的7倍。第三代NVSwitch技术在节点内外提供交换机,可连接多个服务器、集群和数据中心中的GPU。每个节点内的NVSwitch提供64个第四代NVLink链接,以加速多GPU连接。H100采用第四代NVLink,增加内部GPU互联的光模块需求数量。H100GPU中应用了新的第四代NVLink,与A100中使用的第三代NVLink相比,提供了1.5倍的通信带宽。所需的NVSwitch节点也
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 延安大学西安创新学院《心理学》2021-2022学年第一学期期末试卷
- 烟台理工学院《移动互联网开发技术》2022-2023学年第一学期期末试卷
- 烟台大学《二维、三维CAD(SoDorks)》2021-2022学年第一学期期末试卷
- 年度工作计划的制定要点
- 面对职场变动的应对策略计划
- 餐饮店装修合同三篇
- 艺术教育的评估与反馈机制计划
- 总结前台工作中的创新案例计划
- 八年级上册英语单词鲁教版
- 设定班级学习目标的有效方法计划
- 童话阅读练习及答案(5篇)
- SMT钢网开口方式规范最终版
- 心理咨询师论文:个人分析报告
- 《统计分析与SPSS的应用第五版》课后练习答案(共1页)
- 人力资源管理体系工作流程图(很全很完整)(共19页)
- 【学案】高中英语续后续写之环湖赛跑
- 电视剧剧组组成及职能
- 电厂常用金属材料焊接工艺
- 七年级上册数学期末复习课件(专用).ppt
- 35kV变电站常见供电事故应对措施及事故预防方法
- 漏缆常见问题与解决措施探讨
评论
0/150
提交评论