通信行业AIGC系列之二十:通信网络延续基础算力的摩尔定律_第1页
通信行业AIGC系列之二十:通信网络延续基础算力的摩尔定律_第2页
通信行业AIGC系列之二十:通信网络延续基础算力的摩尔定律_第3页
通信行业AIGC系列之二十:通信网络延续基础算力的摩尔定律_第4页
通信行业AIGC系列之二十:通信网络延续基础算力的摩尔定律_第5页
已阅读5页,还剩79页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

——AIGC系列之二十证券分析师:李国盛A0230521080003ligs@杨海晏A0230518070003黄忠煌A0230519110001林起贤A0230519060002刘洋A0230513050006联系人:李国盛ligs@2投资案件AI力的摩尔定律。•1)吞吐带宽与连接架构是算力性能不可忽视的决定因素。•2)芯片层面,高速c2c连接方案(如NVLink、CXL等)的推广,是宏观设备/数据中心层高速网络、光网络等需求爆发的底层逻辑。•3)设备层面,单SoC性能提升+芯片“堆量”,不意味着算力集群整体性能的线性提升;而Nvidia、Google、AMD、AWS等算力大厂正应用InfiniBand、OCS等新架构替代通用算力下•系统复杂度、投资强度、整体性能提升效果三方面看,网络设备与器件(包括交换机、光模块等)在AI系统中的重要性显著提升:NvidiaH100到GH200系统,官方标准配置下800G光模块用量可提升30%-275%,同样256GPU集群的交换机需求从不足50台提升至150台以上。•谷歌自研TPUv4背后,是矩阵计算、OCS光交换与更激进的光网络设计。3D组网是TPUv4系统最大亮点,网络起重要作用,导入全光交换、WDM等光通信技术后,算力与网络需求同步提升。•AMD最新MI300体系和AWS自研Trn训练芯片,同样重视带宽、拓展性的价值。3投资案件•1)当前市场对AI算力、网络、光通信空间的跟踪,主要通过订单预期、需求意向或历史经验的方式直接判断。我们认为,除了对硬件进行拆解、进而直接测算单位算力/单位芯片对应的网络需求之外,网络架构本身对算力体系的深远影响也应重视,通信网络正在延续算力领域的摩尔定律,其价值不亚于算力本身。或系统性能的大幅提升会导致硬件需求数量的减少。实际上,芯片或系统性能的提升的背后,吞吐带宽与连接架构是不可忽视的关键因素,“网络与算力同行”。且在AI训练、推理需求提升的产业早期,性能成本的优化、架构方44.AMD、Amazon等:芯片亦持续迭代资料来源:PCI-SIG,申万宏源研究51(一1(一)通用/传统场景:PCIe是服务器内部通信的总线标准,制约了电口通信速率的提升。设备等主要基于PCIe(PCIexpress)协议相互连接。•相较于4.0版本,PCIe5.0传输速度更高,x16带宽(双向)从64GB/s提升到了128GB/s;目前规范制定已迭1异构计算的初步创新:在PCIe物理架构和电气接口的基础上,英特尔等牵头成立CXL联盟并最新推出CXL2.0-3.0规范,用于AI、高性能计算等场景中CPU与GPU等的互联,通过“内存池化”等方式优化内存调用,进而提升系统整体性能。(据ComputeExpressLink官网)资料来源:Prodigy,申万宏源研究设备I/O带宽每三年翻倍,PCIe目前主流5.0版本,已迭代至6.01我们认为,芯片层高速连接方案的推广,是宏观设备层面高速网络、光网络等需求的底层逻辑。1(二)Nvidia代表,已对标PCIe推出NVLink解决异构计算与AI算力网络瓶颈。1NVLink是Nvidia专门设计用于点对点链路高速互联的网络方案(例如GPUtoGPU连接)。据Nvidia白皮书,NVLink的开销比传统网络更低。如端到端重试、自适应路由、数据包重新排序等),在NVLink体系下可以在增加端口数的情况下进行权衡。•此外,基于NVLink的网络接口更加简单,允许将应用程序层、表示层和会话层功能直接嵌入到左图:传统GPU服务器基于PICe连接的架构,片间互联依赖于PCIeSwitch右图:此前NvidiaA100GPU为例,已兼用PCIe和NVLink解决片间网络性能瓶颈资料来源:Nvidia,申万宏源研究671NVIDIA在2016-2022年迭代4代的NVLink满足了其算力方案的两大需求(专用连接方案解决专业问题),使GPU具有尽可能高的性能、使用专用协议和系统设计以实现更高的性能。•据PCI-SIG及Nvidia技术文档,目前的PCIegen5每通道仅为32Gbps,而NVLink每通道高达Gbps其GPU系统。•最新的NVLinkgen4下,每个H100GPU的连接数从上一代的12Links升级至18Links,每个GPU提供900GB/s(7200Gbs)的双向带宽(bidirectionalbandwidth)。H100GPU的NVLink可以贡献900GB/s的带宽资料来源:Nvidia,申万宏源研究81此外Nvidia发布适用于超算服务器内部的NVSwitch芯片(最早2018GTC大会发布第一代,作用类似于交换机ASIC),进一步通过上述NVLink协议接口将多个GPU高速互联到一起。1据技术文档,在H100芯片+NVLinkgen4协议这一代,Nvidia配套了NVSwitchgen3芯片方案,采用台积电4N工艺,满足GPU间的点对点连接,内嵌ALU使NVSwitch提供FP32的400GFLOPS计算吞吐,每个芯片64个NVLink4接口。•依据技术文档,NVSwitch3芯片大小50mm*50mm,包括一个SHARP控制器,可并行管理多达Gbps供64x200Gbps=12.8Tbps(1.6TB/s)单向带宽、或3.2TB/s双工带宽。Nvidia的NVSwitch芯片,本身起到了网络交换机的作用资料来源:Nvidia,申万宏源研究1进一步,英伟达发布GraceHopper架构,将NVLink应用场景从GPUtoGPU拓展至GPUtoCPU。•因为芯片维度,制约AI算力性能释放的因素,除了单个芯片的性能外,还包括片间带宽(例如A100对比NVLink在GraceHopper架构下,使CPU和GPU线程能够“共享”访问所有内存(GPU除了可以利用自身的HBM3内存,还可以借助NVLink访问CPU的LPDDR5X内存)。1最终,NVLink彻底打通了GPUtoGPU和GPUtoCPU之间的高速连接(右下图),GPU可以以450GB/s的速度拓展至最高至150TB的内存,进而释放出更强的超算性ChipChip-to-chip的NVLink延伸至GPU与CPU互联资料来源:Nvidia,申万宏源研究910InfinityFabric在AMDMI300系列中扮演重要作用InfinityFabric在AMDMI300系列中扮演重要作用1(三)类似地,AMD的InfinityFabric也强化了chip内外部网络连接的性能。•AMDInfinityFabric包括ScalableControlFabric(负责控制,类似大脑)和ScalableDataFabric 1以最新的MI300系列为例,InfinityFabric用于内存共享机制:11)MI300A(CPU+GPU)•3个5nmCPUdies(24个Zen4cores,InfinityCache)•6个5nmGPUdies(CNDA3)HBM3总共128GB容量,UnifiedMemory架构(见右图)12)MI300X(作为GPU,针对LLM场景)•192GBHBM3内存•5.2TBps内存带宽•896GBpsInfinityFabric带宽(可以类比NVLink)•据AMD2023年6月新品发布会,MI300XBMNvidiaH倍,其HBM带宽最高是H100的1.6倍。资料来源:AMD,申万宏源研究 算力下的以太网需求 算力下的以太网需求结合实际情况,我们认为:单SoC性能提升,不意味着算力集群整体性能的提升;单纯“堆砌”集群芯片数量,而不优化网络连接,集群性能提升很快就会遇到瓶颈。传统云计算场景下,算力设备以同构计算和简单的异构计算为主,通用的以太网很难满足大规模GPU集群的连接需求。Nvidia理解的网络架构变化带动集群性能继续线性提升AI英伟达解决集群性能瓶颈的方式是Nvidia理解的网络架构变化带动集群性能继续线性提升AINvidia,2020年公司以69亿美Mellanox,后者致力于数据中心InfiniBand和以太网互联产品的。•2022-2023年DGXH100SuperPOD集群完善,重要变化体现在NVLink从板上/片间互联走向不同Server或板卡的互联,同时Nvidia也相应发布了NVLink交换机(Hotchip等公开资料)。集群中GPU数量资料来源:Nvidia,申万宏源研究11 算力下的以太网需求 算力下的以太网需求1InfiniBand是一种专为RDMA(远程直接内存访问)设计的网络。•RDMA主要用于解决网络传输中服务器端数据处理的延迟问题,能直接通过网络接口访问内存数据,无需操作系统内核的介入(相比于传统TCP/IP),尤其适合在大规模并行计算机集群中使用。•InfiniBand网络需要使用专用的IB网卡和IB交换机。RDMA网络可以直接通过网络接口访问内存数据Nvidia的InfiniBand设备覆盖网络适配器、DPU、交换机等资料来源:华为,申万宏源研究资料来源:Nvidia,申万宏源研究1以NvidiaH100为例,其网络架构的基础是InfiniBandNDR400Gb网络。•据Nvidia技术文档,MellanoxInfiniBandNDR产品是第7代的InfiniBand产品,利用100Gb/s的PAM4Serdes技术,实现了400Gb/s单端口传输带宽。NDRInfiniBand交换机可以支持64个400Gb/s端口或128个200Gb/s端口,提供32个800GOSFP接口,是400G/800G网络来源。12 算力下的以太网需求络 算力下的以太网需求络1设备组网的基本原则——GPU的通信以NVLink为基础,CPU/存储的通信+跨集群通信以InfiniBand为基础。•在服务器发布的同时,NVIDIA还发布了搭载2个NVSwitch3芯片的NVLink交换机,连同GPU服务器和NVLink4协议组成NVLink网络。1(一)H100GPU发布后,服务器架构变化较大:InfiniBandNVL资料来源:英伟达技术文档,申万宏源研究13 算力下的以太网需求 算力下的以太网需求1DGXH100服务器架构:GPUTray和Motherboard分离,背后是NVLink和InfiniBand网络的分离。大致包括了GPUTray、MotherboardTray、Power系统、FrontCage等部分。口以MotherboardTray为主。资料来源:英伟达技术文档,申万宏源研究14资料来源:英伟达技术文档,g-depjp,申万宏源研究15 算力下的以太网需求 算力下的以太网需求1DGXH100服务器架构:GPUTray中,拥有8xH100GPU+4xNVSwitch芯片,芯片端4-5-5-4共18组OSFP接口(基于NVLink)负责不同DGXH100服务器之间的连接。资料来源:英伟达技术文档,HC34,申万宏源研究16 算力下的以太网需求 算力下的以太网需求1(二)NVLink交换机是H100体系的创新,也是800G光通信方案应用的亮点。1Nvidia发布新的NVLink交换机,1U尺寸设计,32个OSFP接口的设计;1和普通交换机不同,每台NVLink交换机搭载2个NVSwitch3芯片,提供128个NVLink4接口(单个NVSwitch3提供64个NVLink4),双工带宽6.4TB/s(单个NVLink4单向200Gbps,128x200Gbps=25.6Tb/s单向带宽)。NVLink交换机搭载了OSFP等接口 算力下的以太网需求 算力下的以太网需求1据Nvidia设计,每套SuperPOD集群32台服务器折合256个H100GPU,AI性能高达1EFlops;每套系统配18台NVLink交换机,系统双向带宽57.6TB/s;(网络需求增加)1依照技术文档推荐方案,每套系统的32台DGXH100服务器中的400Gb/sConnectX-7网卡对外与IB交换机连接,用于连接多套SuperPOD系统。1两层NVSwitch芯片设计:一层交换芯片位于服务器内,二层交换芯片位于交换机内。•128个L1层芯片(32台服务器,每台4个)+36个L2层芯片(18台NVLink交换机,每台2个)。一Ie将过去A100及之前用于服务器内部GPU高效连接的NVLink,外化到整个集群,借助新的NVLink交换机,搭建L1、L2两层网络,实现跨服务器、跨机柜的GPUtoGPU连接。即便是同样的H100芯片底座,NVLink的加入可以显著提升集群性能资料来源:英伟达技术文档,申万宏源研究注:纵轴为相较于A100的性能提升倍数。17IDCAI网1依据实际情况,数据中心中,拥有较大外部客户群、提供XaaS的数据中心更可能由南北向的流量主导;另一方面,对计算和存储有大量内部需求时,在服务器之间看到更多的东西向流量,可以将他们的数据中心运营成具有较高径向的巨大集群。•两种主要的典型数据中心架构类型:以上依靠相干ZR光模块互连(DCI)。800G网络的一个重要边界约束是,在服务器到TOR层使用200G互连。而TOR-leaf/spine层通常使用PSA;spine层通常依靠PSM44x200G。典型的云计算中心,金字塔架构组网资料来源:MSA,申万宏源研究1819IDCAI网•2)AI的数据中心网络以胖树fat-tree架构为主。比超大规模网络的层数少、在各层之间几乎无收敛。网络带宽不收敛。尤其在训练侧,数据、算力以内部流转为主,较多依赖内部径向流量的统一高带宽。高速网络设备/器件的需求量更大。树架构网络更扁平化,但带宽更高下的负载均衡资料来源:OpenFlowbasedLoadBalancingforFat-TreeNetworkswithMultipathSupport,申万宏源研究资料来源:MSA,申万宏源研究204.AMD、Amazon等:芯片亦持续迭代G础。AIGCNvidiaA与设备需求以G础。1Nvidia的A100体系是典型的200G网络结构。•DGXA100的核心网卡MellanoxConnectX-6主要基于200Gb/sHDRInfiniBand网络。因此底层网络带宽即200G。DGXA100服务器背板明确拥有8个用于Compute的200GQSFP56接口。另外个用于Storage的接口。1据技术文档,A100的DGXSuperPOD集群,服务器与交换设备数量之比大致在1:1左右。1A100SuperPOD设计单集群20台DGXA100,搭配12台用于Compute的IB交换机以及6台用于Storage的IB交换机(IB交换机QM8790为40portsx200Gb规格)。NvidiaA100SuperPOD实际组网情况资料来源:Nvidia,申万宏源研究21G础。AIGCNvidiaA与设备需求以G础。1基于A100的DGXSuperPOD集群,140个服务器(1120GPUs)规模的线缆需求量测算:200G需求量共4014只线缆,对应约8000只光模块(推荐型号为光方案的QSFP56),数量比例GPU:200G光模块≈1:7(若有铜缆,则数量在此基础上打折)。注:在Nvidia技术文档中推荐的组网方案下,140个DGXA100服务器集群线缆需求测算。资料来源:Nvidia,申万宏源研究2223 提升至400G/800G基准 提升至400G/800G基准1在Chapter1中我们已经讨论过,H100网络架构基础是InfiniBandNDR400Gb网络+NVLink800Gb网络。•一个标准的DGXH100SuperPOD由32台DGX00Gb (服务器厂商定制版本也有8×400G选择)。•同理于A100之测算,一个128DGXH100服务器集群(4xSuperPOD,实际127台服务器,预留1台空位替换UFM)为例,搭载1016个GPU、32个Leaf交换机、26台Spine交换机(InfiniBand网络需求);fBand需要100G、400G网络。127个H100服务器(1016GPUs)的设备需求量测算资料来源:Nvidia,申万宏源研究24 提升至400G/800G基准 提升至400G/800G基准1基于H100的DGXSuperPOD集群,127个服务器(1016GPUs)规模下的设备需求量测算(均为多模光纤):•交换机端800G(2x400NDR)1536+395=1931个•服务器端2x400G508+4=512个•以上GPU:800G光模块≈1:2.4(InfiniBand网络标配需求)•另外预计400G(1x400NDR)254+8=262个1若进一步考虑NVLink网络(相当于选配)需求:G•一个POD集群的32台服务器(256GPUs)则需要36x32=1152个800G光模块。•以上GPU:800G光模块=1:4.51综上H100体系下,GPU:800G光模块用量的区间大致在1:2.4至1:6.9之间(理想情况)。1而对于一个256GPUs的DGXSuperPOD集群,交换机用量不超过50台。GH200“超级计算机”GH200“超级计算机”•1xHopperGPU(H100)+1xGrace•8xGH100+3xL1NVLink交换机+内部高速线缆=1组GH100阵列;•256xGH100+96xL1NVLink交换机+内部高速线缆=32组GH100阵列;•32组阵列+36xL2NVLink交换机+24xH资料来源:Nvidia,申万宏源研究252.3GH200的设计精髓:最大化利用NVLink和InfiniBand1我们测算:DGXGH200同过去A100和H100系列服务器最大区别在于,将GraceCPU和HopperGPU封装在同一块板卡上,连同其他部件形成1U大小的“刀片服务器”,并将其通过内部线缆的方式和L1层的NVLink交换机封装在一起,板卡与L1NVLink交换机的数量比例为8:3。•一个DGXGH200集群内部包括256个GH200“板卡服务器”,对应了96台L1NVLink交换机。nk•一个DGXGH200集群搭配36台L2NVLink交换机。1则GraceHopper下,NV网络对800G光模块的需求量:36(L2NV交换机)x32(NV交换机接口数)x2=2304个,GPU:800G光模块=1:9(较DGXH100方案提升30%-275%)。1加之搭配的24台IB交换机(预计是16+8的双层fattree架构),预计额外需要[32x24+256](IB网络接口数,交换机侧和服务器侧)=1024个光模块。以及BF-3等组网所需的额外较低速率光模块。资料来源:Nvidia,申万宏源研究26272.3GH200的设计精髓:最大化利用NVLink和InfiniBand片GraceCPU+H100GPU为例:•96+36=132台NVLink交换机 (800G)•24台InfiniBand交换机(预计400G/800G)•42台以太网交换机(预计100G/200G,用于存储、管理等)•相比“256GPUs的DGXSuperPOD集群,交换机用量不超求大幅提升。GraceHopper架构下NVLink和IB网络共存资料来源:Nvidia,申万宏源研究1因此我们预计,Nvidia未来将越来越重视在AI体系中引入NVLink网络,通过网络连接来降低系统成本、提升整体性能:1DGXH100服务器的架构设计,仍可见传统PC与通用服务器一路沿袭的思路,例如motherboard、gputray等结构;而GH200则基于NVLink和AI需求对“芯片-设备-IDC”的网络架构做了重新设计。从系统复杂度、投资强度、整体性能提升三方面看,网络设备与器件(包括交换机、光模块等)在系统中的重要性显著提升。284.AMD、Amazon等:芯片亦持续迭代TPUv4集群3.1谷歌TPU:迭代至v4,ASIC3D组网适配AI需求TPUv4集群1谷歌自研TPU可追溯至2014年;据谷歌论文(TPUv4:AnOpticallyReconfigurableSupercomputerforMachineLearningwithHardwareSupportforEmbeddings),最新采用激进的全光组网方案。据历代发布数据:•TPUv1主要用于推理场景,单向架构,发布于2015年;•TPUv2则定位于训练场景,单板4颗芯片,64GHBM替代DDR3,InterconnectRouter提供4个ICILink做芯片互联、分别496Gbps带宽(类似NVLink),发布于2017年;•TPUv4的128GHBM带宽升级至1200GBps,ICILink则迭代为6路448Gbps。GoogleTPU演进至第四代资料来源:Google,申万宏源研究293.1谷歌TPU:迭代至v4,ASIC3D组网适配AI需求13D组网是TPUv4最大特征,同样重视网络连接的价值。据谷歌文档测算:•一个TPUv4板卡有4个芯片,一个TPUv4Pod由4096个芯片(1024个板卡)组成。•一个4x4x4的block有64个芯片(16个板卡,右下图示),每个block有6个面(正立方体的6个面),每个面对外发送16个光连接,用于连接外部交换机,总共6x16=96个光连接;block上相对面的link连接同一台交换机,因此64个芯片的光连接有96/2=48对,对应48台交换机。•为TPUv4设计的交换机是136×136•为TPUv4设计的交换机是136×136 (128个业务端口+8个测试维护端口),因此上述48台交换机可用于连接64个block(每个block有64个芯片)中的48对光连接。资料来源:Google,申万宏源研究303.1谷歌TPU:迭代至v4,ASIC3D组网适配AI需求TPUv4板卡1我们认为,芯片角度ICILink起到了类似NVLink的作用,负责Chip-to-chip互联以及板间互联。TPUvICILinks每一路448Gbps带宽,其中2路用于板卡上4个芯片的互联,另外4路则用于对外的3D组网。OSFPconnectors的形式嵌入在板卡侧面(右图红框)。的8个机柜,每个机柜有16组服务器(板卡),对应16×4=64个芯片(即1个机柜对应前述1个4x4x4的block)。11个Block(机柜)内部板4096芯片、64机柜集群其中的8个机柜卡之间的互联使用无源铜缆连接;的机柜、以及光纤与光模块、液冷模块,共同组成了4096TPU芯片的集群。资料来源:Google,申万宏源研究311OCS即Opticalcircuitswitches,是谷歌TPUv4网络连接的核心交换机。1通常数据中心内数据交换是光电混合网络,设备之间的主要互联通过光缆/铜缆/光电转换器件、以及交换机ASIC/Serdes/PCIE/NVLink等链路实现。1与过去在网络层之间多次将信号“从电转换为光再到电”不同,OCS是一种全光学的连接方案,通过MEMS阵列结合光环路器、波分复用光模块实现光路的灵活切换、以达到直接通过光信号组建交换网络的目的。谷歌OCS方案通过MEMS阵列调整光路,灵活配置AI算力网络资料来源:Google,申万宏源研究32资料来源:Google,申万宏源研究331早期谷歌应用OCS主要用于解决云设备集群扩容中不同速率设备、网络、敏捷性的兼容问题;后来应用于AI/HPC场景下数据中心内部主干网络。1OCS优点在于其信号传递的过程中不涉及数据包路由或标头解析,OCS只是将光从输入端口反射到输出端口,精度高、损耗小,而光信号是通过WDM光模块的电光转换过程产生。1因此OCS光交换网络与数据速率和波长无关,即使算力网络基础设施带宽从100Gb/s升级到200Gb/s甚至直到1.6T及更高速率,OCS方案均可在主干层兼容。换言之,在OCS方案下光通信网络的升级迭代未必以传统网络芯片的带宽和端口速率为瓶颈,可完全依据流量增长速度和成本经济性进行迭代。谷歌OCS方案仍然依赖光模块产生光信号、借助光纤进行信号传输1我们认为,波分复用的单模光模块是高带宽下的必然需求。预计AI背景下,相干光通信下沉至IDC场景,成本、功耗、频谱效率、可扩展性等因素平衡,通信环节需求进一步提升。1谷歌OCS网络方案下,采用单模WDM光模块进行Leaf层交换机间的连接。OCS技术的兼容性和扩展性所需要的。•此外,光环路器(circulators)被耦合到光模块上,以实现单模双向链路传输,从而为每根光纤和每个OCS端口实现全双工通信,使所需的光纤和OCS端口的数量减少了一半。由于OCS、光环路器和光纤组件在很大程度上与数据速率无关,可以用于多代网络和不同速度的互连。而波分复用的单模光模块正在从800G向1.6T演进。谷歌单模WDM光模块迭代路径,当前恰好是800G节点,预计很快导入1.6T继续迭代至1.6T以上,光通信领域技术迭代、不同场景渗透将加速。•例如,据MSA发布的800G白皮书,使用单模技术来实现800G-SR8场景 (60~100m)互连开始具资料来源:Google,申万宏源研究34354.AMD、Amazon等:芯片亦持续迭代AMDMIDD加容量与带宽显著提升:•MI300X拥有192GB的HBM3、TBpsGBpsInfinity•AMDInfinity架构将8个MI300X加速器连接在一个系统中,提供合计1.5AMDMI300APU采用3D堆叠集成13个Chiplets资料来源:AMD,申万宏源研究AMDMI300A和MI300X服务器样图资料来源:AMD,申万宏源研究36资料来源:AWS,申万宏源研究37AmazonTrainiumTrn服务Trainuim支持的AWSEC2Trn1:Trainium芯片,芯片内NeuronLink专用连接并搭配HBM内存,调用800Gbps的ElasticFabricAdapter网络接口,可横向拓展至1万颗以上的Trainium芯片。1600Gbps。(发布会公开数据)Amazon自研Trn系列训练芯片384.AMD、Amazon等:芯片亦持续迭代394.结论与相关标的11)系统复杂度、投资强度、整体性能提升效果三方面看,网络设备与器件(包括交换机、光模块等)在AI系统中的重要性显著提升:NvidiaH100到GH200系统,官方标准配置下800G光模块用量可提升30%-275%,同样256GPU集群的交换机需求从不足50台提升至150台以上。TPUv背后,是矩阵计算、OCS光交换与更激进的光网络设计。3D组网是TPUv4系统最忽视的决定因素。12)芯片层面,高速c2c连接方案(如NVLink、CXL等)的推广,是宏观设备/数据中心层高速网络、光层逻辑。13)设备层面,单SoC性能提升+芯片“堆量”,不意味着算力集群整体性能的线性提升;而Nvidia、Google、AMD、AWS等算力大厂正应用InfiniBand、OCS等新架构替代通用算力下的以太网,带来增量网络需求。4.结论与相关标的•技术迭代往往会产生新的通信方案。硅光/CPO/MPO/LPO/OCS等已经体现了光通信领域的新技术市公司估值表2023/6/14利润收盘价(元)总市值(亿元)2023E2024E2023E2024E5.65488.254.51络457.83467.13网络4.55中国联通1,622.03资料来源:Wind,申万宏源研究注:紫光股份、星网锐捷、中际旭创、新易盛、锐捷网络、中国联通净利润取Wind一致预测。40信息披露信息披露析师承诺本报告署名分析师具有中国证券业协会授予的证券投资咨询执业资格并注册为证券分析师,以勤勉的职业态度、专业审慎的研究方法,使用合法合规的信息,独立、客观地出具本报告,并对本报告的内容和观点负责。本人不曾因,不因,也将不会因本报告中的具体推荐意见或观点而直接或间接收到任何形式的补偿。的信息披露本公司隶属于申万宏源证券有限公司。本公司经中国证券监督管理委员会核准,取得证券投资咨询业务许可。本公司关联机构在法律许可情况下可能持有或交易本报告提到的投资标的,还可能为或争取为这些标的提供投资银行服务。本公司在知晓范围内依法合规地履行披露义务。客户可通过compliance@索取有关披露资料或登录wwwswsresearchcom质情况、静默期安排及其他有关的信息披露。售团队联系人oswhysccomniswhysccomanswhysccomgswhysccom201A股投资评级说明证券的投资评级:以报告日后的6个月内,证券相对于市场基准指数的涨跌幅为标准,定义如下:买入(Buy):相对强于市场表现20%以上;增持(Outperform):相对强于市场表现5%~20%;中性(Neutral):相对市场表现在-5%~+5%之间波动; 减持(Underperform):相对弱于市场表现5%以下。 行业的投资评级:以报告日后的6个月内,行业相对于市场基准指数的涨跌幅为标准,定义如下:看好(Overweight):行业超越整体市场表现;中性(Neutral):行业与整体市场表现基本持平;看淡(Underweight):行业弱于整体市场表现。本报告采用的基准指数:沪深300指数资评级说明证券的投资评级:以报告日后的6个月内,证券相对于市场基准指数的涨跌幅为标准,定义如下:买入(BUY)::股价预计将上涨20%以上;增持(Outperform):股价预计将上涨10-20%;持有(Hold):股价变动幅度预计在-10%和+10%之间;减持(Underperform):股价预计将下跌10-20%;卖出(SELL)

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论