电子行业深度研究报告:Scaling+law依然有效自研AI芯片后劲十足_第1页
电子行业深度研究报告:Scaling+law依然有效自研AI芯片后劲十足_第2页
电子行业深度研究报告:Scaling+law依然有效自研AI芯片后劲十足_第3页
电子行业深度研究报告:Scaling+law依然有效自研AI芯片后劲十足_第4页
电子行业深度研究报告:Scaling+law依然有效自研AI芯片后劲十足_第5页
已阅读5页,还剩64页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

证券研究报告电子2024年09月28日Scalinglaw依然有效,自研AI芯片后劲十足ooScalinglaw依然有效,AI自研应需而生。ChatGPT掀起新一轮AI产业浪潮,预训练测Scalinglaw仍然有效,推理侧Scalinglaw刚崭露头角,AI算力有望维持高增长。全球科技龙头纷纷想抓住此轮AI浪潮的发展机遇,资本开支快速增长,但AI投入尚未得到明显回报,置身于是否加码AI投资的两难境地,自研AI芯片具备降本增效、提高自身竞争力等优势,AI自研应需而生。o英伟达深耕AI产业十多载,在GPU/网络/软件三方面筑建深厚壁垒。英伟达抓住以深度学习、大模型为核心技术的AI技术变革机遇,针对AI模型的大规模并行计算需求,在GPU、高速互连领域深度布局。其中,单GPU节点算力凭借着在结构、核心数等方面进行能力提升,过往8年内算力增长超千倍;在高速互连领域,英伟达在片间、ScaleUp和ScaleOut网络域均提出相应解决方案。这些努力最终促使英伟达在AI系统领域构建了深厚的护城河。若想取代甚至超越英伟达需要在AI加速器、高速互连等多方面取得突破。oAI产业群雄并起,自研AI有望提速。面对英伟达在AI算力领域的领导地位,以北美云厂商为首的科技企业,在算力芯片、高速互连等领域进行前瞻布局。其中,在AI自研芯片领域,亚马逊、微软、Meta等超大规模AI客户联合Broadcom、Marvell等芯片厂商,加快AI芯片推出速度;在ScaleUp网络,以AMD、博通为首的科技玩家,构建UALink高速互连开放标准,提供了复制NVlink高速互连的路径,聚合全产业资源,加速追赶NVlink。在ScaleOut网络,以太网凭借着生态优势、齐备的产业链和较高的性价比,得到了亚马逊、Meta、字节跳动等科技巨头们的青睐,超以太网联盟和英伟达Spectrum-X平台两大阵营均在该领域发力,推动以太网AI网络快速发展。未来基于以太网的AI网络有望成为主流解决方案。随着非英伟达阵营在AI加速器、高速互连等领域不断取得突破,AI自研方案有望加速落地。o投资建议:AI算力需求推动AI服务器、高速交换机用PCB需求维持高增长,相关公司有望深度受益。具体如下1)沪电股份:公司深耕北美客户,AI业务加速放量,800G交换机有望与AI服务器共振向上。(2)生益电子:公司深耕数通板行业十多载,成功开发了包括亚马逊在内的多家服务器客户,AI配套的主板及加速卡项目均已经进入量产阶段;800G交换机产品已经小批量交付,有望开始放量。(3)胜宏科技:公司前瞻布局HDI领域,AI多业务条线进展顺利,有望深度受益于AI服务器用HDI需求提升。证券分析师:证券分析师:熊翊宇证券分析师:耿琛证券分析师:岳阳联系人:董邦宜行业基本数据行业基本数据相对指数表现5.5%5.5%-0.4%2023-09-27~2024-09-2711%-1%2023-09-27~2024-09-2711%-1%o风险提示:o风险提示:AI产业发展不及预期、行业竞争格局加剧、产品导入不及预期、新技术迭代风险、原材料价格大幅上涨。-12%23/0923/1224/0224/0524/0724/09-24%-24%——电子——沪深300重点公司盈利预测、估值及投资评级重点公司盈利预测、估值及投资评级《消费电子行业重大事项点评:国内外大厂加速资料来源:Wind,华创证券预测注:股价为2024年9月27资料来源:Wind,华创证券预测注:股价为2024年9月27日收盘价《消费电子行业深度研究报告:潜望式镜头引领证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号AI技术底层原理解构,揭开AI算力基础设施面纱。本文梳理了AI技术的演进趋势,揭示了AI算力本质上是一种大规模并行计算,并通过对英伟达在GPU/高速互连领域的布局进行解构,指出了AI算力硬件产品的升级迭代的方向。AI产业群雄并起,AI自研有望提速。本文指出了头部科技企业面临是否加码AI基础设施的两难境遇,AI自研应需而生。通过AI头部玩家在AI加速器、高速互连领域布局的分析,与前文AI算力需求、英伟达AI产业布局遥相呼应,可以看出AI自研逐步走上正轨,有望迎来快速发展期。AI产业快速发展,有望推动数通板行业迎来量价齐升。本文从AI技术底层原理出发,对AI产业头部玩家英伟达进行解构,分析非英伟达阵营在AI产业的进展,结合当前科技企业的境遇,推断出AI自研芯片有望迎来快速增长黄金期,数通板行业有望迎来量价齐升,相关PCB企业有望深度受益。证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号3 7 7(二)AI大模型掀起新一轮AI技术变 9 (一)GPU算力提升之路:微结构提升或有望成为 (二)高速互连:构建全系列高速互连系统,打 (三)以太网:以太网优势日益凸显,加速广泛部署于AI (一)沪电股份:AI业务加速放量,800G交换机有望与AI服务器共振向上 (二)生益电子:AI服务器大批量交付,800G交换 (三)胜宏科技:前瞻布局HDI领域,深度受益于AI服务器用HDI需求提升 证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号 7 7 8 8 9图表6芯片架构设计三大目标:带宽(Bandwidth)、延时(Latency)和吞吐量(Throughput) 9 证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号5 证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号6 证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号提出了深度神经网络,掀起了基于深度学习的新一轮AI浪潮,奠定了大模型发展的基础。深度学习兴起的背景是计算能力的提高和大数据时代的到临,能够让机器自动地从原始数据中学习。从原始数据中提取高层次、抽象的特征是非常困难的。深度学习另辟蹊径,让计算机通过比较简单概念来构建复杂的概念,能够让计算机从经验和数据中得到提高的技术,在计算机视觉、自然语言处理等领域取得了一定的成果。深度学习早期主要用于解决机器学习中的表示学习的问题,但是由于其强大的能力,逐渐被用于解决一些通用人工智能的问题,如推理、决策等,当前主流的大模型技术本质上是由深度学习的延伸发展而来的。资料来源:IanGoodfellowd等《DeepLearning》资料来源:IanGoodfellowd等《DeepLearning》深度学习训练、推理过程需要大量并行运算。深度学习广泛应用的模型要是因为神经网络能够使用反向误差传播算法,可以很好地解决贡献度问题。深度学习狭义上就是很多层神经网络。深度神经网络通过训练以后用于推理任务,其中训练过程主要是让模型通过输入的数据不断学习,即调整模型的参数,包含前向传播和反向传播2个过程;推理过程主要是指训练好的模型对输入数据进行预测,仅包含前向传播过程。证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号8资料来源:鲁蔚征&秦续业《Python数据科学加速》资料来源:鲁蔚征&秦续业《Python数据科学加速》GPU采用高度并行架构,适用于深度学习大规模并应用程序运行中各类计算任务,需要很强的通用性;GPU可以更高效地处理务。从架构上看,CPU与GPU主要存在几大区别:(1)并行处理能力:CPU拥有较少的计算单元(ALU但是具有复杂的控制单元(Control擅长逻辑控制和串行计算。GPU拥有大量的计算单元(ALU)和线程(Thread大量ALU可以实现大的计算吞吐量,超配线程可以同时处理(2)内存架构:CPU拥有较大的Cache,可以缓存大量后续可能需要访问的数据,多的线程服务的,如果有很多线程需要访问一个相同的数据,缓存会合并访问特性,其功耗通常相对较高,需要更好的散热系统来保证稳定运证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号同的目标。GPU的设计目标是最大化吞吐量,相比单个任务执行的速度,其更务。CPU以序列化地方式处理任务,其目标任务之间快速切换的能力。起新一轮AI浪潮,算法、算力和数据三大要素协同迭代,推动AI模型能力不断提在过去十多年时间里,受限于摩尔定律,CPU/GPU/TPU等处理器的算力增长速度远不及AI算力需求增长速度。面对迅速增长的AI算力需求,大规模分布式计算能够的任务分解到单个处理器上,用以解决单芯片性能不足的问题。未来随着大模型的广泛证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号资料来源:麦络等《机器学习系统:设计与实现》资料来源:麦洛等《机器学习系统:设计和实现》(1)数据并行:数据并行可以解决单节点算力不足的问题。该并行方式使用多个并行设备来加速训练,每个设备上部署相同的模型,将训练数据划分到不同设备上。各设备利用本地训练数据进行训练,完成前向传播和反向传播。在反向传播过程中,不同设备上的模型会生成局部梯度,需要对不同设备上相对应的局部梯度进行聚合,计算平均梯度,然后利用平均梯度更新模型参数,从而确保各设备上模型的参数是一致的。该聚合过程往往由集合通信AllReduce操作完成,通信的数据量规模和模型参数规模成正比,(2)流水线并行:深度神经网络由多层神经网络组成,大模型广泛采用模型架构也是如此。流水线并行是将多层神经网络切分成多个阶段,再把不同阶段映射到不同设备上,使得不同设备去计算神经网络的不同部分。正向传播时,每个阶段的计算节点完成计算之后将结果传送到下一阶段的计算节点,同时,下一阶段的计算节点接收上一阶段计算节点的结果并开始计算;反向传播时,当最后一个计算节点的梯度算完以后,将结果发送给上一阶段计算节点,同时,上一阶段计算节点接收最后一个阶段计证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号算节点梯度的结果,并进行本阶段的梯度计算,然后继续往前传播。该并行策略让每个设备只需计算模型的一部分,可以解决单计算节点内存不足的问题,不过其需要不同计算节点之间进行数据传输,传输的内容包括正向计算的激活值和反向计算的梯度值。这种通信在一个迭代里至少会发生几十次,但通信量一般不大,对网络的性能要求相对较(3)张量并行:该并行方式是联合多个计算节点同时做一个张量运算,如:矩阵乘法。单个计算节点对局部的张量进行计算,然后对多个计算节点做全局的张量计算结果的大小不仅和模型参数规模有关,还和训练使用的数据b常都非常大,并且在一次迭代里会发生很多AllReduce。因此,张量并行对网络带宽的资料来源:百度智能云开发者中心考虑三大并行策略的特点,在训练大模型时通常混合采用三种并行策略。首先,单节点宽通信能力。其次,当模型过大时,超出了单节点的内存空间,因此在多节点之间使用流水线并行策略。最后,为了进一步加快模型训练速度资料来源:WenxueLi等《UnderstandingCommunicationcharacteristicsofdistributedtraining》证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号资料来源:百度智能云开发者中心证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号台服务器通常包含多个加速器。为了方便管理,多台服务器组成一个机柜,并通过架顶交换机进行互连。在架顶交换机满载的情况下,可以通过在架顶交换机间增加骨干交换机(SpineSwitch)进一步接入新的机柜。最终,完成对成千上万个加速器互连,利用上文所述的三种并行策略:张量并行、流水线并行和数据并行来提供大规模分布式AI算力,容纳更大的模型和数据,加快训练和推理速度。在AI大模型训练过程中,前向计算、反向计算和通信占据了主要时间,因此为了加快训练速度需要在算力、运力上同步进行提升。资料来源:麦洛等《机器学习系统:设计和实现》资料来源:段晓东等《面向智算中心的新型以太网需求与关键技术》构建了两种类型的网络:一种是NVLink总线域网络,用于算力Sca是InfiniBand和Ethernet网络,用于算力ScaleOut扩展,其中基于InfiniBand的英伟达开发了以CUDA为核心的软件架构,与其硬件进行配套使用,从而更好地发挥硬件的性能。英伟达凭借其在系统和网络、硬件和软件的全方位布局,使其在AI生态证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号进和调整,引入了新的设计特性如:更好的调度和管理机制、更高效内存访问以及更多并行计算,理论上CUDACore越多,算力也就越强,因此在随后的Kepler、Maxwell架方向发展;2017年,推出Volta架构,新引入了TensorCore模块,该模块可实现混合精度计算,动态调整算力,从而在保持准确性和提供更强安全性的同时提高吞吐量。在随Transformer引擎,可以显著加快AI算力,用于应对日益增加的模型参数。H100的NeMo框架创新相结合,可以加速大语言模型和专家混合模型的推理证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号个SM,SM支持ECCNVLink第一NVLink2.0,NVLink4.0,资料来源:Github,华创证券资料来源:英伟达官网资料来源:英伟达官网通过对英伟达历代GPU发展历程分析,我们可以知道其性能主要提升来自以下几个方能提升2倍4)H100的时钟频率将性能提升1.3倍。究其背后的原因,我们认为是随证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号着深度学习成为AI的主流技术,Tran的基础范式日渐趋于稳定,从而可以在硬件层面上针对广泛使用的算法进行微架构设推动算力不断提升。未来随着AI技术逐步趋于成熟,相关架构可能会趋于统一,届时硬件层面上针对算法定制化设计或许是AI芯片算力提升的资料来源:英伟达官网资料来源:英伟达官网资料来源:英伟达官网单芯片算力和内存有限,无法承载大模型,通过多种互连技术将多颗算力芯片互连在一业务网络互连:承载的是诸如需要计算的输入数据,输出结果,以及在各类存储系统中证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号的模型参数、checkpoint等。需要进行极大范围的互连,并且和云上的存储、业务接口行(MoE)流量为主,有在网计算的需求(可以对Allreduce在Switch节点上进行加速)。在一定规模内互连,由于其对于性能的超高要求,采用专门设计的协议,比如NVIDIA的NVlink及NVSwitch技术,另外一个近期成立的协议Microsoft共同发起,目前在行业内得到了资料来源:半导体行业观察公众号资料来源:半导体行业观察公众号,华创证券证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号作。然而,传统的PCIe总线由于带宽限制和延需求。2018年,英伟达推出了NVLink用于解决该资料来源:远川科技评论,转引自与非网资料来源:远川科技评论,转引自与非网NVLinkbandwidthMaximumNumberof46VoltaHopper资料来源:英伟达官网,华创证券(2)NVSwitch芯片:提高通信速度第一代NVSwitch与英伟达V100GPU和第二代NVLink一起推出,可以连接多个快计算过程。证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号图表26H200八卡服务器配置4颗NVSwitch芯片资料来源:英伟达官网资料来源:英伟达《THENVLINK-NETWORKSWITCH:NVIDIA’SSWITCHCHIPFORHIGHCOMMUNICATION-BANDWIDTHSUPERPODS》,转引自Hotchips官网NumberofGPUswithdirectconnectionwithinaNVLinkdomainUpto8Upto8Upto8NVSwitchGPU-TO-GPUbandwidthVoltaHopper资料来源:英伟达官网,华创证券以H200八卡服务器为例,如果不使用NVSwtich芯片,成本会降低一些,但是每个服务器中的每个GPU都能以900GB/s的速度与其他任何GPU同时进行通信。NVSwitch是无阻塞的,使得GPU之间通信的峰值速率与通信的GPU数量无关。资料来源:英伟达官网资料来源:英伟达官网证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号248资料来源:英伟达官网,华创证券新,从而减少网络数据包并提高计算性能。资料来源:英伟达《THENVLINK-NETWORKSWITCH:NVIDIA’SSWITCHCHIPFORHIGHCOMMUNICATION-BANDWIDTHSUPERPODS》,转引自Hot资料来源:英伟达《THENVLINK-NETWORKSWITCH:NVIDIA’SSWITCHCHIPFORHIGHCOMMUNICATION-BANDWIDTHSUPERPODS》,转引自Hot证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号架内和多个机架间连接成NVLink网络,可以解决GPU之间的高速通信带宽过程中更改地址。资料来源:英伟达《THENVLINK-NETWORKSWITCH:NVIDIA’SSWITCHCHIPFORHIGHCOMMUNICATION-BANDWIDTHSUPERPODS》,转引自Hotchip资料来源:英伟达《THENVLINK-NETWORKSWITCH:NVIDIA’SSWITCHCHIPFORHIGHCOMMUNICATION-BANDWIDTHSUPERPODS》,转引自HotInfiniBand网络和NVLink网络是在高性能计算和数据中心应用中使用的两种不同的网架构和设计:InfiniBand网络是一种采用多通道、高速串行连接的开放标准网络技术,应用场景:InfiniBand网络广泛应用于高性能计算集群和大规模数据中心,主要用于证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号带宽和延迟:InfiniBand网络提供高带宽和低延迟的通信,提供更高的吞吐量和更短的NVLink网络在训练大型语言模型或具有大型嵌入表的推荐系统时也能提供显著的性能资料来源:英伟达《THENVLINK-NETWORKSWITCH:NVIDIA’SSWITCHCHIPFORHIGHCOMMUNICATION-BANDWIDTHSUPERPODS》,转引自Hotc资料来源:英伟达《THENVLINK-NETWORKSWITCH:NVIDIA’SSWITCHCHIPFORHIGHCOMMUNICATION-BANDWIDTHSUPERPODS》,转引自Hotc证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号资料来源:英伟达《THENVLINK-NETWORKSWITCH:NVIDIA’SSWITCHCHIPFORHIGHCOMMUNICATION-BANDWIDTHSUPERPODS》,转引自Hotc(4)NVLinkC2C:CPU与GPU互连,大幅增加了GPU可用内存容量2022年,推出NVIDIA®NVLink®-C2C,这是一种超快速的芯片到芯片、裸片到裸片致的互连,助力数据中心打造新一代的系统级集成。借助先进的封装技术,NVIDIA资料来源:英伟达官网内存资源,包括LPDDR5X和HBM3。推理大型语言模型(LL长的需求,内存需求也随之增加。为了解决内存需求,可以扩展到多个GPU或使用能会受到PCIe的瓶颈限制。NVIDIA的NVLink-C2C为HopperGPU提供了对证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号LPDDR5X内存的高带宽访问,这显著减少了张量卸载执行时间,使得LLM的推理能够以GPU的吞吐量进行。根据性能模拟结果,当批量大小为1时,配备HBM3的H100PCIeGPU。随着批量大小的增加,推理所需的内存量也在增加。在批量大小时,基于PCIe的推理解决方案性能下降,因为PCIe成为主要瓶颈,而GH200的的吞吐量。资料来源:英伟达官网资料来源:英伟达官网资料来源:英伟达,转引自hardwarezone证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号资料来源:英伟达官网资料来源:英伟达官网TB的快速内存,应用程序可以一致地访问统一内存空间。这简化了编程并满足万亿参数LLM、多模态模型等大容量内存的需求。速内存为240TB,能够实现更高性能的证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号资料来源:英伟达,转引自hardwarezone资料来源:英伟达,转引自hardwarezone量与传统数据中心流量迥然不同,其具有超大流量、超低时延、零容忍丢包和严格时间同步等特点。传统的传输控制协议/互联网协议需要靠内核发送消息进行网络通信,在数据传输过程中存在较高的数据移动和复制开销,降低了数据传输效率。与之形成对比的RDMA协议能够通过网络接口访问内存数据,不经过内核,具有高吞吐、低延迟、资料来源:英伟达《NVIDIASpectrum-XNetworkPlatformArchitecture》资料来源:英伟达官网资料来源:华为官网资料来源:英伟达官网证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号RDMA主要包含3种协议:InfiniIB:专为高性能计算从链路层到传输层定制了全新的架构,具备高带宽、低延迟和无损以在数据中心中使用。RoCEv2是Ro制。RoCE在性能上较IB有所降低,但是其性价比更高,在一部署。不过,RoCEv2标准是UDP协议,虽然其效率比较高,但不具备类似TCP协议的重传机制等来保障可靠传输,一旦出现丢包,必须依靠上层应用发现后再做重传,这性,但是大量TCP连接会耗费很多的内资料来源:唐宏等《生成式大模型承载网络架构与关键技术探索》总之,IB可以提供卓越的性能、低延迟高中低好差资料来源:华为官网,华创证券证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号英伟达一家独大,产业巨头并起而抗之。AI本质上是一个并行计算的问题,提升单个节点的算力及构建高速的互连系统是尤为关键。英伟达由于其早期布局GPU,及时地抓住了此轮以深度学习为技术代表的AI技术发展浪潮,其单个GP资料来源:FabricatedKnowledge中获取更大的利益,促使英伟达AI算力卡呈现供不应求的局面。面对紧缺的AI算品供应、高昂的资本开支以及尚未见顶的AI算力需求,云厂商未雨绸缪、纷纷想把握住AI算力的主动权,进而在AI浪潮中取得更大的优势。以谷歌、博通、亚马逊、AMD、微软、Meta、Marvell等为首的北美科技巨头企业,试图在AI芯片、高速互连领域逐个对英伟达体系进行突破,非英伟达体系的AI算力产业正在崛起,未来有望取得一定的市场份额。型的性能遵守Scalinglaw法则即证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号AmazonMicrosoftGoogleMetaYoY资料来源:Bloomberg,华创证券造自己的核心竞争力,从而提高其在AI领域的话语权和影响力。在规模及成本等多种因素考量下,北美云厂商Google、AWS、Microsoft、Meta等有逐年扩大采用自研高中高高高低资料来源:Trendforce,华创证券November,2023—————证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号———————————— AndesTechnology资料来源:Trendforce,华创证券资料来源:Broadcom《EnablingAIInfrastructure》业绩说明会上表示,FY2024Q3其定制AI加速器业务同比FY2025AI业务将保持强劲增长;长期来看,公司认为其超大规模客户有更多的AI算上表示,AI定制芯片进展顺利,2颗芯片已经进入量产;鉴于公司AI业务在FY2025H1增长强劲,FY2025H2有望加速增长,预计FY2025年AI业务收入将超过公证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号资料来源:Marvell《AcceleratedInfrastructurefortheAIEra》云厂商亚马逊、Meta等持续扩大自研ASIC,中国本土企业阿里巴极布局自主ASIC方案,促使ASIC服务器占整体AI服务器的占比在2024年预计提升100%80%60%40%20%0%120%100%80%60%40%20%0%23.6%23.6%24.1%24.1%25.3%25.3%3.1% 5.7%3.1%3.0%3.0%7.3%2.9%2.9%8.1%67.6%67.6%65.5%65.5%63.6%63.6%202220232024FNvidiaAMD(含Xilinx)Intel(含Altela)Others资料来源:Trendforce公众号,华创证券科、Google、惠普、英特尔、Meta和微软宣技术UALink(UltraAcceleratorLink建立AI加速器间高速低延迟的开放以打破英伟达NVlink的垄断。UALink将通过以下方式提证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号l开放性和兼容性:UALink联盟旨在创建一个开放的行业标准,允许多家公司为整资料来源:nextplatform官网对英伟达的依赖,已经陆续推出AI自研芯片。UALink提供了一条复制NVLink和NVSwitch功能的途径,可以促进彼此之间芯片的进度,逐步降低对英伟达的依赖程度。营初步形成。以太网是IP网络最成熟和主流的技术,被广泛应用于园区网络、数据中心和云计算环境以及广域网等场景,具备开放的生态系统,使用标准的以太网设备、线缆和接口卡等,具备性价比高,后期维护成本低等优势,然而其在延时、带宽等方面逊求,并且能够支持更大的域,头部玩家正在使用以太网来构建AI基础设施,如:AWS将以太网用于其生成式AI基础设施,为配证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号资料来源:Broadcom《EnablingAIInfrastructure》资料来源:Broadcom《EnablingAIInfrastructure》新一代AI以太网技术不仅保留了成本优势,还具备灵活性和开放性,并利用强大的以调度和高级拥塞控制等创新,满足了AI应用对高带宽、低延迟和高可靠性的严苛要求,重塑了其在现代数据中心中的价值。随着网络设备商、AI芯片制造商以及互联网企业证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号资料来源:IDC超以太网联盟由AMD、Arista、博通、思科等硬件厂商以及微软、Meta等云厂商牵头络吞吐量、降低延迟,增强网络的可靠性和稳定性,为人工智能和高性能计算等领域的发展提供更加坚实的网络基础,同时保留以太网/IP生态系统的优势。UEC的目标是提供一个完整的通信协议栈,解决跨越多个协议层的技术问题,并提供易于配置和管理的一个全面且令人信服的解决方案。资料来源:Broadcom、转引自gaitpu机协同工作,并特别增强了数据中心环境中的GPU到GPU通信(也称为东西量在拥塞控制、无损网络和负载均衡方面进行了优化,使得其能支持加速计算的严基于遥测的拥塞控制:通过将高频遥测探针与流量测量相结合,Spectrum-X拥塞控确保工作负载得到保护,并确保网络提供性能隔离。这意味着各种类型的AI工作负载证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号可以同时在共享基础设施上运行,而不会对彼此性能产生负面无损网络:Spectrum-X将配置网络实现无损,从而尾延迟。尾延迟是指一组并行任务中速度最慢的任务所经历的延迟,这将决定操作的整体完成时间。动态负载均衡:Spectrum-X使用细粒度动态路由来最大限度地提高网络利用以太网的最高有效带宽。动态路由通过在整个网络中实现逐包负载均衡,避免了传统以太网中静态路由(等价多路径,即ECMP)或flowlet路由的陷阱,而无需深度缓冲区或突发吸收。由于负载均衡意味着数据包可以乱序地到达目的地,NVIDIABlueField-3SuperNIC则确保重新排序数据包,并将其资料来源:英伟达官网证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号高性能、高可控以及低成本等特性,传统品牌交换机不同设备厂商互通性偏低,网络运维难度大,管控不能统一,一旦发生错误也很难实现快速定位,并且不利于未来的设备升级和功能扩展。白盒交换机、裸机交换机以更低成本、更高开放性等优势,受到众多大型云厂商的青睐,未来数据中心交换机有望进一步白盒化、裸机化。其中,裸机交换机仅提供裸机交换机,白盒交换机提供裸机交换机和操作系统。裸机交换机相比白盒交换机更有成本优势,这一优势根本上是由售后服务剥离所带来的,适用于海外数据中心高中低硬件组成统无否是是表资料来源:华经情报网,亿渡数据《2022年中国交换机行业短报告》,华创证券白盒交换机、ODM直销交换机销售额快速增长,份额仍在提升。IDC数据显示2024Q2年全球以太网交换机市场规模达到102亿美元,同比-1中,数据中心部分市场收入同比+7.6%,环比+15.8%。白盒交换机代表厂商Ari网交换机2024Q2收入(其中90.2%来自数据中心)同比+12.4%,环比+7.0%,使该公机的市场份额逐步提高,后续或有望超过传统交换机龙头Cisco。ODM直销交换机2024Q2收入同比+66.9%,占数据中心细分市场收入的19.1%,较2023年全年份额资料来源:IDC证监会审核华创证券投资咨询业务资格批文号:证监许可(2009)1210号90.0%80.0%70.0%60.0%50.0%40.0%30.0%20.0%10.0%0.0%201220132014201520162017201820192020202120222023AristaCisco资料来源:CrehanResearch华创证券80.0%70.0%60.0%50.0%40.0%30.0%20.0%10.0%0.0%201220132014

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论