版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
01020304052/
CONTENTS01020304053
/4
/1.1算力是智能世界的基础,基础设施从云向算泛在演进••智能世界三要素:数据、算力、算法是智能世界三要素,其中算力平台是核心基础。算力两大类:通用算力、
HPC(高性能计算,High-performance
computing)算力。其中通用算力计算量小,用于常规应用。HPC算力是一个计算机集群系统,通过各种互联技术将多个计算机系统连接在一起,利用所有被连接系统的综合计算能力来处理大型计算问题。算力基础设施从云向算泛在演进,其位置的分布从中心向边缘和端侧泛在延伸,将出现云、边、端三级算力架构。•图:算力基础设施从云向算泛在演进图:构建数据、算力、智能之间的互联网络图:专用算力是算力中极为重要一环通用算力算力类型专用算力科学计算类:物理化学、气象环保、生命科学、天文探测等工
程计算
类:计
算机辅
助工程
/制
造、电
子设计
自动化
、电磁
仿真等智能计算类:机器学习、深度学习、数据分析等数据:证券研究51.1AI大模型带动算力需求超越摩尔定律增长•AI模型训练算力增长速度超越芯片摩尔定律。AI
训练任务中的算力增长(所需算力每
3.5个月翻一倍)已经超越摩尔定律(晶体管数量每
18
月翻一倍)。•ChatGPT仅推出两个月,月活跃用户数预计已达1亿。ChatGPT在2023年1月达到1亿月活跃用户,平均每天有1,300多万访客,用2个月时间达到1亿月活数,成为史上最快达到1亿月活跃用户的应用,TikTok、Instagram、Facebook、Twitter则分别用了9个月、2年半、4年半、5年的时间。图:chatgpt仅用2个月月活用户突破1亿图:大模型时代算力需求增长超越摩尔定律六年半五年四年半三年半两年半9个月2个月ChatGPTTikTokInstagram
WhatsAppMetaTwitteriTunes数据:Google
Scholar,证券研究数据:Sensor
Tower,证券研究61.1AI大模型核心在数据、算力与模型,需消耗大量算力预训练算力需求:训练一次13亿参数的GPT-3
XL模型需要的全部算力约为27.5PFlop/s-day,而训练一次1,746亿参数的GPT-3模型需要的算力约为3,640
PFlop/s-day,对应的单次训练成本高达460万美元。•••日常运营算力需求:ChatGPT在日常与用户交互过程中需要大量的算力支持,结合访问量与内容量测算,单月运营算力约4,800PFlop/s-day;2023年1月ChatGPT官网总访问量已经达到6.16亿次,而ChatGPT每次交互产生的算力云服务成本约1~5美分,对应的单月运营成本高达千万美元。调优迭代算力需求:ChatGPT模型需要不断进行Finetune模型调优,以确保模型处于最佳应用状态;预计每月模型调优带来的算力需求为82.5~137.5PFlop/s-day。图:模型的尺寸在过去5年增长了5000倍表:不同
NLP
模型参数量及训练算力对比模型总计算量总计算量参数量(百万个)60220770300011000109355125令牌数量(十亿)10001000100010001000250(PFlop/s-day)
(Flops)T5模型T5-SmallT5-BaseT5-LargeT5-3B2.08E+007.64E+002.67E+011.04E+023.82E+021.89E+006.16E+001.74E+004.93E+012.60E+007.42E+001.58E+012.75E+015.52E+011.39E+022.68E+023.64E+031.80E+206.60E+202.31E+219.00E+213.30E+221.64E+205.33E+201.50E+214.26E+212.25E+206.41E+201.37E+212.38E+214.77E+211.20E+222.31E+223.14E+23T5-11BBERT
模型GPT
模型BERT-BaseBERT-LargeROBERTa-BaseROBERTa-LargeGPT-3SmallGPT-3
MediumGPT-3
LargeGPT-3
XLGPT-3
2.7BGPT-36.7BGPT-3
13BGPT-3175B25020002000300355125356300760300300300300300300132026506660128501746007数据:Open
AI,证券研究1.1MR、车载等数字经济新型应用场景带来新的算力需求•MR的推出更带来对低延时网络传输和底层算力技术升级的需求。虚拟世界需要强大的图像实时渲染能力、计算和存储海量数据资源,头显交互设备的出现将进一步增加对云计算和边缘计算的应用需求。云计算能将终端渲染逐步迁移至云端,基于规模效应摊低运算成本,提升服务器使用效率,提升虚拟世界的可进入性。而边缘计算则更能满足实时数据分析需求、缓解中心云的计算负载。汽车智能化需求持续升级带来数据流量的急剧飙升。随着自动驾驶等级提升,车载信息娱乐系统、长续航电池及5G网络的引入,车辆要面对的计算量越来越大,网络架构升级、本地实时处理能力、“大容量缓存和存储”规格将成为硬需求。•图:算力升级是支撑虚拟世界内容创作与真实交互的保障图:2025年L4等级无人自动驾驶数据存储需求8数据:中国信通院、,证券研究数据:CounterpointTechnology
Market
Research,证券研究1.2算力与经济水平直接挂钩,且具有倍增效应••全球各国算力规模与经济发展水平呈现正相关。2021
年算力规模前
20
的国家中有
17
个是全球排名前
20
的经济体,并且前五名排名一致。算力对经济有倍增效应。数字经济作为GDP的组成部分,占比正在逐年增加,而算力是数字化技术持续发挥效益的根本性要素。根据IDC的报告,计算力指数平均每提高1个点,数字经济和GDP将分别增长3.3‰和1.8‰。当一个国家的计算力指数达到40分以上时,指数每提升1点,对于GDP增长的拉动将提高到1.5倍;当计算力指数达到60分以上时,对GDP的拉动将进一步提升至2.9倍。图:算力排名与经济排名较为吻合图:算力对经济有倍增效应数据:中国信通院信通院2022年算力白皮书数据:IDC91.2中美算力布局较为领先,中国智能算力在追赶•智能算力规模和增速亮眼。根据信通院算力白皮书,2021年全球算力增速超过40%,GIV预测2030
年人类将迎来
YB
数据时代,全球算力平均年增速达到
65%,其中基础算力平均年增速达
27%;智能算力占大头,平均年增速超过
80%;超算算力平均年增速超过
34%。中美算力在全球属于领先地位。美国、中国、欧洲、日本在全球算力规模中的份额分别为
34%、33%、14%和
5%,其中全球基础算力美国份额达37%,中国以
26%份额排名第二;智能算力方面,中国、美国分别占比为
45%和
28%;美国、日本、中国在超级计算综合性能指标方面份额分别为48%、22%、18%。•图:全球算力规模增长速度在40%以上图:中美全球算力分布较为领先图:中国占比较大为基础算力,智能算力当前快速赶上数据:信通院算力白皮书101.2海外以互联网大厂为主导,资本开支向AI大幅倾斜•美国人工智能公司在过去的五年间获得的投资占到了全球的
56%,数百亿美元,谷歌、微软、亚马逊、Meta四家美国科技巨头在经历了2022和2023年初史无前例的大裁员之后,这些公司一边降本增效,一边All
in
AI。表:北美大厂积极自研和购买算力芯片自研芯片算力布局2023Q12023年展望投入领域AWSInferentia、
AWS宣布即将推出的EC2超级集群我们预计总体资本开支会略微高于2022年,同时资本开支会在技术基础设施显著提升,而在办公室设施下降我们预计在数据中心建设和服务器的投入会在Q2以及后面持续的提升数据中心,服务器,供应链trainium(EC2
P5实例)可扩展至20000个互连的H100。资本开支包括金融租赁,2023年预计资本开支会低于2022年的590亿美金,去年主要因为完善物流网络的GoogleTPUv4已经建成包含26000个H100的A3;当前已经部署了数十台
TPU
v4超级计算机,每台拥有4096个TPU芯片;发布了专门用于推理或训练的机器学习定制化芯片
投资,未来这个数字会逐步减少。我们将持续投入基
AWS础设施来支持AWS客户需求,包括支持LLM和生成式AI投入的三个领域:1)非AI计算需求:计算和存储来MetaMTIA已经包含有2000个DGX
A100,配备16000个
A100;semianalysis认为其是2023年H100
GPU最大的买家,据专家交流可能采购了3万片H100以上。支撑现有业务;2)核心的AI投资,支持Discovery
我们预期资本开支在300-330亿元,与前次预测无异,engine、排序广告等的建设;当我们评估ROI感觉
我们继续建设AI能力来支持ADS、Feed和Reels,以数据中心可以的话,这些都会提高我们对AI的投入;3)支持及将提升我们在生成式AI的容量投资(earning生成式AI,现在虽然难评估,但我们未来会提高资
transcript)本开支,同时平衡好AI能力的建设MicrosoftAthenaAzure云拥有10000个GPU和285000个CPU内核;据专家交流北美各家可能采购了3万片H100以上。我们预计资本开支会有显著的后续环比增长,主要驱我们希望引领AI平台的浪潮并做相应投资来实现它
动为AzureAI基础设施。注意可能有正常的季度支出
Azure
AI基础设施波动数据:公司官网、证券研究111.2海外算力板块企业和国内对标行业/细分领域海外公司2022年营收(亿美元)中国对标公司通用人工智能、自然语言处理、多模态模型自然语言处理、多模态模型、云计算OpenA
(ChatGPT)——百度(文心一言)、昆仑万维谷歌
(PaLM)微软(Microsoft365Copilot)2828阿里巴巴(通义千问)、科大讯飞、三六零大模型办公软件、自然语言处理19831166金山办公(WPS
ai)自然语言处理、多模态模型、计算机视觉Meta(LLaMa)腾讯(混元大模型)II-VI
(Finisar)NeoPhotonicsAOILumentumCredo
Technology[CRDO.O]332中际旭创、天孚通信、新易盛等光模块2光模块/器件芯片光芯片17源杰科技、光迅科技、长光华芯、仕佳光子、永鼎股份橙科、芯速联1DSP芯片Marvell(Inphi)英伟达(NVDA)AMD
(AMD)英特尔(INTC)赛灵思(XLNX)英飞凌
(IFX)臻鼎科技5927023663137GPU、AI寒武纪、海光信息FPGA、AI模拟芯片、功率管理芯片安路科技杰华特15315246服务器欣兴集团PCB迅达科技(TTM)华通电子25鹏鼎控股、东山精密、沪电股份、景旺电子25健鼎科技Cisco2151644Arista
NetworksHPE交换机企业网络、数据中心网络、云计算网络等企业网络、数据中心网络、云计算网络等28553、浪潮、、联想、紫光、菲菱科思JuniperDellTechnologies1023Extreme
Networks11IDC服务、互联网交换、云服务IDC服务、数据中心基础设施IDC服务、电信服务、云服务温控、UPS、机柜等数据中心设备Equinix73471061新华三、万国数据、润泽科技、中国移动、中国电信、中国联通、奥飞数据、云赛智联、光环新网、数据港IDCDigtal
Realty
TrustNTT
global
datacenterVertiv1.2国内数字&算力政策频出,当前走向地方细化落地•中国政府基于数字经济发展大背景,在2023年各个省市加快了AI及智算超算的规划和投入。表:各地算力平台开始陆续实施表:我国及地方出台多个政策和文件文件名时间发布单位算力平台地方北京参与单位时间2023/3/312023/5/30北京市人民政府12算力互联互通验证平台中国电信、中科院信息中心《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》《北京市促进通用人工智能创新发展的若干措施》北京中国通信工业协会数据中心委员会、北京数字科智技术有限公司2023/2/28集群算力服务调度与采购平台234562023/5/312023/4/192023/1/122023/2/272023/2深圳人民政府《深圳市加快推动人工智能高质量发展高水平应用行动方案(2023—2024年)》《上海市推进算力资源统一调度指导意见》上海市经济信息化委3345上海南京合肥郑州上海超算中心2023/2/202023/2/242023/1/162023/2/27上海市人工智能公共算力服务平台《成都市围绕超算智算加快算力产业发展的政策措施》成都市经信局南京市城市算力网运营平台中科南京信息高铁研究院《数字中国建设整体布局规划》中共中央、国务院算力一体化统一管理服务平台合肥市大数据资产运营有限公司《关于数字经济发展情况的报告》十三届全国人大会第三十七次会议郑州城市算力网国家信息中心、中国科学院计算技术研究所、粤港澳大湾区大数据研究院等72022/12/2《关于构建数据基础制度更好发挥数据要素作用的意见》中共中央、国务院67宁夏贵州2023/2/248《“十四五”数字经济发展规划》《“十四五”大数据产业发展规划》2022/1/122021/11/152021/5/26国务院工信部东数西算一体化算力服务平台北京国际大数据交易所、数字宁夏建设运营公司、中国电信宁夏910《全国一体化大数据中心协同创新体系算力枢纽实施方案》、网信办、工信部、国家能源局贵州枢纽算力调度平台云上贵州、中软国际云智能业务集团2022年5月26日1.3算力板块国内产业投资图谱光模块模块封装模拟芯片算力芯片服务器配套芯片杰华特晶丰明源FPGA帝奥微景嘉微寒武纪海光科技
中国长城
龙芯中科华工科技中际旭创新易盛光迅科技剑桥科技整机澜起科技
聚辰股份博创科技德科立联特科技铭普光磁线缆和连接器光器件紫光国微沪电股份复旦微电安路科技烽火通信
中科曙光
神州数码
拓维信息
紫光股份通
讯PCB存储天孚通信太辰光光芯片腾景科技兆龙互联
鼎通科技电联技术鹏鼎控股胜宏科技德明利江波龙兆易创新源
杰
科
技仕佳光子光库科技长光华芯IDC交换机运营/租赁边缘算力整机IDC服务SoC运营商润泽科技奥飞数据光环新网数据港
宝信软件紫光股份通讯
锐捷网络连接芯片菲菱科思温控全志科技瑞芯微翱捷科技中国移动中国电信中国联通英
维
克申菱环境佳力图依米康裕太微PCB模组资源租赁UPS美格智能广和通移远通信鸿博股份亚康股份
首都在线云
赛
智
联科华数据科士达沪电股份鹏鼎控股胜宏科技1415
/2.1AIGPUASP••AI服务器采用异构式架构,GPU数量远高于普通服务器。AI服务器和普通服务器的主要区别在于:1)架构不同,AI服务器采用CPU+GPU/FPGA/ASIC等异构式架构,而普通服务器一般是CPU架构;2)GPU数量差别巨大,AI服务器单服务器GPU用量通常在
4
颗以上。例如:NVIDIA
DGX
A100包括8个A100
GPU
+
2个AMD
Rome
CPU,而浪潮英信服务器NF5280M6仅配置1-2个英特尔第三代Xeon处理器。GPU
架构为主流加速架构,是服务器核心成本构成。GPU采用并行计算,适用于处理密集型运算,如图形渲染、机器学习等场景,AI算力需求的提升推动了GPU卡的运算速度和用量需求进一步增长。根据
IDC
数据,2022年GPU加速卡占据AI市场89%的份额,在机器学习型服务器中GPU成本占比达
72.8%
。图:中国智能算力规模及预测(单位:表:AI服务器和普通服务器的区别图:服务器成本构成情况EFLOPS)100%80%60%40%20%0%1400120010008006004002000类型典型产品芯片价格数量A100
TensorCore
GPUUSD14,9998AI服务器NVIDIA
DGXA10064
core
AMDRome
CPU~USD7,0002基础型
高性能型
推理型
机器学习型普通
浪潮英信服务器
Intel第三代RMB64,000
1~2服务器
NF5280M6Xeon处理器CPU
GPUmemorystorage
其他数据:英伟达官网,浪潮信息官网,证券研究数据:IDC,证券研究数据:IDC,证券研究162.1&•高速互连技术开创者,多卡互联优势显著。为实现超算模型的高速通信需求,英伟达开创式提出NVLink和NVSwitch技术:NVLink主要用于连接多个GPU,以加速高性能计算和深度学习等应用;NVSwitch用于连接多个GPU和CPU,形成高性能计算系统,适用于更复杂和大规模的场景,用户可根据具体应用需求和系统配置来决定使用NVLink或NVSwitch。GH200超级芯片所采用的NVLink-C2C技术,通过Chiplet工艺将CPU+GPU组合到同一封装,相比于PCIe5在能效方面提升25倍,面积效率提升90倍。CUDA生态不断演进,满足各类行业需求。英伟达依托于CUDA软件栈进行第三方应用及工具的扩展,形成了广义的CUDA生态,并在此基础上向上扩展出CUDA-X,以对接不同的行业应用需求,分为面向AI计算的CUDA-X
AI和面向HPC计算的CUDA-X
HPC。•表:NVLink和NVSwitch技术图:英伟达CUDA-X
AINVLink第二代第三代第四代NVLink
总带宽300GB/s600GB/s900GB/s每个GPU最大链路数61218架构支持NV
IDIA
Volta
NV
IDIA
Ampere
NV
IDIA
HopperNVSw
itch第一代第二代第三代直连或节点中GPU数量最多8个最多8个最多8个NVSw
itch
GPU300GB/s2.4TB/s600GB/s4.8TB/s900GB/s7.2TB/s之间带宽聚合总带宽架构支持NVIDIA
Volta
NVIDIA
Ampere
NVIDIA
Hopper数据
:英伟达官网数据:英伟达官网172.1AI•受益大模型热潮,国内AI服务器市场增量明显。
ChatGPT横空出世,引发科技企业大模型竞赛,全球算力需求呈指数级增加,带动国内AI服务器市场快速增长,以浪潮信息为主的国内厂家占据国内AI服务器主要市场。•头部厂商持续加单,国内AI芯片需求强劲。全球头部互联网厂商相继入局大模型赛道,以英伟达GPU为代表的算力核心产品订单暴增,一批中国AI芯片企业立足于不同技术路径开展研发,面向云计算、汽车、智能家居等领域,国内AI芯片市场同样前景广阔。图:2022年中国AI服务器市场规模(亿美元)图:2022年中国AI服务器市场份额图:中国AI芯片市场规模(亿元)35030025020015010050浪潮华三宁畅安擎坤前14001200100080060040020001206850427191宝德思腾合力其他1244864020192020202120222023E2017
2018
2019
2020
2021
2022
2023E数据:研究院,证券研究数据:华经产研,证券研究数据:IDC,证券研究182.1AI•国际巨头炙手可热,高性能GPU一芯难求。科技企业大模型竞赛下,凭借A100、H100等绝对主流算力芯片,海外巨头英伟达订单火爆,芯片价格节节攀升;同时在地缘政治摩擦背景下,在国家政策的指引下,国产公司遍地开花,各施所长不断缩短差距。中国主要的AI芯片公司,寒武纪已量产四代芯片,其在研思元590性能预计能达到A100的70%,有望部分场景实现替代;
昇腾采用独家达芬奇架构,昇腾910性能优越,处理速度达到需求迫切。•同类产品180%;阿里平头哥另辟蹊径,其含光800推理性能和能效均达到世界前列水平;沐曦科技的通用芯片曦云MXC500对标A100;壁仞的BR100、燧原的邃思2.5以及天数智芯的智铠100等一系列高性能芯片即将面世。图:2022年中国AI芯片市场规模占比天数智芯平头哥壁仞燧原沐曦科技寒武纪GPUNPUASICFPGA……数据:IDC,证券研究数据:各公司官网192.1AI•大力发展硬件的同时,软件也是及其重要的一环。英伟达不仅在硬件方面具有统治力,在软件平台也具有很强的竞争力,CUDA生态已成为行业标的。对国内企业而言,兼顾软硬的发展路径至关重要,大力发展算力的同时,国产软件生态的建立刻不容缓。共建生态开发平台,加速AI芯片落地。寒武纪不仅实现了终端、云端、边缘端产品的完整布局,还为云边端全系列智能芯片与处理器产品提供统一的平台级基础系统软件Cambricon
Neuware,使开发的应用可以在云边端互相兼容,大幅减少云边端不同平台的•开发和应用迁移成本。同样致力于“一平台双驱动”为核心的昇腾AI生态,已有200多家合作伙伴经过认证,围绕昇腾的开发者超30万,其中核心开发者超2000,并在100多所高校开展了昇腾的人工智能课程。图:寒武纪Cambricon
NeuWare图:昇腾产业生态数据:寒武纪开发者论坛数据:官网202.1
存储:AI
服务器催动DRAM/NAND需求•AI大模型的数据处理需求驱动服务器硬件升级与扩容。目前
AI
大模型处理数据的吞吐量呈指数级增长。AI服务器对内存、硬盘存储容量要求更高。主要的提升是支持更大容量的内存满足当下实时负载增加的需求,提供更多外置硬盘插槽,并广泛支持NVME/PCIE等SSD,满足数据洪流需求。根据半导体观察,AI服务器容量是普通服务器的8倍,NAND容量是普通服务器的3倍。图:AI
大模型处理数据的吞吐量增长趋势数据:OurWROLD
in
Data212.1
HBM:需求暴增,产能紧缺•HBM内存技术:新型高性能存储产品的竞争与短缺。HBM(High
Bandwidth
Memory,高带宽内存)是一款新型的
CPU/GPU内存芯片,是将多个
DDR
芯片堆叠在一起后和
GPU封装在一起,实现大容量和高位宽的
DDR
组合阵列。目前
HBM
占整个
DRAM市场比重约
1.5%,为新型高性能存储产品,处于缺货低库存阶段。SK海力士、三星、美光等存储巨头都在HBM领域展开了升级竞赛。图:HBM
的堆叠结构图:HBM
提供更快的数据处理速度数据:半导体产业纵横,《电子与封装》数据:TSMC222.1
HBM:需求暴增,产能紧缺•HBM:突破‘内存墙’的新一代3D
DRAM解决方案。“内存墙”是指处理器的运算能力超过了存储芯片的读取和写入能力,这导致了整体的计算能力被存储器所限制。3D化的DRAM是解决“内存墙”问题的主要途径。其中,HBM是3D
DRAM的一种形式,相比其他DRAM的集成方式,它的数据传输速度最快,损耗最小,因此被认为是目前最理想的3D
DRAM形式。HBM突破了内存容量和带宽的瓶颈,打破了"内存墙"对提升算力的束缚,被看作是新一代DRAM的解决方案。图:存储带宽落后于算力成长速度形成“内存墙”数据:RISElab232.1
HBM:技术壁垒高,韩国厂商占据主导地位•HBM市场:SK海力士占据主导地位。据半导体行业观察,作为HBM的先驱,SK海力士是拥有最先进技术路线的领导者。SK海力士于
2022
年
6月开始生目前唯一一家批量出货
HBM3
的供应商,拥有超过
95%
的市场份额,这是大多数
H100
SKU
所使用的。HBM
现在的最大产
HBM3,是配置为
8
层
16GB
HBM3
模块。SK
Hynix
正在为
AMD
MI300X
和
Nvidia
H100
刷新生产数据速率为
5.6
GT/s
的
12
层
24GB
HBM3。三星紧随
Hynix
之后,预计将在
2023
年下半年发货
HBM3,并正在大力投资以追赶市场份额。美光科技由于直到
2018
年,才开始从
HMC
转向
HBM
路线图,仍然停留在HBM2E,在HBM方面排名落后。图:SK
海力士在新一代技术方面保持最强图:
三星预计2023下半年发布HBM3数据:半导体行业观察数据:半导体行业观察242.1AISerDes•SerDes作为底层接口技术,是充分发挥AI硬件算力效能的关键。SerDes是Serializer/Deserializer的缩写,即串行器和解串器,是目前主流的串行通信技术。通过数据在发送端并转串—串行传输—在接收端串转并,实现芯片间信号的有线传输。相比于传统并行接口传输,SerDes具有更高的速率(Gbps级)、更低的功耗,以及显著的成本优势,能够满足AI训练&推理等场景下高带宽、低延迟的数据传输要求,适用于电信、汽车、工业等领域。图:SerDes结构图:SerDes汽车电子应用场景数据:CSDN数据:罗姆半导体252.1AISerDes••AI服务器算力提升显著,带动SerDes通信带宽需求激增。AI服务器网络模块升级主要表现为带宽增加,主要涉及的芯片是SerDes。高性能计算机性能提升主要源于单个结点计算能力增强和系统中结点数增加。一般而言,结点对互连带宽的要求与其处理能力呈正比。随着结点计算能力迅速提高,系统对互连网络带宽的需求更加迫切。以“天河二号”为例,单个计算结点性能3TFlops,结点通信带宽112Gbps,结点带宽性能比0.037。在未来
E级高性能计算机中,单结点计算能力约为10TFlps,若要将结点带宽性能比维持在0.04,则结点通信带宽需增加至400Gbps,对SerDes芯片性能提出了更高的要求。通过交替增加SerDes通道数量和每个通道传输速率,实现容量翻倍。表:SerDes技术演进年份SerDes数量201064201212810201412825201625625201825620205122020E2562022E512SerDes速率(Gbps)调制方式105050100100NRZ0.64NRZ1.28NRZ3.2NRZ6.4PA
M412.8PA
M425.6PA
M425.6PA
M451.2容量(Tb/s)数据:IET
Optoelectronics,证券研究262.1AISerDes••国内SerDes发展现状:上游:半导体IP龙头芯原股份于2021年2月获得加拿大高速接口领域全球领导者Alphawave公司在国内一系列多标准SerDes
IP的独家经销权。•中游:芯片设计领域,专注于高速混合芯片设计公司龙讯股份基于单通道12.5Gbps
SerDes技术研发的通用高速信号延长芯片可在
5G
通信领域实现国产化应用。国产网PHY芯片龙头裕太微研究形成高性能SerDes技术,可实现1.25~5G等不同数据率,应用于多款量产产品;10G
SerDes现已通过实验室性能测试,在FR4电路板上传输距离长达40英寸,适配网、PCIE等多种上层协议。图:高速
SerDes
技术和各种接口的关系图:全球SerDes市场规模(单位:亿美元)1510515.2%
CAGR02023E:iCroudNewswire,2030证券研究数据:IP与Soc设计数据272.2
PCB及载板:规格加速升级,单机ASP持续上升•相比于普通服务器,AI服务器的PCB增量主要体现在GPU板组中。由于AI服务器比普通服务器的GPU用量从1颗提升到8颗(参考英伟达DGXH100),相应GPU板组的PCB需求量增大且要求进一步提高。图:NVIDIA
DGX
H100
GPU板组爆破图图:NVIDIA
DGX
H100
爆破图28数据:
NVIDIA官网数据:
NVIDIA官网2.2
PCB及载板:规格加速升级,单机ASP持续上升•OAM卡,是承载GPU加速卡片的PCB板,以NVIDIA
DGX
H100服务器为例,其可搭载8颗GPU,显著高于普通服务器,因此其PCB用量显著高于普通服务器。•AI服务器的OAM卡需要用更高层数的PCB板,价值量更大。由于AI服务器电路更加复杂,需要更大带宽和更高传输速率,因此OAM需要更高层数PCB。NVIDIA
OAM共两个版本,SXM约需要20层PCB,而Pcle版本层数相对较少;
相比传统服务器,AI服务器的PCB层数更高,单台PCB价值量大幅提升。••AI服务器的OAM由于芯片性能的提升,对布线密度提出了更高要求。其需要4阶及以上HDI加工工艺,根据靖邦电子,HDI板增加一阶,成本增加18%左右,因此带动OAM的ASP上升。目前国内企业鹏鼎控股、沪电股份、奥士康、胜宏科技等均有领先布局。图:NVIDIA
DGX
H100OAM
实物图29数据:NVIDIA官网技术文件2.2
PCB及载板:规格加速升级,单机ASP持续上升•NVSwitch是GPU之间的通信模块,
在单节点内和节点间实现以
NVLink能够达到的最高速度进行多对多
GPU通信。NVIDIA
DGXH100的GPU板组包含4个NVSwitch。•NVSwitch对PCB板的高速传输有更高要求。根据立鼎产业研究院,NVIDIA
DGX
H100在4个NVSwitch加持下总带宽达到PCle5.0的7倍,意味着其覆铜板材料至少需要使用Ultra
Low
Loss级别。图:NVIDIA
DGX
H100
NVSwitch
实物图图:NVIDIA
DGX
H100
NVSwitch
概念图30数据:NVIDIA官网数据:NVIDIA官网2.2
PCB及载板:规格加速升级,单机ASP持续上升•••UBB是GPU模组板,用以承载OAM、NVSwitch等模块,面积随GPU、NVSwitch数量增加而增大。由于其上集成部件较多,布线较为复杂,通常需要24~26层的超高层PCB板,ASP提升较大。作为搭载整个GPU板组的板块,对于高频高速具有较高的要求,需要使用的覆铜板等级为Ultra
Low
Loss。NVIDIA
DGXH100的UBB设计更为紧凑,使用HDI技术会进一步提高ASP。•目前沪电股份在超高层和高密度PCB中优势领先,未来深度受益于AI服务器需求释放。图:NVIDIA
DGX
H100
UBB
实物图UBB31数据:NVIDIA官网2.2
PCB及载板:规格加速升级,单机ASP持续上升•从覆铜板(CCL)技术升级角度,将目前最新的
Intel
Eagle
Stream
平台与前代平台对比,可明显看出服务器平台用覆铜板升级处于一个阶梯跨越至另一个阶梯的关键转型期。最新的Eagle
Stream平台要求CCL的介电损失因数Df达到0.002-0.004,介电常数Dk达到3.3-3.6。表:Intel
不同平台CCL性能对比服务器平台升级要求传输速率提高,Dk与Dr值下降项目Grantley平台28及以下Purley平台Whitley平台Eagle
Stream112传输速率(Gbps)2856高速覆铜板类型Mid-lossMid-lossLow-lossUltra-Low-loss典型Dk值典型Df值4.1-4.34.1-4.33.7-3.93.3-3.60.008-0.0100.008-0.0100.005-0.0080.002-0.004对标松下电工产品M4以下M4以下M4及以上M6及以上型号(注)32数据:Prismark,证券研究2.2
PCB及载板:规格加速升级,单机ASP持续上升•H100等GPU的芯片封装通常使用2.5D/3D封装技术,而ABF载板是2.5D/3D封装的核心材料之一。随着GPU需求持续走高,ABF载板需求也相应增加。并且由于AI大模型要求多张GPU之间相互通信形成超级CPU,对ABF载板的高频高速需求更高,ABF载板量价齐升。•从产业链看,上游ABF薄膜基本由日本味之素垄断,中游制造有日本的Ibiden、
Shinko,
韩国的Semco,中国台湾的Kinsus、Unimicron等。在ABF载板市场,中国台湾、日本、韩国总份额高达80%,大陆内资厂2020年全球占比仅为5.3%。目前国内深南电路、兴森科技等产品逐步突破,未来有望深度受益于。图:H100
TENSOR
CORE
GPU
实物图33数据:CNET2.3
AI图:2022-2026全球AI服务器出货量预估(单位:千图:2022全球AI服务器市场客户采购结构台)34数据:TrendForce数据:TrendForce2.3
AI••图:2021全球服务器供应商收入(单位:百万美元)图:2022H1全球AI服务器市场份额占比统计35数据:Counterpoint数据:IDC,证券研究2.3交换机:速率需求升级,锐捷和新华三竞争力提升•数据流量快速增长和人工智能快速发展推动数据中心网络架构转型,有望驱动交换机数量和端口速率上行,高速网交换机市场有望实现强劲增长。根据IDC预测,中国25G端口交换机市场规模到2022年将达到4.4亿美元,而100G交换机市场规模将达到13.87亿美元。•国内交换机市场集中度较高,
锐捷和新华三市场份额提升。根据IDC测算,2022前三个季度新华三、过80%,国产份额持续保持领先。、星网锐捷三家市占率已经超图:我国高速数据中心交换机市场规模(单位:亿美元)图:2020-2022Q3
中国交换机市场份额新华三锐捷网络
其他100%90%80%70%60%50%40%30%20%10%0%13.84%13.81%13.77%11.69%1.92%13.96%1.56%14.69%1.62%34.01%34.14%34.33%38.54%202036.54%202135.59%2022Q336数据:IDC、锐捷网络招股书,证券研究数据:IDC,证券研究2.3交换机:AI驱动端口速率和端口数提升•AI驱动交换机端口速率和端口数提升,带来交换机市场增量需求。GH200的Nvlink架构交换机为25.6Tb交换容量,32*800G端口,服务器交换机的比例从A100的1:1.2提升到1:5。•近期产业链发展显著提速,各家均推出可支持AI训练的800G产品。800G
CPO硅光数据中心交换机,均可支持AI训练业务需求。发布全球首款800G数据中心核心交换机,新华三全球首发51.2T图:DGX
GH200采用胖树和无阻塞的拓扑结构图:一个NVLink交换机为25.6Tb交换容量,32*800G端口37数据:英伟达,证券研究数据:英伟达、Microflow,证券研究2.3交换机:白盒化趋势下,相关厂商更容易脱颖而出•软硬件解耦的白盒交换机有效降低组网成本,成为当下的主流选择。白盒交换机将网络中的物理硬件和操作系统进行解耦,让标准化的硬件配置与不同的软件协议进行匹配,下游客户可选择为交换机安装外部操作系统或在交换机厂商已提供开放式操作系统基础上开发上层应用软件,客户可组建更为开放灵活的网络方案,在大幅提高数据中心运维效率的同时,降低了建网成本。•白盒交换机厂商具备低成本、高开放性、易操作性的优势,有望在未来市场竞争中逐步提升份额。我们认为白盒交换机的成本低、操作难度小的优势未来将进一步凸显,锐捷网络等白盒交换机厂商在国内交换机市场中份额也逐步提高。图:白盒交换机降低了组网成本表:白盒交换机与其他类型交换机的对比品牌裸金属交换种类裸金属交换机白盒交换机品牌交换机机仅有硬件,OEM提供贴牌和技术支持/服务仅有硬件,ODM
提供基础技术支持商品化硬件,预
品牌专门化硬件,定义装网络操作系统预装操作系统硬件成本硬件种类低低低高商品化硬件(包商品化硬件(包商品化硬件(包品牌硬件(系统括ASIC)括ASIC)括ASIC)化ASIC)预装厂商自己的操作系统或第三方操作系统网络操作
没有(顾客选择系统没有(顾客选择品牌商自有操作系统第三方操作系统)
第三方操作系统)38数据:SDNLAB,证券研究数据:Forrester,证券研究2.4液冷:AI时代算力密度急速增加,早期以冷板式为主•AI算力时代数据中心趋于集中化、大型化,且服务器功率密度逐年增加,风冷方案已经不能满足要求。自然风冷单机柜密度一般支持
8-10kw,AI时代单机柜密度将达到
20-50kw。•我们预计早期仍以技术较为成熟的冷板式方案为主。IDC液冷技术方案主要包括冷板式、浸没式和喷淋式,冷板式方案目前较为成熟、成本较低、改造上对服务器芯片影响较小,浸没式和喷淋式散热效率更好但成本较高。目前,
阿里巴巴以单相浸没式液冷为主要发展方向,其他用户以冷板式液冷试点应用居多。图:单机柜功率密度快速增加,风冷已经不能满足要求图:2019-2025
年中国液冷
IDC
市场规模(亿图:2019-2025
年中国液冷方案结构元)冷板式浸没式IDC液冷(保守)yoy(保守)IDC液冷(乐观)yoy(乐观)100%15001000500040%80%128395930%60%75220%40%10%20%0%
0%5664503572612019
2020
2021
2022
2023
2024
20252019
2020
2021E2022E2023E2024E2025E39数据:CDCC、《中国液冷数据中心发展白皮书》,证券研究2.4液冷:三大运营商全面拥抱液冷表:国内厂商在液冷方面的布局•中科曙光、行业领先,英维克液冷方案全面布局,近年来竞争力不企业名称推出时间断加强。其中中科曙光、、阿里和联想位于中国液冷数据中心市场储备液冷技术类型主要液冷产品领导者位置,浪潮位于挑战者位置,戴尔中国、维谛技术和英维克位于跟随者位置,IBM中国位于可期待者位置。2019XGlacier
服务器液冷解决方案Coolinside全链条液冷解决方案年冷板式液冷、单相浸没液冷、相变浸没液冷等2021年英维克•三大运营商全面拥抱液冷,预计2025年能累计带来百亿左右增量市场空间。关键假设:(1)机柜数按复合5-10%增速增长;(2)冷板式方案占比7-8成;(3)浸没式方案单价约为冷板式的4-5倍;(4)平均新增Coolinside全链条液冷
6大集成2022年交付方案冷板式液冷、单相浸没液冷、相变浸没液冷等申菱环境2021年机柜功率8-10kw;(5)暂时不考虑老旧改造只考虑新建。天枢-液冷温控系统图:中国液冷数据中心能力竞争矩阵图冷板式液冷服务器热管理解决方案、浸没式液冷服务器热管理解决方案高澜股份冷板式液冷、浸没式液冷等2022年同飞股份同飞数据中心板式液冷全链条整体解决方案2022年冷板式液冷等冷板式液冷、浸没式液冷等佳力图依米康技术储备和预研技术储备和预研--冷板式液冷、浸没式液冷等通讯冷板式液冷、浸没式液冷202340ICT液冷一体化解决方案年数据:《中国液冷数据中心发展白皮书》,证券研究数据:各家官网、财报,证券研究41
/3.1GPU运行效率问题:根据阿姆达尔定律,串行通信决定了并行系统整体运行效率,并行系统节点数越多,其通信占比越高,通信对整体系统运行效率的影响越大。图:网卡数越多,效率提升显著图:GPU集群需要超大的接入带宽数据:星脉数据:星脉423.1AI800G••我们认为升级需求侧主要于
)云数据中心自然升级;
)
训练推理的需求推动。论文:提到
)服务器计算训练需求
个季度翻了
倍,
)
个季度内分布式的训练工作流提升到原来
倍图:传统数据中心架构图(传统云需求在较为明显)图:训练、推理相关的需求增长远高于其他自然增长需求层级Spine/LeafTor25.6T400G
FR4/DR451.2T400G
FR4/DR4400G
DR42*400G
FR4800G
PSM8200G
AOCamazongoogle400G
SR8/100G
DR1100G
AOC2*400G
FR4ServerSpine/LeafTor100G
AOC2*800G
FR48*200G
PSM8100G
DAC/ACC8*100G
PSM8100G
DAC/ACCServerSpine/Leaf400G
DR4、400G
ZR-microsoftTorServerSpine/LeafTor400G
AOC100G
DAC----400G(2*200G
FR4)200G
FR4MetaServer--百度Spine/Leaf400G
FR4/DR4400G
FR4/DR42*400FR4TorServer400G
SR8/100G
DR1100G
AOC;2*200G
SR4/AOC400G
DR4100G
AOC400G
FR4;400G2*400G
FR4;2*400G800G
PSM8200G
AOC腾讯阿里Spine/LeafTor200G
FR4200G
SR4DR4+400G
DR4/400GSR4DR4+800G
PSM8100GDAC/ACC/AOCServerSpine/LeafTor100G
AOC/ACC/AOC200G
FR4200G
DAC/ACC/AOC400G
FR4;400G
2*400G
FR4;2*400GDR4+400G
DR4/400GSR4DR4+数据:Deep
Learning
Training
in
Data
Centers:200G
SR4800G
PSM843Design
of
Scale-up
and
Scale-out100GDAC/ACC/AOCServer100G
AOC/ACC/AOC200G
DAC/ACC/AOC数据:证券研究3.1AI800G••AI和高性能计算迅猛发展,数据中心服务器接入侧速率快速提升。Nvidia解决方案中,DGX
H100使用4个800G端口;QM9700则是32*800G的交换容量。图:Nvidia方案的Basepod采用高速的互联图:QM9700采用32*800G交换容量图:DGX
H100采用4个800G端口44数据:数据:3.1800G主线:互联带宽快速提升,催化800G模块需求•网络性能是决定AI集群算力效率的核心要素。根据阿姆达尔定律,并行系统节点数越多,而其通信占比越高,对整体系统运行效率的影响越大。因此AI芯片的互联带宽都需要非常巨大,如H100互联达到了900GB(1B=8bps)以Nvidia历代GPU为例,芯片互联速率显著提升,GPU互联速率提升=nvlink自身单通道的升级*link的数量。芯片互联性能持续提升,对于节点外的芯片互联,需要经过数据中心网络,带来网络架构的变革。以Nvidia的DGX
H100集群为例,单节点服务器侧(8卡)接入带宽为3.2T,交换机侧采用32*800G的交换机。••图:NVLink本身单通道速率在升级,同时连接数也在升级图:DGX
H100集群采用4*800G接入(Infiniband组网,1016卡)数据:NvidiaH100referencearchitecture数据:Nvidia453.1800G主线:
节点接入带宽提升带动上层800G光模块••AI和高性能计算迅猛发展,数据中心服务器接入侧速率快速提升。GPU
A100/H100推动网卡速率提升到200G/400G/800G,交换机800G端口会急剧增加。图:数据中心架构图(800G需求快速提升)脊交换机100G400G800G800G1.6T200G叶交换机100G400G200G400G800G800G1.6T机顶交换机/服务器网卡速率25G100G200G400G46A100/H100驱动接入侧网口快速升级!!数据:证券研究3.1800G主线:从芯片接入-服务器外-交换机层级•最通用的测算方法就是芯片的接入流量->服务器内流量->服务器外流量->不同层级交换机流量,最后换算成端口数,再考虑是否采用光模块还是铜缆等形态。•以GH200测算为例:端口数来自L1层和L2层,共(2*115200GB+115200GB)*8(B/b)/800Gbps=3456个端口,再考虑L1接收流量端口距离较近,可以舍去,则最终为2304个端口,对应256个GPU芯片。图:以DGX
GH200集群计算方法为例核心前提:GH200是Fat
Tree架构,收敛比为1:136个Nvlink交换机,接收来自L1层的流量为115200GBL2层接入流量96个Nvlink交换机,满足1:1无阻塞网络,接收南向流量,与自身发往L2层的流量是1:1,合计流量为2*115200GB流量。L1层发出流量L1层接收流量每个GPU采用18个NVLink4,每条NVLink4单向带宽25GB,256片接入带来115200GB流量芯片接入流量47数据:GH200参考,证券研究3.1800G主线:主要模型A100\H100\GH200测算•核心要点:1)在非Nvlink组网中,接入带宽是由网卡的速率*网卡的个数决定的。2)Nvidia构建的基本都是无阻塞的收敛比为1:1的架构。3)实际上Nvidia的推荐方案中部分端口是闲置的,不能直接数交换机端口数。4)对于谷歌TPU、MI300等,也取决于接入网络的带宽到底是多少,有一个初始值,我们既可以算出不同层数下需要的800G端口数。表:H100和GH200
Nvlink组网下光模块测算表:H100和A100
网卡组网下光模块数量比例测算16KGPU训练集群设计H100A10088322048GH200H100NvlinkPOD数量8832GPU数量256256单个POD节点数单个节点所需AI服务器个数AI服务器个数单个GPU互联流量450GB450GB核心参数2048单个服务器GPU数GPU个数88163844*(800G端口)8192163848*(200G端口)163841638416384163841638416384983041:6(200G)板卡内:板块外收敛比1:12:11个服务器对应网卡端口服务器端口需求TOR下行端口数TOR上行端口数Leaf下行端口数Leaf上行端口数Spine下行端口数三层架构汇总服务器接入层L1层流量(南向)115200GB57600GB8192819281928192L1层流量(北向)L2层流量115200GB115200GB345657600GB57600GB1728汇聚层核心层端口数8192GPU:800G端口GPU:800G光模块1:13.51:6.75491521:3.0(800G)1:91:4.5结果GPU:端口数48数据:证券研究3.1跟踪预期:Nvidia和Marvell
指引乐观••Nvidia
Q1数据中心业务占约60%,对应40亿美金,而Q2增量主要于数据中心,可能接近环比翻倍增长。Marvell则指引AI相关业务22年2亿美金,23年至少4亿美金,24年至少8亿美金,AI主要为PAM4
DSP和DCI相关应用。•简单测算下,仅考虑800G
DSP为80-100美金,Marvell
DSP对应24年同比增量至少为400万只光模块以上。图:Nvidia营收预计FY24
Q2为110亿美金图:Marvell
AI业务指引积极乐观9.08.07.06.05.04.03.02.01.00.08.00120.0110.00100.080.060.040.020.00.082.8867.0471.9259.3160.514.002.0020222023E2024EFY23Q1
FY23Q2
FY23Q3
FY23Q4
FY24Q1
FY24
Q2Marvell
AI收
入
(亿美元)Nvi
di
a营
收
(
亿
美金)49数据:Nvidia,Marvell,证券研究3.1
光模块技术的演进离不开以下两个核心指标:单位速率功耗:
该指标下降可以因为:,单位速率成本:
)自然的技术代际升级:光芯片和电芯片成本、功耗并不因速率提升而线性提升;
)里面器件和材料的变化;
)封装形态的变化;图:器件层面主要通过改进材料可以下降单位速率的功耗图:封装形态的变化可以实现单位带宽的功耗下降数据:Co-package
optics50数据:Innovium,证券研究3.1•
硅光技术是利用现有集成电路
CMOS
工艺在硅基材料上进行光电子器件的开发和集成。•
与分立器件方案不同,硅光技术的集成度更高,封装形态也更加简化。图:传统光模块方案(左)vs硅光光模块(中)及硅光芯片(右)表:我们预计硅光技术在800G模块中渗透将明显上升电口速率112G
serdes光口速率100G/lane200G/lane200G/lane4通道8通道16通道400G
非硅光800G非硅光or硅光1.6T非硅光
or
硅光1.6T非硅光or硅光1.6T
OSFP-XD硅光3.2T
CPO硅光800G非硅光or硅光800G非硅光or硅光224G
Serdes3.2T
CPO硅光51数据:ICCSZ,证券研究3.1•
硅光芯片晶圆利用率高,可以复用CMOS集成电路较为成熟的产业链,上量后边际成本低。•
硅光的应用取决于客户接受度,目前全球看Intel的硅光产品接受度较高。表:硅/SOI衬底价格便宜且晶圆尺寸更大表:硅光在集成度、产业链成熟度、良率、成本等都具有优势类别硅光传统lnP2-3’lnPGaAsSOISi晶圆尺寸工艺精度8-12’衬底价格($/cm2)4.551.651.30.265nm-250nm0.3-0.5um难实现高密度集成耦合器、波导、调制器、和波器、探测器、分束器、Driver、LA、CDR单片集成功能晶圆价格($/cm2)集成度33.9515027.161.30.2工厂维护产业链芯片良率成本代工生产成熟自有Fab相对不成熟最大尺寸(mm)200450450>80%<40%数据:ICCSZ,博创科技,证券研究量大可以很低受限于良率和固定开支数据:ICCSZ,博创科技,证券研究523.1LPO•
LPO:线性驱动可插拔模块(Linear
Pluggable
Optics)省略DSP/CDR等部件,大幅降低成本和功耗。•
成本下降:省略了800G
DSP成本实现下降。•
功耗下降:省略的DSP芯片功耗占光模块超过一半。图:传统的光模块使用CDR/DSP(上半部分),LPO模块省略了CDR/DSP(下半部DSP功耗占8W的400G
DR4/FR4接近60%分)TEC,15%其他,1%MCU,
1%TIA,
8%激光器,16%DSP,59%数据:索尔思,证券研究数据:inphi,光通信女人,证券研究数据:Co-package
Optics,证券研究533.1LPOPJ/Bit•
本质上是一种牺牲性能来降功耗的方案,目前只能用在SR(短距离领域)。•
需要跟交换机厂商、交换机芯片厂商、Driver/TIA厂商紧密合作•
当前Meta、Arista、Broadcom、Macom等厂商比较积极推进。线性驱动减少光学部分的DSP功能线性驱动可插拔模块接近当前DEMO的CPO方案单位带宽功耗数据:Lightcounting,Ranovus54数据:Lightcounting,CISCO3.1•
薄膜铌酸锂是一种高带宽的材料,可以支持800G\1.6T等更高速率模块;•
硅光的带宽到达单通道200G/lane难度大,传统方案带宽到单通道200G难度也接近极限(EML),TFLN的上限可以更高。薄膜铌酸锂功耗可以比硅光更低图:铌酸锂调制性能好,薄膜化后尺寸与硅和LnP无异直流消芯片损耗/dB/cm3dB带宽/GHz材料类型长度/mm半波电压/V光比(dB)SiPh硅光磷化铟传统LN451610506535432525>400.13-5>40100/80/45薄膜LN5/10/203/50.24.4/2.3/1.47.4/5.13040薄膜LN20.9870数据:铌酸锂调制器发展进展55数据:Innovium,Lightcounting,证券研究3.1•
新易盛、联特、中际旭创等均在研发或发布TFLN模块,我们认为有可能在800G第二代\1.6T实现应用。•
当前TFLN芯片供应商主要有铌奥光电、光库科技、宁波元芯、富士通等。图:薄膜铌酸锂可以用在800G模块的发端数据:宁波元芯,证券研究563.1
光模块价值量占比:光学器件约占35%-40%,光芯片约占25%,电芯片约占30%。
光芯片全球市场规模在80-90亿元,根据ICC预测,当前高速芯片国产化率低于10%。光芯片层面模块层面Chip
On
Carrier光学元件光收发组件57数据:联特科技招股书,优迅科技招股书3.1200G•
1.6T将开始采用8*200G的结构,意味着单通道的EML芯片速率将提升到200G
PAM4。•
OFC2022、OFC
2023
Lumentum、IIVI、索尔思等陆续推出200G
EML产品。•
国内源杰、等当前正在突破100G
EML产品。图:200G/通道将成为下一个代际图:Sumitomo
100G
EML58数据:COBO,
Sumitomo,证券研究3.1800G100G
EML
800G需要8个100G
EML芯片,芯片单价预计在10美金左右。
我们详细测算下,单100G市场规模可能达到50+亿人民币。图:100G速率光芯片快速成长图:全球光通信DFB/EML光芯片市场快速提升160160单位:百万单位:亿元140120100806040201401201008034.9535.928.3729.3028.7056.5681.
593230.566.8027.0610.8828.715.216019.1873.
9.
684077..42024.8326.321.3322.760.92025.706.222.545.920.105.3002022202320242022E2023E2024E2.5G10G25G50G100GDWDM数据中心市场光纤接入市场5
G移动市场DWDM59数
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 中医养生馆医师聘用协议
- 美容院仪器管理规范
- 加油站停车场租用合同
- 艺术品交易中介费
- 旅游业超龄导游服务承诺书
- 石油项目部勘探员聘用协议
- 山西省电力设施建设合同模板
- 住宅装修翻新装饰改造协议
- 跨境电商平台投标技巧
- 2022年大学海洋工程专业大学物理下册期中考试试卷A卷-附解析
- 翼腭窝解剖医疗培训课件
- 我不生气了-完整版课件
- 区域经济发展战略课件
- 思想道德与法治教案第三章:继承优良传统弘扬中国精神
- 中国高考评价体系说明
- 2022届高考语文专题复习 专题04 文言文阅读(原卷版+解析版)
- 2022病媒生物防制知识PPT(蚊、蝇、蟑螂、鼠的危害及防治学习培训课件)
- DB32T 3957-2020 化工企业安全生产信息化管理平台数据规范
- 《灵敏素质练习》教案
- 中国文化英语教程Unit-3
- 如何对待父母唠叨
评论
0/150
提交评论