电子-AMD正式宣战谁来为MI300站台_第1页
电子-AMD正式宣战谁来为MI300站台_第2页
电子-AMD正式宣战谁来为MI300站台_第3页
电子-AMD正式宣战谁来为MI300站台_第4页
电子-AMD正式宣战谁来为MI300站台_第5页
已阅读5页,还剩24页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1告AI告AI芯片争霸战大幕正式开启,谁来为AMDMI300站台?AMD数据中心和人工智能技术首映式于加州时间2023年6月13日早上10点开始。主要发布产品为:云原生的BergamoCPU、3DV-Cache的Genoa-XCPU及AI芯片InstinctMI300XGPU和MI300AAPU。AMDCEOLisaSu认为Al发展战略主要在三方面:广泛的CPU和GPU产品组合、开放且经验证的软件平台以及深入的合作伙伴生态系统。AMD并未披露MI300系列的关键客户合作信息,发布会当天收盘下挫3.61%。但根据路透社6月14日独家报道,亚马逊高管DaveBrown表示AWS正考虑使用MI300。我们前序报告中提到,MI300全方位追击英伟达GraceHopper,但软件生态完善或成破局关键。LisaSu于5月31日的《福布斯》采访时强调“放眼5年将在AMD每一个产品中看到AI”,AI是公司的战略首位。目前,算力高的英伟达占据AI训练端的领导地位,但随着AMD在AI芯片上逐步发力,或能开始撼动英伟达在行业里独占鳌头的地位。我们也认为云厂商应不希望AI芯片呈现一家独大的局面,MI300恰逢其时地出现,为市场提供了英伟达以外的选择。风险提示:技术落地缓慢、中美局势可能升级、芯片需求不及预期。动态点评增增持(维持)研究研究员SACNo.S0570523020002SFCNo.ASI353翩purdyho@+(852)36586000MI300X&MI300A:与英伟达相比,AMDAI能力如何?AMD展现出的AI产品与我们几个前序报告中描述的大体一致,蓄势待发切AMD展现出的AI产品与我们几个前序报告中描述的大体一致,蓄势待发切入AI训练赛道。MI300A为CPU+GPU架构,对标英伟达GH200;而这次BH的800亿个;3)内存带宽5.2TB/s与H100的2-7.2TB/s相近。公司展示MI300X运行400亿参数的Falcon模型实时推理,此等参数规模的大语言模型为第一次在单片GPU上运行。AMDMI300系列将成为英伟达有力的竞争对手,另外,还需关注英特尔和其他AI芯片企业如Cerebras和SambaNova,但更重要的竞争对手或是云计算巨头自研芯片。业界首款x86云原生Bergamo及采用3D业界首款x86云原生Bergamo及采用3DV-Cache技术的Genoa-X正式推出。前者的峰值内核数达128(可提高多线程能力,并对标其他多核数的服务器产品如144核的IntelSierraForest),基于特别定制的Zen4c微架构,在保持与Zen4架构基本相同的功能集的同时将内核缩小35%,让数据中心CPU的性能推向新高;后者采用超过1GB的L3缓存和3DV-Cache技术,适用于缓存需求较高的技术计算。二者均为EPYC第四代和采用台积电5nm制程,对比SapphireRapids采用的Intel7节点(10nm相当于台积电7nm),性能和制程尚处领先。此外,AMD也宣布与AWS、Oracle、Meta及微软在第四代EPYC的合作关系。PyTorchPyTorchROCmHuggingFaceCEO也宣布将在AMD平台上优化数千个模型。此前我们在前序报告里多次对比英伟达CUDA和AMDROCm生态圈:ROCm起步较晚,开发者数量与CUDA相差较大。ROCm虽能完全兼容CUDA,但亦只属权宜之计。AMD正积极拓展生态圈,包括支持Windows、在AI领域开拓更广泛的PyTorch等,与二者的合作将对ROCm生态圈产生关键助力。AI争霸战大幕正式开启,谁来为AMDMI300站台? 3MIX肩H100,MI300A对阵GH200具一战之力 3多方入局,英伟达在AI芯片市场能否笑到最后? 6第四代EPYC数据中心CPU家族成员发布,性能重磅升级 11 图表2:AMDMI300X产品实物图(共8个GPUchiplets) 4 图表8:MI300A结构示意图(预测) 5 ISC将FalconShores规划在CPU与GPU之间,ISC2023移动至Gaudi系列和GPU之间8 U 图表21:AMDEPYCGenoa-X与Intel第四代Xeon产品对比(最高配置) 12图表22:AMDEPYCGenoa-X与Intel第四代Xeon产品对比(同为32核) 12 AMD数据中心和人工智能技术首映式于加州时间2023年6月13日早上10时开始。本次的主要产品为:云原生的BergamoCPU、面向技术计算和采用3DV-cache的Genoa-XCPU、以及包括InstinctMI300XGPU和MI300AAPU在内的AI平台等。AMD的Al战略主要在于三个方向:广泛的CPU和GPU产品组合、开放稳定且经过验证(open,steadyandproven)的软件平台、以及深入的合作伙伴生态系统。AMD并未披露MI300系列的3.61%。但根据路透社6月14日的独家报道,亚DaveBrown表示AWS正在考虑使用MI300。我们在今年的前序报告:5月18日发布的《AMD:MI300在AI正面交锋英伟达,16年CPU突围成功能否复制?》、5月30日发布的《英伟达GH200vsAMDMI300》和6月11日发布的《AMDMI300:AI芯片十问十答》中提到,MI300全方位追击英伟达GraceHopper,但软件生态完善或成破局关资料来源:AMD官网、华泰研究在以AI为首的战略背景下,此次数据中心与人工智能技术首映会发布的纯GPUMI300X参数跟英伟达H100比肩,而CPU+GPU架构的MI300A对阵GH200也具一战之力。本次首映会中AMD展现出的AI能力与我们几个前序报告中提及的大体一致,蓄势待发切入AI训练赛道。GPUAIUCPU构成。MI300X参数上值得关注的亮点包括:1)192GBHBM3内存,领先于英伟达H100NVL的双卡共188GBHBM3;2)共1530亿的晶体管数量,远超H100的800亿;3)内存带宽5.2TB/s与英伟达H100的2-7.2TB/s相近;4)InfinityFabric互联带宽的896GB/s与NVLink的900GB/s也相差无几;5)比H100高2.4X的HBM密度,以及1.6XHBM带宽。无可否认,MI300X或将成为客户在H100之外有力选择,或也可对AI芯片定价造成一定影响。MI300A目前正在送样,而MI300X则要等到Q3。资料来源:AMD数据中心&AI首映式、华泰研究资料来源:AMD数据中心&AI首映式、华泰研究AMD也展示了MI300X在400亿参数的Falcon模型上进行实时推理的能力,公司称这是此等参数规模的大语言模型第一次在单GPU上运行。公司表示MI300X还可运行规模更大的模型,比如Meta的OPT模型(660亿参数版本)和LLaMA(650亿参数),如果使用FP16精度在单一MI300X上推理,最高可以运行800亿参数的模型。源:AMD官网、华泰研究AMD的MI300A为APU架构(Zen4CPU+CNDA3GPU),与英伟达的GH200正面交锋。AMD于2023年1月的CES2023介绍了MI300(我们在前序报告中介绍的CPU+GPU架构,就是现今的MI300A)。它结合CPU与GPU,聚焦AI和HPC(highperformancecomputing),对标英伟达GraceHopper(GraceCPU+HopperH100GPU)。性能方面比前序产品MI250高8X,效率也高5X。AMD这次也一改过去GPU产品主要应用在图像处理及AI推理领域的局限。MI300A应该是除了谷歌的TPU之外,能与英伟达在AI训练端上匹敌的产品。MI300A在规格及性能方面同样全面追击英伟达GraceHopper。资料来源:AMD数据中心&AI首映式、华泰研究资料来源:CES2023、华泰研究从封装方案看,MI300系列都使用了台积电SoIC(3D)和CoWoS(2.5D)两种封装技术,相比英伟达的H100和GH200则只采用CoWoS封装技术。3DChiplet封装技术具有提高性能、降低延迟和功耗的优点,也可弥补x86架构相较ARM架构在AI应用中的能耗问题。PU而下层为4个基于6nm制程的I/O+cachechiplets,芯片两侧围绕8个总计128GB容量的HBM3高带宽内存。MI300X与MI300A相比,去掉了3个CPU,换为2个GPU,并将HBMGBGBDigitimes称,台积电确认将部分先进封装外包给其他厂商,如通富微电将代工MI300的封装。资料来源:台积电官网、华泰研究资料来源:电子工程专辑、华泰研究产品名称英伟达A100PCIe|SXMH100PCIe|SXM|NVLAMDMI250XMI300AMI300X发布时间2020.62022.32021.112023.12023.6峰值算力(TFLOPS)FP16:312|624FP32:19.5FP64:19.5FP8:3,026|3,958|7,916FP16:1,513|1,979|3,958FP32:51|67|134FP64:51|64|134FP16:383FP32/64:47.9FP32/64Matrix:95.7暂无暂无工艺制程及芯片面积7nm,826mm24nm,814mm26nm,724mm25nm,1017mm25nm,1017mm2晶体管数量(亿)54080058214601530内存容量80GBHBM2e80|80|188GBHBM3128GBHBM2e128GBHBM3192GBHBM3内存带宽1,935|2,039GB/s2|3.35TB/s|7.8TB/s3.2TB/s暂无5.2TB/sInterconnect600GB/sNVLinkfor2GPUs64GB/sPCIeGen4600|900|600GB/sNVLink125GB/sPCIeGen5100GB/s约800GB/s896GB/s热设计功耗TDP(W)00|400300-350|700|2x350-400500600暂无资料来源:AMD官网、英伟达官网、华泰研究MI300A的客户劳伦斯利弗莫尔国家实验室在2023年5月22日的ISC2023大会上表示,MI300A统一的内存层可简化编程,降低不同类型计算和不同内存池之间数据移动的复杂性,从而减少延迟并提高性能和功效。MI300A将于2023年底搭载在该实验室,由慧与(HewlettPackardEnterprise)旗下超算公司Cray制造的ElCapitan超级计算机上。资料来源:惠与官网、华泰研究除英伟达和AMD外,还需关注英特尔和其他AI芯片企业如Cerebras和SambaNova等的布局,但我们认为更重要的竞争对手也许是云计算巨头们自己设计专用芯片。LisaSu在会上也表示,数据中心的AI芯片市场规模将从今年的300亿美元左右,上升至2027年00亿美元。英特尔的AI芯片布局包括GPU产品PonteVecchio(今年一季度推出)和下一代Falcon (公司准备在2025年推出),另外也包括HabanaGaudi系列。在今年三月,英特尔发布了加速计算系统和图像组的暂代总经理JeffMcVeigh的一封信。信中提到公司GPU产品的未来的发展路径,包括取消一些原定在未来1至1.5年准备推出的服务器GPU产品,如RialtoBridge,但会将更多资源投放到Falcon上。这意味着英特尔在PonteVecchio之后,将相隔最少两年才会推出新的GPU产品Falcon。1)PonteVecchio:早在2021年发布,但2023年一季度才推出。PonteVecchioGPU宣布PonteVecchioGPU(XeHPC)的计算层采用了台积电N5工艺,基底采用了Intel7 (对标台积电7nm),XeLinkI/O是台积电N7,另外RamboCache采用的是Intel7,对比H100和MI300的台积电N5制程。晶体管数量超1000亿个,高于H100的800亿,但低于MI300X的1530亿。内存属HBM2e,落后于H100和MI300X的HBM3。2)FalconShores:FalconShores原定为XPU(即CPU+GPU架构)产品,并准备于时发布了CPU+GPU架构的AI芯片,因此英特尔在此架构上属于掉队。目前产品参数细节3)HabanaGaudi:Gaudi是由英特尔在2019年12月以20亿美元收购的HabanaLabs,主要设计ASIC芯片。第一款Gaudi(TSMCN16)于2019年6月推出,目前已迭代至HabanaGaudi2(TSMCN7),2022年末已推出。Gaudi2包含2个MME(MatrixMultiplicationEngine,矩阵乘法引擎)和24个TPC(TensorProcessorCore,张量处理器),前者负责处理所有可以转换成矩阵运算的任务,例如卷积、GEMM等,后者处理其他类型的运算。这两种计算引擎可以并行使用,因此两种类型的运算可以重叠进行,在Gaudi2的产品技术手册中,通过这种重叠进行的运算解释了Gaudi2可以有效提高运行AI模型的受益于以上架构特点,公司表示Gaudi2的基准测试较A100表现较为优秀。推理端,HuggingFace在2023年3月对HabanaGaudi2与A100进行了大模型(BLOOMZ,1760亿参数)推理的基准测试。结果显示,Gaudi2比A100快1.2倍。训练端,HabanaLab对HabanaGaudi2与A100进行了基准测试,运行了两款芯片在RestNet50和BERT模型训练的测试,称其训练吞吐量可达到英伟达A100GPU的两倍。然而,想要与英伟达在训练端匹敌,Gaudi还要面对H100。英伟达在2022年11月对H100和Gaudi2进行了对i快2.4倍。我们需要强调,ASIC仍然面临通用性较弱,以及开发成本较高等局限,大规模抢占GPU训练市场的可能性目前来说较为有限。资料来源:英特尔官网、华泰研究资料来源:英特尔官网,华泰研究ISC2022FaIconShoresCPU+GPU规划在CPU和GPU之间ISC2023FaIconShoresPU将结合Gaudi的部分IP资料来源:英特尔官网,华泰研究资料来源:Cerebras官网,华泰研究资料来源:SambaNova官网、华泰研究“Big5startups”:AI芯片的另外一类玩家是“Big5startups”,指Graphcore,Habana (已属英特尔),Cerebras,SambaNova和寒武纪五家初创芯片企业,其中寒武纪为中国企业。我们认为值得关注Cerabras和SambaNova等对英伟达发起的以小博大尝试:WaferScaleEngine即晶圆级别芯片,晶圆级指的是这款芯片几乎像一个完整的晶圆一样大(晶圆通常为8英寸直径左右,和WSE2的460cm2在同一个量级),一块WSE-2上有2.6万亿晶体管,核心数量达到85万个,是A100芯片的123倍。生产这种大型芯片的动力是为了更好地部署AI大模型,公司称由于AI大模型需要在众多的GPU上分布式训练,数据在GPU之间传输,浪费时间又增加能耗,所以想让产品同时具备百千个GPU的算力和单一芯片的简单性。Cerabras把一片WSE2部署在一台CS-2AI平台上,一台CS-2售价在200万美元以上,目前已被多个科研机构(包括NCSA国家超级电脑应用中心、LeibnizSupercomputingCentre莱布尼兹超级计算中心等)和一家美国主要的金融机构用于搭建超算,并部署AI工作。值得关注的是,WSE-2一度是单片能训练最大参数量AI模型的芯片:2022年6月Cerabras宣布单片WSE-2可以训练200亿参数的模型。对比现在AMD的MI300X能实现400-800亿模型的推理。2)SambaNova:最新的AI芯片是SN30,采用台积电N7工艺,有860亿晶体管,可编程性强,类似于一款FPGA,但公司称SN30相比传统的FPGA配置时间更快。公司称基于SN30的DataScale系统(8个SN30)在训练130亿参数GPT模型时比DGXA100快6倍。埃森哲已于2023年4月宣布采用SambaNova的AI芯片平台SN30系统用于生成3)Graphcore:Graphcore最新的AI芯片是BowIPU,类似于一款ASIC,但公司称其不SICGPUccGBsBowreAzureAI,也在自研Athena。Graphcore正在努力切入中国市场,为中国大型互联网公司为主提供AI硬件。资料来源:Graphcore官网,华泰研究资料来源:Graphcore官网、华泰研究云厂商自研AI芯片或将是对英伟达最大的竞争对手。云厂商针对TCO(totalcostofownership),具备较高意愿自研芯片。但除了自身的研发能力外,其他条件也必须要符合,包括算法要较为成熟和稳定、拥有自己的软件生态和应用,以及足够的芯片需求去摊分设计芯片的固定成本。云厂商自研AI芯片的典型是谷歌TPU(TensorProcessingUnit,从2017年开始已具备训练和推理能力),目前已发展到第四代,在架构与性能参数上不断迭代。我们认为谷歌的TPU是少数能与英伟达高算力GPU匹敌的AI芯片。谷歌目前通过谷歌云服务平台向外部客户提供TPU的算力租赁服务,而并未将其作为硬件产品出售。谷歌TPU的应用可以分为两类,分别是对内承担AI工作负载和其他应用,对外在云服务上提供给客户。对内:根据路透社4月5日的报道,目前谷歌内部90%的AI工作负载都使用TPU,例如在拥有5400亿参数的PaLM模型训练中,就使用了6144个TPUv4。今年的PaLM2也是采用TPUv4来训练。除AI工作负载之外,TPU也已广泛应用于翻译、相册、搜索、Google助理和Gmail等众多Google产品。对外:谷歌云服务同时提供GPU和TPU给客户选择。谷歌云上TPU相比GPU的价格较有优势,但也在一定程度上受限于生态圈。谷歌云上A10080GB价格为3.93美元/芯片/小时,TPUv4价格为3.22美元/芯片/小时。但是,需要考虑谷歌的TPU是专门针对自身的开源深度学习框架TensorFlow作ensorFlow在深度学习里的生态也成熟,使用者众,但其他机器学习库的开发者群或也会有自己的偏好。目前使用TPU的客户包括Midjourney、Cohere、LGAIResearch等AI公司。第一代TPU从2015年开始被使用于谷歌云计算数据中心的机器学习应用中,彼时面向推理端,但从2017年推出第二代开始,TPU已同时拥有训练和推理能力。第三代TPU于2018年发布,旨在提高性能和能效以满足不断增长的机器学习任务需求,但其应用范围仍然会在一定程度上受限于谷歌的生态系统和软件包。矩阵乘法是Transformer模型中最为关键的计算步骤之一,而TPU针对矩阵乘法进行了专门的优化,采用脉动列阵,对大规模矩ormer时节约训练成本。TPUv3TPUv3TPUv2TPU芯片包含2个TensorCore;TensorCoreMXU位和1个标每每个TPUv3芯片包含2个TensorCore;每个TensorCore都有2个MXU、1个矢量单元和1个标量单位TPUv4TPUv芯片包含2个TensorCore;个标量单位资料来源:谷歌官网、华泰研究发布年份TPUv12016TPUv22017TPUv32018TPUv42021每颗芯片的峰值计算能力(TFLOPS)92(int8)46(bf16)123(bf16)275(bf16orint8)HBM2容量与带宽28GiB,34GB/s32GiB,700GB/s32GiB,900GB/s32GiB,1200GB/s最小/平均/最大测量功耗(W)--123/220/26290/170/192TPUPod规模(芯片数量)-25610244096互连拓扑结构-2Dtorus2Dtorus3Dtorus每个Pod的峰值计算能力(PFLOPS)-12(bf16)126(bf16)1100(bf16orint8)每个Pod的All-reduce带宽(TB/s)-203401126.4每个Pod的切分带宽(TB/s)-26.424目标应用场景推理端训练&推理端训练&推理端训练&推理端资料来源:谷歌官网、nextplatform官网、华泰研究微软早在2010年开始希望自研AI硬件,当时以外采FPGA、自己搭建运算平台为主要目标。FPGA的方案最早由微软的计算机架构研究员、FPGA专家DougBurger提出。根据Shilicon,微软自研FPGA的第一阶段采用了单板多FPGA的方案,即每块加速卡上集成6片XilinxVirtix-6FPGA,各FPGA之间通过自身的通用I/O端口相连和通信,但整体稳定性存在较多问题,若一块FPGA出问题,整个板卡都会出问题。第二阶段从单板多FPGA,变成了单板单FPGA。但是,这种方案为实现FPGA之间的低延时通信,FPGA之间的互联需要通过两类特殊定制的线缆,成本高昂且实现难度较高。第三阶段为解决互联问题,取消了FPGA互连的网络,直接将FPGA与数据中心网络互连。到此为止,微软的所有努力都是使用外采的FPGA产品,自己搭建FPGA的AI平台。AzureAITom’sHardware,芯片的代号为Athena,据Tom’sHardware2023年4月18日消息,Athena使用台积电5nm制程,专门为大语言模型训练设计。据彭博社5月4日报道,微软将注资AMD并开展合作,目前合作研发的微软AI芯片即为Athena,希望为ChatGPT等大语言模型的训练及推理提供英伟达芯片以外的替代方案。随后5月5日,微软发言人FrankShaw表示AMD参与“雅典娜”项目的报道不实,但并未明确微软与AMD的合作关系。我们认为,大型云计算供应商拥有财力物力,面对较高的外购成本和较有限的灵活性,选择自己设计AI芯片并非意外,且微软与OpenAI的合作中用到大量的英伟达芯片。我们认为云计算大厂希望出现一个二供的选择也很理所当然。AWS分别在2019和2020年推出AI模型推理端芯片Inferentia以及训练端芯片Trainium,并整合到其AWS中。2022年正式推出的Trn1AI平台可以部署最多16个Trainium,可在左右的AI模型训练成本。EPYCCPU员发布,性能重磅升级AMD在会上强调了CPU在AI领域的重要性,称目前绝大多数AI工作负载仍以CPU运行,并正式推出了行业首款x86云原生Bergamo及采用3DV-Cache技术的Genoa-X,并与Intel云端最新款CPU4thgenXeon(也就是SapphireRapids)进行对比。Bergamo基于Zen4c架构,内核+L2区域合计2.48平方毫米,比Zen4的3.84平方毫米减少了35%,采用了8个16核的CCD,内核数最高可至128个,可提高多线程能力,并对标其他多核数的服务器产品如英特尔下一代144核的SierraForest。Genoa-X内核数最高96个,采用1.3GB的L3缓存,并集成了3DV-Cache技术,适用于缓存需求较高的技术计算。二者作为第四代EPYC家族成员均采用台积电5nm制程,对比SapphireRapids采用的Intel7节点(10nm相当于台积电7nm)尚处领先。AMD第四代EPYCCPU均采用台积电5nm制程,目前仍领先于英特尔。但Intel在先进制程的追赶方案比较激进,似有正在逐步接近AMD制程的可能。目前,Intel在服务器领域最新产品SapphireRapids采用的Intel7节点(10nm相当于台积电7nm)。但根据Intel技术路线图,如果英特尔按照“四年五节点”计划顺利推进,则AMD依赖台积电所获得的制程优势或将缩小,甚至在服务器端2025年可能出现英特尔超过台积电的情况。但英特尔究竟能否在2025年或以前顺利推进制程计划还需进一步观察,2024年Intel3的落地情况将是关键一步。资料来源:CES2023、华泰研究资料来源:AMD官网、华泰研究资料来源:AMD官网、华泰研究*AMDZen62nmAMDPYCTurinAMDEPYCVeniceAMDEPYCGenoa&GenoaXEPYCBergamoEPYCSienna*AMDZen*AMDZen62nmAMDPYCTurinAMDEPYCVeniceAMDEPYCGenoa&GenoaXEPYCBergamoEPYCSienna*AMDZen53/4nm7nm+AMDZen45nm英特尔*SierraForest*GraniteRapidsnmAMDZen27nmCooperLake(2020)2019资料来源:CES2023、华泰研究T2nm3nm5nm7nmnmnmnm制程M英特尔*CIearwaterForest*Diamond制程M**InteI.8nmAMDEPYCRomeP127410nmAMDZen37nm英特尔BroadweIIEP/EX(2014-2015)SkyIake(2017)英特尔BroadweIIEP/EX(2014-2015)SkyIake(2017)AMDiIan英特尔IceLake-SP(2021)AMD服务器端制程首度超英特AMAMD服务器端制程首度超英特AMDEPYCNapIesAMDZen1nmP1272nmKabyLakeDT(2017)CoffeeLakeE(2019)CascadeLakeSP(2019)间2015201620172018201420间2015201620172018201420212022202320242025资料来源:AMD官网、英特尔官网、华泰研究系列名称VeniceTurinSienaBergamoGenoa-XGenoaMilan-XMilanRomeNaples系列编号CKCKCCCCCCCC发布年份2025+202420232023202320222022202120192017CPU架构Zen*Zen5ZenZenCZenV-CacheZenZen3Zen3ZenZen1制程nmTSMC5nmTSMC4nmTSMC5nmTSMC5nmTSMCnmTSMCnmTSMCnmTSMC插座PSP6SP5SP5SP5SP3SP3SP3SP3插槽LGA6096AAAAAAAA最大核心数4*4664442最大线程数*256*2564最大三级缓存4MBMB256MB256MB4MBChiplet设计8CCD'sCXCCDCCDacheXCCDCCD3DV-CachesXCCDsCCDssCCDCCD's(2CCX's/CCD)内存支持DDR*DDRDDR*DDRDDRDDRDDRDDRDDR存储器通道TBD12ChannelsPlslsPCIeGen支持TBDTBDnn最大热设计功耗TBD480WPWW0WPW400W400W280W280W280W200W*注:具体参数官方尚未确认资料来源:Wccftech、华泰研究最后,AMD还宣布了与AWS、Oracle、Meta及微软在第四代EPYCCPU产品上的合作关系。但并没有宣布MI300系列的合作客户。U资料来源:CES2023、华泰研究提示技术落地缓慢:公司的生产技术推进和产品落地可能达不到预期,或影响营收及利润。中美局势可能升级:中国是美国半导体产业的重要市场之一,如果中美局势再次升级,将对宏观因素和板块产品销售产生影响。芯片需求不及预期:市场的芯片需求规模可能不及预期,影响行业营收及利润。宏观经济不确定性:宏观经济的下行压力和不确定性可能影响公司主营业务及合作进展。相关信息数据来自于相关公司的公开的客观信息,不代表对相关公司的研究覆盖和推荐。分析师声明本人,何翩翩,兹证明本报告所表达的观点准确地反映了分析师对标的证券或发行人的个人意见;彼以往、现在或未来并无就其研究报告所提供的具体建议或所表迖的意见直接或间接收取任何报酬。一般声明及披露本报告由华泰证券股份有限公司(已具备中国证监会批准的证券投资咨询业务资格,以下简称“本公司”)制作。本报告所载资料是供接收人的严格保密资料。本报告供本公司及其客户和其关联机构使用。本公司不因接收人收到本报告而视其为客户。本报告基于本公司认为可靠的、已公开的信息编制,但本公司及其关联机构(以下统称为“华泰”)对该等信息的准确性及完整性不作任何保证。本报告所载的意见、评估及预测反映报告发布当日的观点和判断。在不同时期,华泰可能会发出与本报告所载意见、评估及预测不一致的研究报告。同时,本报告所指的证券或投资标的的价格、价值及投资收入可能会波动。以往表现并不能指引未来,未来回报并不能得到保证,并存在损失本金的可能。华泰不保证本报告所含信息保持在最新状态。华泰对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。本公司不是FINRA的注册会员,其研究分析师亦没有注册为FINRA的研究分析师/不具有FINRA分析师的注册资华泰力求报告内容客观、公正,但本报告所载的观点、结论和建议供参考,不构成购买或出售所述证券的要约或招揽。该等观点、建议并未考虑到个别投资者的具体投资目的、财务状况以及特定需求,在任何时候均不构成对客户私人投资建议。投资者应当充分考虑自身特定状况,并完整理解和使用本报告内容,不应视本报告为做出投资决策的唯一因素。对依据或者使用本报告所造成的一切后果,华泰及作者均不承担任何法律责任。任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效。除非另行说明,本报告中所引用的关于业绩的数据代表过往表现,过往的业绩表现不应作为日后回报的预示。华泰不承诺也不保证任何预示的回报会得以实现,分析中所做的预测可能是基于相应的假设,任何假设的变化可能会显著影响所预测的回报。华泰及作者在自身所知情的范围内,与本报告所指的证券或投资标的不存在法律禁止的利害关系。在法律许可的情况下,华泰可能会持有报告中提到的公司所发行的证券头寸并进行交易,为该公司提供投资银行、财务顾问或者金融产品等相关服务或向该公司招揽业务。华泰的销售人员、交易人员或其他专业人士可能会依据不同假设和标准、采用不同的分析方法而口头或书面发表与本报告意见及建议不一致的市场评论和/或交易观点。华泰没有将此意见及建议向报告所有接收者进行更新的义务。华泰的资产管理部门、自营部门以及其他投资业务部门可能独立做出与本报告中的意见或建议不一致的投资决策。投资者应当考虑到华泰及/或其相关人员可能存在影响本报告观点客观性的潜在利益冲突。投资者请勿将本报告视为投资或其他决定的唯一信赖依据。有关该方面的具体披露请参照本报告尾部。本报告并非意图发送、发布给在当地法律或监管规则下不允许向其发送、发布的机构或人员,也并非意图发送、发布给因可得到、使用本报告的行为而使华泰违反或受制于当地法律或监管规则的机构或人员。本报告版权为本公司所有。未经本公司书面许可,任何机构或个人不得以翻版、复制、发表、引用或再次分发他人(无论整份或部分)等任何形式侵犯本公司版权。如征得本公司同意进行引用、刊发的,需在允许的范围内使用,并需在使用前获取独立的法律意见,以确定该引用、刊发符合当地适用法规的要求,同时注明出处为“华泰证券研究所”,且不得对本报告进行任何有悖原意的引用、删节和修改。本公司保留追究相关责任的权利。所有本报告中使用的商标、

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论