2023-半导体行业专题报告:HBM高带宽内存-新一代DRAM解决方案_第1页
2023-半导体行业专题报告:HBM高带宽内存-新一代DRAM解决方案_第2页
2023-半导体行业专题报告:HBM高带宽内存-新一代DRAM解决方案_第3页
2023-半导体行业专题报告:HBM高带宽内存-新一代DRAM解决方案_第4页
2023-半导体行业专题报告:HBM高带宽内存-新一代DRAM解决方案_第5页
已阅读5页,还剩26页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2023半导体行业专题报告:HBM高带宽内存,新一代DRAM解决方案一代DRAM解决方案

HBM概览:

JEDEC定义了三类DRAM标准

,以满足各种应用的设计要求

HBM与GDDR属于图形DDR

,面向需要极高吞吐量的数据密集型应用程序

,例如图形相关应用程序、数据中心加速和AI。

HBM演进必要性:解决存储墙瓶颈刺激内存高带宽需求。

HBM(HighBandwidthMemory

,高带宽内存):一款新型的CPU/GPU内存芯片

,将很多个DDR芯片堆叠在一起后和GPU封装在一起

,实现大容量

,高位宽的DDR组合阵列。通过增加带

,扩展内存容量

,让更大的模型

,更多的参数留在离核心计算更近的地方

,从而减少内存和存储解决方案带来的延迟。

HBM提高有效带宽途径:

Pseudo

Channel

Mode伪通道。

HBM2的主要增强功能之一是其伪通道模式

,该模式将通道分为

两个单独的子通道

,每个子通道分别具有64位I/O

,从而为每个存储器的读写访问提供128位预取。

HBM结构:通过TSV将数个DRAM

die垂直堆叠。

HBM主要是通过硅通孔(Through

Silicon

Via,

简称“TSV”)技术进行

芯片堆叠

,以增加吞吐量并克服单一封装内带宽的限制

,将数个DRAM裸片像楼层一样垂直堆叠。较传统封装方式

,TSV技术能够缩减30%体积

,并降低50%能耗。

从技术角度看

HBM促使DRAM从传统2D加速走向立体3D

,充分利用空间、缩小面积

,契合半导体行业小型化、集成化的发展趋势。

HBM突破了内存容量与带宽瓶颈

,被视为新一代DRAM解决方案。

HBM技术演进:目前SK海力士为唯一量产新世代HBM3供应商。

2022年1月

,JEDEC组织正式发布了新一代高带宽内存HBM3的标准规范

,继续在存储密度、带宽、通道、可靠性、能效等各个层面进行扩充升级。

HBM的不足:系统搭配缺乏灵活性(出厂后无法容量扩展)

,内存容量受限

,访问延迟较高。

HBM与其他DDR的替代关系比较分析:

HBM+DDR协同发展

HBM负责高带宽小容量

DDR负责稍低带宽大容量。

HBM竞争格局与应用市场:

三巨头垄断

,受益于AI服务器市场增长。据TrendForce集邦咨询研究显示,

2022年三大原厂HBM市占率分别为SK

海力士(SK

hynix)

50%、三星(Samsung)约40%、美光(Micron)约10%。新思界预测2025E中

国HBM需求量将超过100万颗。

相关标的:

存储:兆易创新

封装:长电科技

,通富微电

,深科技

风险提示:

1)半导体下游需求不及预期;

2)技术发展不及预期;

3)行业竞争加剧。

2

投资要点JEDEC定义三类DRAM标准:

HBM属于细分图形DDRHBM演进必要性:解决存储墙瓶颈刺激内存高带宽需求HBM提高有效带宽途径:

PseudoChannelMode伪通道HBM结构:通过TSV将数个DRAMdie垂直堆叠HBM促使DRAM从传统的2D加速走向3DHBM技术演进:目前SK海力士为唯一量产新世代HBM3供应商HBM与其他DDR的替代关系比较分析:

HBM+DDR协同发展HBM竞争格局与应用市场:三巨头垄断,受益于AI服务器市场增长催化1:互连类芯片,全球领跑者乘DDR5渗透之风催化2:CXL与PCIe等弥补高速发展的HBM内存局限弱势HBM概览相关标的:澜起科技

目录

1

2

3

上述三种

DRAM类别使用相同的

DRAM

阵列进行存储,以电容器作为基本存储元件;

每个类别都提供独特的架构功能(数据速率和数据宽度自定义、主机和

DRAM之间的连接选项、电气规格、

I/O(输入/输出)端接方案、

DRAM

电源状态、可靠性特性等),

旨在最好地满足目标应用程序的要求。DDR

SDRAM(简称

DRAM)通过

在双列直插式存储模块(DIMM)或分

立式DRAM解决方案中提供密集、

高性能和低功耗的存储器解决方案,

以满足此类存储器要求,

双数据速率(DDR)同步动态随机存取存储器(SDRAM)已成为主系统存储器最主

流的存储器技术。面向需要极高吞吐量的数据密集型应用

程序,例如图形相关应用程序、数据中心加速和AI面向移动和汽

车这些对规格

和功耗非常敏

感的领域,提

供更窄的通道

宽度和多种低

功耗运行状态资料来源:新思官网,方正证券研究所整理

4JEDEC定义了三类DRAM标准,以满

足各种应用的设计要求DRAM-basedSDRAMs支持更宽的通道宽度、更高的密度和不同的形状尺寸

分类概览:JEDEC定义三类DRAM标准TSVandInterposer(HBM)面向笔记本电

脑、台式机和

消费类应用面向服务器、

云计算、网络、数据中心面向数字家庭

等消费类应用DRAM

onPCBDRAM

onPCB,

PoPDRAM

on

PCB

(GDDR)U/SODIMMsR/LRDIMMsDDR4DDR5LPDDR4LPDDR5Discrete

DRAMs标准DDR

DIMMs移动DDR图形DDR.HBM(High

Bandwidth

Memory,高带宽内存):一款新型的CPU/GPU内存芯片

,其实就是将很多个DDR芯片堆叠在一起后和GPU封装在一起

,实现大容量

,高位宽的DDR组合阵列。.通过增加带宽

,扩展内存容量

,让更大的模型

,更多的参数留在离核心计算更近的地方

,从而减少内存和存储解决方案带来的延迟。

“内存墙”:存储与运算之间数据交换通路窄以及由此引发的高能耗两大难题HBM

存储芯片关键:提升内存带宽资料来源:半导体行业观察,海力士官网,方正证券研究所整理

5

HBM演进必要性:解决存储墙瓶颈刺激内存高带宽需求CPU核数的增加需要内存带宽和容量的相应增长内存带宽要求.HBM2的主要增强功能之一是其伪通道模式

(Pseudo

Channel

Mode)

,该模式将通

道分为两个单独的子通道

,每个子通道分别

具有64位I/O

,从而为每个存储器的读写访问提供128位预取。.

伪通道以相同的时钟

速率运行,

共享行和

列命令总线以及CK和CKE输入

但是,

们具有独立的存储体

,

分别解码和执行命

令。.

海力士表示,

伪通道

模式可优化内存访问

并降低延迟,

从而提

高有效带宽。

HBM提高有效带宽途径:

PseudoChannel

Mode伪通道伪通道模式示意图及与传统模式的对比资料来源:海力士官网,CSDN,方正证券研究所整理6.HBM主要是通过硅通孔(Through

Silicon

Via,

简称“TSV”)技术进行芯片堆叠

,以增加吞吐量并克服单一封装内带宽的限制

,将数个DRAM裸片像楼层一样垂直堆叠。.SK海力士表示,

TSV是在DRAM芯片上搭上数千个细微孔并通过垂直贯通的电极连接上下芯片的技术。该技术在缓冲芯片上将数个DRAM芯片堆叠起来,并通过贯通所有芯片层的柱状通道传输信号、指令、电流。

相较传统封装方式,TSV技术能够缩减30%体积,并降低50%能耗。HBM结构图:

裸片之间通过TSV技术连接资料来源:美光官网,半导体行业观察,方正证券研究所整理

7

HBM结构:通过TSV将数个DRAM

die垂直堆叠TSVMicrobumpSi

INTERPOSERAP/GPU/TPUHBM

DRAM

DieHBM

DRAM

DieHBM

DRAM

DieHBM

DRAM

DieBASE

DieOrganicSubstratePHYPHY.凭借TSV方式,

HBM大幅提高了容量和数据传输速率。与传统内存技术相比,

HBM具有更高带宽、更多I/O数量、更低功耗、

更小尺寸。.HBM的高带宽离不开各种基础技术和先进设计工艺的支持。由于HBM是在3D结构中将一个逻辑die与4-16个DRAMdie堆叠在一起,因此开发过程极为复杂。.美光HBM2E

DRAM的内部组织为8个独立

通道A到H(如下图),适用于4高和8高的

DRAM配置。

每个通道都配备有自己的时钟

、命令/地址和数据接口,并且可以完全独立于其他通道运行。资料来源:美光官网,半导体行业观察,方正证券研究所整理

8

HBM结构:通过TSV将数个DRAM

die垂直堆叠通道数和内存带宽对于4高和8高配置相同美光HBM2ESiP封装示例美光HBM2E的通道结构每个通道

内存容量加倍PseudoChannel

Mode伪通道模式

Si

InterposerBankbDRAM.从技术角度看

HBM促使DRAM从传统2D加速走向立体3D

,充分利用空间、缩小面积

,契合半导体行业小型化、集成化的发展趋势。

HBM突破了内存容量与带宽瓶颈

,被视为新一代DRAM解决方案

,业界认为这是DRAM通过存储器层次结构的多样化开辟一条新的道路

,革命性提升DRAM的性能。各大厂商DRAM技术路线图

DRAM技术路线:

HBM促使DRAM从传统的2D加速走向3DHBM3(2021)

HBM3Bandwidth

≥665GB/sI/O

Speed

≥5.2Gbps.2022年1月,

JEDEC组织正式发布了新一代

高带宽内存HBM3的标准规范,继续在存储密度、带宽、通道、可靠性、能效等各个层面进行扩充升级。.JEDEC表示,HBM3是更高带宽、更低功耗和单位面积容量的解决方案,对于高数据处理速率要求的应用场景来说至关重要,比如图形处理和高性能计算的服务器。④改进的信道和时钟架构:

独立通道数从8个翻番到16个,再加上虚拟通道

,单颗支持32通道⑤支持4层、

8层和12层TSV堆栈,并为未来扩展至16层TSV堆栈做好准备⑥

高容量:

每个存储层容量8/16/32Gb,单颗容量起步4GB(8Gb4-high)、最大容量64GB(32Gb16-high)⑦支持平台级RAS可靠性,

集成ECC校

验纠错,支持实时错误报告与透明度⑧

改善散热①低功耗:

主接口使用0.4V低摆幅调制,运行电压降低至1.1V②高性能:传输数据率在HBM2基础上再次翻番,每个引脚的传输率为6.4Gbps,配合1024-bit位宽,

单颗最高带宽可达819GB/s③如果使用四颗,

总带宽就是3.2TB/s,六颗则可达4.8TB/s资料来源:半导体行业观察,海力士官网,新思官网,方正证券研究所整理

10HBM性能演进

HBM技术演进:目前SK海力士为唯一量产新世代HBM3供应商各代HBM产品的数据传输路径配置HBM3相对于HBM2E的改进项(2016)

HBM2

Bandwidth

256GB/s

I/O

Speed

2.0Gbps(2018)

HBM2E

Bandwidth

460GB/sI/O

Speed

3.6GbpsBandwidth

1075GB/sI/O

Speed

8.4GbpsDQ基础dieHBM3DQ基础dieHBM2EHBM2内核die内核die内核dieDQ基础dieDRAM单元DRAM单元DRAM单元Next硅通孔

(TSV)硅通孔

(TSV)硅通孔

(TSV)带

宽不足3:访问延迟高

对于PC而言,

HBM一直都没有应用于CPU主内存的一个重要原因在于其延迟很高。当代的DDR内存,

在规格上普遍会标CL(CAS延迟,列寻址所需的时钟周期,

表示读取延迟的长短)。

CAS延迟,是指从读取

指令(与ColumnAddress

Strobe)发出,到数据准备就绪的过程,

中间的等待时间,即在内存控制器告诉内存,需要访问某个特定位置的数据后,需要若干个周期的时间以后才能抵达该位置并执行控制器发出的指令。

CL是内存延迟中最重要的参数。就延迟长短来说,

这里的“周期”其实还需要乘以每周期的时间

(越高的整体工作频率,则表明每周期时间越短)。

HBM的频率的确比DDR/GDDR低很多

,三星此前的FlareboltHBM2内存每pin的传输带宽是2Gbit/s

差不多是1GHz的频率;后来有加压提频到1.2GHz的产品。

三星当时提到这个过程还需要考虑降低超过5000个TSV之间的并行时钟干扰;而且要增加DRAMdie之间的散热bump数量

,来缓解发热问题。不足1:系统搭配缺乏灵活性

2013年,

HBM由SK

Hynix首度制造问世,

同年,

HBM被JEDEC(电子元器件工业联合会)的JESD235标准采用。第一颗应用了HBM存储的GPU是2015年的AMD

Fiji(Radeon

R9

Fury

X)

;2016年三星开始大规模量产HBM2——英伟达Tesla

P100是最早采用HBM2存储的GPU。

HBM与主芯片封装在一起

,不存在容量扩展的可能

,在出厂时就已经确定规格。而且它和现在笔记本设

备上,

DDR内存焊死在主板上还不一样,

HBM是由芯片制造商整合到芯片上的——其灵活性会更弱

,对OEM厂商而言尤其如此

,虽然现在某些高端系统

,存在HBM+DDR的解决方案

,即两种内存作为不同层级的存储系统来调配。不足2:内存容量相比DDR受局限

虽说一片HBM封装就可以堆8层DRAMdie,但实际上每层仅8Gbit,那么8层就是8GByte;像A64FX超算芯片留4个HBM接口,也就是4个HBM堆栈封装,则一颗芯片也就总计32GByte容量。

消费市场上普通PC需要堆大于32GByte的内存非常常见,

不仅是PC、服务器主板上可扩展的内存插槽亦很常见,某些DDR4/5DIMMs内存颗粒也在进行DRAMdie的堆叠,比如,采用比较高端的DRAMdie堆叠,

2-rank的RDIMM(registered

DIMMs)能实现128GByte容量——考虑高端服务器96个DIMM插槽,即至多12TByte的容量。资料来源:

EET,方正证券研究所整理

11

HBM的不足:出厂后无法容量扩展,内存容量受限,访问延迟较高GDDR5GraphicsGDDR5X

GraphicsGDDR6Graphics

AI

Inference

AcceleratorGDDR6XGraphicsAI

InferenceAcceleratorHBM2AITrainingAcceleratorHBM2EAITrainingAcceleratorApplicationType(Example)GTX

1070RX

580TitanXTitan

RTXRX5700XTGeForce®

RTX™3080

andGeForce®

RTX™3090Tesla

V100Radeon

InstinctMI50Expected#

of

placements812121244-6Gb/s/pin811.414-1619-211.75-23.2-3.6GB/s/placement324556-6476-84224-256410-461GB/s/system256547672-768912-1008896-10241638-2765Configuration

(Example)256

I/O(8pcs

×

32

I/Opackage)384

I/O(12pcs

×

32

I/Opackage)384

I/O(12pcs

×

32

I/Opackage)384

I/O(12pcs

×

32

I/Opackage)4096

I/O(4pcs

×

1024

I/OCube)4096

I/O(4pcs

×

1024

I/OCube)6144

I/O(6pcs

×

1024

I/OCube)Frame

buffer

ofTypical

System8GB12GB12GB12GB16-32GB32-96GBAVG

Device

Power

(pJ/bit)9.08.07.57.257.06.0Typical

I/OchannelPCB(P2P

SM)PCB(P2P

SM)PCB(P2P

SM)PCB(P2P

SM)Si

Interposer(2.5D

Integration)Si

Interposer(2.5D

Integration)资料来源:美光官网,Micro&analyst

research,方正证券研究所整理

12

HBMVSGDDR:美光的图形DDR产品对比.数据中心正在不断发展,

以解决

快速有效地存储

、移动和分析数

据的挑战

在很大程度上,

这种

演变是由如下图所示的四种高性能应用程序趋势驱动的。.传统游戏和专业可视化主要是在PC领域,

并满足于快速GDDR内

存的创新。但随着人工智能(AI)训

练和推理以及高性能计算的发展

,

我们看到数据中心对最快内存

、高带宽内存(HBM)

的使用越

来越多

。应用程序架构师必须在这些段中找到可能的最大带宽。HBM与主芯片封装在一起HBM和GDDR封装形式对比高性能的系统驱动超带宽解决方案资料来源:美光官网,半导体屋,方正证券研究所整理

13

HBMVSGDDR:封装形式&应用DDR4DDR5HBM2GDDR5LPDDR4LPDDR5ApplicationsServers→

PCs→consumerServers→

PCs→consumerGraphics,

HPCGraphicsMobile,auto,consumerMobile,auto,consumerTypicalinterface(primary)Server:64+8

bitsServer:dualchannel,32+8bitsOctalchannel,128-bit

(1024bitstotal)Multi-channel,32-bitsMobile:quadchannel,

16-bit

(64-bitstotal)Mobile:quadchannel,

16-bit

(64-bitstotal)Typicalinterface(secondary)Consumer:

32

bitsConsumer:

32

bitsNoneNoneDualchannel,16-bit

(32-bitstotal)Dualchannel,16-bit

(32-bitstotal)Max

Pin

BW3.2

Gb/s6.4

Gb/s2.0→2.4Gb/s8

Gb/s4.267Gb/s6.4

Gb/sMax

I/F

BW25.6GB/s51

GB/s307GB/s32

GB/s34

GB/s51

GB/s#Pins/channel~380

pins~

380

pins~

2860

pins~

170

pins~

350

pins~

370

pinsMaxcapacity3DS

RDIMM:

128

GB3DS

RDIMM:

256

GB4H

Stack:4

GBOnechannel:

1

GB4channels:

2

GB4channels:

4

GBPeakvolumes************************Price

per

GB$$$$$$$$$$$$$$资料来源:

Tech

Design

Forum,新思官网,方正证券研究所整理

14

HBMVS其他DDR:性能对比海力士服务器方案示意图.HBM重新调整了内存的功耗效率

,能大幅提高数据处理速度

,是当下速度最快的DRAM产品

,其每瓦带

宽比GDDR5高出3倍还多

,且HBM比GDDR5节省了94%的表面积。高带宽、高延迟特性

,决定了HBM非常适用于高端GPU显存

,这类负载的特点是需要高带宽

,而对延迟并没有那么敏感。但对于电脑来说,要求各种随机存储访问

,对延迟天生有着更高的敏感度

,而且对低延迟的要求往往还高于对高带宽的要

,再加上HBM成本很高

,至少就短期来看,

HBM很难在PC上替代DDR。.在服务器上

,有HBM+DDR搭配使用的方案,

HBM负责高带宽小容量,

DDR负责稍低带宽大容量。

HBM+

DDR:

HBM负责高带宽小容量,

DDR负责稍低带宽大容量

高阶深度学习AI

GPU的规

格刺激

HBM产品更迭

2023下半年NVIDIAH100与AMD

MI300搭载HBM3

SK海力士作为目前唯一量产新世代HBM3产品的供

应商

三星、美光则预计陆续在今年底至明年初量产2023年竞争格局53%SNMSUNG38%

9%2022年竞争格局50%SNMSUNG

40%

Mcron10%2025E中国

HBM需求量

>100万颗20222023(E)2024(F)2025(F)2026(F)2027(F)9.0%15.4%10.0%12.7%11.3%15.0%

HBM竞争格局&应用市场:三巨头垄断,受益于AI服务器市场增长资料来源:

IT之家,

TrendForce,新浪财经,财联社,新思界,方正证券研究所整理

162022-2027年全球AI服务器出货量年成长率预估一般服务器与AI服务器平均容量差异FutureAI

Server2.2~2.7TB8TB512~1024GBAI服务器HBM约占整个DRAM市场的1.5%,整体市占率水平尚低AI

server1.2~1.7TB4.1TB320~640GBServer500~600GB4.1TB-12亿美元ServerDRAMContentServer

SSD

ContentHBM

Usage网络交换及转发设备(如路由器、交换器)25亿美元2025EGPU高能效服务器AI加速器超计算机智能驾驶全球HBM

市场规模HBM市场规模HBM厂商应用市场2023E.每一代新的DDR在容量、数据速率和功耗方面都有改进。然而,与此同时,模块设计人员面临着新的信号完整性挑战,这使得在更高的速度下实现更高的模块容量变得更加困难。为了解决这些问题,需要特定的内存条芯片。

相关内存模组市场规模.根据Yole,随着最新一代DDR,每个模块的

DIMM芯片数量有所增加。模块上芯片组包括

RCD,

DB,

PMIC,SPD集线器和温度传感器芯

片,用于最先进的模块。.DDR5的渗透将导致DIMM芯片组市场在2028年达到约40亿美元,

CAGR21-28为约

28%。.除了DDR之外,各种新的开放接口和协议目前正在开发中:CXL、Gen-Z、OpenCAPI、CCIX。其中,

CXL在AI/HPC数据中心应用中势头强劲,在容量和密度方面为连接高容量DRAM和SCM技术(

如3DXPoint)提供了

最佳点。2021-2028年全球DIMM芯片组市场规模资料来源:

Yole,方正证券研究所整理

18按接口世代划分的DDRbit出货量细目——历史(2015-2020);预测(2021-2026)

相关DIMM芯片组市场规模JEDEC定义三类DRAM标准:

HBM属于细分图形DDRHBM演进必要性:解决存储墙瓶颈刺激内存高带宽需求HBM提高有效带宽途径:

PseudoChannelMode伪通道HBM结构:通过TSV将数个DRAMdie垂直堆叠HBM促使DRAM从传统的2D加速走向3DHBM技术演进:目前SK海力士为唯一量产新世代HBM3供应商HBM与其他DDR的替代关系比较分析:

HBM+DDR协同发展HBM竞争格局与应用市场:三巨头垄断,受益于AI服务器市场增长催化1:互连类芯片,全球领跑者乘DDR5渗透之风催化2:CXL与PCIe等弥补高速发展的HBM内存局限弱势HBM概览相关标的:澜起科技

目录

1

2

19.CXL内存的主要优

势在于可扩展性:CXL允许灵活扩展

现有服务器系统无法提供的内存,其中内存容量和性能在采用特定服务器平台时是固定的。CXL的增长潜力是无限的,因为它是运行AI和大数据应

用程序的高性能计

算系统的有前途的

新接口。.计算高速链路(CXL)利用PCIe(外围组件互连高速)接

口,是一种新的标准化接口,有助于提高CPU、GPU、加速器和内存的效率。海力士CXL2.0方案

内存拓展需求催涨CXL及PCIe芯片需求内

量要

求资料来源:海力士官网,方正证券研究所整理使用CXL前20.根据新思官网

,计算结果表明

,CXL

2.0引入的内存池理论上可至少支持1.28拍字节

(PB)

的CXL附加内存,如果在CXL

3.0中引入多级切换和其他功能

,甚至可支持更高的内存容量。这为解决大规模计算问题提供

了新思路

,使多个主机可以一边处理大量问题

,一边同时访问整个数据集。例如

,假设系统可以一次性处理整个问题

,而不是将问题分解成更小的部分

,那么通过访问1拍字节的内存

,就可以创建全新的模型并对

其编码

,以此来处理复杂的问题(例如

,模拟气候变化)。.CXL

3.0中引入的高级结构功能是基于前几代及其传统树基架构的一次转变。新架构支持多达4,096个节点,每个节点都能够通过基于端口的路由(PBR)

机制与另一个节点相互通信。节点可以包括CPU主机、CXL加速器(无论是否包含内存)、

PCIe设备或全局结构连接内存(GFAM)设备。.GFAM设备是一种3型设备

,可有效地充当共享内存池

,其I/O空间属于一个主机或结构管理器。配置后

,CXL结构中的其他主机和设备可以直接访问GFAM设备的池式内存。GFAM设备带来了很多新的可能性

,可

以根据特定的负载需求构建由计算和内存元件组成的系统。例如

,通过访问1太字节或1拍字节的内存

,可以创建全新的模型来应对像绘制人类基因组图谱一样复杂的挑战。特性何时引入一致性和低延迟在CXL

1.0/1.1

中引入切换在CXL2.0

中引入,作为CXL.mem

的单级切换在CXL3.0

中扩展为多级切换,适用于所有协议内存池和共享在CXL2.0

中引入了内存池,支持

MLD在CXL

3.0

中增加了共享功能结构在CXL

3.0

中引入有助于在内存和存储应用推广CXL的一些关键特性资料来源:新思官网,方正证券研究所整理

21

CXL在新兴HPC应用内存可组合性和分解方面的优势.一直以来

,只有几种方法可以为加速器或其他SoC增加内存。最常见的方法是添加额外DDR内存通道来支持更多标准DDR内存模块。.另一种可行的方法是

,将内存与SoC集成在同一个封装内

,借助CXL

,可以将内存放在非常类似于PCIe总

线的东西上(CXL使用PCIe

PHY和电气元件)

。这让系统能够使用带有标准CXL接口的卡来支持更多的内存模块

,而无需额外DDR通道。.下图举例说明了如何大幅增加SoC可访问的内存:从内存量(GB)和内存类型(RAM或持久内存)两方面

来说明。通过使用这种方法,

内存开始变得类似于资源池

,可由多个主机通过切换功能进行访问;切换功

能在CXL2.0中首次引入

,并在CXL3.0中得到显著扩展。CXL通过单一接口实现介质独立,例如DDR3/4/5、

LPDDR3/4/5、优化内存/存储

CXL通过单一接口实现介质独立,例如DDR3/4/5,优化内存/存储资料来源:新思官网,方正证券研究所整理

22另一个优点:SoC的CXL引脚不必专用于内存的,而是可用于连接任何具有CXL接口的设备,

包括额外的CXL交换机、GFAM

设备或芯片间互连。.从上图(CXL通过单一接口实现介质独立,例如

DDR3/4/5、LPDDR

3/4/5、优化内存/存储)可以看出,CXL可以解决阻碍多系统访问可扩展内存池开发的问题——

它取消了专有互连,

因此任何需要的CPU、GPU或张量处理单元(TPU)可以访问基于标准的CXL接口设计的额外内存。.CXL最终将允许连接到大量的内存模块

,包括SSD、

DDR

DRAM和新兴的持久内存。CXL具有低延迟、一

致性、

内存池和共享等功能

,这使其成为一种可行的技术

,让系统架构师可以创建大型的易失性和持久内存池

,这些内存将会扩展到多个基础架构池,成为真正的共享资源。CXL优势1【内存分解】

:能够将内存扩展到各种设备,同时仍允许多个服务器

进行共享和保持一致性,

使得内存不再聚合并专用于单个设备或服务器。CXL优势2【可组合性】

:能够根据需要将分解后的内存分配给特定CPU或TPU,结果是可

大幅提高内存利用率。.2022年闪存峰会传达的一个明确信号是,

CXL是用于汇集和共享联网内存设备的新兴领先架构

,主要用于DRAM和NAND闪存设备

CXL现已收购了Z世

代和

OpenCAPI

,进一步扩大和增加了CXL可以处理的应用的范围和类型。资料来源:新思官网,方正证券研究所整理

23

CXL兼具内存分解与可组合性优势CXL可在多个主机之间实现精细的内存分配(汇集)和共享Gen1.0DDR5PCIe

5.0CXL内存DDR5SPD/TS//CXL

2.0扩展控制器RCD/DBPMICRetimer芯片互连类芯片Gen1.0DDR5

MCRDB/RCDGen2.0/3.0

DDR5

RCDPCIe

6.0RetimerGen1.0DDR5时钟驱动器两

线内存接口

芯片内存模组

配套芯片PCIeRetimerMXC芯片CKD

芯片已量产最高技术产品在研/试产产品津逮服务器平台混合安全内存模组津逮CPUHSDIMM-Lite全新第一代津逮CPUHSDIMM全新第二代津逮CPU全新第四代津逮CPU全新第三代津逮CPU资料来源:

澜起科技官网,方正证券研究所整理

澜起科技

·业务版图24寄存缓冲器RCD数据缓冲器DBMCRRCD/DB芯片(研发阶段)串行检测集线器

SPD温度传感器

TS电源管理芯片PMIC互连类芯片适用于DDR5RDIMM、

LRDIMM、UDIMM、SODIMM等内存模组应用于各种缓冲式内存模组,包括RDIMM及LRDIMM等,满足高性能服务器对高速、大容量的内存系统的需求为服务器、存储设备及硬件加速器等应用场景提供可扩展的高性能PCIe互连解决方案为CPU及基于CXL协议的设备提供高带宽、低延迟的高速互连解决方案,实现CPU与CXL设备

之间的内存共享用于新一代台式

机和笔记本电脑

内存,满足高速

时钟信号的完整

性和可靠性要求DDR5第一子代

时钟驱动器已推出工程样片计划2023年底

完成量产版本研

发并实现出货CXL

内存扩展控制器芯片2022年5月公司全球首发CKD芯片MXC芯片PCIeRetimer芯片

澜起科技互联类芯片产品布局PCIe4.0

RetimerPCIe

5.0

Retimer内存模组配套芯片内存接口芯片资料来源:方正证券研究所整理25.以每台计算机搭载1-2条内存,每台服务器搭载10-12条内存计算,

2021年计算机和服务器领域对DDR内存的需求量超过4.84亿条,下游DDR内存模组行业增规模的提升将带动应用于DDR内存模组的内存接口芯片及配套芯片产品需求量持续加。.目前DDR5内存接口芯片的竞争格局与DDR4世代类似,

全球只有三家供应商可提供DDR5第一子代的量产产品,分别是澜起科技、瑞萨电子和Rambus

,澜起科技在内存接口芯片的市场份额保持稳定。在配套芯片上,SPD和TS目前主要的两家供应商是澜起科技和瑞萨电子,澜起科技是目前全球可以提供DDR5内

存接口及模组配套芯片全套解决方案的两家供应商之一。DDR5LRDIMM

内存接口

及模组配

套芯片解

决方案示

意图.内存接口芯片:澜起科技发明的DDR4全缓冲“1+9”架构被JEDEC国际标准采纳,该架构在DDR5世代

演化为“1+10”框架,继续作为LRDIMM的国际标准。

DDR5LRDIMM“1+10”基础架构包括一颗RCD芯片和十颗DB芯片

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论