大语言模型通识微课课件:分布式训练策略_第1页
大语言模型通识微课课件:分布式训练策略_第2页
大语言模型通识微课课件:分布式训练策略_第3页
大语言模型通识微课课件:分布式训练策略_第4页
大语言模型通识微课课件:分布式训练策略_第5页
已阅读5页,还剩5页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

大语言模型通识微课

分布式训练策略分布式训练是指将机器学习或深度学习模型训练任务分解成多个子任务,并在多个计算设备上并行地进行训练。图7-5给出单个计算设备和多个计算设备的示例,这里的计算设备可以是中央处理器(CPU)、图形处理器(GPU)、张量处理器(TPU),也可以是神经网络处理器(NPU)。

图7-5单个计算设备和多个计算设备的示例微课7.2分布式训练策略一个模型训练任务往往会有大量的训练样本作为输入,可以利用一个计算设备完成,也可以将训练任务拆分成多个子任务,分发给不同的计算设备,实现并行计算。此后,还需要对每个计算设备的输出进行合并,最终得到与单个计算设备等价的计算结果,最终实现对整个计算过程的加速。机器学习模型快速发展,模型参数规模迅速增大的同时,对训练数据量的要求也呈指数级增长,加剧了对算力的需求,只有通过分布式训练系统才可以匹配模型不断增长的算力需求,满足机器学习模型的发展需要。分布式训练的总体目标就是提升总的训练速度,减少模型训练的总体时间。微课7.2分布式训练策略分布式训练系统需要克服计算墙、显存墙、通信墙等挑战,以确保集群内的所有资源得到充分利用,从而加速训练过程并缩短训练周期。·计算墙:单个计算设备所能提供的计算能力与大模型所需的总计算量之间存在巨大差异。·显存墙:单个计算设备无法完整存储一个大模型的参数。·通信墙:分布式训练系统中各计算设备之间需要频繁地进行参数传输和同步。由于通信的延迟和带宽限制,这可能成为训练过程的瓶颈。微课7.2分布式训练策略数据并行性关注的问题是在大批量下,如何降低显存的开销。模型中间计算过程都会有中间状态,通常占用的空间和批量大小成正比。在数据并行系统中,每个计算设备都有整个神经网络模型的模型副本,进行迭代时,每个计算设备只分配一个批次数据样本的子集,并根据该批次样本子集的数据进行网络模型的前向计算。7.2.1数据并行性数据并行训练系统可以通过增加计算设备,有效提升整体训练吞吐量,即每秒全局批次数,它需要在所有计算设备中进行同步,以保证每个计算设备上最终得到的是所有进程上梯度的平均值。常见的神经网络框架中都有数据并行方式的具体实现。由于基于Transformer结构的大模型中每个算子都依赖单个数据而非批次数据,因此数据并行并不会影响其计算逻辑。一般情况下,各训练设备中前向计算是独立的,不涉及同步问题。数据并行训练加速比最高,但要求每个设备上都备份一份模型,显存占用比较高。7.2.1数据并行性解决模型并行单节点内存不足的问题,可以用以下两种形式进行切分。(1)按模型的层切分到不同设备,即层间(算子间)并行或流水线并行。(2)将计算图层内的参数切分到不同设备,即层内并行或张量并行。模型并行性的基本含义是把模型本身进行切分,使得每个GPU卡只需要存模型的一部分。多个GPU配合起来完成一个完整的小批量。7.2.2模型并行性流水线并行性使用了经典的管道思想。在模型计算流水线上,每个GPU只负责模型的一个分片,计算完就交给下一个GPU完成下一个模型分片的计算。当下个GPU在计算时,上一个GPU开始算下一个小批量属于它的模型分片。这里需要注意到不同模型分片使用的参数分片是否同步的问题,防止流水线更新参数的问题。图7-9流水线并行7.2.3流水线并行性混合并行是将多种并行策略如数据并行、流水线并行和张量并行等混合使用。通

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论