版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
第八章多处理机第八章并行计算机在未来将会发挥更大的作用?1.
获得超过单处理器的性能,最直接的方法就是把多个处理器连在一起;2.
自1985年以来,体系结构的改进使性能迅速提高,这种改进的速度能否持续下去还不清楚,但通过复杂度和硅技术的提高而得到的性能的提高正在减小;3.
并行计算机应用软件已有缓慢但稳定的发展。8.1引言并行计算机在未来将会发挥更大的作用?8.1引言2本章重点:中小规模的机器(处理器的个数<128)(多处理机设计的主流)8.1.1并行计算机体系结构的分类按照Flynn分类法,可把计算机分成单指令流单数据流(SISD)单指令流多数据流(SIMD)多指令流单数据流(MISD)多指令流多数据流(MIMD)8.1引言本章重点:8.1引言32.MIMD已成为通用多处理机体系结构的选择,原因:(1)
MIMD具有灵活性
高性能单用户机多道程序机器
(2)
MIMD可以充分利用商品化微处理器在性能价格比方面的优势。8.1引言2.MIMD已成为通用多处理机体系结构的选择,原因:8.143.按存储器的结构和互连策略,可把现有的MIMD机器分为两类(与多处理机系统中处理器个数的多少有关)
(1)
集中式共享存储器结构
这类机器有时被称为
SMP机器(Symmetricshared-memoryMultiProcessor)UMA机器(UniformMemoryAccess)8.1引言3.按存储器的结构和互连策略,可把现有的MIMD机器分为两5适用于处理机数目不大情况。8.1引言适用于处理机数目不大情况。8.1引言6(2)分布式存储器结构
每个结点包含:
处理器存储器I/O◆
在许多情况下,分布式存储器结构优于采用集中式共享存储器结构。
◆
分布式存储器结构需要高带宽的互连。8.1引言(2)分布式存储器结构8.1引言7适用于处理机数目较大情况。8.1引言适用于处理机数目较大情况。8.1引言8◆分布式存储器结构的优点
(1)
如果大多数的访问是针对本结点的局部存储器,则可降低对存储器和互连网络的带宽要求;(2)
对局部存储器的访问延迟低。◆主要缺点
处理器之间的通信较为复杂,且各处理器之间访问延迟较大(显式通信);
需要高带宽的互连。◆簇:超结点----每个结点有多个处理器(2~8)8.1引言◆分布式存储器结构的优点8.1引言98.1.2通信模型和存储器的结构模型1.两种地址空间的组织方案(1)
物理上分离的多个存储器可作为一个逻辑上共享的存储空间进行编址。
这类机器的结构被称为分布式共享存储器结构
(DSM:DistributedShared-Memory)可缩放共享存储器结构(SSM:ScalableShared-Memory)NUMA机器
(NUMA:Non-UniformMemoryAccess)8.1引言8.1.2通信模型和存储器的结构模型8.1引言10(2)
整个地址空间由多个独立的地址空间构成,它们在逻辑上也是独立的,远程的处理器不能对其直接寻址。8.1引言每一个处理器-存储器模块实际上是一个单独的计算机,这种机器也称为多计算机。(2)整个地址空间由多个独立的地址空间构成,它8.11
2.两种通信模型
共享地址空间的机器
利用Load和Store指令中的地址隐含地进行数据通讯。
多个地址空间的机器
通过处理器间显式地传递消息完成。8.1引言这种机器常称为消息传递机器。2.两种通信模型共享地址空间的机器8.1引12
消息传递计算机通过传递消息来请求某些
服务或传输数据,从而完成通信。
例:一个处理器要对远程存储器上的数据进行
访问或操作
(1)发送消息,请求传递数据或对数据进行操作;
远程进程调用(RPC,remoteprocesscall)(2)目的处理器接收到消息以后,执行相应的操作或代替远程处理器进行访问,并发送一个应答消息将结果返回。8.1引言消息传递计算机通过传递消息来请求某些
服务13◆同步消息传递
请求处理器发送一个请求后一直要等到应答结果才继续运行。◆异步消息传递
发送方不先经请求就直接把数据送往数据接受方。3.通信机制的三个关键的性能指标:1.通信带宽
理想状态下的通信带宽受限于处理器、存储器和互连网络的带宽。8.1引言◆同步消息传递8.1引言142.通信延迟通信延迟=发送开销+跨越时间+传输延迟+接收开销理想状态下通信延迟应尽可能地小。3.通讯延迟的隐藏程度
◆如何才能较好地将通信和计算或多次通信之间重叠起来,以实现通讯延迟的隐藏。
◆通常的原则是:只要可能就隐藏延迟。
◆通信延迟隐藏是一种提高性能的有效途径,但它对操作系统和编程者来讲增加了额外的负担。8.1引言2.通信延迟8.1引言154.不同通信机制的优点
1.共享存储器通信的主要优点(1)
与常用的集中式共享存储器结构使用的通信机制兼容。(2)
当处理器通信活动方式复杂或动态变化时易于编程,同时在简化编译器设计方面也占有优势。(3)
当通信数据较小时,通信开销较低,带宽利用较好.(4)
通过硬件控制的Cache减少了远程通信的频度,减少了通信延迟以及对共享数据的访问冲突。8.1引言4.不同通信机制的优点8.1引言162.消息传递通信机制的主要优点(1)
硬件较简单。(2)通信是显式的,从而引起编程者和编译程序的注意,着重处理开销大的通信。
另外
◆在共享存储器上支持消息传递相对简单:
将消息传递实现时转换成远端内存访问。
◆在消息传递的硬件上支持共享存储器就非常困难:
所有对共享存储器的访问均要求操作系统提供地址转换和存储保护功能,将存储器访问转换为消
息的发送和接收。8.1引言2.消息传递通信机制的主要优点8.1引言178.1.3并行处理面临的挑战
并行处理面临着两个重要的挑战:程序中有限的并行性相对较高的通信开销8.1引言1.有限的并行性使机器要达到好的加速比十分困难8.1.3并行处理面临的挑战程序中有限的并行性8.1引18例如果想用100个处理器达到80的加速比,
求原计算程序中串行部分所占比例。解
Amdahl定律为加速比=得出:并行比例=0.9975
可以看出要用100个处理器达到80的加速比,串行计算的部分只能占0.25%。1可加速部分比例理论加速比+(1-可加速部分比例)80=1并行比例100+(1-并行比例)8.1引言例如果想用100个处理器达到80的加速比,
求原计19面临的第二个挑战主要是指多处理机中远程访问的较大延迟。
在现有的机器中,处理器之间的数据通信大约需要100~1000个时钟周期。8.1引言面临的第二个挑战主要是指多处理机中远程访8.1引言20远程访问一个字的延迟时间
计算机类型通信机制互连网络处理机最大数量典型远程存储器访问时间(ns)SunStarfireserversSMP多总线64500SGIOrigin3000NUMA胖超立方体512500CrayT3ENUMA3维环网2048300HPVseriesSMP8×8交叉开关321000HPAlphaServerGSSMP开关总线32400远程访问一个字的延迟时间计算机类型通信机制互连网络处218.1引言例8.2假设有一台32个处理器的多处理机,对远程存储器访问时间为400ns。除了通信以外,假设所有其他访问均命中局部存储器。当发出一个远程请求时,本处理器挂起。处理器的时钟频率为1GHz,如果指令基本的IPC为2(设所有访存均命中Cache),求在没有远程访问的情况下和有0.2%的指令需要远程访问的情况下,前者比后者快多少?8.1引言例8.2假设有一台32个228.1引言解没有远程访问时,机器的CPI为1/基本IPC=1/2=0.5有0.2%远程访问的机器的实际CPI为
CPI=基本CPI+远程访问率×远程访问开销=0.5+0.2%×远程访问开销远程访问开销为
远程访问时间/时钟周期时间=400ns/1ns=400个时钟周期
∴CPI=0.5+0.2%×400=1.3因此在没有远程访问的情况下的计算机速度是有0.2%远程访问的计算机速度的1.3/0.5=2.6倍。8.1引言解没有远程访问时,机器的CPI为1/23问题的解决并行性不足:
通过采用并行性更好的算法来解决
远程访问延迟的降低:
靠体系结构支持和编程技术8.1引言问题的解决8.1引言248.1引言3.在并行处理中,影响性能(负载平衡、同步和存储器访问延迟等)的关键因素常依赖于:应用程序的高层特性如数据的分配,并行算法的结构以及在空间和时间上对数据的访问模式等。依据应用特点可把多机工作负载大致分成两类:单个程序在多处理机上的并行工作负载多个程序在多处理机上的并行工作负载8.1引言253.并行程序的计算/通信比率◆
反映并行程序性能的一个重要的度量
◆计算/通信比率
随着处理数据规模的增大而增加,随着处理器数目的增加而降低。8.1引言3.并行程序的计算/通信比率8.1引言26◆多个处理器共享一个存储器。◆当处理器规模较小时,这种机器十分经济。◆支持对共享数据和私有数据的Cache缓存。私有数据供一个单独的处理器使用,而共享数据供多个处理器使用。◆共享数据进入Cache产生了一个新的问题:
Cache的一致性问题8.2对称式共享存储器体系结构◆多个处理器共享一个存储器。8.2对称式共享存储器体系278.2对称式共享存储器体系结构不一致产生的原因(Cache一致性问题)I/O操作Cache中的内容可能与由I/O子系统输入/输出形成的存储器对应部分的内容不同。共享数据不同处理器的Cache都保存有对应存储器单元的内容。8.2.1多处理机Cache一致性8.2对称式共享存储器体系结构不一致产生的原28由两个处理器(A和B)读写引起的Cache一致性问题时间事件CPUACache内容CPUBCache内容X单元存储器内容011CPUA读X112CPUB读X1113CPUA将0存入X010由两个处理器(A和B)读写引起的Cache一致性问题时间29存储器是一致的(非正式地定义)
如果对某个数据项的任何读操作均可得到其最新写入的值,则认为这个存储系统是一致的。满足条件①
处理器P对X进行一次写之后又对X进行读,读和写之间没有其它处理器对X进行写,则读的返回值总
是写进的值。②一个处理器对X进行写之后足够时间,另一处理器对X进行读,读和写之间无其它写,则读X的返回
值应为写进的值。8.2对称式共享存储器体系结构存储器是一致的(非正式地定义)满足条件8.2对称式共享30③对同一单元的写是顺序化的,即任意两个处理器对同一单元的两次写,从所有处理器看来顺序都应是相同的。
足够时间?
简单处理方法:所有的处理器均能看到写的结果
=>直到所有的处理器均看到了写的结果,一次写
操作才算完成;8.2对称式共享存储器体系结构③对同一单元的写是顺序化的,即任意两个处理器对8.2对318.2.2实现一致性的基本方案
在一致的多处理机中,Cache对共享数据提供两种功能:
共享数据的迁移
降低了对远程共享数据的访问延迟。共享数据的复制
不仅降低了访存的延迟,也减少了访问共享数据所产生的冲突。实现Cache一致性的目的:
确保上述两种功能实现过程中不会出现Cache的不一致。8.2对称式共享存储器体系结构8.2.2实现一致性的基本方案共享数据的迁移8.232实现方法:Cache一致性协议实现技术:小规模多处理机不是采用软件而是采用硬件技术实现Cache一致性。8.2对称式共享存储器体系结构实现方法:Cache一致性协议8.2对称式共享存储器体33Cache一致性协议:对多个处理器维护一致性的协议协议实现基础:跟踪共享数据块的状态
两类跟踪共享数据块状态的协议
◆目录
物理存储器中共享数据块的状态及相关信息均被保存在一个称为目录的地方。◆监听
每个Cache除了包含物理存储器中块的数据拷贝之外,也保存着各个块的共享状态信息。Cache通常
连在共享存储器的总线上,各个Cache控制器通过
监听总线来判断它们是否有总线上请求的数据块。8.2对称式共享存储器体系结构Cache一致性协议:对多个处理器维护一致性的343.两种协议(1)写作废协议
在一个处理器写某个数据项之前保证它对该数据项有唯一的访问权,使别的拷贝作废。例
在写回Cache的条件下,监听总线中写作废协议的实现。处理器行为总线行为CPUACache内容CPUBCache内容主存X单元内容
0CPUA读XCache失效0
0CPUB读XCache失效000CPUA将X单元写1作废X单元1
0CPUB读XCache失效1113.两种协议处理器行为总线行为CPUACache内35(2)写更新协议
当一个处理器写某数据项时,通过广播使其它Cache中所有对应的该数据项拷贝进行更新。例
在写回Cache的条件下,监听总线中写更新协议的实现。
处理器行为总线行为CPUACache内容CPUBCache内容主存X单元内容
0CPUA读XCach失效0
0CPUB读XCach失效000CPUA将X单元写1广播写X单元111CPUB读X
111(2)写更新协议处理器行为总线行为CPUACache内容36(3)写更新和写作废协议性能上的差别◆
对同一数据的多个写而中间无读操作的情况,写更新协议需进行多次写广播操作,而在写作废协议下只需一次作废操作。◆对同一块中多个字进行写,写更新协议对每个字的写均要进行一次广播,而在写作废协议下仅在对本块第一次写时进行作废操作。◆从一个处理器写到另一个处理器读之间的延迟通常在写更新模式中较低。而在写作废协议中,需要读一个新的拷贝。
*在基于总线的多处理机中,写作废协议成为绝大多数系统设计的选择。8.2对称式共享存储器体系结构(3)写更新和写作废协议性能上的差别8.2对称式共享存378.2.3监听协议的基本实现过程
小规模多处理机中实现写作废协议为例进行写操作时:
1)获得总线控制权
2)将要作废的数据块地址发在总线上
3)其他处理器一直监听总线,若它们的Cache中含有要作废的块,则作废该块
*获得总线控制权的顺序性保证了写的顺序性(唯一访问权)8.2对称式共享存储器体系结构8.2.3监听协议的基本实现过程8.2对称式共享存储38进行读操作时:如果Cache命中,从Cache中获得数据如果Cache不命中:
(1)
写直达Cache,因为所有写的数据同时被写回主存,则从主存中总可以取到最新的数据值。
(2)
对于写回Cache,得到数据的最新值会困难一些,因为最新值可能在某个Cache中,也可能在主存中----同样需要使用监听机制,如果某个处理器发现它有被读请求的块的被修改拷贝则需提供该块数据,并阻止请求方对内存的访问。8.2对称式共享存储器体系结构进行读操作时:8.2对称式共享存储器体系结构398.2对称式共享存储器体系结构在写回法Cache条件下的实现技术Cache的标识(tag)用于实现监听。作废一个块只需将其有效位(valid)置
为无效。给每个Cache块加一个特殊的状态位。状态:共享(shared)专有(exclusive)clean
dirty
Cache块的拥有者:拥有唯一的Cache块副本的处理器。8.2对称式共享存储器体系结构在写回法Cache条408.2对称式共享存储器体系结构在每个结点内嵌入一个Cache状态控制器。控制器根据来自处理器或总线的请求,改变所选择的数据块的状态。因为每次总线操作均要检查Cache的地址标识,这可能会影响CPU对Cache的访问。可通过下列两种技术之一来减少影响:复制标志位采用多级包容Cache(许多系统采用)8.2对称式共享存储器体系结构在每个结点内嵌入一个Cac41通常结构:存储器分布于各结点中,所有的结点通过网络互连。访问可以是本地的,也可是远程的。一般不支持Cache一致性,规定共享数据不
进入Cache,仅私有数据才能保存在Cache中。
优点:
所需的硬件支持很少
(因为远程访问存取量仅是一个字(或双字)而不是一个Cache块)8.3分布式共享存储器体系结构通常结构:存储器分布于各结点中,所有的结点通过网8.3分布42缺点:
(1)
许多情况下编译器无法确切知道哪些数据当
前共享;(2)
当每次访问要从远程存储器取一个字时,不能有
效利用共享数据的空间局部性;(3)
诸如预取等延迟隐藏技术对于多个字的存取更为有效,比如针对一个Cache块的预取。8.3分布式共享存储器体系结构缺点:8.3分布式共享存储器体系结构438.3分布式共享存储器体系结构解决Cache一致性问题的关键:寻找替代监听协议的一致性协议:目录协议8.3.1基于目录的Cache一致性目录协议目录:一种专用的数据结构,用于记录可以进入Cache的每个数据块的状态、哪些处理器有该块的副本以及是否修改过等信息。分布式目录
如何将支持Cache一致性的共享存储器模式扩展到可扩缩的大规模多处理机系统?8.3分布式共享存储器体系结构解决Cache一致性问题的关448.3分布式共享存储器体系结构目录与存储器一起分布到各结点中,从而对于不同目录内容的访问可以在不同的结点进行。存储块的共享状态信息在唯一的一个固定单元中找到。这使一致性协议避免了广播操作。对每个结点增加目录表后的分布式存储器多处理机的系统结构。8.3分布式共享存储器体系结构目录与存储器一起分布到各结点45分布式存储器结构的优点课件468.3分布式共享存储器体系结构目录协议必须完成两种主要的操作:处理读失效处理对共享、干净(clean)块的写一个共享块的写失效处理可用这两个操作组合而成。存储块的状态有三种:共享
在一个或多个处理器上具有这个块的副本,且存储器中的值是最新的(所有Cache中的副本均相同)。8.3分布式共享存储器体系结构目录协议必须完成两种主要的操478.3分布式共享存储器体系结构未缓冲:所有处理器的Cache都没有该块的副本。专有:仅有一个处理器上有该块的副本,且已对该块进行了写操作,而主存中的副本仍是旧的。这个处理器称为该块的拥有者。由于写作废操作的需要,还必须记录哪些处理器有该块的副本。方法:对每个主存块设置一个位向量当该块被共享时,每个位指出与之对应的处理器是否有该块的副本。当该块为专有时,可根据位向量来寻找其拥有者。8.3分布式共享存储器体系结构未缓冲:所有处理器的Cach488.3分布式共享存储器体系结构一个例子本地结点、宿主结点以及远程结点的关系本地结点:发出访问请求的结点宿主结点:包含所访问的存储单元及其目录项的结点远程结点可以和宿主结点是同一个结点,也可以不是同一个结点。8.3分布式共享存储器体系结构一个例子49CPUCache本地结点APCache远程结点C宿主结点B(Home)副本目录存储器宿主结点:存放有对应地址的存储器块和目录项的结点KCPUCache本地结点APCache远程结点C宿主结点B(508.3分布式共享存储器体系结构总结:目录协议的基本点在每个结点中增加了目录存储器用于存放目录。存储器的每一块在目录中有对应的一项。每一个目录项主要由两个字段构成:状态:描述所对应的存储块的当前状态。位向量:每一位对应于一个处理器,用于指出该处理器的Cache中是否有该存储块的副本。当处理器对某一块进行写操作时,只要根据位向量通知具有相应副本的处理器进行作废操作。位向量中记录的处理器集合称为共享集合。8.3分布式共享存储器体系结构总结:目录协议的基本点518.3分布式共享存储器体系结构在基于目录的协议中,目录承担了一致性协议操作的主要功能。发往一个目录的消息会产生两种不同类型的动作:更新目录状态发送消息以完成所请求的操作目录可能接收三种不同的请求:读失效写失效数据写回8.3.2目录协议及其实现8.3分布式共享存储器体系结构在基于目录的协议中,目录承担528.3分布式共享存储器体系结构当一个块处于未缓冲状态时,对该块发出的请求及目录的处理操作为:读失效将存储器数据送往请求方处理器,且该处理器成为该块的唯一共享结点,本块的状态变成共享。写失效将存储器数据送往请求方处理器,该块的状态变成专有,表示该块仅存在唯一的有效副本。其共享集合仅包含该处理器,指出该处理器是其拥有者。8.3分布式共享存储器体系结构当一个块处于未缓冲状态时,对538.3分布式共享存储器体系结构当一个块处于共享状态时,其在存储器中的数据是当前最新的,对该块发出的请求及其处理操作为:读失效将存储器数据送往请求方处理器,并将其加入共享集合。写失效将数据送往请求方处理器,对共享集合中所有的处理器发送写作废消息。将共享集合改为仅含有该处理器,该块的状态变为专有。8.3分布式共享存储器体系结构当一个块处于共享状态时,其在548.3分布式共享存储器体系结构当某块处于专有状态时,该块的最新值保存在共享集合所指出的唯一处理器(拥有者)中。有三种可能的目录请求:读失效将“取数据”的消息发往拥有者处理器,使该块的状态转变为共享。将数据送回宿主结点写入存储器,进而把该数据送回请求方处理器,将请求方处理器加入共享集合。此时共享集合中仍保留原拥有者处理器(因为它仍有一个可读的副本)。8.3分布式共享存储器体系结构当某块处于专有状态时,该块的558.3分布式共享存储器体系结构写失效该块将有一个新的拥有者。给旧的拥有者处理器发送消息,要求它将数据块送回宿主结点写入存储器,然后再从该结点送给请求方处理器。把请求处理器加入共享者集合,使之成为新的拥有者。该块的状态仍旧是专有。8.3分布式共享存储器体系结构写失效568.3分布式共享存储器体系结构数据写回当一个块的拥有者处理器要从其Cache中把该块替换出去时,必须将该块写回其宿主结点的存储器中,从而使存储器中相应的块中存放的数据是最新的(宿主结点实际上成为拥有者),该块的状态变成非共享,其共享集合为空。8.3分布式共享存储器体系结构数据写回578.3分布式共享存储器体系结构对基于目录的Cache一致性的多种改进有限映射目录链式结构目录基于目录的Cache一致性协议是完全由硬件实现的。此外,还可以用软硬结合的办法实现。8.3分布式共享存储器体系结构对基于目录的Cache一致性588.4同步同步机制通常是在硬件提供的同步指令的基础上,通过用户级软件例程来建立的。8.4.1基本硬件原语在多处理机中实现同步,所需的主要功能是:一组能以原子操作的方式读出并修改存储单元的硬件原语。它们能够自动读/修改单元。通常情况下,用户不直接使用基本的硬件原语,原语主要供系统程序员用来编制同步库函数。8.4同步同步机制通常是在硬件提供598.4同步1)典型操作:原子交换(atomicexchange)功能:将一个存储单元的值和一个寄存器的值进行交换。建立一个锁,锁值:0:表示开(可用)1:表示已上锁(不可用)处理器上锁时,将对应于该锁的存储单元的值与存放在某个寄存器中的1进行交换。如果返回值为0,存储单元的值此时已置换为1,防止了其他进程竞争该锁。8.4同步1)典型操作:原子交换(atomicex608.4同步2)测试并置定(test_and_set)先测试一个存储单元的值,如果符合条件则修改其值。3)读取并加1(fetch_and_increment)它返回存储单元的值并自动增加该值。4)使用指令对LL(loadlinked或loadlocked)的取指令SC(storeconditional)的特殊存指令8.4同步2)测试并置定(test_and_set)618.4同步如果由LL指明的存储单元的内容在SC对其进行写之前已被其他指令改写过,则第二条指令SC执行失败。如果在两条指令间进行进程切换也会导致SC执行失败。SC将返回一个值来指出该指令操作是否成功:“1”:成功“0”:不成功LL则返回该存储单元初始值。8.4同步如果由LL指明的存储单元的内容在SC对其进行写628.4同步例:实现对由R1指出的存储单元进行原子交换操作。
try:OR R3,R4,R0//R4中为交换值。把该值送入R3
//MOVR2,#1 LL R2,0(R1)//把单元0(R1)中的值取到R2 SC R3,0(R1)//若0(R1)中的值与R3中的值相//同,则置R3的值为1,否则置为0 BEQZ R3,try //存失败(R3的值为0)则转移 MOV R4,R2 //将取的值送往R4
最终R4和由R1指向的单元值进行原子交换,在LL和SC之间如有别的处理器插入并修改了存储单元的值,SC将返回0并存入R3中,从而使这段程序再次执行。8.4同步例:实现对由R1指出的存储单元进行原子交换操作638.4同步
LL/SC机制的一个优点:用来构造别的同步原语例如:构造原子操作fetch_and_increment:
try:
LL R2,0(R1)
DADDIU R2,R2,#1
SC R2,0(R1)
BEQZ R2,try ---------------------------------------------------------------------------------------?
DADDIU R3,R2,#1 SC R3,0(R1) 8.4同步LL/SC机制的一个优点:用来构造别的同步648.4同步采用多处理机的一致性机制来实现旋转锁旋转锁(SPINLOCK)某一个时刻只有一个处理机可获得锁,请求锁的处理机不停请求直到获得锁;
实现方法
在存储器中保存锁变量,处理器可以不断地通过一个原子操作请求加锁,比如先交换,再测试返回值从而知道锁的状况。释放锁的时候,处理器可简单地将锁置为“0”。适合于这样的场合:锁被占用的时间很少,8.4.2用一致性实现锁8.4同步采用多处理机的一致性机制来实现旋转锁8.4.2658.4同步
无Cache一致性机制在存储器中保存锁变量,处理器可以不断地通过一个原子操作请求使用权。比如:利用原子交换操作,并通过测试返回值而知道锁的使用情况。释放锁的时候,处理器只需简单地将锁置为0。
例如,用原子交换操作对旋转锁进行加锁,
R1中存放的是该旋转锁的地址。
DADDIU R2,R0,#1//MOVR2,#1lockit:EXCH R2,0(R1) BNEZ R2,lockit
8.4同步无Cache一致性机制668.4同步
支持Cache一致性
将锁调入Cache,并通过一致性机制使锁值保持一致。优点:可使“环绕”的进程只对本地Cache中的锁(副本)进行操作,而不用在每次请求占用锁时都进行一次全局的存储器访问;可利用访问锁时所具有的局部性,即处理器最近使用过的锁不久又会使用。
(减少为获得锁而花费的时间)8.4同步支持Cache一致性678.4同步改进旋转锁(获得第一条好处)只对本地Cache中锁的副本进行读取和检测,直到发现该锁已经被释放。然后,该程序立即进行交换操作,去跟在其他处理器上的进程争用该锁变量。修改后的旋转锁程序:
lockit:LD R2,0(R1) BNEZ R2,lockit DADDIU R2,R0,#1 //MOVR2,#1
EXCH R2,0(R1) BNEZ R2,lockit
8.4同步改进旋转锁(获得第一条好处)修改后的旋转锁68步骤处理器P0处理器P1处理器P2锁的状态总线/目录操作1占有锁环绕测试是否lock=0环绕测试是否lock=0共享无2将锁置为0(收到作废命令)(收到作废命令)专有(P0)P0发出对锁变量的作废消息3Cache失效Cache失效共享总线/目录收到P2Cache失效;锁从P0写回4(因总线/目录忙而等待)lock=0共享P2Cache失效被处理5Lock=0执行交换,导致Cache失效共享P1Cache失效被处理6执行交换,导致Cache失效交换完毕:返回0并置lock=1专有(P2)总线/目录收到P2Cache失效;发作废消息7交换完毕:返回1进入关键程序段专有(P1)总线/目录处理P1Cache失效;写回8环绕测试是否lock=0无3个处理器利用原子交换争用旋转锁所进行的操作步骤处理器P0处理器P1处理器P2锁的状态总线/目698.4同步LL/SC原语的另一个优点:
读写操作明显分开
LL不产生总线数据传送,这使下面代码与使用经过优化交换的代码具有相同的特点:
lockit:LL R2,0(R1) BNEZR2,lockit DADDIUR2,R0,#1 //MOVR2,#1
SC R2,0(R1) BEQZR2,lockit 8.4同步LL/SC原语的另一个优点:708.4同步简单旋转锁不能很好地适应可扩缩性。大规模多处理机中,若所有的处理器都同时争用同一个锁,则会导致大量的争用和通信开销。8.4.3同步性能问题8.4同步简单旋转锁不能很好718.4同步例8.3假设某条总线上有10个处理器同时准备对同一变量加锁。如果每个总线事务处理(读失效或写失效)的时间是100个时钟周期,而且忽略对已调入Cache中的锁进行读写的时间以及占用该锁的时间。(1)假设该锁在时间为0时被释放,并且所有处理器都在旋转等待该锁。问:所有10个处理器都获得该锁所需的总线事务数目是多少?(2)假设总线是非常公平的,在处理新请求之前,要先全部处理好已有的请求。并且各处理器的速度相同。问:处理10个请求大概需要多少时间?8.4同步例8.3假设某条总线上有1072因此对于i个处理器来说,一个处理器获得该锁所要进行的总线事务的个数为2i+1由此可知,对n个处理器,总的总线事务个数为:解:当i个处理器争用锁的时候,它们都各自完成以下操作序列,每一个操作产生一个总线事务:访问该锁的i个LL指令操作试图占用该锁(并上锁)的i个SC指令操作1个释放锁的存操作指令对于10个处理器来说,其总线事务数为120个,需要12000个时钟周期。8.4同步因此对于i个处理器来说,一个处理器获得该锁所要进738.4同步本例中问题的根源:锁的争用、对锁进行访问的串行性以及总线访问的延迟。旋转锁的主要优点:总线开销或网络开销比较低,而且当一个锁被同一个处理器重用时具有很好的性能。8.4同步本例中问题的根源:锁的争用、对锁进行访问的串行748.4同步如何用旋转锁来实现一个常用的高级同步原语:
栅栏同步
栅栏强制所有到达该栅栏的进程进行等待,直到全部的进程到达栅栏,然后释放全部的进程,从而形成同步。
8.4同步如何用旋转锁来实现一个常用的高级同步758.4同步
栅栏的典型实现
用两个旋转锁:用来保护一个计数器,它记录已到达该栅栏的进程数;用来封锁进程直至最后一个进程到达该栅栏。
一种典型的实现其中:lock和unlock提供基本的旋转锁变量count记录已到达栅栏的进程数total规定了要到达栅栏的进程总数8.4同步栅栏的典型实现768.4同步lock(counterlock); //确保更新的原子性 if(count==0)release=0;//第一个进程则重置release count=count+1; //到达进程数加1 unlock(counterlock);//释放锁 if(count==total){ //进程全部到达 count=0; //重置计数器 release=1; //释放进程 } else{ //还有进程未到达 spin(release=1); //等待别的进程到达 }8.4同步lock(counterlock778.4同步实际情况中会出现的问题
可能反复使用一个栅栏,栅栏释放的进程运行一段后又会再次返回栅栏,这样有可能出现某个进程永远离不开栅栏的状况(它停在旋转操作上)。8.4同步实际情况中会出现的问题788.4同步解决方法(1)当进程离开栅栏时进行计数(和入口一样),在上次栅栏使用中的所有进程离开之前不允许任何进程重用并初始化本栅栏。(2)sense_reversing栅栏,每个进程均使用一个私有变量local_sense,该变量初始化为1。而公用变量(全局变量)release的初值与它们相同(也为1)。8.4同步解决方法798.4同步local_sense=!local_sense; //local-sense取反 lock(counterlock); //确保更新的原子性 count++; //到达进程数加1 unlock(counterlock); //释放锁 if(count==total){ //进程全部到达 count=0; //重置计数器 release=local_sense; //释放进程 } else{ //还有进程未到达 spin(release==local_sense);//等待信号 }8.4同步local_sense=!lo808.4同步当竞争不激烈且同步操作较少时,我们主要关心的是一个同步原语操作的延迟。即单个进程要花多长时间才完成一个同步操作。基本的旋转锁操作可在两个总线周期内完成:一个读锁一个写锁
我们可用多种方法改进,使它在单个周期内完成操作。同步操作最严重的问题:进程进行同步操作的顺序化。它极大地增加了同步操作的时间。8.4同步当竞争不激烈且同步操作较少时,我们主要关心的是818.5同时多线程线程级并行性(ThreadLevelParallelism,TLP)
线程是指具有自己的程序和数据的进程。它可以是一个并行执行程序的一部分,也可以是一个独立的程序。每个线程包含自己执行所需要的状态,包括指令、数据、程序计数器、寄存器状态等,但不具有单独的虚存空间。多线程使多个线程以重叠的方式共享单个处理器的功能单元。硬件必须对较快地完成线程间的切换提供支持。
线程的切换应该比进程的切换高效得多。进程的切换一般需要成百上千个处理器时钟周期。
8.5同时多线程线程级并行性(ThreadLevelP828.5同时多线程实现多线程有两种主要的方法:细粒度(fine-grained)多线程技术在每条指令之间都能进行线程的切换,从而导致多个线程的交替执行。通常以时间片轮转的方法实现这样的交替执行,在轮转的过程中跳过当时处于停顿的线程。CPU能在每个时钟周期进行线程的切换主要优点:既能够隐藏由长、短时间停顿引起的吞吐率的损失;主要缺点:减慢了每个独立线程的执行8.5同时多线程实现多线程有两种主要的方法:细粒度(fin838.5同时多线程粗粒度(coarse-grained)多线程技术
线程之间的切换只发生在时间较长的停顿出现时。例如:第二级Cache失效。减少了切换次数,也不太会降低单个线程的执行速度。缺点:减少吞吐率损失的能力有限,特别是对于较短的停顿来说更是如此。原因:由粗粒度多线程的流水线建立时间的开销造成的。由于实现粗粒度多线程的CPU只执行单个线程的指令,因此当发生停顿时,流水线必须排空或暂停。停顿后切换的新的线程在第一条指令执行完之前必须先填满整个流水线。8.5同时多线程粗粒度(coarse-grained)848.5同时多线程同时多线程技术SimultaneousMultiThreading,SMT一种在多流出、动态调度的处理器上同时开发线程级并行和指令级并行的技术。提出SMT的主要原因现代多流出处理器通常含有多个并行的功能单元,而单个线程不能有效地利用这些功能单元。通过寄存器重命名和动态调度机制,来自各个独立线程的多条指令可以同时流出,而不用考虑它们之间的相互依赖关系,其相互依赖关系将通过动态调度机制得以解决。8.5.1将线程级并行转换为指令级并行8.5同时多线程同时多线程技术8.5.1将线程级并行转换85
超标量处理器中的4种不同的流出槽使用方法超标量处理器中的4种不同的流出槽使用方法867.6同时多线程
一个超标量处理器在4种情况下的资源使用情况:不支持多线程技术的超标量处理器由于缺乏足够的指令级并行而限制了流出槽的利用率。支持粗粒度多线程的超标量处理器通过线程的切换部分隐藏了长时间停顿带来的开销,提高了硬件资源的利用率。只有发生停顿时才进行线程切换,而且新线程还有个启动期,所以仍然可能有一些完全空闲的时钟周期。7.6同时多线程一个超标量处理器在4种情况下的877.6同时多线程支持细粒度多线程的超标量处理器线程的交替执行消除了完全空闲的时钟周期。由于在每个时钟周期内只能流出一个线程的指令,ILP的限制导致了一些时钟周期中依然存在不少空闲流出槽。支持同时多线程的超标量处理器在同一个时钟周期中可以让多个线程使用流出槽。理想情况下,流出槽的利用率只受限于多个线程对资源的需求和可用资源间的不平衡。7.6同时多线程支持细粒度多线程的超标量处理器887.6同时多线程开发的基础:使用动态调度技术的处理器已经具有了开发线程级并行所需的硬件设置。
动态调度超标量处理器有大量的虚拟寄存器组,可以用来保存每个独立线程的寄存器状态。由于寄存器重命名机制提供了唯一的寄存器标识符,多个线程的指令可以在数据路径上混合执行,而不会导致各线程间源操作数和目的操作数的混乱。多线程技术可以通过在一个乱序执行的处理器上为每个线程设置重命名表、保留各自的PC值、提供多个线程的指令结果提交的能力来实现。7.6同时多线程开发的基础:使用动态调度技术的处理器898.5同时多线程8.5.2同时多线程处理器的设计同时多线程只有在细粒度的实现方式下才有意义细粒度调度方式会对单个线程的性能产生不利的影响
可以通过指定优先线程来减小这种影响,既能保持多线程在性能上的优势,又对单个线程的性能影响比较少。多个线程的混合执行不可避免地会影响单个线程的执行速度8.5同时多线程8.5.2同时多线程处理器的设计同时多线908.5同时多线程为提高单个线程的性能,应该为指定的优先线程尽可能多地向前取指(或许在分支指令的两条路径上都要向前取指)。但在分支预测失效和预取缓冲失效的情况下需要清空取指单元。但是这样限制了其他线程可用来调度的指令条数,从而减少了吞吐率。
所有的多线程处理器都必须在这里寻求一种折中方案。8.5同时多线程为提高单个线程的性能,应该为指定918.5同时多线程只要一有可能,处理器就运行指定的优先线程。从取指阶段开始就优先处理优先线程:只要优先线程的指令预取缓冲区未满,就为它们优先取指。只有当优先线程的缓冲区填满以后才为其他线程预取指令。当有两个优先线程时,意味着需要并发预取两条指令流,这给取指部件和指令Cache都增添了复杂度。指令流出单元也要优先考虑指定的优先线程,只有当优先线程停顿不能流出的时候才考虑其他线程。8.5同时多线程只要一有可能,处理器就运行指定的优先线程。928.5同时多线程设计同时多线程处理器时面临的其他主要问题:
需要设置更大的寄存器组,用来保存多个线程的现场。不能影响时钟周期,特别是在关键路径上。如指令流出和指令完成:指令流出时,有更多的候选指令需要考虑。指令完成时,选择提交哪些指令可能会比较困难。需要保证由于并发执行多个线程带来的Cache冲突和TLB冲突不会导致明显的性能下降。8.5同时多线程设计同时多线程处理器时面临的其他主要问题:938.5同时多线程8.5.3同时多线程的性能图8.6表示在超标量处理器上增添8个线程的同 时多线程能力时获得的性能提高图8.7表示SMT与基本的超标量处理器在主要内 部指标利用率和命中率上的对比
8.5同时多线程8.5.3同时多线程的性能94分布式存储器结构的优点课件95分布式存储器结构的优点课件968.5同时多线程关键原因超标量处理器本身功能十分强大,它具有很大的一级cache、二级cache以及大量的功能单元。仅仅采用指令级并行,不可能利用全部的硬件性能。8.5同时多线程关键原因超标量处理器本身功能十分强大97第八章多处理机第八章并行计算机在未来将会发挥更大的作用?1.
获得超过单处理器的性能,最直接的方法就是把多个处理器连在一起;2.
自1985年以来,体系结构的改进使性能迅速提高,这种改进的速度能否持续下去还不清楚,但通过复杂度和硅技术的提高而得到的性能的提高正在减小;3.
并行计算机应用软件已有缓慢但稳定的发展。8.1引言并行计算机在未来将会发挥更大的作用?8.1引言99本章重点:中小规模的机器(处理器的个数<128)(多处理机设计的主流)8.1.1并行计算机体系结构的分类按照Flynn分类法,可把计算机分成单指令流单数据流(SISD)单指令流多数据流(SIMD)多指令流单数据流(MISD)多指令流多数据流(MIMD)8.1引言本章重点:8.1引言1002.MIMD已成为通用多处理机体系结构的选择,原因:(1)
MIMD具有灵活性
高性能单用户机多道程序机器
(2)
MIMD可以充分利用商品化微处理器在性能价格比方面的优势。8.1引言2.MIMD已成为通用多处理机体系结构的选择,原因:8.11013.按存储器的结构和互连策略,可把现有的MIMD机器分为两类(与多处理机系统中处理器个数的多少有关)
(1)
集中式共享存储器结构
这类机器有时被称为
SMP机器(Symmetricshared-memoryMultiProcessor)UMA机器(UniformMemoryAccess)8.1引言3.按存储器的结构和互连策略,可把现有的MIMD机器分为两102适用于处理机数目不大情况。8.1引言适用于处理机数目不大情况。8.1引言103(2)分布式存储器结构
每个结点包含:
处理器存储器I/O◆
在许多情况下,分布式存储器结构优于采用集中式共享存储器结构。
◆
分布式存储器结构需要高带宽的互连。8.1引言(2)分布式存储器结构8.1引言104适用于处理机数目较大情况。8.1引言适用于处理机数目较大情况。8.1引言105◆分布式存储器结构的优点
(1)
如果大多数的访问是针对本结点的局部存储器,则可降低对存储器和互连网络的带宽要求;(2)
对局部存储器的访问延迟低。◆主要缺点
处理器之间的通信较为复杂,且各处理器之间访问延迟较大(显式通信);
需要高带宽的互连。◆簇:超结点----每个结点有多个处理器(2~8)8.1引言◆分布式存储器结构的优点8.1引言1068.1.2通信模型和存储器的结构模型1.两种地址空间的组织方案(1)
物理上分离的多个存储器可作为一个逻辑上共享的存储空间进行编址。
这类机器的结构被称为分布式共享存储器结构
(DSM:DistributedShared-Memory)可缩放共享存储器结构(SSM:ScalableShared-Memory)NUMA机器
(NUMA:Non-UniformMemoryAccess)8.1引言8.1.2通信模型和存储器的结构模型8.1引言107(2)
整个地址空间由多个独立的地址空间构成,它们在逻辑上也是独立的,远程的处理器不能对其直接寻址。8.1引言每一个处理器-存储器模块实际上是一个单独的计算机,这种机器也称为多计算机。(2)整个地址空间由多个独立的地址空间构成,它8.108
2.两种通信模型
共享地址空间的机器
利用Load和Store指令中的地址隐含地进行数据通讯。
多个地址空间的机器
通过处理器间显式地传递消息完成。8.1引言这种机器常称为消息传递机器。2.两种通信模型共享地址空间的机器8.1引109
消息传递计算机通过传递消息来请求某些
服务或传输数据,从而完成通信。
例:一个处理器要对远程存储器上的数据进行
访问或操作
(1)发送消息,请求传递数据或对数据进行操作;
远程进程调用(RPC,remoteprocesscall)(2)目的处理器接收到消息以后,执行相应的操作或代替远程处理器进行访问,并发送一个应答消息将结果返回。8.1引言消息传递计算机通过传递消息来请求某些
服务110◆同步消息传递
请求处理器发送一个请求后一直要等到应答结果才继续运行。◆异步消息传递
发送方不先经请求就直接把数据送往数据接受方。3.通信机制的三个关键的性能指标:1.通信带宽
理想状态下的通信带宽受限于处理器、存储器和互连网络的带宽。8.1引言◆同步消息传递8.1引言1112.通信延迟通信延迟=发送开销+跨越时间+传输延迟+接收开销理想状态下通信延迟应尽可能地小。3.通讯延迟的隐藏程度
◆如何才能较好地将通信和计算或多次通信之间重叠起来,以实现通讯延迟的隐藏。
◆通常的原则是:只要可能就隐藏延迟。
◆通信延迟隐藏是一种提高性能的有效途径,但它对操作系统和编程者来讲增加了额外的负担。8.1引言2.通信延迟8.1引言1124.不同通信机制的优点
1.共享存储器通信的主要优点(1)
与常用的集中式共享存储器结构使用的通信机制兼容。(2)
当处理器通信活动方式复杂或动态变化时易于编程,同时在简化编译器设计方面也占有优势。(3)
当通信数据较小时,通信开销较低,带宽利用较好.(4)
通过硬件控制的Cache减少了远程通信的频度,减少了通信延迟以及对共享数据的访问冲突。8.1引言4.不同通信机制的优点8.1引言1132.消息传递通信机制的主要优点(1)
硬件较简单。(2)通信是显式的,从而引起编程者和编译程序的注意,着重处理开销大的通信。
另外
◆在共享存储器上支持消息传递相对简单:
将消息传递实现时转换成远端内存访问。
◆在消息传递的硬件上支持共享存储器就非常困难:
所有对共享存储器的访问均要求操作系统提供地址转换和存储保护功能,将存储器访问转换为消
息的发送和接收。8.1引言2.消息传递通信机制的主要优点8.1引言1148.1.3并行处理面临的挑战
并行处理面临着两个重要的挑战:程序中有限的并行性相对较高的通信开销8.1引言1.有限的并行性使机器要达到好的加速比十分困难8.1.3并行处理面临的挑战程序中有限的并行性8.1引115例如果想用100个处理器达到80的加速比,
求原计算程序中串行部分所占比例。解
Amdahl定律为加速比=得出:并行比例=0.9975
可以看出要用100个处理器达到80的加速比,串行计算的部分只能占0.25%。1可加速部分比例理论加速比+(1-可加速部分比例)80=1并行比例100+(1-并行比例)8.1引言例如果想用100个处理器达到80的加速比,
求原计116面临的第二个挑战主要是指多处理机中远程访问的较大延迟。
在现有的机器中,处理器之间的数据通信大约需要100~1000个时钟周期。8.1引言面临的第二个挑战主要是指多处理机中远程访8.1引言117远程访问一个字的延迟时间
计算机类型通信机制互连网络处理机最大数量典型远程存储器访问时间(ns)SunStarfireserversSMP多总线64500SGIOrigin3000NUMA胖超立方体512500CrayT3ENUMA3维环网2048300HPVseriesSMP8×8交叉开关321000HPAlphaServerGSSMP开关总线32400远程访问一个字的延迟时间计算机类型通信机制互连网络处1188.1引言例8.2假设有一台32个处理器的多处理机,对远程存储器访问时间为400ns。除了通信以外,假设所有其他访问均命中局部存储器。当发出一个远程请求时,本处理器挂起。处理器的时钟频率为1GHz,如果指令基本的IPC为2(设所有访存均命中Cache),求在没有远程访问的情况下和有0.2%的指令需要远程访问的情况下,前者比后者快多少?8.1引言例8.2假设有一台32个1198.1引言解没有远程访问时,机器的CPI为1/基本IPC=1/2=0.5有0.2%远程访问的机器的实际CPI为
CPI=基本CPI+远程访问率×远程访问开销=0.5+0.2%×远程访问开销远程访问开销为
远程访问时间/时钟周期时间=400ns/1ns=400个时钟周期
∴CPI=0.5+0.2%×400=1.3因此在没有远程访问的情况下的计算机速度是有0.2%远程访问的计算机速度的1.3/0.5=2.6倍。8.1引言解没有远程访问时,机器的CPI为1/120问题的解决并行性不足:
通过采用并行性更好的算法来解决
远程访问延迟的降低:
靠体系结构支持和编程技术8.1引言问题的解决8.1引言1218.1引言3.在并行处理中,影响性能(负载平衡、同步和存储器访问延迟等)的关键因素常依赖于:应用程序的高层特性如数据的分配,并行算法的结构以及在空间和时间上对数据的访问模式等。依据应用特点可把多机工作负载大致分成两类:单个程序在多处理机上的并行工作负载多个程序在多处理机上的并行工作负载8.1引言1223.并行程序的计算/通信比率◆
反映并行程序性能的一个重要的度量
◆计算/通信比率
随着处理数据规模的增大而增加,随着处理器数目的增加而降低。8.1引言3.并行程序的计算/通信比率8.1引言123◆多个处理器共享一个存储器。◆当处理器规模较小时,这种机器十分经济。◆支持对共享数据和私有数据的Cache缓存。私有数据供一个单独的处理器使用,而共享数据供多个处理器使用。◆共享数据进入Cache产生了一个新的问题:
Cache的一致性问题8.2对称式共享存储器体系结构◆多个处理器共享一个存储
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2024年度电脑购置协议格式范本一
- 2024年企业用车租赁协议模板一
- 2024年商品供应协议简化版样本一
- 2024年度展览服务协议简化版版
- 环保竣工验收合同模板
- 2024年适用餐饮业厨师个人劳动协议文本一
- 采购合同工程合同模板
- 二手房交易中介服务协议范本版
- 达人探店合同模板
- 设备赠与合同模板
- MOOC 跨文化交际通识通论-扬州大学 中国大学慕课答案
- EDA实验报告1组合逻辑电路的设计
- 有效初三英语课堂教学ppt课件
- 幸福在哪里作文800字高中范文
- 五人制足球比赛记录表.doc
- 整式的乘法与因式分解所有知识点总结
- 《运动生理学》教案
- 陈春花管理学著作精华解读之《管理的常识》
- 钻孔灌注桩试桩施工方案
- 外贸销售合同
- 混凝土地面施工方案
评论
0/150
提交评论