计算机系统结构期末复习教材_第1页
计算机系统结构期末复习教材_第2页
计算机系统结构期末复习教材_第3页
计算机系统结构期末复习教材_第4页
计算机系统结构期末复习教材_第5页
已阅读5页,还剩5页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、计算机系统机构知识点总结1. 名词解释1)翻译:翻译是先用转换程序将高一级机器级上的程序整个地变换成低一级机器级上可运 行的等效程序,然后再在低一级机器上实现的技术。2)解释:解释是在低一级机器级上用它的一串语句或指令来仿真高一级机器级上的一条语 句或指令的功能,通过对高一级程序中的每条语句或指令逐条解释来实现的技术。3)CPI:表示执行每条指令所需要的平均时钟周期数。4)MIPS:是一个用来描述计算机性能的单位,即每秒执行百万条指令。5)MFLOPS:是一个用来描述计算机性能的单位,即每秒执行百万次浮点操作。6)基准程序:是性能测试程序,并假设他能刻画某一类应用问题的处理和数据移动特征。 基

2、准程序用来测量和预测计算机系统的性能,并能提示它们的体系结构的弱点和特点。7)基准程序组:是一套基准程序的控制测试条件及过程的一组特点规则,包括输入数据, 输出结果以及性能指标。8)基准程序系列:是一套基准程序组。9)CISC:复杂指令系统计算机。10)RISC:精简指令系统计算机。11)加载 /存储结构:即只允许 LOAD 指令和 STORE指令执行存储器操作,其他指令均对寄 存器进行操作。12)窗口重叠技术:为了能更简单、直接的实现过程与过程之间的参数传递。大多数RISC机器的 CPU中都设置有数量较大的寄存器组, 让每个过程使用一个有限数量的寄存器窗口, 并让调用过程的低位寄存器与被调用

3、的高位寄存器重叠使用。13)延迟转移技术: 将转移指令与其前面的与转移指令无关的一条或几条指令对换位置, 让 成功转移总是在紧跟的指令被执行之后发生, 从而使预取的指令不作废, 同时可节省一个或 几个机器周期。14)退耦 CISC/RISC体系结构: 在 CPU芯片中有一个前端部分, 它将 x86 代码转换成 RISC类 指令供后端的 RISC核心去完成超标量和 / 或超流水线执行。15)后 RISC:商品化微处理器中存在的一种逆向发展趋势是将越来越多的性能加到 RISC微 处理器中,某加入的特性仍属于 RISC类型,但也有许多加入的特性明显的是非RISC或甚至是属于 CISC类型的。16)存

4、储体系: 是指计算机系统的存储器部分由多种不同的存储器构成,由操作系统和硬件技术来完成程序的定位, 使之成为一个完整的整体。 由于它由多级存储器构成, 故又称之为 存储层次。17)时间局部性:是指在最近的未来要用到的信息很可能是现在正在使用的信息。18)空间局部性: 是指子啊最近的未来要用到的信息很可能与现在正在使用的信息在程序空 间上是相邻或相近的。19)并行主存系统: 是指能够并行读出多个字的单体多字、 多体单字交叉、 多体多字 交叉存取的主存系统。20)虚拟存储器: CPU直接访问主存, 主存与辅存之间的信息交换由操作系统和硬件来完成, 这种把辅存看做主存的一部分,以扩大主存容量的技术,

5、称之为虚拟技术。21)虚拟地址:又称逻辑地址,是指访问虚拟空间的地址。22)物理地址:是指访问主存空间的地址。23)地址映像:是指按某种规则(算法)建立多用户虚拟地址Ns 与物理地址 np 之间的而对应关系。24)地址变换:是指程序按某种映像关系装入实存后,在执行程序时,多用户虚拟地址Ns变换成对应的实存地址 np 的过程。25)实页冲突:是指两个以上的虚页想要进入主存中同一页面现象。26)页面失效:是指当 CPU 访问主存中 N 道程序中的某道程序时,其虚页不在主存中的情 况。27)散列冲突:是指当多个不同的用户虚页号散列到同一个块表地址的现象。28)写回发: 是指在 CPU执行写操作命中

6、Cache 时,信息只写入 Cache,仅当需要被替换时, 才将已被写入过的 cache 快先送回主存,然后再调入新快。29)写直达发: 是指利用 cache-主存存储层次在处理机和主存之间的直接通路,每当处理机写入 Cache 的同时,也通过此通路直接写入主存。30)不按写分配法:当 Cache 写不命中时只写入主存,该写地址单元所在快不从主存调入 Cache。31)按写分配法: 当 Cache 写不命中时除写入主存外, 还将该写地址单元所在块从主存调入 Cache。32)预取算法:是指在用到某信息块之前就将其预取进Cache 的算法。33)恒预取:是指只要访问到主存第i 块的某个字,不论

7、Cache 是否命中,恒发预取命令。34)不命中时预取:是指只有访问第i 块的某个字不命中时,才发预取命令。35)物理 Cache:是指 CPU访存时, 先用虚拟地址差块表以产生物理地址, 然后再根据物理 地址查主存 -Cache 地址映像变换机构, 若 cache 命中, 则将物理地址转换为 Cache地址后访 问 Cache。36)虚拟 Cache-是指在 CPU访存时,直接用虚拟地址访问 Cache。当 cache 不命中时才去查 找快表,或者将 Cache 的访问和快表的查找同时进行。37)指令的顺序解释方式: 是指各条机器指令之间顺序串行地执行, 执行完一条指令后才取 出下一条指令来

8、执行,而且每条机器指令内部的各条微指令也是顺序穿行地执行。38)指令的流水解释方式:是指在解释第K 条指令的操作完成之前,就可开始解释第 K+1指令。39)静态流水线: 是指在同一时间内, 多功能流水线中的各个功能段只能按一种功能的连接 方式工作。40)动态流水线: 是指在同一时间内, 多功能流水线中的各个功能段可按不同运算或功能的 连接方式工作。41)线性流水线:若流水线各段串行连接,没有反馈回路,各个功能段只经过一次。42)非线性流水线: 如果流水线中除有串行连接的通路外, 还有某种反馈回路, 使一个任务 流经流水线时,需多次经过某个功能段或越过某些功能锻。43)资源相关: 是指多条指令进

9、入流水线后在同一个t 内争用同一功能部件所发生的相关。44)数据相关: 是指由于相邻的两条或多条指令使用了相同的数据地址(包括寄存器地址和存储单元地址)而发生的关联。45)先写后读相关:如果指令 I1到指令 I 2存在通路,即 I 1执行完后,一定可以执行 I 2,而且如果 I 1的输出(寄存器或赋值变量)与 I 2 的某一个输入(用做操作数)相同,则称指令I 2与指令 I 1存在先写后读相关。46)先读后写相关:如果在程次序中,指令I 2 在指令 I 1之后,而且如果 I 2 的输出(寄存器或赋值变量)与 I 1的某一个输入(用做操作数)相同,则称指令I 2与指令 I 1存在先读后写相关。4

10、7)写写相关:如果在程序次序中,指令I 2 在指令 I 1 之后,而且两条指令的输出(寄存器或赋值变量)相同,则称指令 I 2与 I 1存在写写相关。48)控制相关:是指由转移指令引起的相关。49)流水线的实际吞吐率: 是指从启动流水线处理机开始到流水线操作结束, 单位时间内能 流出的任务数或能流出的结果数。50)流水线的加速比: 是指流水线工作相对于等效的非流水线顺序串行工作方式,速度提高的比值。51)流水线的效率:是指流水线的设备利用率。52)预约表: 预约表用于非线性流水线, 是一张二维的表格, 其横坐标表示流水线工作的时 钟周期,纵坐标表示流水线的功能锻, 中间画勾表示该功能段在这一时

11、钟周期处于工作状态, 空白的地方表示该功能锻在这个时钟周期不工作。53)冲突向量:用一个 N-1 位的位向量来表示后继新任务间隔各种不同拍数送入流水线时, 是否会发生功能段使用的冲突,乘此位向量为冲突向量。54)超标量流水线:是指在每个时钟周期内要同时发射多条指令并产生多个结果的流水线。55)VLIW:超长指令字。56)超流水线: 是指在每个时钟周期内并发射多条指令且每一时刻只发射一条指令,并产生多个结果的流水线。57)超标量流水线: 是超标量流水线与超流水线的结合, 是指在一个时钟周期内能分时发射 多条指令且每一时刻能同时发射多条指令并产生多个结果的流水线。58)向量刘水处理: 由于向量内各

12、个元素间很少相关, 对向量中的各个元素一般有都是执行 同一种操作, 因此只要能由存储器不断地取得元素, 就能对各向量元素进行刘水处理, 最充 分地发挥流水线的效能,使输出端每个时钟周期能送出一个结果元素。59)向量流水处理机: 是指将向量数据表示与流水线技术相结合, 能进行向量流水处理的处 理机。60)向量冲突:或称 Vi 冲突,是指并行工作的各向量指令的源向量或结果向量使用了相同 的向量存储器 Vi 。61)源向量相关: 当第二条向量指令使用了第一条向量指令的结果向量作为源向量时,称这两条向量存在先写后读的源目向量相关。62)功能部件冲突:是指同一个功能部件被一条以上的要求并行工作的向量指令

13、所使用。63)链接技术: 是流水线中加快运算速度的一种重要技术,它是指在不出现源向量冲突、 结果向量冲突、 先读后写的向量冲突和功能部件冲突时, 通过链接机构将有源目向量相关的前 后两条或多条向量指令进行链接而实现并行处理的技术。64)向量屏蔽技术: 是指借用一个屏蔽向量来控制哪些向量元素参加运算,哪些元素不参加运算的技术。而屏蔽向量是通过向量测试得到的。65)向量流水线的最大性能:是指向量长度趋于i 无穷大时的向量流水线的渐进性能。66)半性能向量长度:是指为达到 R 无穷值的一半所需的向量长度。67)向量和标量的平衡点: 表示向量流水方式的工作速度优于标量串行方式时所需的向量长 度临界值。

14、1.选择题:10*2 分=20 分2.名词解释5*4=20 分3.简答题:4*8 分 =32 分4.计算题:28 分5.选择题:8*2 分 =16 分6.名词解释5*4=20 分7.简答题:4*8 分 =32 分8.计算题:32 分1、软件、硬件关系软件、硬件在逻辑功能上是等价的。 从原理上讲软件功能可用硬件或固件完成, 硬件可以用软件来模拟, 只是性能、 价格及 实现的难易程度不同。软、硬件功能分配 在满足应用的前提下,软、 硬功能分配比例的确定, 需要看能否充分利用硬件、器件技 术的现状和进展,使计算机系统达到较高的性能价格比。2、透明性及判断 透明性是指一种本来存在的事务或属性 ,但从某

15、种角度来看似乎不存在。 透明的优缺点:优点:是不用知道其存在,可以简化设计。 缺点:是由于透明而无法对其进行控制。在一个计算机系统中, 低层机器级的概念性结构和功能特性, 对高层机器程序员来说是透明 的。3、Cache 与虚拟存储器的不同点CPU 直接访问主存,主存与辅存之间的信息交换由操作系统和硬件来完成,这种把辅存看 作是主存的一部分,以扩大主存容量的技术,称之为虚拟技术。用虚拟技术设计的存储器,称为虚拟存储器。虚拟存储器可以分为三类:页式、段式、段页式。 两者也至少存在以下四个方面的不同之处: 半导体工艺: Cache 采用与 CPU 同类型的半导体工艺构成;而主存一般采用MOS 半导体

16、工艺构成。地址映象与变换, 替换算法、 调度算法的实现: Cache- 全部都用专门的硬件来实现; 而虚拟 存储器的内部地址映象与变换由硬件来实现, 但外部地址映象与变换、 替换算法、 调度算法 等却是全部由软件或软硬件相结合来实现。透明性: Cache 不仅对应程序员是透明的, 而且对系统程序员也是透明的; 虚存只对应用程 序员透明,而对系统程序员基本上是不透明的。通路联系方式。 CPU 与 Cache 、CPU 与主存之间均有直接的通路, 使得在 Cache 块失效时, Cache 调块与 CPU 访存重叠进行。而在虚拟存储器中,只存在CPU 与主存之间、主存与辅存之间的通路,而 CPU

17、与辅存之间没有直接的通路。4、影响主存的命中率的因素替换算法页地址流分配给程序的主存页数页面大小 Sp页面调度策略5、什么是存储体系?所谓存储体系, 是指计算机系统的存储器部分由多种不同的存储器构成, 由操作系统和硬件 技术来完成程序的定位,使之成为一个完整的整体。由于它由多级存储器构成,故又称之为存储层次。6、AMDAL定律 改进后的整个任务的执行时间 Te 为:Te=To(1-fe+fe/re)其中,To 为改进前的整个任务的执行时间re =( 改进前改进部分的执行时间 )/( 改进后改进部分的执行时间 ),即改进部分的性能提高倍 数。fe=( 改进前可改进部分占用的时间 )/( 改进前整

18、个任务的执行时间 ),即改进部分所占比例。7、局部性原理。 程序访问的局部性原理 局部性的实质: 根据程序执行的最近情况, 可以较精确的预测出最近的将来将要用到哪些指 令和数据。局部性分时间上的局部性和空间上的局部性。 时间上的局部性指最近访问过的代码是不久将被再次访问的代码。 空间上的局部性指那些地址上相邻的代码可能会被一起访问。 实验表明,一个程序用 90% 的时间执行 10% 的代码。 局部性规律是指令结构和存储体系设计的主要理论依据。8、Flynn 分类法按照什么来分类,分为哪几类 按照指令流和数据流的多倍性状况对计算机系统进行分类。 单指令流单数据流( SISD) 单指令流多数据流(

19、 SIMD) 多指令流但数据流( MISD) 多指令流多数据流( MIMD )9、RISC 计算机与 CISC 计算机对比? 庞大的指令系统。在指令系统中增加更多的指令并采用复杂的指令, 以适应不同应用领域的需要, 并考虑尽量 减少指令系统与高级语言的语义差异,以便于高级语言程序编译和降低软件成本 采用了可变长度的指令格式。需要专门的电路来计算和存储指令的字节数。 指令使用的寻址方式繁多。简化高级语言的编译,需要越多的硬件逻辑来实现和支持。 CISC中包括一些用于特殊用途的指令。简单的指令,占指令总数的 20 ,出现的频度占 80。 复杂的指令系统增加微处理器的复杂性,使微处理器研制时间长、成

20、本高。 复杂指令需要复杂的操作,从而降低了机器的速度。各种指令的使用频率相差悬殊。椐统计约有 20%的指令使用频率最大,占运行时间的80%。指令系统的复杂性带来了计算机体系结构的复杂性, 这不仅增加了研制时间和成本, 而且还容易造成设计错误。 还给 VLSI设计带来了很大负担,不利于单片集成 许多复杂指令需要很复杂的操作,因而运行速度慢。各条指令的功能不均衡性, 不利于采用先进的计算机体系结构技术 (如流水技术) 来提高系 统的性能。选取使用频度最高的一些基本指令。 采用简单的指令格式、规整的指令字长和简单的寻址方式。采用多级指令流水线结构。 采用加载 / 存储结构。在 CPU 中设置数量较大

21、的寄存器组,并采用重叠寄存器窗口的技术。 延迟加载指令和延迟转移技术。采用高速缓存结构。设置两个 Cache,分别存放指令和数据。 在设计上采用硬连线实现和微程序固件实现相结合。采用优化编译技术RISC的争论:正方: RISC廉价和运行速度快,代表未来微处理器的发展特征。反方: RISC软件开发变得更复杂, 即使执行相同的任务也必须编写更多的程序来完成, 不能 代表未来的方向。实际 RISC和 CISC体系的结构越来越接近: 今天的 RISC芯片仍然支持更多过去的 CISC芯片 今天 CISC芯片运用了很多与 RISC体系相关的技术 可以说, RISC和 CISC是在共同发展的。10、计算机系

22、统结构、计算机组成和计算机实现的关系? 计算机系统结构是系统的软、硬件界面 计算机组成是系统结构的逻辑实现计算机实现是组成的物理实现一对多的关系, 即一种计算机系统结构可以对应多种计算机组成; 一种计算机组成可对 应多种计算机实现计算机实现是计算机系统结构和计算机组成的基础, 其技术的发展对计算机系统结构有 着很大的影响,而计算机组成也会影响计算机系统结构。系统结构的设计必须结合应用考虑, 为软件和算法的实现提供更多更好的支持。 包含的 内容随不同的机器和时间而变化11 、页面失效频率法 页面失效频率法 当程序的命中率低于某个限定值时,就增加分配给该程序的页面数,以提高命中率。 而当命中率高于

23、某个限定值时就减少分配给该程序的页面数, 将节省出来的主存页面分配给 其它程序。目的:使整个系统的总的命中率和主存利用率都得到提高。12、数据整数边界存储整数边界存储, 即信息在主存中的存放的地址必须是该信息宽度(字节数) 的整数倍, 这样 可以保证所有信息在一个存储周期中访问。 13 、写回法与写直达法写回法是指在 CPU 执行写操作时,信息只写入 Cache ,仅当需要被替换时,才将已被写入 过的 Cache 块先送回主存,然后再调入新块。写回法包括简单写回法和采用标志位写回法。 简单写回法是不管块是否更新,都进行写回操作。而采用标志位写回法只在块被更新过时,才进行写回操作。写直达法是利用

24、 Cache- 主存存储层次在处理机和主存之间的直接通路,每当处理机写入 Cache 的同时,也通过此通路直接写入主存。这样在块替换时,就不必先写回主存,而可立 即调入新块。写回法与写直达法的区别: 时间花销:写回法在页面替换的时候,而写直达法则是花费在每次写 Cache 时。 缓冲区:写回法中缓冲器用于暂存将要写回的块。写直达法中则用于缓冲由写 Cache 所要 求的要写回主存的内容。通讯量:写回法使主存的通讯量比写直达法的要小的多,但它增加了 Cache 的复杂性,并 且存在主存内容与 Cache 内容不一致的问题。 可靠性:写直达法的可靠性比写回法的可靠性要高。成本:写回法则实现成本低。

25、 单处理机,多数采用写回法以节省成本为主,而共享主存的多处理机系统,为保证可靠性, 多数采用写直达法。14 、cache 常用的地址映象方法有 全相联映象、直接映象、组相联映象、 段相联映象。15 、在重叠处理方式中存在哪几种数据相关? 相关问题的处理当一段程序的邻近指令之间出现某种关联后, 为了避免出错而使它们不能同时被解释的现象 称之为“相关” 。相关可以分为:指令相关操作数相关主存空间数相关 通用寄存器组相关通用寄存器基址值或变址值相关具体处理方法是?指令相关是指第 k 条指令执行的结果会影响第 k+1 条指令内容而产生的关联,造成第 k 条 指令和第 k+1 条指令不能同时解释。解决:

26、不允许执行时修改指令 设置特殊的“执行”指令,将指令相关转化为数据相关。操作数相关是指在第 k 条指令和第 k+1 条指令的数据地址之间发生关联,而造成第 k 条指 令和第 k+1 条指令不能同时解释的现象。主存空间数相关 通用寄存器组数相关。通用寄存器组的变址值相关。 主存空间数相关是指相邻两条指令之间出现要求对主存同一单元先写入而后再读出的关联。 主存空间数相关的处理方法通常采用推后第 k+1 条指令的读操作数。 具体方法是由存控通过给读数、 写数申请安排不同的访存优先级来解决。 通常将访存优先级 依次定为通道申请、写数、读数、取指令。通用寄存器组相关的解决解决方法: 方法 1 :分析指令

27、后推 1 周期。 只要发生数相关就使一次重叠变成了完全的顺序串行,速度明显下降 方法:分析指令后推 1 节拍( L2 相关)或 2 节拍( L1 相关)。 发生数相关时, 相邻两条指令的解释仍有部分重叠, 可以减少速度损失, 但控制要稍微复杂 一些。方法:寄存器相关通路既保证了相关时不用推后“分析 k+1 ”,重叠效率不下降,又可以保证指令重叠解释时数据 不出错。基(变)址相关的解决解决方法: 方法 1 :采用后推执行一次相关二次相关 方法 2 :采用相关专用通路 由于 B 一次、二次相关的概率并不很低,增设 B 相关专用通路还是值得的, 数据相关的解决方法:推后分析法、设置相关专用通路16、

28、虚拟存储器的命中率与哪些因素有关,有什么关系 页地址流、页面调度策略、替换算法、页面大小、分配给程序的页数(主存容量等) 页面大小 Sp 与命中率 H 的关系 若分配给该道程序的主存容量固定 增大页面,总页数减少: 对同页内的访问命中率会上升 对不同页的两个地址则命中率下降。页面的大小要选用最佳值,一般为 1K 到 16K 左右。 分配给程序的主存容量 S1 与命中率 H 的关系 如果分配给某道程序的容量 S1 增大 可以提高命中率(即可以延缓由于两个地址分属不同页的情况而使命中率下降的情况) 但分配给某道程序的容量 S1 的增大对命中率的上升也只是在开始时比较明显 主存命中率与所采用的页面调

29、度策略有关 一般有两种页面调度策略: 请求式页面调度策略。即只有当发生页面失效时,才把所需的页调入主存。 预取工作区调度策略。 它将准备运行的某道程序上一次停止运行前一段时期用到过的虚页集 合事先调入主存,然后再启动。 这种预取工作区的方法可以免除在程序启动后出现的大量页面失效, 但常常会把许多不再用到的虚页也调入主存而浪费了辅助开销。17、什么是堆栈型替换算法 定义:对任意的页地址流,作两次主存页面数分配(分别分配 m 个主存页面和 n 个主存 页面,并且有 m n)。如果在任何时刻 t,主存中页面数集合 Bt 都满足关系:Bt ( m) Bt ( n)则这类算法称为堆栈型替换算法。堆栈型算法的基本特点: 随着分配给程序的主存页面数增加,主存的命中率也提高,至少不下降。18、链接技术使用的条件 实现链接的条件: 前后指令存在先写后读数据相关 前后指令没有其它向量寄存器冲突和运算部件冲突。 只有第一个结果送入向量寄存器的那一个周期可以链接, 否则下一条指令要等到前条指令执

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论