




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
并行计算机体系结构
I目录
■CONTENTS
第一部分并行计算机分类.....................................................2
第二部分共享存储多处理机体系结构..........................................4
第三部分分布式存储多处理机体系结构........................................8
第四部分数据并行处理......................................................10
第五部分任务并行处理......................................................12
第六部分存储器层次和并行处理.............................................15
第七部分并行处理中的互联网络.............................................17
第八部分并行计算机程序设计...............................................20
第一部分并行计算机分类
并行计算机分类
并行计算机可根据其互连网络拓扑、处理元件类型、存储器组织和编
程模型,进行多种分类。
1.互连网络拓扑
*总线拓扑:所有处理元件(PE)连接到共享总线上。
*环形拓扑:PE以环形方式连接,数据在环上按一定方向传输。
*星形拓扑:一个中央交换机将所有PE连接起来。
*超立方体拓扑:PE位于超立方体的各个顶点上,并且连接到其相
邻顶点的PEo
*网格拓扑:PE位于网格的交点上,并且连接到其相邻网格点的PEo
2.处理元件类型
*单指令流多数据流(SIMD):所有PE执行相同的指令,但处理不
同的数据。
*多指令流多数据流(MIMD):每个PE执行自己的指令序列,并处
理自己独立的数据C
*单指令流多线程(SIMT):一种M1MD架构的变体,其中多个线程
在同一PE上执行相同的指令,但处理不司的数据。
3.存储器组织
*共享存储器:所有PE可以访问同一个共享存储器空间。
*分布式存储器:每个PE都有自己的本地存储器,并且只能访问自
己的存储器空间。
*混合存储器:结合了共享存储器和分布式存储器特性。
4.编程模型
*数据并行:将数据分解为多个块,并分配给不同的PE处理。
*任务并行:将任务分解为多个子任务,并分配给不同的PE执行。
*管道并行:将任务分解为多个阶段,并分配给不同的PE按顺序执
行。
*共享存储器编程:通过共享存储器进行通信。
*消息传递编程:通过显式消息传递进行通信。
并行计算机的具体类型
根据上述分类标准,可以对并行计算机进行进一步分类,得到具体的
类型,如:
Flynn分类法:
*STSD(单指令流单数据流):传统顺序计算机。
*SIMD(单指令流多数据流):矢量机、阵列处理器。
*M1SD(多指令流单数据流):流水线计算机。
*MIMD(多指令流多数据流):对称多处理机、分布式系统。
存储器模型:
*SMP(对称多处理机):共享存储器MIMD架构。
*CC-NUMA(集群计算机非一致存储器访问):分布式存储器MIMD架
构,具有非一致的存储器访问延迟。
*NUMA(非一致存储器访问):混合存储器MIMD架构,不同的存储
器访问具有不同的延迟。
互连网络拓扑:
*总线型:Myrinet总线、PCIe总线。
*交叉开关:Infiniband,以太网交换机。
*网状:二维网格、三维网格。
*环形:HyperTransporto
编程模型:
*OpenMP:基于共享存储器编程的标准编程接口。
*MPI(消息传递接口):基于消息传递编程的标准编程接口。
*CUDA:用于GPU编程的并行编程模型。
*Hadoop:用于大数据分析的并行编程框架。
第二部分共享存储多处理机体系结构
关键词关键要点
共享内存多处理机体系结构
1.共享内存多处理机体系结构是一种并行计算机体系结
构,其中多个处理器共享一个公共内存空间。
2.每个处理器都可以访问所有共享内存中的数据,从而实
现程序中不同任务之间的快速数据传递和同步。
3.共享内存体系结构通常具有较高的可扩展性,可以轻松
地添加或移除处理器模块而无需重新设计系统。
缓存一致性
1.在共享内存多处理机中,保持缓存的一致性至关重要。
2.缓存一致性协议确保多个处理器对共享内存中的数据具
有相同的视图。
3.有多种缓存一致性协议,例如MESI协议和MOESI协
议,它们以不同的方式处理缓存操作以实现一致性。
同步机制
1.在共享内存多处理机中,处理器需要使用同步机制来协
调对共享数据的访问c
2.常见的同步机制包括互斥锁、信号量和屏障。
3.不同的同步机制提供了不同的性能特征和编程便利性,
需要根据具体应用程序的需求进行选择。
总线体系结构
1.共享内存多处理机中的处理器通常通过总线相连。
2.总线是一个共享通信介质,用于处理器和内存之间的所
有数据传输。
3.总线体系结构决定了系统的带宽和延迟,并且可能是共
享内存多处理机性能的一个限制因素。
前沿趋势
1.近年来,异构共享内存多处理机体系结构变得越来越流
行。
2.异构体系结构结合了不同类型的处理器,例如CPU和
GPU,以提高特定类型工作负载的性能。
3.融合处理器架构也是共享内存多处理机领域的另一项前
沿趋势,它将处理器和内存集成到单一芯片上以减少延迟
和提高带宽。
挑战和机遇
1.共享内存多处理机体系结构面临的挑战包括缓存一致性
维护、同步开销以及总线争用。
2.这些挑战可能会限制系统的可扩展性和性能。
3.克服这些挑战需要创新的算法、协议和硬件设计。
共享存储多处理机体系结构
简介
共享存储多处理机(SMP)是一种并行计算机架构,其中多个处理器
共享一个中央内存c这种架构允许处理器以低延迟访问数据,并消除
了在分布式内存系统中常见的通信开销。
体系结构
SMP系统由以下主要组件组成:
*处理器:系统中的多个处理器负责执行指令。
*内存:共享的中央内存存储程序和数据。
*总线:连接处理器和内存的通道。
*高速缓存:位于每个处理器附近的局部存储器,用于存储经常访问
的数据。
存储模型
SMP系统通常采用以下存储模型:
*一致性缓存:每个处理器都有自己的高速缓存,但所有缓存都保持
一致。当处理器写入数据时,它会更新其高速缓存和中央内存中的副
本。
*非一致性缓存:每个处理器都有自己的高速缓存,但高速缓存不保
持一致。当处理器写入数据时,它只会更新其高速缓存中的副本。其
他处理器访问同一位置时,它们将从中央内存中获取最新值。
同步
SMP系统中的处理器需要协调对共享存储器的访问。这可以通过以下
方式之一实现:
*锁:处理器可以通过获取互斥锁来独占访问共享数据。
*事务内存:处理器以原子方式执行一组操作,确保数据完整性。
*硬件同步原语:处理器可以使用诸如原子加载/存储操作之类的硬
件提供的同步机制。
优点
SMP体系结构提供了以下优点:
*低延迟:共享的内存架构允许处理器快速访问数据。
*可扩展性:系统可以轻松地扩展以添加更多的处理器。
*易于编程:共享内存模型简化了并行程序的开发。
*成本效益:与分布式内存系统相比,SMP系统通常更具成本效益。
缺点
SMP体系结构也存在一些缺点:
*可扩展性限制:SMP系统的可扩展性受到中央内存带宽和总线容量
的限制。
*内存争用:多个处理器并发访问共享内存会导致竞争和性能下降。
*一致性维护:保持缓存一致性需要额外的硬件和软件开销。
*单点故障:中央内存或总线的故障可能会使整个系统瘫痪。
应用
SMP体系结构广泛应用于以下领域:
*Web服务器:处理高并发请求。
*数据库服务器:管理和处理大量数据。
*科学计算:解决复杂计算任务。
*桌面计算机:提供多任务和多媒体功能。
性能优化
可以通过以下技术优化SMP系统的性能:
*代码优化:避免共享数据竞争,并使用同步机制。
*高速缓存管理:使用高效的高速缓存替换算法和预取机制。
*内存布局:将经常访问的数据放置在内存中相邻的位置以减少内存
争用。
*处理器亲和性:将进程分配给与它们正在处理的数据相同的处理器
以减少缓存未命中c
结论
共享存储多处理机体系结构提供了一种低延迟、可扩展、易于编程的
并行计算机架构。它适用于各种应用程序,但受到可扩展性限制、内
存争用和一致性维护开销的影响。通过仔细的性能优化,SMP系统可
以提供高性能和可靠性。
第三部分分布式存储多处理机体系结构
分布式存储多处理机体系结构
定义
分布式存储多处理矶(DSM)体系结构是一种并行计算机体系结构,
其中处理器分布在多个节点,每个节点拥有自己的本地存储器。节点
通过高速互连网络连接,并共同访问共享的分布式内存。
特点
*分布式存储:数据和指令存储在各节点的本地存储器中,而不是集
中在一个共享存储器中。
*高速互连:节点通过高速互连网络连接,允许快速的数据传输。
*虚拟共享内存:每个节点都可以访问共享的分布式内存,就好像它
是自己的本地存储器一样。
*透明性:对于程序员来说,分布式存储模型是透明的,无需显式管
理数据和指令放置C
优点
*可伸缩性:可通过添加更多节点轻松扩展系统。
*容错性:单个节点故障不会导致整个系统失效。
*低延迟:由于数据和指令位于本地存储器,因此访问延迟很低。
*高带宽:高速互连网络提供高数据传输带宽。
缺点
*一致性开销:维护分布式内存的一致性需要额外的开销。
*远程访问延迟:访问远程节点上的数据比访问本地数据延迟更高。
*编程复杂性:分布式编程可能比共享存储器编程更复杂。
体系结构
DSM体系结构通常由以下组件组成:
*节点:包含处理器、本地存储器和网络接口的独立计算单元。
*互连网络:连接节点的高速网络,允许数据和指令快速传输。
*分布式存储管理层:负责维护分布式内存的透明性和一致性。
*高速缓存:在每个节点上缓存最近访问的数据和指令,以减少远程
访问延迟。
一致性协议
DSM体系结构需要使用一致性协议来确保分布式内存中的数据一致
性。常见的一致性协议包括:
*总线锁定:当一人节点访问共享内存时,它必须获取总线锁定,以
防止其他节点同时访问。
*Cache一致性协议:如MESI协议,用于在高速缓存之间保持数据
一致性。
*分布式锁服务:一个集中式服务,用于协调对共享内存的访问。
编程模型
DSM体系结构通常支持以下编程模型:
*共享内存编程模型:程序员可以将共享内存视为一个全局地址空间,
由所有节点共享。
*分布式内存编程模型:程序员必须明确管理数据和指令的放置,并
在需要时进行数据传输。
应用
DSM体系结构适用于各种并行应用,包括:
*科学计算:需要访问大型数据集的并行计算,如流体动力学模拟。
*大数据分析:处理和分析超大数据集的应用程序。
*人工智能:需要大量并行计算的机器学习和深度学习算法。
第四部分数据并行处理
关键词关键要点
【数据并行处理工
1.数据并行化是一种并行编程模型,将数据分布在多个处
理器上,每个处理器负责处理数据的一个子集。
2.数据并行化简化了并行程序的编写,因为它不需要显式
同步不同处理器之间的通信。
3.数据并行化适用于数据密集型应用程序,例如图像处理、
视频分析和科学计算。
【任务并行处理工
数据并行处理
数据并行处理是一种并行计算范例,它通过在多个处理单元上同时操
作独立的数据元素来实现并行性。在此范例中,数据被划分为块,每
个块分配给一个处理单元处理。处理单元并行执行相同的计算,但操
作不同的数据块。
数据并行的优点:
*高吞吐量:通过同时处理大量数据,数据并行可以显著提高吞吐量。
*简单性:数据并行编程相对简单,因为处理单元执行相同的操作。
*可扩展性:由于处理单元数量与数据量成正比,数据并行具有良好
的可扩展性。
*可预测性:因为数据块被均匀分配,所以数据并行的性能通常是可
预测的。
数据并行的挑战:
*依赖性:数据块之间可能存在依赖性,这会限制并行性。
*负载不平衡:由于数据块大小和复杂性不同,处理单元之间的负载
可能不平衡。
*通信开销:在处理单元之间共享数据可能需要通信开销。
*同步开销:确保处理单元之间协调一致可能需要同步开销。
数据并行的技术:
实现数据并行处理有几种技术:
*STMD(单指令多数据):SIMD架构具有多个处理单元,它们同时执
行相同的指令,但操作不同的数据。
*MIMD(多指令多数据):MIMD架构具有多个处理单元,它们可以同
时执行不同的指令和数据。
*数据分区:将数据划分为块并将其分配给处理单元。
*数据副本:在多个处理单元上创建数据的副本以消除通信开销。
*同步机制:使用诸如屏障和锁之类的同步机制来确保处理单元之间
的协调一致。
数据并行处理的应用:
数据并行处理广泛应用于各种领域,包括:
*图像处理:图像分割、边缘检测、图像增强
*科学计算:流体动力学、天气预报、地震模拟
*机器学习:训练和推理深度学习模型
*大数据分析:数据挖掘、特征工程、数据聚类
*金融建模:风险评估、投资组合优化、预测分析
结论:
数据并行处理是一种强大的并行计算范例,它通过同时处理独立的数
据元素来提高吞吐量。然而,它也面临依赖性、负载不平衡、通信开
销和同步开销等挑战。通过使用适当的技术,如SIMD.MIMD.数据
分区、数据副本和同步机制,可以有效地实现数据并行处理,从而使
其适用于各种并行计算应用。
第五部分任务并行处理
关键词关键要点
【任务并行处理】
1.任务并行处理是一种将计算任务分解成独立部分的并行
编程范式,这些部分可以同时在多个处理器上执行。
2.任务并行处理通过最大限度地利用可用的并行性,显着
提高了应用程序性能。
3.任务并行处理特别适合于可以自然分解成独立任务的应
用程序,例如科学计算和数据分析。
【动态调度】
任务并行处理
任务并行处理是一种并发编程范例,它通过将计算任务分解成较小的
子任务来实现并行性。这些子任务可以并行执行,从而提高程序的整
体性能。
任务并行处理的优点
*可扩展性:任务并行处理可以轻松扩展到多核系统或分布式系统,
因为子任务可以分配给不同的处理器或机器。
*灵活性:它提供了一种灵活的方法来并行化程序,因为子任务可以
动态地创建和调度C
*效率:通过消除共享内存的竞争,任务并行处理可以提高代码的效
率。
任务并行处理的技术
实现任务并行处理有以下几种技术:
*线程:线程是轻量级的执行流,每个线程都可以单独执行代码的子
集。
*进程:进程是独立的执行环境,拥有自己的地址空间和资源。进程
间通信通常比线程间通信更昂贵。
*任务:任务是抽象的计算单位,可以调度到线程或进程上执行。任
务队列管理器负责分配和调度任务。
任务并行处理的挑战
任务并行处理面临以下一些挑战:
*任务分解:将计算任务分解成较小的子任务可能很复杂且耗时。
*任务依赖性:子任务之间可能存在依赖关系,这可能会限制并行性°
*负载均衡:确保子任务均匀地分配给所有可用处理器或机器以获得
最佳性能至关重要。
任务并行处理的应用
任务并行处理广泛应用于各种领域,包括:
*图像和视频处理
*科学计算和仿真
*人工智能和机器学习
*大数据分析
*并行数据库
任务并行处理的示例
考虑一个计算n值的程序。我们可以将该程序分解成若干个子任务,
每个子任务计算n的近似值。这些子任务可以并行执行,并且其结
果可以合并以获得最终值。
结论
任务并行处理是一种强大的技术,可用于并行化各种计算任务。通过
利用线程、进程或任务,程序员可以提高程序的性能、可扩展性和灵
活性。然而,任务并行处理也面临着任务分解、依赖性和负载均衡方
面的挑战。通过仔细考虑这些挑战,程序员可以开发出高效且可扩展
的并行程序。
第六部分存储器层次和并行处理
关键词关键要点
【存储器层次】:
1.存储器层次结构包含多个层次,每个层次的访问速度、
容量和成本各不相同。
2.高速缓存是位于处理器和主存之间的快速存储器,用于
存储常用数据,减少访问主存的次数。
3.主存是计算机的主要存储器,用于存储程序和数据,具
有较大的容量和较慢的访问速度。
【并行处理】:
存储器层次结构
现代并行计算机中的存储器通常被组织成一个层次结构,其中位于层
次结构顶部的存储器速度最快,但容量最小,而位于底部的存储器速
度最慢,但容量最大。这种层次结构的主要目的是提高系统性能,同
时降低成本。
*寄存器:寄存器是最快的存储器类型,直接与处理器通信。它们
具有非常小的容量,通常可以容纳几个字节的数据。
*高速缓存:高速缓存是位于处理器和主存储器之间的快速存储器。
它存储了最近访问过的数据和指令,从而减少了处理器访问主存储器
时的时间延迟。高速缓存分为不同的级别,例如LI、L2和L3o
*主存储器:主存储器(也称为RAM)是位于计算机主板上的主要
存储器组件。它通常比高速缓存更大,但比寄存器慢。主存储器存储
正在执行的程序和数据。
*虚拟存储器:虚拟存储器是一种技术,它使计算机能够访问比物
理内存更大的地址空间。它通过将不经常使用的内存页移动到磁盘
(例如硬盘驱动器)来扩展物理内存的容量,从而实现这一点。
*磁盘存储器:磁盘存储器是非易失性存储器,这意味着即使计算
机关闭,它也会保留数据。磁盘存储器通常比内存慢几个数量级,但
它具有更大的容量。
并行处理
并行处理是一种利用多个处理器或处理核心同时执行任务的技术。这
种方法可以显着提高计算性能,因为它允许任务被分解成更小的子任
务,这些子任务可以在不同处理器上并行执行。
并行处理有不同的实现方法:
*多处理器系统:多处理器系统由多个独立的处理器组成,每个处
理器都有自己的私有内存。处理器通过共享总线或网络通信。
*多核处理器:多核处理器将多个处理器核心集成到单个芯片上。
每个核心都有自己的私有高速缓存,但它们共享主存储器。
*图形处理器(GPU):GPU是一种专门用于图像处理的并行处理器。
它具有大量的流式多处理器,每个多处理器都有自己的内存。
并行处理的挑战
并行处理虽然具有显着的性能优势,但它也带来了许多挑战:
*并行化:将串行程序并行化可能很复杂,因为它涉及将任务分解
成更小的子任务,并确保这些子任务可以并行执行。
*负载均衡:确保不同处理器之间的负载均匀分布很重要,以最大
化性能。
*通信开销:在并行系统中,处理器之间需要通信,这可能会产生
额外的开销,从而抵消并行性的收益。
*数据依赖性:某些任务可能存在数据依赖性,这会限制并行化。
*同步:当处理器必须协调它们的活动时,需要同步机制。
结论
存储器层次结构和并行处理是现代并行计算机体系结构的重要纽成
部分。存储器层次结构通过提供不同速度和容量的存储器来优化系统
性能。并行处理通过利用多个处理器同时执行任务来提高计算能力。
然而,并行处理也带来了挑战,例如并行化、负载均衡和通信开销。
第七部分并行处理中的互联网络
关键词关键要点
并行处理中的互联网络
1.互联网络是并行计算机中处理器之间的通信机制,负责
数据和指令的传输,影响着并行计算机的性能和可扩展性。
2.互联网络拓扑结构有多种类型,包括环形、星形、总线
形、超立方体形等,不同的拓扑结构具有不同的特性,在延
迟、吞吐量和可靠性方面存在权衡。
3.互联网络路由算法决定了数据包在互联网络中的传揄路
径,常用的路由算法包括源路由、目的地路由和虫洞路由,
不同的路由算法具有不同的优点和缺点。
互联网络性能指标
1.带宽:表示互联网络的最大数据传输速率,单位为比特/
秒或比特/秒。
2.延迟:表示数据包从源节点传送到目标节点所需的时间,
单位为秒或微秒。
3.吞吐量:表示互联网络在单位时间内能够传输的数据量,
单位为比特/秒或比特/秒。
互联网络分类
1.静态互联网络:结构固定,不会随时间改变,如环形互
联网络、星形互联网络。
2.动态互联网络:结构可以随着时间改变,如按需互联网
络、自组织互联网络。
3.直接互联网络:处理器之间直接连接,没有中间设备,
如总线形互联网络、交叉条互联网络。
4.间接互联网络:处理器之间通过中间设备连接,如交换
机、路由器,如多级互联网络、胖树互朕网络。
互联网络设计趋势
1.可扩展性:设计互联网络时需要考虑可扩展性,以支持
越来越多的处理器和更大规模的系统。
2.容错性:互联网络需要具有容错性,以应对处理器或链
路故障等异常情况。
3.低延迟、高吞吐量:针对并行应用对低延迟、高吞吐量
的需求,互联网络需要进行优化,以最大限度地减少延迟并
提高吞吐量。
前沿互联网络技术
1.光互联网络:利用光纤进行数据传输,具有超高带宽和
低延迟,是下一代并行计算机互联网络的promising技术。
2.三维互联网络:在三维空间中构建互联网络,可以缩短
处理器之间的距离,降低延迟并提高吞吐量。
3.无线互联网络:利用无线通信技术实现处理器之间的连
接,可以提高移动性和灵活性。
并行处理中的互联网络
互联网络是并行计算机系统中的关键组件,它允许处理器之间以及处
理器与内存之间进行通信。互联网络的设计对系统性能有显著影响,
需要仔细考虑以下因素:
拓扑结构
拓扑结构定义了互联网络中处理器和内存模块的物理布局。常见拓扑
结构包括:
*总线拓扑结构:一个共享的通信总线连接所有处理器和内存模块。
*环形拓扑结构:处理器和内存模块连接成一个环状结构,数据在环
上按顺序传输。
*星形拓扑结构:一个中央交换机连接所有处理器和内存模块。
*网格拓扑结构:处理器和内存模块排列成一个网格状结构。
*超立方体拓扑结构:处理器和内存模块排列成一个超立方体结构,
每个维度对应一个相邻的节点。
路由算法
路由算法控制数据在互联网络中的传输路径。常见路由算法包括:
*最短路径路由:数据沿着最短路径从源节点传输到目标节点。
*虫洞路由:数据作为一个固定大小的数据包传输,数据包的头部包
含目标节点的信息C
*逐跳路由:数据按顺序通过中间节点传输,每个节点决定数据包的
下一个传输路径。
仲裁机制
仲裁机制解决互联网络中同时访问共享资源(例如总线或交换机)的
冲突。常见仲裁机制包括:
*优先级仲裁:优先级较高的请求优先获得资源。
*轮询仲裁:请求按顺序轮询获得资源。
*总线锁机制:请求获得总线锁后才允许访问总线。
吞吐量和延迟
吞吐量衡量互联网络传输数据的速率,延迟衡量数据从源节点传输到
目标节点所需的时间。互联网络的吞吐量和延迟受拓扑结构、路由算
法、仲裁机制和通信协议等因素的影响。
容错性
互联网络应具有容错性,以应对节点或链路故障。常见容错机制包括:
*冗余:使用额外的节点或链路来备份故障的组件。
*重发:当数据传输失败时,重新发送数据。
*错误更正:使用错误更正码来检测和纠正数据传输中的错误。
具体互联网络
以下是一些常见的并行计算机互联网络:
*InfiniBand:一种高速、低延迟的互联网络,用于高性能计算系统。
*以太网:一种通用的互联网络,用于各种并行计算系统。
*PCIExpress:一种高速、点对点的互联网络,用于连接处理器、
显卡和其他设备。
*NVLink:一种专有的互联网络,用于连接英伟达的GPU和加速器。
*Omni-Path:一种高速、低延迟的互联网络,用于高性能计算和人
工智能系统。
互联网络是并行计算机体系结构中的重要组成部分,它的设计对系统
性能有重大影响。通过仔细考虑拓扑结构、路由算法、仲裁机制和容
错性,系统设计者可以创建高效、可靠的互联网络,以满足特定并行
计算应用程序的需求。
第八部分并行计算机程序设计
关键词关键要点
【并行程序设计范例】:
1.数据并行:操作相同数据元素,但分布在不同处理元素
上。
2.任务并行:分解问题为独立任务,并行执行。
3.管道并行:将任务分解为流水线阶段,并行处理数据流。
【并行编程语言和环境】:
并行计算机程序设计
定义
并行计算机程序设计是指利用并行计算机资源来设计和开发算法和
程序的过程。它涉及并行算法的设计、并行程序的编写和调试,以及
利用并行计算机体系结构来优化程序性能。
并行计算机模型
并行计算机模型根据处理器之间的连接方式和通信机制进行分类。常
见的模型包括:
*共享内存模型:所有处理器共享一个全局内存空间,可以同时访问
数据。
*分布式内存模型:每个处理器都有自己的私有内存,并通过消息传
递机制进行通信。
*混合模型:结合共享内存和分布式内存模型的优势。
并行算法设计
并行算法专门为利用并行计算机体系结构而设计。它们的特点是:
*可分解性:任务可以分解成独立的部分,可以并
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 【复习大串讲】【中职专用】高二语文上学期期末综合测试题(三)(职业模块)(原卷版)
- 单位员工招聘合同范本
- 兽医聘用劳务合同范本
- 光催化课题申报书
- 会所物资出售合同范本
- 厨具采买合同范本写
- 吊装合同范例简易版本
- 医院雇佣合同范本
- 企业各类合同范本
- 吊车及场地合作合同范本
- 无痛胃肠镜的护理查房
- 农村生活污水检测服务方案
- 中华人民共和国传染病防治法-李硕娟 陈桂云
- 热力管网运行工施工工序标准详细流程培训
- 智慧农场整体建设实施方案
- 驾驶员心理健康与安全驾驶
- 基于强化学习的特征选择技术
- 灌入式半柔性复合抗车辙路面施工工法
- 小班第一学期教学进度表
- 材料性能学课件:材料的热学性能-2-热传导-热稳定性-
- 幼儿园优质公开课:中班数学《寻宝小勇士》课件
评论
0/150
提交评论