版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
工业机器人控制器:MitsubishiMELFA:MELFA机器人视觉系统集成技术教程1工业机器人控制器概览1.1MitsubishiMELFA控制器介绍MitsubishiMELFA机器人控制器是三菱电机为MELFA系列工业机器人设计的专用控制设备。它集成了运动控制、逻辑控制和通信功能,能够精确地控制机器人的运动轨迹和速度,同时支持多种编程语言和通信协议,便于与工厂自动化系统集成。MELFA控制器的高性能和稳定性,使其在汽车制造、电子装配、食品加工等行业中广泛应用。1.1.1控制器特点高精度运动控制:采用先进的运动控制算法,确保机器人运动的精确性和重复性。多任务处理能力:能够同时执行多个任务,提高生产效率。易于编程:支持多种编程语言,如RPL(RobotProgrammingLanguage)和标准的PLC编程语言,如LadderDiagram。丰富的通信接口:包括以太网、串行接口和现场总线接口,便于与外部设备通信。1.2MELFA控制器硬件组成MELFA控制器的硬件主要包括以下几个部分:主控制器单元:负责处理机器人的运动控制和逻辑控制。电源模块:为控制器提供稳定的电源。伺服驱动器:控制机器人的关节电机,实现精确的运动控制。I/O模块:用于连接外部传感器和执行器,实现与外部设备的交互。通信模块:提供与工厂自动化系统和其他设备的通信接口。1.2.1硬件配置示例假设一个MELFA机器人系统需要连接到工厂的以太网,同时控制6个关节电机,并且需要读取外部传感器数据。硬件配置可能包括:主控制器单元:MELFARC8电源模块:PS-8伺服驱动器:6个SDA-8I/O模块:DI-8和DO-8通信模块:以太网模块1.3MELFA控制器软件环境MELFA控制器的软件环境包括编程软件和运行时系统。编程软件用于编写和调试机器人程序,运行时系统则负责执行程序。1.3.1编程软件MELFA编程软件,如MELFAART,提供了图形化的编程界面,支持RPL和LadderDiagram编程。用户可以通过拖拽组件和编写逻辑来创建机器人程序。1.3.2运行时系统运行时系统包括操作系统和运动控制软件。操作系统负责管理硬件资源和任务调度,运动控制软件则负责解析和执行机器人程序。1.3.3软件环境配置1.3.3.1安装MELFAART下载MELFAART安装包。运行安装程序,按照提示完成安装。连接编程电脑和MELFA控制器。在MELFAART中选择正确的控制器型号和通信设置。1.3.3.2编程示例下面是一个使用RPL编程语言控制MELFA机器人移动到指定位置的示例代码:;MELFARPL编程示例
;控制机器人移动到位置A
;定义位置A
POSA=[100,200,300,0,0,0]
;移动到位置A
MOVEA在上述代码中,首先定义了位置A的坐标,然后使用MOVE命令控制机器人移动到该位置。RPL语言简洁明了,易于理解和使用。1.3.4通信设置MELFA控制器支持多种通信协议,包括EtherCAT、ProfiNET和DeviceNet。在MELFAART中,可以通过设置通信参数来配置这些接口,实现与外部设备的数据交换。1.3.4.1以太网通信配置在MELFAART中打开通信设置。选择以太网模块,设置IP地址和子网掩码。配置数据交换参数,如发送和接收的数据类型和地址。通过以上步骤,可以实现MELFA机器人与工厂自动化系统或其他设备的以太网通信,提高生产过程的自动化水平。以上内容详细介绍了MitsubishiMELFA控制器的基本原理和组成,以及其软件环境的配置和编程示例。通过理解和掌握这些知识,可以有效地使用MELFA控制器来控制和管理工业机器人,提高生产效率和产品质量。2MELFA机器人视觉系统基础2.1视觉系统在工业机器人中的应用在现代工业自动化中,视觉系统扮演着至关重要的角色。它使机器人能够“看”和理解其环境,从而执行更复杂的任务,如零件检测、定位、质量控制和装配。MitsubishiMELFA机器人通过集成视觉系统,能够实现高精度的视觉引导操作,提高生产效率和产品质量。2.1.1应用场景示例假设在汽车制造线上,需要机器人对车身进行精确的焊接操作。通过视觉系统,机器人可以实时检测车身的位置和姿态,即使车身在传送带上轻微移动或倾斜,机器人也能调整其动作,确保焊接点准确无误。2.2MELFA视觉系统组件MELFA视觉系统由多个关键组件构成,包括:相机:用于捕捉图像,可以是2D或3D相机,根据应用需求选择。光源:提供稳定的照明,确保图像质量,减少阴影和反光。图像处理软件:分析和解释图像数据,识别特征,计算位置信息。通信接口:视觉系统与机器人控制器之间的数据传输通道。机器人控制器:接收视觉系统数据,调整机器人动作。2.2.1组件交互流程图像捕获:相机拍摄工作区域的图像。图像处理:软件分析图像,识别目标物体的位置和姿态。数据传输:处理后的数据通过通信接口发送给机器人控制器。动作调整:控制器根据视觉数据调整机器人动作,实现精确操作。2.3视觉系统工作原理MELFA机器人视觉系统的工作原理基于图像处理和模式识别技术。它通过分析图像中的特征,如边缘、形状和颜色,来识别和定位物体。这些信息被转换为机器人可以理解的坐标数据,从而指导机器人的动作。2.3.1图像处理算法示例2.3.1.1边缘检测边缘检测是视觉系统中常用的一种图像处理技术,用于识别图像中物体的边界。下面是一个使用OpenCV库进行边缘检测的Python代码示例:importcv2
importnumpyasnp
#读取图像
image=cv2.imread('part.jpg',cv2.IMREAD_GRAYSCALE)
#应用Canny边缘检测算法
edges=cv2.Canny(image,threshold1=100,threshold2=200)
#显示边缘图像
cv2.imshow('Edges',edges)
cv2.waitKey(0)
cv2.destroyAllWindows()2.3.1.2特征匹配特征匹配是将图像中的特征与数据库中的特征进行比较,以识别物体。下面是一个使用SIFT算法进行特征匹配的示例:importcv2
importnumpyasnp
#创建SIFT对象
sift=cv2.SIFT_create()
#读取目标图像和模板图像
target=cv2.imread('target.jpg',cv2.IMREAD_GRAYSCALE)
template=cv2.imread('template.jpg',cv2.IMREAD_GRAYSCALE)
#计算特征点和描述符
kp_target,des_target=sift.detectAndCompute(target,None)
kp_template,des_template=sift.detectAndCompute(template,None)
#创建特征匹配器
bf=cv2.BFMatcher()
#匹配描述符
matches=bf.knnMatch(des_target,des_template,k=2)
#应用比率测试
good=[]
form,ninmatches:
ifm.distance<0.75*n.distance:
good.append([m])
#绘制匹配结果
img_matches=cv2.drawMatchesKnn(target,kp_target,template,kp_template,good,None,flags=cv2.DrawMatchesFlags_NOT_DRAW_SINGLE_POINTS)
#显示匹配图像
cv2.imshow('Matches',img_matches)
cv2.waitKey(0)
cv2.destroyAllWindows()2.3.2数据样例假设从相机捕获的图像中,通过图像处理算法识别出一个零件的位置信息如下:X坐标:120.5mmY坐标:85.2mmZ坐标:10.0mm旋转角度:15.3°这些数据将被发送给机器人控制器,用于调整机器人的抓取位置和姿态。通过以上内容,我们了解了MELFA机器人视觉系统的基础知识,包括其在工业自动化中的应用、系统组件以及工作原理。掌握这些信息,将有助于更深入地理解如何在实际生产环境中集成和优化视觉系统,以实现更高效、更精确的机器人操作。3MELFA机器人视觉系统集成准备3.1选择合适的视觉传感器在集成MELFA机器人视觉系统时,选择合适的视觉传感器至关重要。视觉传感器的类型和性能直接影响到机器人对环境的感知能力和执行任务的精度。以下是一些关键因素,需要在选择视觉传感器时考虑:分辨率:高分辨率的传感器能够提供更清晰的图像,适合于需要高精度识别的场景。帧率:高帧率的传感器适合于需要快速响应的动态环境。视野范围:根据工作区域的大小选择合适的视野范围,确保能够覆盖所有需要监控的区域。光照适应性:传感器应能在不同的光照条件下工作,包括低光和高光环境。接口类型:确保传感器的接口与MELFA控制器兼容,常见的接口有USB、GigEVision等。3.1.1示例:选择GigEVision相机假设我们选择了一款GigEVision相机,其参数如下:分辨率:1280x1024帧率:60fps视野范围:100mmx80mm光照适应性:自动曝光和增益控制接口:GigEVision3.2视觉系统与MELFA控制器的连接连接视觉系统与MELFA控制器需要确保两者之间的通信稳定且高效。MELFA机器人支持多种通信方式,包括以太网、串行通信等。对于GigEVision相机,我们将使用以太网进行连接。3.2.1连接步骤物理连接:使用以太网线将相机连接到MELFA控制器的以太网端口。网络配置:在MELFA控制器上配置相机的IP地址,确保两者在同一网络中。通信协议设置:启用GigEVision协议,使MELFA控制器能够识别并接收来自相机的数据。3.2.2示例:配置相机IP地址在MELFA控制器上,通过以下步骤配置相机的IP地址:进入网络设置菜单。选择GigEVision相机。设置相机的静态IP地址,例如:192.168.1.10。确认设置并重启控制器。3.3安装视觉系统软件为了使MELFA机器人能够处理视觉数据,需要在控制器上安装视觉系统软件。这通常包括图像处理库和视觉识别算法。3.3.1安装步骤下载软件:从Mitsubishi官方网站下载适用于MELFA控制器的视觉系统软件。安装准备:确保控制器的系统版本与软件兼容。执行安装:按照软件安装指南的步骤,在控制器上执行安装过程。软件配置:配置软件参数,如相机参数、图像处理算法等。3.3.2示例:安装图像处理库假设我们正在安装一个名为VisionLib的图像处理库,步骤如下:下载:从Mitsubishi官方网站下载VisionLib安装包。准备:检查MELFA控制器的系统版本,确保与VisionLib兼容。安装:通过控制器的文件管理器上传VisionLib安装包,并执行安装命令。配置:在软件中设置相机参数,如分辨率、帧率等。#上传VisionLib安装包到MELFA控制器
scpVisionLib.tar.gzuser@192.168.1.10:/tmp/
#在控制器上解压并安装VisionLib
sshuser@192.168.1.10
cd/tmp/
tar-xzfVisionLib.tar.gz
cdVisionLib/
./install.sh完成上述步骤后,MELFA机器人视觉系统集成的准备工作就完成了。接下来,可以开始编写视觉识别算法,使机器人能够根据视觉数据执行特定任务。4视觉系统编程与控制4.1使用MELFA程序语言进行视觉编程在工业自动化领域,三菱MELFA机器人控制器的视觉编程是实现机器人智能化操作的关键。MELFA程序语言,即MELFABasic,是三菱机器人控制器上用于编程的专用语言,它支持视觉系统的集成,使得机器人能够根据视觉数据进行决策和动作调整。4.1.1示例代码:读取视觉数据;读取视觉系统数据示例
;假设视觉系统已配置并连接至机器人控制器
;定义视觉系统数据寄存器
VR[1]=0
;读取视觉系统数据
READ_VISION_DATAVR[1]
;VR[1]现在包含视觉系统返回的数据在上述代码中,我们首先定义了一个视觉寄存器VR[1],然后使用READ_VISION_DATA指令读取视觉系统数据到该寄存器中。这一步骤是视觉编程的基础,后续的处理和分析都将基于这些数据。4.2视觉数据处理与分析视觉数据处理与分析是将原始视觉信息转化为机器人可理解的指令的过程。这包括图像预处理、特征提取、模式识别等步骤,最终目的是让机器人能够识别目标物体的位置、形状、颜色等信息。4.2.1示例代码:图像预处理;图像预处理示例
;假设图像数据已由视觉系统捕获并存储在VR[1]中
;定义图像处理参数
IMAGE_PROCESSING_PARAM=100
;执行图像预处理
IMAGE_PREPROCESSVR[1],IMAGE_PROCESSING_PARAM
;VR[1]现在包含预处理后的图像数据在本例中,我们定义了一个图像处理参数IMAGE_PROCESSING_PARAM,并使用IMAGE_PREPROCESS指令对存储在VR[1]中的原始图像数据进行预处理。预处理可能包括调整亮度、对比度、滤波等操作,以提高后续特征提取的准确性。4.2.2示例代码:特征提取;特征提取示例
;假设预处理后的图像数据存储在VR[1]中
;定义特征提取类型
FEATURE_EXTRACTION_TYPE=1;1表示边缘检测
;执行特征提取
FEATURE_EXTRACTVR[1],FEATURE_EXTRACTION_TYPE
;VR[1]现在包含提取的特征数据通过FEATURE_EXTRACT指令,我们可以根据定义的FEATURE_EXTRACTION_TYPE对预处理后的图像进行特征提取。在本例中,我们选择了边缘检测作为特征提取的类型,这有助于机器人识别物体的轮廓。4.3实现视觉引导的机器人运动视觉引导的机器人运动是指机器人根据视觉系统提供的数据调整其运动轨迹和操作。这通常涉及到坐标转换、路径规划和运动控制等技术。4.3.1示例代码:基于视觉数据的坐标转换;基于视觉数据的坐标转换示例
;假设目标物体的视觉坐标存储在VR[1]中
;定义视觉坐标到机器人坐标转换参数
VISION_TO_ROBOT_PARAM=200
;执行坐标转换
COORDINATE_TRANSFORMVR[1],VISION_TO_ROBOT_PARAM
;VR[1]现在包含转换后的机器人坐标在本例中,我们使用COORDINATE_TRANSFORM指令将存储在VR[1]中的视觉坐标转换为机器人坐标。这一步骤是机器人能够根据视觉信息进行精确操作的前提。4.3.2示例代码:路径规划与运动控制;路径规划与运动控制示例
;假设目标位置的机器人坐标存储在VR[1]中
;定义运动速度
MOVEMENT_SPEED=50
;定义运动路径
PATH[1]=VR[1]
;执行路径规划
PATH_PLANPATH[1]
;控制机器人运动
MOVEROBOT,PATH[1],MOVEMENT_SPEED
;机器人现在将按照规划的路径移动至目标位置通过PATH_PLAN指令,我们对存储在PATH[1]中的目标位置进行路径规划。然后,使用MOVE指令控制机器人按照规划的路径和定义的速度移动至目标位置。这实现了基于视觉数据的机器人运动控制。以上示例代码和数据样例展示了如何在三菱MELFA机器人控制器上集成视觉系统,进行视觉编程、数据处理与分析,以及实现视觉引导的机器人运动。这些步骤是工业自动化中视觉系统集成的核心,能够显著提高机器人操作的精度和效率。5高级视觉系统集成技术5.1多传感器融合技术5.1.1原理多传感器融合技术是将来自不同传感器的数据进行综合处理,以提高信息的准确性和可靠性。在工业机器人领域,尤其是MitsubishiMELFA机器人的视觉系统集成中,多传感器融合可以结合视觉传感器、力传感器、位置传感器等的数据,实现对环境更全面、更精确的感知。这种技术的核心在于数据融合算法,常见的有卡尔曼滤波、粒子滤波、贝叶斯估计等。5.1.2内容5.1.2.1数据融合算法示例:卡尔曼滤波假设我们有一个MitsubishiMELFA机器人,需要融合视觉传感器和位置传感器的数据来更准确地确定其位置。以下是一个使用Python实现的卡尔曼滤波算法示例:importnumpyasnp
#定义状态转移矩阵
F=np.array([[1,1],[0,1]])
#定义观测矩阵
H=np.array([[1,0]])
#定义过程噪声协方差矩阵
Q=np.array([[0.1,0.05],[0.05,0.1]])
#定义观测噪声协方差矩阵
R=np.array([[1.0]])
#定义估计误差协方差矩阵
P=np.array([[1,0],[0,1]])
#定义初始状态估计
x=np.array([[0],[0]])
#观测数据
Z=np.array([[1],[2],[3],[4],[5]])
#卡尔曼滤波函数
defkalman_filter(Z):
#预测更新
x=np.dot(F,x)
P=np.dot(np.dot(F,P),F.T)+Q
#观测更新
forninrange(len(Z)):
#计算卡尔曼增益
K=np.dot(np.dot(P,H.T),np.linalg.inv(np.dot(np.dot(H,P),H.T)+R))
#更新状态估计
x=x+np.dot(K,(Z[n]-np.dot(H,x)))
#更新估计误差协方差
P=np.dot((np.eye(len(x))-np.dot(K,H)),P)
returnx
#调用卡尔曼滤波函数
x=kalman_filter(Z)
print("最终状态估计:",x)5.1.2.2解释在这个示例中,我们使用了卡尔曼滤波算法来融合MELFA机器人从视觉传感器和位置传感器获取的数据。F矩阵描述了状态如何从一个时间步转移到下一个时间步,H矩阵描述了传感器如何观测状态,Q和R矩阵分别表示过程噪声和观测噪声的协方差,P矩阵表示估计误差的协方差。通过迭代预测和观测更新步骤,卡尔曼滤波能够提供更准确的状态估计。5.2视觉系统与机器人协作优化5.2.1原理视觉系统与机器人协作优化是指通过调整视觉系统和机器人控制器的参数,以提高机器人在执行任务时的效率和准确性。这通常涉及到视觉传感器的校准、图像处理算法的优化、以及机器人运动规划的调整。5.2.2内容5.2.2.1视觉传感器校准示例在MitsubishiMELFA机器人的视觉系统集成中,视觉传感器的校准是关键步骤。以下是一个使用OpenCV进行相机标定的Python代码示例:importcv2
importnumpyasnp
#定义棋盘格的角点数量
CHECKERBOARD=(6,9)
#定义世界坐标系中的角点位置
world_points=np.zeros((1,CHECKERBOARD[0]*CHECKERBOARD[1],3),np.float32)
world_points[0,:,:2]=np.mgrid[0:CHECKERBOARD[0],0:CHECKERBOARD[1]].T.reshape(-1,2)
#存储所有图像中的角点
image_points=[]
world_points_list=[]
#读取图像并寻找角点
foriinrange(1,11):
img=cv2.imread(f'calibration_image_{i}.jpg')
gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
ret,corners=cv2.findChessboardCorners(gray,CHECKERBOARD,None)
ifret:
image_points.append(corners)
world_points_list.append(world_points)
#进行相机标定
ret,camera_matrix,dist,rvecs,tvecs=cv2.calibrateCamera(world_points_list,image_points,gray.shape[::-1],None,None)
#打印相机内参矩阵
print("CameraMatrix:\n",camera_matrix)5.2.2.2解释这段代码示例展示了如何使用OpenCV库进行相机标定。通过读取一系列包含棋盘格的图像,找到棋盘格的角点,并将这些角点在图像坐标系和世界坐标系中的位置进行匹配,可以计算出相机的内参矩阵和畸变参数。这一步骤对于后续的图像处理和机器人定位至关重要。5.3故障诊断与系统维护5.3.1原理故障诊断与系统维护是确保MitsubishiMELFA机器人视觉系统长期稳定运行的关键。这包括对视觉系统和机器人控制器的定期检查、故障检测、以及必要的维护和修复。故障诊断通常基于传感器数据的异常检测,而系统维护则涉及软件更新、硬件检查和清洁等。5.3.2内容5.3.2.1异常检测示例:基于统计的方法在MitsubishiMELFA机器人的视觉系统中,可以通过分析传感器数据的统计特性来检测异常。以下是一个使用Python和Pandas库进行异常检测的示例:importpandasaspd
importnumpyasnp
#读取传感器数据
data=pd.read_csv('sensor_data.csv')
#计算均值和标准差
mean=data.mean()
std=data.std()
#定义异常阈值
threshold=3*std
#检测异常值
outliers=data[(data-mean).abs()>threshold]
#打印异常值
print("异常值:\n",outliers)5.3.2.2解释在这个示例中,我们首先读取了传感器数据,然后计算了数据的均值和标准差。通过定义一个异常阈值(通常是3倍标准差),我们可以检测出超出正常范围的数据点,这些点可能表示系统故障或异常情况。这种方法简单有效,适用于初步的故障检测。以上示例和解释详细介绍了MitsubishiMELFA机器人视觉系统集成中的高级视觉系统集成技术,包括多传感器融合技术、视觉系统与机器人协作优化,以及故障诊断与系统维护。通过这些技术的应用,可以显著提高机器人的感知能力和任务执行效率。6案例研究与实践6.1MELFA视觉系统在汽车制造中的应用在汽车制造业中,MitsubishiMELFA机器人视觉系统集成被广泛应用于各种自动化任务,从零件检测到装配线上的质量控制。下面,我们将通过一个具体的案例来探讨MELFA视觉系统如何在汽车制造中提高生产效率和产品质量。6.1.1案例背景假设在一家汽车制造厂的装配线上,需要对发动机缸体进行精确的尺寸和缺陷检测。传统的检测方法依赖于人工检查,不仅效率低下,而且容易出现人为错误。引入MELFA视觉系统后,可以实现24/7的自动化检测,提高检测精度和速度。6.1.2视觉系统集成MELFA视觉系统集成包括以下步骤:相机和照明配置:选择合适的工业相机和照明设备,确保能够清晰捕捉发动机缸体的细节。图像采集:使用MELFA机器人控制相机在预设位置进行图像采集。图像处理:通过图像处理算法,如边缘检测、尺寸测量和缺陷识别,分析采集到的图像。结果反馈:将检测结果反馈给MELFA机器人控制器,决定是否通过或需要进一步处理。6.1.3代码示例下面是一个使用Python和OpenCV进行图像处理的示例代码,用于检测发动机缸体的尺寸是否符合标准。importcv2
importnumpyasnp
#图像读取
image=cv2.imread('engine_block.jpg',cv2.IMREAD_GRAYSCALE)
#边缘检测
edges=cv2.Canny(image,100,200)
#轮廓检测
contours,_=cv2.findContours(edges,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE)
#尺寸测量
forcontourincontours:
x,y,w,h=cv2.boundingRect(contour)
ifw>100andh>100:#假设标准尺寸为100x100像素
print("Engineblocksizeiswithinstandard.")
else:
print("Engineblocksizeisnotwithinstandard.")
#显示结果
cv2.imshow('Edges',edges)
cv2.waitKey(0)
cv2.destroyAllWindows()6.1.4解释此代码首先读取发动机缸体的灰度图像,然后使用Canny边缘检测算法来突出图像中的边缘。接着,通过findContours函数检测图像中的轮廓,并对每个轮廓进行尺寸测量。如果检测到的尺寸超过预设的阈值(100x100像素),则认为尺寸符合标准,否则,尺寸不符合标准。6.2食品包装行业中的视觉系统集成食品包装行业对产品的一致性和卫生有严格要求,MELFA视觉系统集成可以确保包装过程的准确性和效率。6.2.1案例背景在一家食品包装厂,需要对包装袋进行颜色和形状的一致性检查,以确保产品符合品牌标准。MELFA视觉系统可以自动识别和分类不同颜色和形状的包装袋,减少人工错误和提高生产速度。6.2.2视觉系统集成相机配置:选择高分辨率的相机,确保能够清晰捕捉包装袋的细节。图像采集:在包装线上设置多个采集点,确保每个包装袋都被检查。图像处理:使用颜色识别和形状匹配算法,对图像进行分析。分类和反馈:根据分析结果,将包装袋分类,并将结果反馈给包装线上的机器人,进行相应的处理。6.2.3代码示例下面是一个使用Python和OpenCV进行颜色识别的示例代码。importcv2
importnumpyasnp
#图像读取
image=cv2.imread('package.jpg')
#转换到HSV颜色空间
hsv=cv2.cvtColor(image,cv2.COLOR_BGR2HSV)
#定义颜色范围
lower_red=np.array([0,50,50])
upper_red=np.array([10,255,255])
mask1=cv2.inRange(hsv,lower_red,upper_red)
lower_red=np.array([170,50,50])
upper_red=np.array([180,255,255])
mask2=cv2.inRange(hsv,lower_red,upper_red)
mask=mask1+mask2
#轮廓检测
contours,_=cv2.findContours(mask,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE)
#颜色识别
forcontourincontours:
area=cv2.contourArea(contour)
ifarea>1000:#假设标准颜色区域面积大于1000像素
print("Packagecoloriswithinstandard.")
else:
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 艺术教育微课程创作方案
- 塑料排水板在水利工程中的应用方案
- 文化遗产档案信息管理方案
- 物业管理公司财务预算制度
- 园林景观喷漆设计合同
- 农村合作社农产品采购制度
- 环保组织社区文明倡导方案
- 金属窗户施工安全管理方案
- 型钢与混凝土结构施工安全方案
- 高校翻转课堂教学模式实施方案
- 乡村振兴战略项目经费绩效评价指标体系及分值表
- 构造柱工程施工技术交底
- 读《学校与社会明日之学校》有感
- 医院科室质量与安全管理小组工作记录本目录
- 断路器失灵保护及远跳详解
- 300字方格纸模板
- 草诀百韵歌原文及解释
- 钢网架防火涂料施工方案
- 肺癌的护理常规(PPT课件)
- 农村商业银行信贷业务发展规划-2019年文档
- 一汽大众供应商物流管理评价标准
评论
0/150
提交评论