基于支持向量机的手写数字识别作业指导书_第1页
基于支持向量机的手写数字识别作业指导书_第2页
基于支持向量机的手写数字识别作业指导书_第3页
基于支持向量机的手写数字识别作业指导书_第4页
基于支持向量机的手写数字识别作业指导书_第5页
已阅读5页,还剩12页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于支持向量机的手写数字识别作业指导书TOC\o"1-2"\h\u13093第一章绪论 2171931.1手写数字识别概述 213211.2支持向量机简介 215792第二章支持向量机理论基础 3231552.1线性可分支持向量机 3110882.2线性不可分支持向量机 453052.3核函数及其应用 44145第三章数据预处理 5214103.1数据清洗与标准化 543403.1.1数据清洗 516603.1.2数据标准化 541243.2数据分割与降维 672963.2.1数据分割 69513.2.2数据降维 620570第四章支持向量机模型训练 7115984.1模型选择与参数设置 7124944.2模型训练与优化 7282654.3模型评估与调整 722452第五章手写数字识别算法实现 815825.1算法流程设计 824645.2特征提取与选择 8104575.3分类器设计与实现 93053第六章实验环境与工具 10102806.1Python环境配置 10112716.1.1安装Python 10235316.1.2安装pip 1026016.1.3配置环境变量 10134056.1.4安装虚拟环境(可选) 1027966.2Scikitlearn库介绍 10276276.2.1简单易用 10118606.2.2丰富的算法支持 10155126.2.3良好的文档和社区支持 11164476.2.4安装与使用 11238416.3实验工具与数据集 11136716.3.1实验工具 11277806.3.2数据集 1124914第七章实验结果分析 11262787.1实验结果展示 11217347.2实验结果对比 12212777.3实验结果优化 1229311第八章支持向量机在手写数字识别中的应用 13101028.1应用场景分析 13275658.2案例分析与实现 13246778.3优缺点分析 1315889第九章支持向量机的改进与发展 14127419.1算法改进方向 14122699.2现代支持向量机技术 14274809.3发展趋势与展望 154706第十章总结与展望 152472710.1作业总结 153237010.2存在问题与改进方向 162153710.3未来研究趋势 16第一章绪论1.1手写数字识别概述手写数字识别是计算机视觉和模式识别领域的一个重要研究方向,它主要研究如何让计算机自动识别和理解人类手写的数字。手写数字识别技术在现实生活中的应用非常广泛,如邮件分类、银行支票处理、数字图像处理等。在手写数字识别过程中,关键问题是如何提高识别的准确性和鲁棒性,从而使得计算机能够更好地适应各种复杂环境。手写数字识别技术主要分为两个阶段:特征提取和分类识别。特征提取是指从手写数字图像中提取出对分类有用的信息,如笔画、形状、大小等。分类识别则是根据提取的特征,将手写数字划分为相应的类别。目前手写数字识别方法主要包括基于模板匹配、神经网络、支持向量机等。1.2支持向量机简介支持向量机(SupportVectorMachine,SVM)是一种基于统计学习理论的二分类模型,由VladimirVapnik等人于1995年提出。SVM的核心思想是通过找到一个最优的超平面,将不同类别的数据点分开。最优超平面是指能够最大化分类间隔的超平面,即距离两类数据点最近的点到超平面的距离之和最大。支持向量机的基本模型是线性可分支持向量机,其主要应用于线性可分的数据集。但是在现实世界中,很多数据集并不是线性可分的。为了处理非线性问题,SVM引入了核函数,将原始数据映射到高维空间,使得在高维空间中数据可分。常用的核函数包括线性核、多项式核、径向基函数(RBF)等。支持向量机具有以下优点:(1)理论基础严谨:SVM基于统计学习理论,具有较强的泛化能力,不易过拟合。(2)可扩展性强:SVM可以应用于多种类型的分类问题,如线性、非线性分类,多分类等。(3)优化算法成熟:SVM的优化问题可以转化为求解凸二次规划问题,具有全局最优解。(4)可解释性强:SVM的分类结果可以直观地表示为支持向量的组合,便于理解。在手写数字识别领域,支持向量机作为一种有效的分类方法,得到了广泛的应用。通过合理选择核函数和参数,SVM可以实现较高的识别准确率。但是SVM在手写数字识别中的应用也存在一定的局限性,如计算复杂度高、参数调整困难等。因此,在手写数字识别研究中,摸索更高效、更鲁棒的分类方法具有重要意义。第二章支持向量机理论基础2.1线性可分支持向量机线性可分支持向量机(LinearSupportVectorMachine,简称LSVM)是支持向量机的一种基本形式。其主要思想是通过找到一个最优的超平面,将不同类别的样本点分开,且使得两类样本点到超平面的距离最大化。在LSVM中,给定一个训练集$T=\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\}$,其中$x_i\in\mathbb{R}^n$表示第$i$个样本点的特征向量,$y_i\in\{1,1\}$表示第$i$个样本点的类别标签。我们的目标是找到一个超平面$g(x)=w^Txb=0$,使得对于所有的$i$,都有$y_i(w^Tx_ib)\geq1$。为了求解最优超平面,我们需要解决以下优化问题:$$\begin{align}\min_{w,b}&\frac{1}{2}w^2\\\s.t.&y_i(w^Tx_ib)\geq1,\quadi=1,2,\cdots,N\end{align}$$通过对上述优化问题求解,我们可以得到最优解$w^$和$b^$,进而得到最优超平面$g(x)=w^xb^=0$。2.2线性不可分支持向量机在实际应用中,我们常常遇到线性不可分的数据集。对于这类数据集,线性可分支持向量机无法找到一个能够将所有样本点正确分类的超平面。为了解决这一问题,引入了线性不可分支持向量机(NonlinearSupportVectorMachine,简称NLSVM)。NLSVM通过引入松弛变量$\xi_i\geq0$,将原问题转化为以下形式:$$\begin{align}\min_{w,b,\xi}&\frac{1}{2}w^2C\sum_{i=1}^N\xi_i\\\s.t.&y_i(w^Tx_ib)\geq1\xi_i,\quadi=1,2,\cdots,N\end{align}$$其中,$C$是一个正则化参数,用于控制模型对误分类的容忍程度。通过求解上述优化问题,我们可以得到最优解$w^$、$b^$和$\xi^$,进而得到最优分类超平面。2.3核函数及其应用核函数是支持向量机中的一个重要概念,其主要作用是在原始特征空间中无法找到一个线性超平面时,通过映射将数据映射到一个高维空间,使得在高维空间中数据可分。核函数的定义如下:给定一个特征空间$\mathcal{X}$上的数据集$T=\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\}$,核函数$k(x_i,x_j)$是一个映射,满足以下条件:$$k(x_i,x_j)=\langle\phi(x_i),\phi(x_j)\rangle$$其中,$\phi(x)$是映射函数,将原始特征空间$\mathcal{X}$映射到高维特征空间$\mathcal{H}$。常见的核函数有以下几种:(1)线性核函数:$k(x_i,x_j)=x_i^Tx_j$(2)多项式核函数:$k(x_i,x_j)=(x_i^Tx_j)^p$(3)高斯核函数:$k(x_i,x_j)=e^{\gammax_ix_j^2}$(4)Sigmoid核函数:$k(x_i,x_j)=\tanh(\gammax_i^Tx_jr)$核函数在支持向量机中的应用主要体现在求解优化问题时,通过引入核函数,将原始优化问题转化为高维特征空间中的优化问题,从而实现非线性分类。具体来说,在求解NLSVM的优化问题时,我们可以使用核函数将数据映射到高维空间,然后在高维空间中求解最优超平面。这样,我们就可以利用核函数处理线性不可分的数据集。第三章数据预处理3.1数据清洗与标准化3.1.1数据清洗在手写数字识别任务中,数据清洗是的一步。数据清洗的主要目的是识别和修正数据集中的错误、异常和缺失值,以保证后续的数据分析和建模过程能够顺利进行。对数据集进行初步检查,识别出任何可能的错误标记、异常值或缺失数据。在手写数字识别任务中,这些异常可能包括不清晰的图像、图像标签错误或图像损坏。针对这些异常,可以采取以下措施进行处理:对于错误的标签,进行人工审核和修正;对于不清晰的图像,尝试通过图像增强技术进行修复,如滤波、去噪等;对于损坏的图像,进行删除或替换。3.1.2数据标准化数据标准化是数据预处理的关键步骤,其目的是将数据转换为具有统一量纲和分布的格式,以便于模型训练和评估。在手写数字识别任务中,数据标准化的方法主要有以下两种:归一化:将图像像素值归一化到[0,1]区间,即将原始像素值除以像素值的最大值。标准化:将图像像素值转换为均值为0,标准差为1的分布。具体计算公式如下:\(x_{std}=\frac{x\mu}{\sigma}\)其中,\(x\)为原始像素值,\(\mu\)为图像像素值的平均值,\(\sigma\)为图像像素值的标准差。通过对数据集进行归一化或标准化处理,可以使得模型训练过程更加稳定,提高模型泛化能力。3.2数据分割与降维3.2.1数据分割数据分割是将数据集划分为训练集、验证集和测试集的过程。在手写数字识别任务中,数据分割的主要目的是为了评估模型的功能和泛化能力。以下是一种常用的数据分割方法:训练集:用于模型训练,通常占总数据集的60%;验证集:用于模型调优,通常占总数据集的20%;测试集:用于模型功能评估,通常占总数据集的20%。数据分割可以使用随机划分或分层划分的方法。随机划分是指将数据集随机分为训练集、验证集和测试集;而分层划分是指按照数据集中的类别比例进行划分,以保证每个类别在各个数据集中的比例相同。3.2.2数据降维在手写数字识别任务中,原始图像数据维度较高,可能导致模型训练过程计算复杂度较高,过拟合风险增加。因此,数据降维是提高模型功能和减少计算量的有效手段。以下两种常用数据降维方法:主成分分析(PCA):通过线性变换,将原始数据投影到低维空间,使得数据在低维空间中的方差最大。PCA适用于线性可分的数据集,在手写数字识别任务中,可以有效地降低数据维度。tSNE(tDistributedStochasticNeighborEmbedding):一种非线性降维方法,通过保持原始数据中相似度较高的样本在低维空间中的相似度,实现数据的降维。tSNE适用于展示数据的聚类效果,但计算复杂度较高。通过对数据集进行降维处理,可以提高模型训练效率,降低过拟合风险,从而提高手写数字识别模型的功能。第四章支持向量机模型训练4.1模型选择与参数设置在进行手写数字识别的过程中,支持向量机(SupportVectorMachine,SVM)是一种有效的分类方法。需要根据实际问题选择合适的SVM模型。对于线性可分问题,可以选择线性核函数的SVM;对于非线性问题,可以选择径向基函数(RadialBasisFunction,RBF)核或多项式核等。在模型选择过程中,参数设置是关键。SVM的主要参数包括惩罚系数C、核函数参数γ以及核函数类型。C值越大,模型对分类错误的容忍度越低,过拟合风险越高;C值越小,模型对分类错误的容忍度越高,欠拟合风险越高。核函数参数γ控制着核函数的形状,影响着模型拟合数据的程度。核函数类型决定了模型的表达能力,不同类型的核函数适用于不同类型的数据。4.2模型训练与优化在确定了SVM模型及参数后,进行模型训练。对训练数据进行预处理,包括归一化、去噪等。利用选择的SVM模型对训练数据进行训练,求解最优分类超平面。训练过程中,通过优化目标函数,使模型在训练数据上达到较高的分类准确率。优化目标函数通常采用序列最小优化(SequentialMinimalOptimization,SMO)算法。SMO算法将原问题分解为一系列最小化问题,每个最小化问题仅涉及两个变量,从而简化计算。在优化过程中,需要不断更新参数,直至达到预设的收敛条件。4.3模型评估与调整模型训练完成后,需要对模型进行评估,以检验其在测试数据上的表现。常用的评估指标包括准确率、精确率、召回率和F1值等。通过评估指标,可以了解模型在手写数字识别任务中的功能。若模型功能不佳,需要对其进行调整。调整方法包括:调整参数C、γ和核函数类型,增加训练数据,改进特征提取方法等。在调整过程中,需要反复进行模型训练和评估,直至找到最优的模型参数。在模型评估与调整过程中,还需注意以下几点:(1)交叉验证:为避免过拟合,可采用交叉验证方法评估模型功能。将数据集分为k个子集,每次留出一个子集作为测试集,其余子集作为训练集,重复k次,计算平均功能指标。(2)正则化:为降低过拟合风险,可在目标函数中添加正则化项。常用的正则化方法有L1正则化和L2正则化。(3)超参数优化:采用网格搜索、随机搜索等方法,寻找最优的模型参数。通过以上方法,可以有效地训练和优化SVM模型,提高手写数字识别的准确率。第五章手写数字识别算法实现5.1算法流程设计手写数字识别算法的实现主要分为以下几个步骤:(1)数据预处理:对输入的手写数字图像进行灰度化、去噪、归一化等操作,以消除图像中的干扰因素,提高识别准确率。(2)特征提取:从预处理后的图像中提取出有助于分类的特征,如方向梯度直方图(HOG)、局部二值模式(LBP)等。(3)特征选择:对提取的特征进行筛选,保留对分类有较大贡献的特征,降低特征维度,提高算法效率。(4)分类器设计:选择支持向量机(SVM)作为分类器,采用多分类策略,对手写数字进行分类。(5)模型训练与优化:使用训练集对分类器进行训练,调整参数以优化模型功能。(6)模型评估与调整:使用测试集对训练好的模型进行评估,根据评估结果调整模型参数,直至满足识别要求。5.2特征提取与选择在手写数字识别中,特征提取与选择是关键步骤。以下介绍两种常用的特征提取方法:(1)方向梯度直方图(HOG):HOG特征提取方法通过计算图像局部区域的梯度方向和梯度大小,将其编码为直方图,从而提取出图像的纹理特征。(2)局部二值模式(LBP):LBP特征提取方法将图像划分为若干子区域,计算子区域内像素点的二值模式,从而提取出图像的局部特征。在特征选择方面,可以采用以下策略:(1)相关性分析:分析各个特征与类别标签之间的相关性,保留相关性较高的特征。(2)递归特征消除(RFE):通过递归减少特征集大小的方式来选择特征,每次迭代中移除重要性最低的特征。5.3分类器设计与实现支持向量机(SVM)是一种常用的二分类方法,通过找到一个最优的超平面,将不同类别的样本分开。在手写数字识别中,可以采用以下策略实现多分类SVM:(1)一对多(OvO)策略:对于每个类别,训练一个SVM分类器,将当前类别与其他类别分开。识别时,将输入图像分别输入到各个分类器中,选择得分最高的类别作为识别结果。(2)一对一(OvR)策略:对于每个类别,训练一个SVM分类器,将当前类别与另一个类别分开。识别时,将输入图像分别输入到所有分类器中,选择得分最高的类别作为识别结果。在实现过程中,需要注意以下几点:(1)选择合适的核函数:SVM的功能很大程度上取决于核函数的选择。常见的核函数包括线性核、多项式核、径向基函数(RBF)等。可以根据数据特点选择合适的核函数。(2)参数调整:SVM的参数包括惩罚系数C和核函数参数。可以通过交叉验证等方法调整参数,以优化模型功能。(3)优化算法:SVM的训练过程涉及到优化问题,可以采用序列最小优化(SMO)算法等求解方法,以提高训练速度。(4)模型评估:使用准确率、召回率、F1值等指标评估模型功能,根据评估结果调整模型参数。通过以上步骤,可以实现基于支持向量机的手写数字识别算法。在实际应用中,还需不断优化模型,以提高识别准确率和鲁棒性。第六章实验环境与工具6.1Python环境配置在进行基于支持向量机的手写数字识别实验前,首先需要配置Python开发环境。以下为详细的环境配置步骤:6.1.1安装Python推荐安装Python(3)x版本,以兼容最新的库和工具。用户可以从Python官方网站(s://.org/)安装包,并根据系统提示完成安装。6.1.2安装pippip是Python的包管理工具,用于安装和管理Python库。在安装Python后,pip通常会自动安装。如若未安装,可以访问以下网址安装包:s://pip.pypa.io/en/stable/installing/6.1.3配置环境变量将Python安装路径和pip安装路径添加到系统环境变量中,以便在命令行中直接调用Python和pip命令。6.1.4安装虚拟环境(可选)虚拟环境可以避免不同项目间库版本冲突。可以使用以下命令安装虚拟环境管理工具virtualenv:pipinstallvirtualenv创建虚拟环境:virtualenvp/usr/bin/3.8venv激活虚拟环境:sourcevenv/bin/activate6.2Scikitlearn库介绍Scikitlearn(sklearn)是一个开源的Python机器学习库,提供了广泛的机器学习算法和工具。以下是Scikitlearn库的主要特点:6.2.1简单易用Scikitlearn具有简洁的API,易于上手和使用。6.2.2丰富的算法支持Scikitlearn提供了包括分类、回归、聚类、降维等在内的多种机器学习算法。6.2.3良好的文档和社区支持Scikitlearn具有详细的官方文档,以及活跃的社区支持。6.2.4安装与使用使用以下命令安装Scikitlearn库:pipinstallscikitlearn6.3实验工具与数据集6.3.1实验工具在进行手写数字识别实验时,以下工具是必不可少的:(1)Python:实验的基础编程语言。(2)JupyterNotebook:一种基于Web的交互式编程环境,便于代码编写和实验结果展示。(3)Scikitlearn:提供实验所需的机器学习算法和工具。6.3.2数据集本实验采用的手写数字数据集为MNIST数据集。MNIST数据集包含了60000个训练样本和10000个测试样本,每个样本为一个28x28像素的手写数字图像。数据集可以从以下网址获取:://yann.lecun./exdb/mnist/在实验中,可以使用Scikitlearn库中的`fetch_openml`函数直接加载MNIST数据集:fromsklearn.datasetsimportfetch_openmlmnist=fetch_openml('mnist_784',version=1)第七章实验结果分析7.1实验结果展示本节将详细展示基于支持向量机(SVM)的手写数字识别实验结果。实验共测试了1000张手写数字图像,其中包含0至9共十个类别。以下是实验结果的统计描述:总体准确率:实验中,SVM模型在测试集上的总体准确率为95.2%。分类报告:各数字类别的精确度、召回率和F1分数均达到较高水平,具体数值如下:数字0:精确度97.1%,召回率96.8%,F1分数96.9%数字1:精确度96.5%,召回率95.9%,F1分数96.2%数字2:精确度94.7%,召回率93.5%,F1分数93.6%数字3:精确度95.3%,召回率94.6%,F1分数94.9%数字4:精确度92.8%,召回率91.5%,F1分数91.6%数字5:精确度93.6%,召回率92.1%,F1分数92.3%数字6:精确度95.0%,召回率94.3%,F1分数94.6%数字7:精确度96.2%,召回率95.0%,F1分数95.6%数字8:精确度97.3%,召回率96.9%,F1分数97.1%数字9:精确度94.8%,召回率94.1%,F1分数94.4%7.2实验结果对比为了进一步评估SVM模型在手写数字识别中的功能,本节将对比其他常见机器学习算法的实验结果。对比的算法包括决策树、随机森林和神经网络。以下是各算法在相同测试集上的功能指标:决策树:总体准确率为88.6%,分类效果在各数字类别中表现不如SVM,尤其在数字2、4和5的识别上准确率较低。随机森林:总体准确率为92.4%,功能略优于决策树,但在某些类别上,如数字1和8的识别率仍低于SVM。神经网络:总体准确率为96.5%,与SVM相当,但在模型训练时间上较长,且对参数调整的依赖性较大。7.3实验结果优化基于上述实验结果,本节将探讨SVM模型的优化策略,以提高手写数字识别的准确率和效率。参数调优:通过网格搜索(GridSearch)和交叉验证(CrossValidation)方法对SVM模型的参数进行调整,包括核函数类型、惩罚参数C和gamma值等。数据增强:采用数据增强技术,如旋转、缩放和平移等,以扩充训练集,增强模型的泛化能力。特征选择:通过特征选择技术,如主成分分析(PCA)或递归特征消除(RFE),筛选出对手写数字识别最为重要的特征,降低特征维度,提高模型训练和预测的效率。通过上述优化策略,期望进一步提高SVM模型在手写数字识别任务中的功能表现。第八章支持向量机在手写数字识别中的应用8.1应用场景分析在手写数字识别领域,支持向量机(SupportVectorMachine,SVM)作为一种强大的监督学习算法,被广泛应用于图像识别、文本分类等任务。手写数字识别的主要应用场景包括:银行支票识别、邮件分类、考试评分等。在这些场景中,准确识别手写数字对于提高工作效率、降低人工成本具有重要意义。8.2案例分析与实现以下是一个基于支持向量机的手写数字识别案例分析:(1)数据准备需要收集大量手写数字图像作为训练数据。这些数据可以从公开数据集(如MNIST数据集)获取。将图像进行预处理,如灰度化、归一化等,以便输入到SVM模型。(2)特征提取从图像中提取特征,如使用HOG(HistogramofOrientedGradients)算法提取边缘方向梯度直方图。特征提取有助于降低输入数据的维度,提高模型泛化能力。(3)模型训练使用SVM算法对提取的特征进行训练。在训练过程中,选择合适的核函数(如径向基函数、多项式核函数等)以提高模型功能。同时通过交叉验证等方法优化模型参数,以提高识别准确率。(4)模型评估与优化在测试集上评估模型功能,如计算识别准确率、召回率等指标。针对模型存在的问题,进行优化,如调整核函数、增加训练数据等。8.3优缺点分析支持向量机在手写数字识别中的优点如下:(1)泛化能力强:SVM具有较强的泛化能力,能够在训练数据较少的情况下取得较好的识别效果。(2)精度高:SVM在手写数字识别任务中具有较高的识别准确率。(3)可扩展性:SVM算法可以应用于大规模数据集,适用于手写数字识别中的大量数据。但是支持向量机在手写数字识别中也存在以下不足:(1)计算复杂度较高:SVM算法训练时间较长,尤其在处理大规模数据集时。(2)核函数选择困难:核函数的选择对SVM模型的功能具有重要影响,但合适的核函数往往难以确定。(3)局部最优解:SVM算法可能陷入局部最优解,导致识别效果不佳。针对这些不足,研究人员可以继续摸索更高效的算法、优化模型参数,以提高手写数字识别的功能。第九章支持向量机的改进与发展9.1算法改进方向支持向量机(SupportVectorMachine,SVM)作为一种经典的机器学习算法,在手写数字识别等领域取得了显著成效。但是实际应用场景的不断拓展,SVM算法在某些方面仍存在局限性。为了提高SVM的功能和适用性,算法改进方向主要包括以下几个方面:(1)优化核函数:核函数的选择对SVM的泛化能力具有重要影响。针对不同类型的数据,如何选择合适的核函数以提高分类精度是算法改进的一个重要方向。(2)改进惩罚参数:惩罚参数C是SVM中的重要参数,其值的大小直接影响到分类间隔和分类精度。如何合理调整惩罚参数以提高SVM的功能,是算法改进的另一个关键点。(3)降低计算复杂度:SVM算法在实际应用中,计算复杂度较高。降低计算复杂度,提高算法运行效率,是算法改进的迫切需求。(4)处理不平衡数据:在许多实际应用中,数据往往存在不平衡现象。如何改进SVM算法,使其能够有效处理不平衡数据,是一个具有挑战性的问题。9.2现代支持向量机技术机器学习领域的不断发展,现代支持向量机技术在原有基础上取得了许多突破性进展。以下介绍几种具有代表性的现代支持向量机技术:(1)多核学习:多核学习是一种将多个核函数组合起来以提高分类功能的方法。通过合理选择和组合不同类型的核函数,多核学习可以更好地捕捉数据的局部结构和全局特性。(2)扩展SVM:针对SVM算法在处理大规模数据时的计算复杂度问题,扩展SVM算法通过优化算法和存储策略,实现了在大规模数据集上的高效训练。(3)SVM与其他算法的融合:将SVM与其他机器学习算法(如神经网络、集成学习等)相结合,可以充分利用各自的优势,进一步提高分类功

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论