数据分析与处理技术作业指导书_第1页
数据分析与处理技术作业指导书_第2页
数据分析与处理技术作业指导书_第3页
数据分析与处理技术作业指导书_第4页
数据分析与处理技术作业指导书_第5页
已阅读5页,还剩14页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

数据分析与处理技术作业指导书TOC\o"1-2"\h\u13849第1章数据分析概述 3211711.1数据分析的意义与价值 3283231.2数据分析的主要流程与方法 421772第2章数据预处理 412402.1数据清洗 4223542.1.1缺失值处理 4229052.1.2异常值处理 5186112.1.3重复数据删除 5129702.2数据集成 5173502.2.1数据合并 54132.2.2数据整合 566632.3数据变换 5109212.3.1数据规范化 5153792.3.2数据离散化 528342.3.3数据聚合 5278592.4数据归一化与标准化 546132.4.1最小最大归一化 5243162.4.2Z分数标准化 6119372.4.3对数变换 66026第3章数据可视化 689513.1数据可视化原则与技巧 613163.1.1原则 631843.1.2技巧 6316243.2常用数据可视化工具 7133033.2.1Tableau 7316033.2.2PowerBI 732863.2.3ECharts 7129553.2.4Highcharts 7161753.3可视化案例分析与实践 7155473.3.1案例背景 7172623.3.2数据处理 7137623.3.3可视化实践 732303第4章描述性统计分析 8283154.1频数与频率分析 821544.1.1频数分析 8248844.1.2频率分析 8281304.2集中趋势分析 896364.2.1均值 8154024.2.2中位数 8311404.2.3众数 8201614.3离散程度分析 9134994.3.1极差 9268944.3.2四分位差 958284.3.3方差与标准差 9300224.4分布形态分析 930064.4.1偏度 9142164.4.2峰度 958964.4.3置信区间 932420第5章概率论与数理统计基础 9269875.1随机变量与概率分布 9267415.1.1随机变量 91725.1.2概率分布 10157975.2假设检验 10257255.2.1假设检验的基本概念 10188615.2.2常见的假设检验方法 10296885.3方差分析与回归分析 10297485.3.1方差分析 1041195.3.2回归分析 1022744第6章数据降维与特征选择 1148036.1数据降维的意义与方法 11113086.2特征选择与特征提取 11162306.3主成分分析(PCA) 1121806.4线性判别分析(LDA) 12310第7章分类与预测 12178407.1分类与预测方法概述 12113957.2决策树与随机森林 12234137.2.1决策树 12255547.2.2随机森林 1232777.3逻辑回归与支持向量机 1316867.3.1逻辑回归 13190047.3.2支持向量机 13324367.4神经网络与深度学习 13275817.4.1神经网络 13110737.4.2深度学习 149996第8章聚类分析 14230648.1聚类分析方法概述 1434218.2K均值聚类 1439008.2.1算法步骤 14296408.2.2优缺点 1441258.3层次聚类 149948.3.1算法步骤 1567168.3.2优缺点 15241608.4密度聚类 15101848.4.1算法步骤 15183758.4.2优缺点 1531258第9章时间序列分析 15223669.1时间序列的基本概念 1585229.1.1时间序列的组成 1589699.1.2时间序列的特点 16125939.1.3时间序列的分类 16303969.2时间序列预处理 1660229.2.1数据清洗 16237039.2.2数据转换 16256089.2.3特征提取 1689539.3时间序列预测方法 1768629.3.1传统统计方法 17143409.3.2机器学习方法 17108019.4时间序列案例分析 17118849.4.1金融领域 17104779.4.2气象领域 1775529.4.3经济领域 1726224第10章综合案例实战 172427910.1数据分析与处理案例背景 172621910.2数据预处理与可视化 183226210.2.1数据清洗 182716810.2.2数据整合 18492710.2.3数据可视化 183201210.3模型构建与优化 181839110.3.1特征工程 182657910.3.2模型选择与训练 183173910.3.3模型优化 181730610.4结果评估与总结 183255010.4.1结果评估 183103310.4.2总结 18第1章数据分析概述1.1数据分析的意义与价值数据分析作为现代社会的一种核心技术,其意义与价值日益凸显。数据分析有助于发掘潜在的信息价值,为决策提供科学依据。通过对大量数据的挖掘、处理和分析,可以发觉数据背后的规律和趋势,为政策制定、企业经营及社会发展提供有力支持。数据分析有助于提高工作效率,降低成本。通过数据分析,可以优化资源配置,提高生产力,减少不必要的浪费。数据分析还有助于促进创新,为各个领域的研究提供新的思路和方法。1.2数据分析的主要流程与方法数据分析主要包括以下几个流程:(1)数据采集:从各种数据源获取原始数据,包括结构化数据、半结构化数据和非结构化数据。(2)数据预处理:对原始数据进行清洗、转换和整合,消除数据中的错误和冗余,提高数据质量。(3)数据分析:采用合适的方法对数据进行深入挖掘和分析,提取有价值的信息。(4)结果展示:将分析结果以图表、报告等形式直观地呈现出来,便于用户理解和应用。(5)决策支持:根据分析结果,为用户制定合理的决策方案。以下是几种常见的数据分析方法:(1)描述性分析:通过对数据进行统计和汇总,揭示数据的分布特征、趋势和关联性。(2)摸索性分析:在未知数据中寻找规律和模式,为后续分析提供线索。(3)假设检验:基于已有假设,通过数据分析验证假设的正确性。(4)预测分析:利用历史数据建立模型,预测未来的发展趋势。(5)优化分析:通过对数据的分析,找出最佳方案,实现资源优化配置。(6)数据降维:采用主成分分析、因子分析等方法,降低数据的维度,便于分析和处理。(7)聚类分析:将相似的数据划分为同一类,揭示数据之间的内在联系。(8)关联规则分析:发觉数据中各项之间的关联性,为决策提供依据。第2章数据预处理2.1数据清洗数据清洗是数据预处理过程中的首要步骤,旨在消除原始数据集中的错误、噪声和不一致性,从而提升数据质量。主要包括以下任务:2.1.1缺失值处理对含有缺失值的数据进行识别和填充,可采取均值、中位数、众数等方法进行填充;针对时间序列数据,可使用前值填充、后值填充或线性插值等方法。2.1.2异常值处理利用统计方法(如箱线图、3σ原则等)识别异常值;针对异常值采取删除、修正或标记等方式进行处理。2.1.3重复数据删除识别并删除数据集中的重复记录,保证数据的唯一性。2.2数据集成数据集成是将来自不同来源、格式和性质的数据合并到一个统一的数据集中,以便于后续分析。主要包括以下任务:2.2.1数据合并根据需求将多个数据集进行横向或纵向合并;保证合并后的数据集在语义上一致,避免数据冗余。2.2.2数据整合对来自不同数据源的数据进行格式转换、单位统一等操作,以便于数据分析和挖掘。2.3数据变换数据变换是对数据进行转换,使其更适合后续数据分析的需要。主要包括以下任务:2.3.1数据规范化对数据进行归一化或标准化处理,消除不同特征之间的量纲影响。2.3.2数据离散化将连续型数据转换为离散型数据,便于后续挖掘任务。2.3.3数据聚合根据需求对数据进行汇总,如求和、平均值等,以降低数据的维度。2.4数据归一化与标准化数据归一化与标准化是数据变换的重要组成部分,用于消除不同特征之间的量纲和尺度差异,主要包括以下方法:2.4.1最小最大归一化将数据压缩到[0,1]区间,计算公式为:X_scaled=(XX_min)/(X_maxX_min)。2.4.2Z分数标准化将数据转换为具有零均值和单位标准差的正态分布,计算公式为:X_scaled=(XX_mean)/X_std。2.4.3对数变换对数据进行对数变换,以减小数据分布的偏斜程度。通过本章数据预处理的方法,可以有效地提高数据质量,为后续数据分析与挖掘任务提供可靠的数据基础。第3章数据可视化3.1数据可视化原则与技巧数据可视化作为数据分析与处理的重要环节,其目标在于将复杂、抽象的数据以更直观、易懂的方式展示给用户。为了达到这一目标,以下原则与技巧在数据可视化过程中。3.1.1原则(1)保证数据准确无误:在进行数据可视化之前,需对数据进行清洗和处理,保证数据的准确性和可靠性。(2)明确目标与受众:根据分析目的和受众特点,选择合适的可视化方法和工具,以便更好地传达信息。(3)简洁明了:尽量使用简单、直观的图表类型,避免过于复杂的设计,使观众能够快速理解图表内容。(4)一致性:保持图表风格、颜色、字体等的一致性,有助于观众在比较和筛选数据时减少干扰。(5)适应性:根据数据量和屏幕尺寸等因素,调整图表的尺寸和布局,保证可视化效果的适应性。3.1.2技巧(1)合理使用颜色:使用颜色来区分不同的数据类别,增强视觉效果,但要注意颜色搭配的合理性。(2)利用图表辅助元素:如坐标轴、图例、标题等,提高图表的可读性和易理解性。(3)适当使用动画和交互:合理的动画和交互设计可以提高观众的兴趣和参与度,但需注意不要过度使用,以免分散注意力。(4)优化图表布局:合理布局图表,使观众能够轻松地浏览和理解数据。3.2常用数据可视化工具在数据可视化过程中,选择合适的工具可以提高工作效率和可视化效果。以下为几款常用数据可视化工具:3.2.1TableauTableau是一款功能强大的数据可视化工具,支持多种数据源,用户可以通过拖拽的方式快速创建图表,实现数据的实时分析。3.2.2PowerBIPowerBI是微软推出的一款商业智能工具,具有丰富的数据可视化功能,支持自定义图表和报告,适用于企业级的数据分析。3.2.3EChartsECharts是由百度开源的一款免费、功能丰富的图表库,支持多种图表类型,具有良好的兼容性和扩展性。3.2.4HighchartsHighcharts是一款基于JavaScript的图表库,提供丰富的图表类型和灵活的配置选项,适用于Web开发中的数据可视化。3.3可视化案例分析与实践以下通过一个实际案例,介绍数据可视化的应用和实践。3.3.1案例背景某电商平台想要分析用户在一年内各月份的购买情况,以便制定相应的营销策略。3.3.2数据处理(1)收集数据:收集用户在一年内每个月的购买金额、购买次数等数据。(2)数据清洗:去除无效和异常数据,保证数据的准确性和完整性。(3)数据分析:计算每个月的总购买金额、购买次数等指标。3.3.3可视化实践(1)使用ECharts创建柱状图,展示每个月的总购买金额。(2)使用折线图,展示每个月的购买次数变化趋势。(3)结合饼图,展示各月份购买金额占比,以了解用户购买偏好。(4)通过颜色和图例,区分不同类别的数据,提高图表的可读性。通过以上步骤,电商平台可以直观地了解用户在一年内的购买情况,为制定营销策略提供有力支持。第4章描述性统计分析4.1频数与频率分析频数与频率分析是描述性统计分析的基础,主要通过对数据进行计数和比例计算,以揭示数据的分布特征。本节将详细阐述数据集中各个变量取值的频数分布及其对应的频率。4.1.1频数分析(1)对分类变量进行频数统计,列出各分类的频数,以便了解各个分类在数据集中的出现次数。(2)对数值型变量,可将其划分为若干区间,统计落入各区间内的观测值个数。4.1.2频率分析(1)计算各分类变量的频率,即各分类的频数占总频数的比例。(2)对数值型变量,计算各区间频率,即各区间观测值个数占总观测值的比例。4.2集中趋势分析集中趋势分析旨在揭示数据集的典型特征,通过计算均值、中位数、众数等统计量来描述数据集中的主要趋势。4.2.1均值计算各数值型变量的算术平均数,以反映数据的平均水平。4.2.2中位数对数值型变量进行排序,找出位于中间位置的数值,以描述数据集的中间水平。4.2.3众数对于分类变量,计算出现频率最高的分类;对于数值型变量,找出出现次数最多的具体数值。4.3离散程度分析离散程度分析用于衡量数据集中各个数值与集中趋势的偏离程度,主要包括极差、四分位差、方差、标准差等统计量。4.3.1极差计算最大值与最小值之间的差值,以描述数据的全距。4.3.2四分位差计算上四分位数与下四分位数之间的差值,以反映中间50%数据的离散程度。4.3.3方差与标准差(1)计算各数值型变量的方差,以衡量数据点与均值的平均偏差。(2)计算标准差,作为方差的平方根,以描述数据点相对于均值的离散程度。4.4分布形态分析分布形态分析主要关注数据分布的形状和结构,通过偏度、峰度等指标进行描述。4.4.1偏度计算偏度系数,以判断数据分布的对称性。正偏表示右侧尾部更长,负偏表示左侧尾部更长。4.4.2峰度计算峰度系数,以描述数据分布的尖峭程度。高峰度表示数据分布比正态分布更尖锐,低峰度则相反。4.4.3置信区间对集中趋势指标(如均值、中位数等)计算置信区间,以评估其可靠程度。置信区间越窄,表明估计值越精确。第5章概率论与数理统计基础5.1随机变量与概率分布5.1.1随机变量随机变量是描述随机现象的一种数学模型,它将随机现象的结果用数值表示出来。随机变量可以分为离散型随机变量和连续型随机变量。5.1.2概率分布概率分布是对随机变量取值的概率进行描述的数学函数。根据随机变量的类型,概率分布可分为离散型概率分布和连续型概率分布。(1)离散型概率分布常见的离散型概率分布有:伯努利分布、二项分布、泊松分布、几何分布等。(2)连续型概率分布常见的连续型概率分布有:均匀分布、正态分布、对数正态分布、指数分布等。5.2假设检验5.2.1假设检验的基本概念假设检验是数理统计中用来判断总体参数之间差异显著性的一种方法。假设检验包括原假设、备择假设和检验统计量等基本概念。5.2.2常见的假设检验方法(1)单样本t检验:用于检验单个总体均值的假设。(2)双样本t检验:用于检验两个独立样本的总体均值差异的假设。(3)卡方检验:用于检验分类变量之间的独立性、拟合优度等假设。(4)F检验:用于检验两个或多个总体方差之间的假设。5.3方差分析与回归分析5.3.1方差分析方差分析(ANOVA)是用于检验多个总体均值是否存在显著差异的一种统计方法。常见的方差分析方法有单因素方差分析、多因素方差分析等。5.3.2回归分析回归分析是研究两个或多个变量之间相互依赖关系的统计分析方法。根据自变量和因变量的类型,回归分析可分为线性回归、非线性回归、多元回归等。(1)线性回归:描述自变量和因变量之间线性关系的回归模型。(2)多元回归:同时考虑多个自变量对因变量的影响。(3)逻辑回归:用于描述因变量为分类变量的回归模型。注意:本章节内容仅涉及概率论与数理统计基础,更多高级统计方法将在后续章节中介绍。第6章数据降维与特征选择6.1数据降维的意义与方法数据降维是指通过某种数学方法将高维数据映射到低维空间,以减少数据的复杂度,同时尽可能保留原始数据的信息。数据降维在数据分析与处理中具有重要意义,可以有效提高计算效率、降低存储成本,并有助于消除噪声和冗余信息。数据降维的方法主要包括线性降维和非线性降维两大类。线性降维方法包括主成分分析(PCA)、线性判别分析(LDA)等;非线性降维方法包括局部线性嵌入(LLE)、等距映射(ISOMAP)等。6.2特征选择与特征提取特征选择与特征提取是数据降维的两种主要手段,它们通过选择或提取具有代表性的特征,以减少原始数据的特征维度。特征选择:从原始特征集合中选择出对目标变量有较强预测能力的特征子集。特征选择方法包括过滤式、包裹式和嵌入式等。过滤式特征选择方法通过评估每个特征与目标变量的相关性,筛选出重要性较高的特征;包裹式特征选择方法在整个特征空间中搜索最优特征子集;嵌入式特征选择方法则将特征选择过程与模型训练过程相结合。特征提取:通过某种数学变换将原始特征映射到新的特征空间,从而减少特征维度。特征提取方法包括线性特征提取和非线性特征提取。线性特征提取方法如主成分分析(PCA)和线性判别分析(LDA)等,非线性特征提取方法如核主成分分析(KPCA)等。6.3主成分分析(PCA)主成分分析(PCA)是一种常用的线性降维方法,其主要思想是将原始数据映射到新的特征空间,使得数据在新的特征空间中的方差最大化。具体步骤如下:(1)对原始数据进行标准化处理,使其均值为0,方差为1;(2)计算标准化后数据的协方差矩阵;(3)求解协方差矩阵的特征值和特征向量;(4)将特征向量按照特征值的大小进行排序,选择前k个特征向量作为新的特征空间;(5)将原始数据映射到新的特征空间。6.4线性判别分析(LDA)线性判别分析(LDA)是一种有监督的线性降维方法,其目的是将数据在低维空间中的类间距离最大化,同时保持类内距离最小。具体步骤如下:(1)对原始数据进行标准化处理;(2)计算类内散度矩阵和类间散度矩阵;(3)求解类内散度矩阵的逆矩阵与类间散度矩阵的乘积的特征值和特征向量;(4)将特征向量按照特征值的大小进行排序,选择前k个特征向量作为新的特征空间;(5)将原始数据映射到新的特征空间。通过本章学习,读者可以了解到数据降维与特征选择在数据分析与处理中的重要性,掌握主成分分析(PCA)和线性判别分析(LDA)两种线性降维方法的应用。第7章分类与预测7.1分类与预测方法概述分类与预测作为数据分析与处理技术中的重要组成部分,广泛应用于各个领域。本章主要介绍几种常见的分类与预测方法,包括决策树、随机森林、逻辑回归、支持向量机、神经网络和深度学习。这些方法在处理不同类型的数据和问题时各有优势,通过对这些方法的学习,可以更好地应对实际应用场景。7.2决策树与随机森林7.2.1决策树决策树是一种基于树结构进行分类与预测的算法。它通过一系列的判断规则,将数据集进行划分,直至达到叶子节点,从而实现对数据的分类或预测。决策树具有以下特点:(1)易于理解和解释;(2)适用于处理分类和回归问题;(3)能够处理含缺失值的数据;(4)对异常值不敏感。7.2.2随机森林随机森林是基于决策树的一种集成学习方法。它通过随机选取特征和样本子集,构建多棵决策树,然后采用投票或平均的方式,提高分类与预测的准确性。随机森林具有以下优点:(1)具有良好的泛化能力;(2)能够处理高维数据;(3)对异常值和噪声具有较好的鲁棒性;(4)训练速度快,易于实现并行化。7.3逻辑回归与支持向量机7.3.1逻辑回归逻辑回归是一种广泛应用的分类方法,主要用于处理二分类问题。它通过构建一个逻辑函数,将线性回归的结果映射到(0,1)区间内,从而实现对数据的分类。逻辑回归具有以下特点:(1)模型简单,易于理解和实现;(2)训练速度快,适用于大规模数据集;(3)可以输出概率值,便于评估分类结果的可信度。7.3.2支持向量机支持向量机(SVM)是一种基于最大间隔准则的分类方法。它通过寻找一个最优的超平面,将不同类别的数据分开。SVM具有以下优点:(1)泛化能力较强,适用于小样本数据集;(2)能够处理非线性问题,通过核函数进行映射;(3)对噪声和异常值具有较好的鲁棒性。7.4神经网络与深度学习7.4.1神经网络神经网络是一种模拟人脑神经元结构和工作原理的计算模型,适用于处理复杂的非线性问题。它具有以下特点:(1)可以学习复杂的函数关系;(2)适用于处理大量数据;(3)具有较强的并行计算能力;(4)可以通过调整网络结构和参数,适应不同类型的问题。7.4.2深度学习深度学习是神经网络在结构上的拓展,通过增加网络的层数,提高模型的表达能力。深度学习具有以下优点:(1)在图像、语音、自然语言处理等领域取得显著成果;(2)能够自动提取特征,减少人工干预;(3)模型功能数据量的增加而提升;(4)具有较强的泛化能力,适用于多种应用场景。第8章聚类分析8.1聚类分析方法概述聚类分析是一种无监督学习方法,旨在将一组数据点分组,使得同一组内的数据点相似度更高,而不同组间的数据点相似度更低。聚类分析方法在众多领域具有广泛应用,如数据分析、模式识别、图像处理等。本章主要介绍三种常用的聚类分析方法:K均值聚类、层次聚类和密度聚类。8.2K均值聚类K均值聚类算法是一种基于距离的聚类方法。其主要思想是将数据点分配到最近的聚类中心,然后更新聚类中心,重复这个过程,直至满足停止条件。8.2.1算法步骤(1)随机选择K个初始聚类中心。(2)计算每个数据点到各个聚类中心的距离,将数据点分配到最近的聚类中心。(3)更新聚类中心。(4)重复步骤2和3,直至满足停止条件,如聚类中心的变化小于设定阈值或达到最大迭代次数。8.2.2优缺点K均值聚类算法的优点是原理简单、易于实现、计算效率高。但其缺点是容易陷入局部最优解,对初始聚类中心的选择敏感,且对噪声和异常值敏感。8.3层次聚类层次聚类是一种基于树结构的聚类方法。它将数据点逐步合并成较大的聚类,直至所有数据点都属于同一个聚类。8.3.1算法步骤(1)计算数据点之间的距离矩阵。(2)将每个数据点作为一个单独的聚类。(3)按照某种合并策略,选择最近的两个聚类进行合并。(4)更新距离矩阵。(5)重复步骤3和4,直至所有数据点都属于同一个聚类。8.3.2优缺点层次聚类算法的优点是能树状结构,便于理解数据的层次关系。但其缺点是计算复杂度高,不适合大规模数据集,且对合并策略的选择敏感。8.4密度聚类密度聚类算法是基于密度的聚类方法。它通过密度来刻画聚类,认为聚类是由密度较高的区域组成的。8.4.1算法步骤(1)计算每个数据点的局部密度。(2)计算每个数据点到密度更高的邻居的最小距离。(3)根据局部密度和最小距离选择聚类中心。(4)计算每个数据点到聚类中心的距离,将数据点分配到最近的聚类。(5)更新聚类中心和聚类分配。(6)重复步骤4和5,直至满足停止条件。8.4.2优缺点密度聚类算法的优点是能适应不同形状和大小的聚类,对噪声和异常值不敏感。但其缺点是计算复杂度较高,且对参数选择敏感。第9章时间序列分析9.1时间序列的基本概念时间序列是指将某种现象在不同时间点的观测值按照时间顺序排列形成的序列。它广泛应用于金融市场分析、气象预报、经济预测等领域。本节主要介绍时间序列的基本组成、特点及其分类,为后续时间序列分析打下基础。9.1.1时间序列的组成时间序列主要由四个部分组成:趋势、季节性、周期性和随机性。(1)趋势:指时间序列在长期内呈现的持续上升或下降的态势。(2)季节性:指时间序列在一年内呈现的周期性波动。(3)周期性:指时间序列在较长时间范围内呈现的周期性波动,通常周期长度大于一年。(4)随机性:指时间序列中无法用趋势、季节性和周期性解释的波动。9.1.2时间序列的特点时间序列具有以下特点:(1)时间序列数据具有时间顺序性,不能随意改变数据的顺序。(2)时间序列数据可能存在自相关,即当前时刻的数据与历史数据之间存在关联性。(3)时间序列数据可能具有非线性特征,需要采用相应的方法进行处理。9.1.3时间序列的分类根据时间序列的特点和用途,可以将时间序列分为以下几类:(1)纯随机序列:不存在自相关,各观测值之间相互独立。(2)白噪声序列:各观测值之间互不相关,但方差相等。(3)平稳序列:具有稳定的统计性质,如均值、方差和自协方差。(4)非平稳序列:不具有稳定的统计性质,如趋势、季节性和周期性。9.2时间序列预处理在进行时间序列分析之前,需要对原始时间序列进行预处理,以提高模型预测的准确性。本节主要介绍时间序列预处理的方法。9.2.1数据清洗数据清洗主要包括缺失值处理、异常值处理和重复值处理。9.2.2数据转换数据转换主要包括以下几种方法:(1)归一化:将时间序列数据缩放到[0,1]之间,消除数据量纲的影响。(2)差分:将当前时刻的数据与前一时刻的数据作差,以消除趋势和季节性。(3)对数变换:对时间序列数据取对数,以稳定方差。9.2.3特

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论