数据建模与数据处理基础手册_第1页
数据建模与数据处理基础手册_第2页
数据建模与数据处理基础手册_第3页
数据建模与数据处理基础手册_第4页
数据建模与数据处理基础手册_第5页
已阅读5页,还剩14页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

数据建模与数据处理基础手册TOC\o"1-2"\h\u18198第一章数据建模基础 286661.1数据建模概述 3126891.2常见数据建模方法 3222311.3数据建模流程 43194第二章数据处理基础 4212812.1数据清洗 41712.1.1缺失值处理 428132.1.2异常值处理 4114872.1.3数据类型转换 4224332.1.4数据标准化 5279872.2数据转换 5217022.2.1编码转换 596042.2.2文本转换 5235432.2.3日期时间转换 5176122.2.4数据聚合 549192.3数据整合 5176392.3.1数据合并 6291712.3.2数据对齐 665722.3.3数据归一化 630296第三章数据类型与数据结构 68933.1常见数据类型 6221503.1.1整数类型 65653.1.2浮点类型 651783.1.3字符类型 6216693.1.4布尔类型 7201933.1.5枚举类型 743213.1.6复合数据类型 7202793.2数据结构概述 79913.2.1线性数据结构 7247953.2.2非线性数据结构 7151673.2.3特殊数据结构 7290523.3复杂数据结构 7292413.3.1树状数据结构 7272833.3.2图状数据结构 789583.3.3多维数据结构 886453.3.4递归数据结构 8184433.3.5动态数据结构 823895第四章数据质量评估 8300234.1数据质量标准 854804.2数据质量评估方法 8283884.3数据质量问题处理 98133第五章数据采集与存储 9215855.1数据采集方法 991095.2数据存储技术 10265645.3数据库管理系统 1023344第六章数据预处理 11325596.1数据预处理概述 1176446.2数据预处理方法 11208766.2.1数据清洗 11144066.2.2数据集成 11112446.2.3数据转换 1245916.2.4数据归一化 12132346.3数据预处理工具 1220207第七章数据可视化 13183937.1数据可视化概述 13226987.2常见数据可视化工具 13248897.3数据可视化技巧 1319832第八章数据分析基础 1446468.1数据分析概述 1457128.2常见数据分析方法 1420178.3数据分析工具 156896第九章数据建模实践 15175849.1实践案例一 1541209.1.1案例背景 15162839.1.2数据准备 16309309.1.3数据处理 16161549.1.4数据建模 16314649.2实践案例二 16118399.2.1案例背景 16265979.2.2数据准备 16266559.2.3数据处理 16100809.2.4数据建模 1649939.3实践案例三 16216019.3.1案例背景 16146309.3.2数据准备 17120589.3.3数据处理 17207709.3.4数据建模 1719795第十章数据建模与数据处理发展趋势 171026310.1数据建模发展趋势 17184010.2数据处理技术发展趋势 181725110.3未来挑战与机遇 18第一章数据建模基础1.1数据建模概述数据建模是一种对现实世界中的数据对象进行抽象、组织、描述和表达的方法,旨在构建一个合理、高效、稳定的数据结构,以满足数据存储、查询、分析和应用的需求。数据建模是数据库设计和数据管理的核心内容,对于企业级信息系统、大数据分析和人工智能等领域具有重要意义。数据建模的主要目的是:(1)提高数据存储和查询的效率;(2)保证数据的完整性和一致性;(3)支持数据分析和决策制定;(4)降低数据冗余和维护成本。1.2常见数据建模方法(1)关系型数据建模关系型数据建模基于关系数据库理论,将现实世界中的实体及其属性抽象为二维表格。常见的关系型数据建模方法包括:实体关系模型(EntityRelationshipModel,ERModel)关系模型(RelationalModel)归一化理论(NormalizationTheory)(2)面向对象数据建模面向对象数据建模将现实世界中的实体抽象为对象,对象具有属性和方法。常见的面向对象数据建模方法包括:统一建模语言(UnifiedModelingLanguage,UML)对象关系模型(ObjectRelationalModel)(3)半结构化数据建模半结构化数据建模适用于处理具有部分结构化特征的数据,如XML、JSON等。常见的半结构化数据建模方法包括:DOM(DocumentObjectModel)SAX(SimpleAPIforXML)(4)分布式数据建模分布式数据建模主要针对大规模分布式系统,如分布式数据库、分布式文件系统等。常见的分布式数据建模方法包括:MapReduceHadoop1.3数据建模流程数据建模流程主要包括以下步骤:(1)需求分析:了解业务需求和数据特点,明确数据建模的目的和范围。(2)数据抽象:对现实世界中的实体及其属性进行抽象,构建概念模型。(3)模型设计:根据概念模型,设计逻辑模型和物理模型。(4)模型评估与优化:对设计好的模型进行评估,发觉问题并进行优化。(5)数据库实施:根据物理模型,创建数据库表、索引等结构。(6)数据迁移与整合:将现有数据迁移到新数据库中,并进行数据整合。(7)数据库维护:对数据库进行定期维护,保证数据的安全、稳定和高效运行。(8)模型迭代:根据业务发展需求,不断优化和完善数据模型。第二章数据处理基础2.1数据清洗数据处理的第一步是数据清洗,其目的是保证数据的质量和准确性。数据清洗主要包括以下几个方面的内容:2.1.1缺失值处理在现实世界的数据集中,往往存在缺失值。缺失值处理的方法主要包括:删除含有缺失值的记录。填充缺失值,例如使用均值、中位数或众数等统计量进行填充。2.1.2异常值处理异常值是数据集中与其他观测值显著不同的值。异常值处理的方法包括:删除异常值。对异常值进行修正,例如使用分位数或基于模型的方法进行修正。2.1.3数据类型转换在数据处理过程中,有时需要将数据类型进行转换,以满足后续分析的需求。数据类型转换的方法包括:显式类型转换,例如将字符串转换为数值型。隐式类型转换,例如将浮点数转换为整数。2.1.4数据标准化数据标准化是将数据集中的观测值缩放到一定范围内,以提高数据处理的效率和准确性。数据标准化的方法包括:最小最大标准化。Zscore标准化。2.2数据转换数据转换是数据处理的重要环节,它涉及将原始数据转换为适合分析的形式。以下是一些常见的数据转换方法:2.2.1编码转换在数据集中,可能存在多种编码方式,如UTF8、ISO88591等。编码转换的目的是将不同编码的数据统一为同一编码格式,以便后续处理。2.2.2文本转换文本数据转换包括分词、词性标注、词向量表示等。这些转换有助于提取文本数据中的有用信息,并为进一步的分析提供基础。2.2.3日期时间转换日期时间数据通常需要进行格式转换,以便于进行时间序列分析。日期时间转换的方法包括:将日期时间字符串转换为日期时间对象。提取日期时间中的年、月、日、小时等组成部分。2.2.4数据聚合数据聚合是将数据集中的多个观测值合并为单一的值,以便于进行汇总分析。数据聚合的方法包括:按照特定字段进行分组。计算分组内的统计量,如均值、总和、最大值等。2.3数据整合数据整合是将来自不同来源的数据集合并为统一的数据集,以便于进行综合分析。以下是一些常见的数据整合方法:2.3.1数据合并数据合并是将两个或多个数据集按照特定的关键字段进行合并。合并方法包括:内连接:只保留两个数据集中关键字段匹配的记录。左连接:保留左侧数据集中的所有记录,以及右侧数据集中匹配的记录。右连接:保留右侧数据集中的所有记录,以及左侧数据集中匹配的记录。全连接:保留两个数据集中的所有记录,无论是否匹配。2.3.2数据对齐数据对齐是指将不同数据集中的观测值按照时间顺序或其他标准进行排列,以便于进行时间序列分析或其他相关分析。2.3.3数据归一化数据归一化是将不同数据集中的观测值缩放到同一比例或范围,以便于进行对比分析。数据归一化的方法包括:线性归一化。对数归一化。反归一化。第三章数据类型与数据结构3.1常见数据类型数据类型是数据模型的基本组成部分,它定义了数据在计算机中的存储方式和可进行的操作。以下为几种常见的数据类型:3.1.1整数类型整数类型用于表示没有小数部分的数。在不同的编程语言中,整数类型包括int、long、short等。整数类型的数据范围和所占存储空间密切相关。3.1.2浮点类型浮点类型用于表示含有小数部分的数。常见的浮点类型包括float、double、longdouble等。浮点数的精度和所占存储空间成正比。3.1.3字符类型字符类型用于表示单个字符,如字母、数字、标点符号等。在编程语言中,字符类型通常使用char表示。3.1.4布尔类型布尔类型用于表示真(true)和假(false)两种状态。在编程语言中,布尔类型通常使用bool表示。3.1.5枚举类型枚举类型用于表示一组具有明确意义的整数常量。通过枚举类型,可以提高代码的可读性和维护性。3.1.6复合数据类型复合数据类型是由基本数据类型组合而成的数据类型,如数组、结构体、联合体等。3.2数据结构概述数据结构是计算机存储、组织数据的方式。合理选择数据结构可以提高程序的效率。以下为几种常见的数据结构:3.2.1线性数据结构线性数据结构包括数组、链表、栈和队列等。它们具有线性关系,即数据元素按照一定的顺序排列。3.2.2非线性数据结构非线性数据结构包括树、图等。它们具有层次关系或网状关系,数据元素之间的联系更加复杂。3.2.3特殊数据结构特殊数据结构包括哈希表、堆等。它们在特定场景下具有高效的数据查找和存储能力。3.3复杂数据结构计算机技术的发展,复杂数据结构在处理大规模数据时具有重要意义。以下为几种常见的复杂数据结构:3.3.1树状数据结构树状数据结构包括二叉树、平衡树、堆等。它们具有层次关系,便于查找、插入和删除操作。3.3.2图状数据结构图状数据结构包括无向图、有向图、网等。它们表示数据元素之间的多对多关系,适用于复杂关系的建模。3.3.3多维数据结构多维数据结构包括多维数组、多维矩阵等。它们用于表示空间数据、时间序列数据等。3.3.4递归数据结构递归数据结构是指包含自身类型的数据结构,如列表的列表、树的树等。它们在处理嵌套数据时具有优势。3.3.5动态数据结构动态数据结构是指可以根据需求动态调整大小的数据结构,如动态数组、动态树等。它们在处理动态变化的数据时具有较高的效率。第四章数据质量评估4.1数据质量标准数据质量标准是衡量数据质量的基础,它包括了数据的准确性、完整性、一致性、时效性和可信度等多个方面。以下是详细阐述:(1)准确性:数据准确性是指数据与实际对象或现象的真实值之间的接近程度。准确性高的数据能够真实反映客观事物,为决策提供可靠依据。(2)完整性:数据完整性是指数据记录的全面程度,包括数据项的完整性和数据集的完整性。完整性高的数据可以全面反映事物特征,便于分析。(3)一致性:数据一致性是指数据在不同时间、不同来源和不同处理过程中保持一致性的程度。一致性高的数据有利于保证数据分析和应用的准确性。(4)时效性:数据时效性是指数据反映当前事物状态的能力。时效性高的数据可以及时反映事物变化,为决策提供实时依据。(5)可信度:数据可信度是指数据来源的可靠程度。可信度高的数据来源权威、真实,可以为决策提供有力支持。4.2数据质量评估方法数据质量评估方法是对数据质量进行量化分析的过程。以下是几种常用的评估方法:(1)统计分析法:通过计算数据的均值、方差、标准差等统计指标,评估数据的准确性、完整性和一致性。(2)数据比对法:将数据与权威数据来源进行比对,分析数据的一致性和可信度。(3)专家评估法:邀请相关领域专家对数据质量进行评估,通过专家意见综合判断数据质量。(4)数据挖掘法:利用数据挖掘技术,挖掘数据中的异常值、缺失值等质量问题,从而评估数据质量。(5)模糊综合评价法:将数据质量指标进行模糊化处理,结合专家评估,对数据质量进行综合评价。4.3数据质量问题处理在数据质量评估过程中,可能会发觉以下几种数据质量问题:(1)缺失值处理:对于缺失值,可以采用以下方法进行处理:删除含有缺失值的记录;填充缺失值,如使用平均值、中位数、众数等;利用数据挖掘技术预测缺失值。(2)异常值处理:对于异常值,可以采用以下方法进行处理:删除异常值;对异常值进行修正,如使用分位数替换;结合实际业务背景,分析异常值产生的原因。(3)重复值处理:对于重复值,可以采用以下方法进行处理:删除重复值;合并重复值,如求平均值、求和等。(4)数据不一致处理:对于数据不一致,可以采用以下方法进行处理:数据清洗:对数据进行统一格式、类型等处理,使其具有一致性;数据转换:将数据转换为统一的编码、单位等,使其具有一致性;数据集成:将不同来源的数据进行整合,使其具有一致性。通过以上方法,可以有效地处理数据质量问题,提高数据质量,为后续的数据分析和应用奠定基础。第五章数据采集与存储5.1数据采集方法数据采集是数据建模与处理的基础,其方法的选择直接影响后续的数据分析和建模效果。以下是几种常用的数据采集方法:(1)问卷调查法:通过设计问卷,收集被调查者的意见和观点,适用于收集用户需求、满意度等信息。(2)观察法:通过对特定对象的持续观察,记录其行为和特征,适用于收集行为数据。(3)实验法:在控制条件下,对实验对象进行操作,观察其反应和变化,适用于研究因果关系。(4)网络爬虫:通过编写程序,自动从互联网上抓取所需数据,适用于大规模数据采集。(5)传感器:利用各类传感器收集环境、设备等数据,适用于实时数据采集。5.2数据存储技术数据存储是将采集到的数据保存到介质中,以便后续处理和分析。以下几种数据存储技术值得关注:(1)关系型数据库:采用表格形式组织数据,支持SQL语言进行数据操作,适用于结构化数据存储。(2)非关系型数据库:采用非表格形式组织数据,如文档、键值对等,适用于非结构化数据存储。(3)分布式文件系统:将数据分散存储在多台服务器上,提高数据存储和处理能力,适用于大数据场景。(4)数据仓库:集成多个数据源,提供统一的数据查询和分析接口,适用于数据挖掘和决策支持。(5)云存储:利用云计算技术,将数据存储在云端,实现数据共享和备份,适用于海量数据存储。5.3数据库管理系统数据库管理系统(DBMS)是用于管理和维护数据库的软件系统。以下是几种常见的数据库管理系统:(1)Oracle:一款功能强大的关系型数据库管理系统,适用于大型企业和复杂应用场景。(2)MySQL:一款开源的关系型数据库管理系统,适用于中小型企业及互联网应用。(3)MongoDB:一款文档型非关系型数据库管理系统,适用于快速开发和大数据存储。(4)Redis:一款键值对存储的内存数据库,适用于高速缓存和实时数据存储。(5)Hadoop:一款分布式文件系统和大数据处理框架,适用于海量数据存储和分析。第六章数据预处理6.1数据预处理概述数据预处理是数据分析和数据挖掘的重要环节,它涉及对原始数据进行一系列的操作,以使其更适合后续的数据分析和建模。数据预处理的目的在于提高数据质量、降低数据噪音、提高模型功能和解释性。数据预处理主要包括数据清洗、数据集成、数据转换、数据归一化等步骤。6.2数据预处理方法6.2.1数据清洗数据清洗是数据预处理的核心环节,主要包括以下方法:(1)缺失值处理:针对数据集中的缺失值,可以采用删除含有缺失值的记录、填充缺失值或插值等方法进行处理。(2)异常值处理:识别并处理数据集中的异常值,方法包括删除异常值、修正异常值或进行异常值检测。(3)数据一致性检查:检查数据集中的数据类型、格式和值是否一致,保证数据符合分析需求。(4)数据重复处理:删除数据集中的重复记录,以提高数据质量和分析效率。6.2.2数据集成数据集成是将来自不同来源、格式和结构的数据进行整合,形成统一的数据集。数据集成的方法包括:(1)数据合并:将多个数据集合并为一个,包括横向合并和纵向合并。(2)数据匹配:对不同数据集中的相同实体进行匹配,保证数据的一致性。(3)数据转换:将数据集中的数据类型、格式和结构进行转换,使其符合分析需求。6.2.3数据转换数据转换是对数据进行一系列的操作,使其更适合建模和分析。数据转换的方法包括:(1)数据标准化:将数据集中的数值进行线性变换,使其具有相同的量纲和分布。(2)数据归一化:将数据集中的数值进行非线性变换,使其处于特定的范围内。(3)数据离散化:将数据集中的连续变量转换为离散变量,以便于模型处理。(4)特征提取:从原始数据中提取有助于模型建模和分析的特征。6.2.4数据归一化数据归一化是将数据集中的数值进行非线性变换,使其处于特定的范围内。数据归一化的方法包括:(1)最小最大归一化:将数据集中的数值线性变换到[0,1]范围内。(2)Z分数归一化:将数据集中的数值标准化,使其具有均值为0、标准差为1的分布。(3)对数归一化:将数据集中的数值进行对数变换,以降低数值间的差异。6.3数据预处理工具以下是一些常用的数据预处理工具:(1)Python:Python是一种广泛应用于数据预处理的编程语言,提供了丰富的数据处理库,如Pandas、NumPy和Scikitlearn等。(2)R:R是一种专门用于统计分析和数据挖掘的编程语言,提供了丰富的数据处理函数和包,如dplyr、ggplot2和caret等。(3)SQL:SQL是一种用于数据库查询和管理的语言,可用于数据清洗、数据集成和数据转换等操作。(4)Excel:Excel是一种常用的数据处理工具,提供了丰富的数据处理功能,如数据清洗、数据整合和数据转换等。(5)SPSS:SPSS是一种统计分析软件,提供了数据预处理、统计分析、图形展示等功能。第七章数据可视化7.1数据可视化概述数据可视化是将数据以图形、图像或其他视觉形式表现出来的过程,旨在使复杂的数据信息更加直观、易于理解和分析。数据可视化在数据科学、商业分析和决策支持等领域具有重要作用。通过数据可视化,用户可以快速发觉数据中的模式、趋势和异常,从而为决策提供有力支持。7.2常见数据可视化工具以下是几种常见的数据可视化工具:(1)Tableau:一款功能强大的数据可视化软件,支持多种数据源连接,提供丰富的图表类型和可视化效果。(2)PowerBI:由微软开发的一款数据分析和可视化工具,与Excel和Azure无缝集成,适用于企业级数据分析和报告。(3)Python:Python是一种广泛使用的编程语言,拥有丰富的数据可视化库,如Matplotlib、Seaborn、Plotly等,可以满足各种数据可视化需求。(4)R:R语言是一种专为统计分析和数据可视化设计的编程语言,拥有众多绘图包,如ggplot2、lattice等。(5)Excel:Excel是微软办公软件中的一款表格处理工具,内置了多种图表类型,适用于简单的数据可视化和报告。7.3数据可视化技巧以下是几种数据可视化的技巧:(1)选择合适的图表类型:根据数据特点和需求,选择合适的图表类型,如柱状图、折线图、饼图、散点图等。(2)使用清晰的图表标题和标签:为图表添加简洁明了的标题和标签,有助于读者快速理解图表内容。(3)色彩搭配:合理使用色彩,使图表更具吸引力。避免使用过多的颜色,以免造成视觉干扰。(4)图表布局:合理布局图表元素,包括标题、标签、图例等,使图表结构清晰,易于阅读。(5)数据缩放:针对大量数据,可以使用数据缩放功能,展示局部数据,以便分析细节。(6)动态图表:利用动态图表,展示数据随时间变化的趋势,增强图表的交互性。(7)数据注释:在图表中添加数据注释,突出关键信息,帮助读者理解数据背后的含义。(8)交互式图表:通过交互式图表,允许用户自定义视图,筛选数据,摸索数据背后的规律。(9)图表美化:合理使用图表美化技巧,如调整字体、颜色、线条等,使图表更具美观性。(10)多图表组合:将多个图表组合在一起,形成一个完整的故事,有助于展示数据的全貌。第八章数据分析基础8.1数据分析概述数据分析是运用统计学、数学和计算机技术,对收集到的数据进行整理、处理、分析和解释的过程。其目的是从大量数据中提取有价值的信息,为决策者提供依据。数据分析在各个领域都有广泛的应用,如经济、金融、医疗、教育等。数据分析主要包括以下几个步骤:(1)数据收集:从不同来源获取原始数据,包括问卷调查、观测、实验等。(2)数据预处理:对原始数据进行清洗、整合和转换,以便后续分析。(3)数据摸索:通过可视化、统计方法等手段,对数据进行初步分析,了解数据的分布、趋势和异常。(4)模型构建:根据分析目的,选择合适的统计模型或机器学习算法。(5)结果解释:对模型结果进行解释,提取有价值的信息。(6)决策建议:根据分析结果,为实际应用提供决策依据。8.2常见数据分析方法数据分析方法众多,以下列举了几种常见的方法:(1)描述性分析:通过统计图表、表格等形式,展示数据的分布、趋势和异常。(2)相关性分析:研究变量之间的相互关系,如皮尔逊相关系数、斯皮尔曼相关系数等。(3)因子分析:将多个相关变量合并为少数几个综合变量,以简化数据结构。(4)聚类分析:根据数据的相似性,将数据分为若干个类别。(5)主成分分析:通过线性变换,将原始数据转换为新的变量,以降低数据的维度。(6)回归分析:研究变量之间的数量关系,预测因变量。(7)时间序列分析:研究数据随时间变化的规律,进行趋势预测。8.3数据分析工具在数据分析过程中,以下几种工具被广泛使用:(1)Excel:一款功能强大的电子表格软件,适用于简单的数据分析和可视化。(2)R语言:一种统计分析和可视化编程语言,拥有丰富的数据分析包。(3)Python:一种通用编程语言,支持多种数据分析库,如NumPy、Pandas、Matplotlib等。(4)SPSS:一款专业的统计分析软件,提供多种统计方法和可视化工具。(5)Tableau:一款数据可视化工具,支持多种数据源,界面简洁易用。(6)SQL:一种用于数据库查询的编程语言,适用于大规模数据处理。通过掌握这些数据分析方法和工具,研究人员可以更加高效地处理和分析数据,为实际应用提供有力支持。第九章数据建模实践9.1实践案例一9.1.1案例背景本案例以某电商平台的销售数据为研究对象,分析用户购买行为,从而优化商品推荐策略。通过对用户购买记录、商品信息、用户属性等数据进行建模,挖掘潜在有价值的信息,为电商平台提供更精准的商品推荐。9.1.2数据准备(1)用户购买记录:包括用户ID、商品ID、购买时间、购买数量等字段。(2)商品信息:包括商品ID、商品名称、商品类别、商品价格等字段。(3)用户属性:包括用户ID、性别、年龄、地域等字段。9.1.3数据处理(1)数据清洗:去除重复数据、缺失值处理、异常值处理等。(2)数据整合:将用户购买记录、商品信息、用户属性数据进行合并。9.1.4数据建模(1)用户购买行为分析:利用关联规则挖掘,分析用户购买行为。(2)商品推荐策略:根据用户购买行为,采用协同过滤算法进行商品推荐。9.2实践案例二9.2.1案例背景本案例以某银行信用卡交易数据为研究对象,分析信用卡欺诈行为。通过对信用卡交易记录、用户属性等数据进行建模,挖掘潜在的欺诈行为,为银行提供有效的风险控制手段。9.2.2数据准备(1)信用卡交易记录:包括交易ID、用户ID、交易时间、交易金额、交易类型等字段。(2)用户属性:包括用户ID、性别、年龄、职业、地域等字段。9.2.3数据处理(1)数据清洗:去除重复数据、缺失值处理、异常值处理等。(2)数据整合:将信用卡交易记录、用户属性数据进行合并。9.2.4数据建模(1)欺诈行为识别:利用决策树、随机森林等分类算法进行欺诈行为识别。(2)模型评估:通过混淆矩阵、精确率、召回率等指标评估模型效果。9.3实践案例三9.3.1案例背景本案例以某城市交通拥堵状况为研究对象,分析交通拥堵原因,为提供有效的交通管理策略。通过对交通数据、气象数据、道路信息等数据进行建模,挖掘影响交通拥堵的关键因素。9.3.2数据准备(1)交通数据:包括道路ID、路段名称、交通流量、拥堵指数等字段。(2)气象数据:包括日期、温度、湿度、风力等字段。(3)道路信息:包括道

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论