特征工程训练营-随笔_第1页
特征工程训练营-随笔_第2页
特征工程训练营-随笔_第3页
特征工程训练营-随笔_第4页
特征工程训练营-随笔_第5页
已阅读5页,还剩48页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

《特征工程训练营》读书记录目录一、内容综述................................................3

1.1背景介绍.............................................4

1.2目的与意义...........................................5

二、特征工程概述............................................6

2.1特征工程的概念.......................................7

2.2特征工程的重要性.....................................8

2.3特征工程的步骤.......................................9

三、数据预处理.............................................10

3.1数据清洗............................................12

3.1.1缺失值处理......................................13

3.1.2异常值处理......................................13

3.1.3数据标准化......................................15

3.1.4数据归一化......................................16

3.2数据探索............................................17

3.2.1描述性统计......................................18

3.2.2数据可视化......................................19

四、特征提取...............................................20

4.1数值型特征..........................................21

4.1.1基本统计特征....................................22

4.1.2线性组合特征....................................23

4.2类别型特征..........................................24

4.2.1编码方法........................................25

4.2.2特征交叉........................................27

4.3文本型特征..........................................28

五、特征选择...............................................29

5.1特征选择方法概述....................................30

5.2基于模型的特征选择..................................31

5.3基于统计的特征选择..................................32

5.4基于信息增益的特征选择..............................34

六、特征组合...............................................34

6.1特征组合的方法......................................36

6.2特征组合的步骤......................................37

6.3特征组合的应用......................................38

七、特征降维...............................................39

7.1主成分分析..........................................40

7.2降维的其他方法......................................42

7.3降维的应用场景......................................43

八、案例研究...............................................44

8.1案例一..............................................45

8.2案例二..............................................46

8.3案例三..............................................47

九、总结...................................................49

9.1特征工程的关键点....................................50

9.2特征工程在实际应用中的挑战..........................51

9.3未来展望............................................52一、内容综述《特征工程训练营》是一本专注于特征工程领域的专业书籍,旨在为读者提供一个全面而深入的了解特征工程在机器学习中的应用与重要性。本书内容涵盖了特征工程的原理、方法、实践以及相关工具的使用,旨在帮助读者从理论到实践,逐步提升在特征工程方面的技能。书中首先介绍了特征工程的基本概念,包括特征的定义、特征的重要性以及特征工程在整个机器学习流程中的地位。随后,深入探讨了特征提取、特征选择、特征变换、特征编码等核心方法,并通过丰富的案例解析,让读者对每种方法的原理和适用场景有更清晰的认识。此外,本书还详细介绍了特征工程在实际项目中的应用,包括数据预处理、特征组合、特征降维等,并提供了相应的代码实现,使读者能够将所学知识应用到实际项目中。同时,书中还重点介绍了特征工程中常用的工具和库,如等,帮助读者在实际操作中更加高效地完成特征工程任务。《特征工程训练营》以其系统性的内容布局、丰富的案例和实用的代码,为读者提供了一个全面学习特征工程的平台,有助于提升读者在机器学习项目中的特征工程能力,为后续的模型构建打下坚实的基础。1.1背景介绍随着人工智能和大数据技术的飞速发展,特征工程在机器学习和数据挖掘领域扮演着至关重要的角色。特征工程是指通过对原始数据进行预处理、转换和构造,提取出对模型预测性能有显著影响的特征,从而提高模型的学习效果和泛化能力。然而,特征工程并非一项简单的任务,它需要深入理解数据背后的业务逻辑、掌握丰富的数据预处理技巧,以及具备一定的数学和统计知识。《特征工程训练营》这本书正是为了满足这一需求而诞生的。它系统地介绍了特征工程的原理、方法和实践技巧,旨在帮助读者从理论到实践全面掌握特征工程的核心知识。本书内容涵盖了特征选择、特征构造、特征转换、特征编码等多个方面,并通过丰富的案例和实战演练,使读者能够将所学知识应用于实际项目中,提升模型性能。在当前数据驱动的时代背景下,特征工程的重要性日益凸显。《特征工程训练营》的出版,为广大数据科学家、机器学习工程师和数据分析爱好者提供了一个学习和交流的平台,有助于推动我国人工智能领域的发展。通过阅读本书,读者不仅能够掌握特征工程的基本技能,还能够培养出解决问题的思维方式和创新能力,为未来在人工智能领域的发展打下坚实的基础。1.2目的与意义提升认知水平:通过对特征工程的系统学习,帮助读者全面理解特征工程的理论基础、实践技巧以及其在不同领域中的应用,从而提升自身在数据科学领域的认知水平。优化数据分析流程:特征工程是数据科学领域的关键环节,通过本读书记录,读者可以学习到如何有效地进行特征提取、转换和选择,从而优化数据分析流程,提高模型预测的准确性和效率。解决实际问题:在实际的数据科学项目中,特征工程常常是解决问题的关键。本读书记录通过案例分析,帮助读者掌握如何将特征工程应用于实际问题,提高解决问题的能力。促进交流与分享:通过记录阅读过程中的心得体会和思考,可以促进读者之间的交流与分享,共同探讨特征工程的最新动态和发展趋势。培养专业素养:特征工程是数据科学家必备的专业技能之一。本读书记录不仅为读者提供了系统学习的材料,还旨在培养读者的专业素养,使其在数据科学领域具备更高的竞争力。推动行业发展:随着人工智能和大数据技术的快速发展,特征工程在各个行业的应用日益广泛。本读书记录的编写有助于推动特征工程在理论研究和实际应用方面的进步,促进数据科学行业的整体发展。二、特征工程概述特征工程是机器学习领域中一个至关重要的步骤,它指的是通过选择、构建或转换原始数据中的特征,以提升模型性能的过程。在数据科学和机器学习的实践中,特征工程往往占据了模型开发过程中的大部分时间,其重要性不言而喻。提高模型的准确性和泛化能力:通过有效的特征选择和构造,使得模型能够更好地捕捉数据中的有用信息,从而提高预测或分类的准确性,并增强模型对未知数据的适应能力。优化计算效率:通过减少不必要的特征,降低模型的复杂度和计算成本,使得模型在实际应用中更加高效。提高模型的可解释性:通过特征工程,可以增强模型的可解释性,使得模型决策过程更加透明,便于理解模型的内在工作机制。特征选择:从原始特征中筛选出对模型预测或分类贡献较大的特征,剔除冗余或噪声特征。特征提取:通过算法或模型从原始数据中提取新的特征,这些特征可能包含原始数据中未直接表现出来的信息。特征转换:对原始特征进行变换,如标准化、归一化、多项式扩展等,以适应模型的输入要求或提升模型性能。特征组合:将多个原始特征组合成新的特征,以期望获得更好的预测效果。在特征工程的过程中,需要结合具体的应用场景和数据特点,灵活运用各种技术和方法。此外,特征工程也是一个不断迭代和优化的过程,随着模型训练和评估的进行,可能需要调整或重新设计特征工程策略。2.1特征工程的概念特征工程是机器学习领域中的一个核心环节,它指的是在数据预处理过程中,通过一系列的技术手段对原始数据进行处理和转换,从而提取出对模型预测任务有意义的特征。简单来说,特征工程就是为了让机器学习模型能够更好地理解和学习数据中的有用信息。特征工程的目的在于提高模型的学习能力和预测准确性,在大多数情况下,原始数据往往包含了大量的噪声和不相关信息,这些信息可能会干扰模型的训练过程,导致模型性能下降。因此,特征工程的核心任务就是从原始数据中筛选出对模型预测有帮助的特征,并对其进行适当的转换和组合,以便模型能够更加有效地学习和利用这些特征。数据清洗:对原始数据进行初步的清洗,去除缺失值、异常值等不干净的数据。特征提取:从原始数据中提取出对预测任务有帮助的特征,例如,通过计算统计数据、构造新的特征变量等。特征选择:从提取出的特征中选择出对模型预测最有效的特征,去除冗余或不相关的特征。特征转换:对选中的特征进行适当的转换,如标准化、归一化、编码等,以适应不同的模型算法。特征组合:将多个特征进行组合,形成新的特征,以增加模型的解释能力和预测能力。通过有效的特征工程,可以显著提高机器学习模型的性能,使模型在处理复杂问题时更加鲁棒和准确。然而,特征工程也是一个极具挑战性的任务,需要数据科学家具备深厚的统计学、数据分析和编程能力。2.2特征工程的重要性数据质量提升:原始数据往往存在噪声、缺失值、异常值等问题,通过特征工程可以对这些数据进行清洗和预处理,提高数据质量,为后续建模提供更可靠的基础。信息提取与增强:特征工程能够从原始数据中提取出更具有代表性的信息,甚至可以创造出新的特征,这些特征可能对模型预测结果的准确性有着显著的影响。模型性能优化:通过合理的特征选择和构造,可以减少模型过拟合的风险,提高模型的泛化能力,使得模型在新的、未见过的数据上也能保持良好的表现。降低模型复杂度:通过特征工程可以简化模型结构,减少参数数量,这不仅降低了计算成本,还能提高模型的解释性。数据驱动与业务结合:特征工程不仅仅是技术操作,更是对业务理解的过程。通过对业务知识的深入挖掘,可以设计出更符合业务逻辑的特征,从而更好地服务于业务决策。减少数据依赖:在某些情况下,数据可能无法直接获取或者获取成本很高。通过特征工程,可以在一定程度上减少对原始数据的依赖,通过间接的特征来反映所需的信息。特征工程是机器学习项目中不可或缺的一环,它不仅关系到模型的效果,也体现了数据科学家对业务的理解和数据处理的能力。因此,对特征工程的重视和深入研究是提升模型性能的重要保障。2.3特征工程的步骤缺失值处理:根据数据的重要性和缺失情况,选择合适的填充方法或删除含有缺失值的记录。异常值处理:识别并处理数据中的异常值,可以选择删除、修正或保留。数据标准化或归一化:调整数据分布,使其符合模型输入的要求,提高模型的泛化能力。根据业务知识和数据特征的重要性,选择对模型预测效果有显著影响的特征。利用特征工程技巧,从原始数据中提取新的特征,如计算统计特征、构建组合特征等。对特征的有效性进行评估,可以使用模型评估指标,如模型准确率、召回率、F1分数等。将多个特征组合成新的特征,以探索特征之间的关系,提高模型的性能。三、数据预处理数据预处理是特征工程中至关重要的一环,它直接关系到后续模型训练的效果。在本章节中,我们将深入探讨数据预处理的相关技术和方法。数据清洗是预处理的第一步,旨在识别并处理数据中的缺失值、异常值和重复值。缺失值可以通过填充、插值或删除的方式处理;异常值需要根据业务逻辑判断是否需要剔除或修正;重复值则直接影响模型的泛化能力,需要被识别并去除。数据集成是将多个来源、格式或结构不同的数据合并成统一格式的过程。在特征工程中,数据集成可以帮助我们更全面地理解数据,挖掘出更丰富的特征信息。常用的数据集成方法包括合并、连接和转换等。数据转换是为了满足模型对输入数据的要求,对原始数据进行的一系列变换。常见的转换方法包括:归一化:将数据转换为具有相同均值的正态分布,适用于模型对输入数据范围敏感的情况。编码:将非数值型的数据转换为数值型,如将类别型数据转换为独热编码或标签编码。特征选择是数据预处理的重要步骤,旨在从原始特征中选择出对模型性能影响最大的特征。通过特征选择,我们可以减少模型复杂度,提高训练效率。常用的特征选择方法包括:基于统计的方法:如卡方检验、互信息等,通过评估特征与目标变量之间的相关性进行选择。基于模型的方法:如递归特征消除、基于树的模型等,通过模型评估特征对模型性能的影响进行选择。3.1数据清洗缺失值检查:首先,我们需要检查数据集中是否存在缺失值。缺失值可能是因为数据收集过程中的错误、数据损坏或数据本身的不完整性。可以使用统计方法来识别缺失值。异常值检测:异常值可能是由错误的数据输入、数据采集过程中的错误或数据本身的特性引起的。通过可视化来检测异常值。数据类型检查:确保所有数据都符合预期的数据类型,如数字、字符串、日期等。不一致的数据类型会导致后续处理中的错误。填充:可以使用多种方法来填充缺失值,如平均值、中位数、众数、前向填充、后向填充或使用模型预测缺失值。修正:如果异常值是由于数据采集过程中的误差,可以尝试修正这些值。标准化:通过标准化或归一化将数值型数据的尺度调整一致,便于模型学习。缩放:对于某些算法,如距离度量算法,需要将特征缩放到相同的尺度。数据清洗是一个迭代的过程,可能需要多次检查和处理,以确保最终用于模型训练的数据是准确、完整和高质量的。3.1.1缺失值处理在数据预处理过程中,缺失值处理是一个至关重要的步骤。缺失值的存在可能会对模型的训练和预测产生不利影响,因此需要采取适当的方法来处理这些缺失数据。删除含有缺失值的样本:这是一种最简单直接的方法,通过删除包含缺失值的记录来减少数据的缺失。然而,这种方法可能会导致重要信息的丢失,尤其是在数据量较小或缺失值比例较高的情况下。均值中位数众数填充:对于数值型特征,可以使用特征的均值、中位数或众数来填充缺失值。这种方法适用于数据分布较为均匀的情况。前向填充后向填充:对于时间序列数据,可以使用前一个或后一个有效值来填充缺失值,这种方法适用于数据具有一定的顺序关系。插值:通过线性插值、多项式插值等数学方法估算缺失值,适用于数值型特征。模型预测填充:利用机器学习模型来预测缺失值,这种方法可以捕捉到特征之间的复杂关系。3.1.2异常值处理在特征工程中,异常值处理是一个至关重要的环节。异常值,也称为离群点,是指那些偏离数据集中大多数数据点的值,它们可能是由数据采集错误、异常事件或测量误差等原因引起的。异常值的存在可能会对模型的学习和预测带来负面影响,因此,在特征工程过程中对其进行处理是必要的。识别异常值:首先,需要识别数据集中的异常值。这可以通过计算统计量来直观地观察数据的分布。分析异常值原因:在识别出异常值后,需要分析其产生的原因。这可能涉及到对数据收集过程的回顾,或者对异常值的背景信息进行调研。处理异常值:根据异常值的具体情况和原因,可以采取以下几种处理策略:变换异常值:对于某些情况下,可以尝试对异常值进行变换,如对数变换、幂变换等,以使其更符合数据集的分布。验证处理效果:在处理异常值后,需要验证处理效果是否达到了预期。这可以通过重新进行统计分析、可视化检查或使用模型评估指标来进行。需要注意的是,在处理异常值时,要谨慎操作,避免过度处理导致数据信息丢失,从而影响模型的性能。合理的异常值处理策略应该基于对数据的深入理解和业务知识的结合。3.1.3数据标准化在特征工程中,数据标准化是一个非常重要的步骤,它旨在将不同量纲的特征值转化为具有相同量纲的值,使得模型在训练过程中能够更加公平地对待各个特征。数据标准化通常包括两种类型:最小最大标准化和Z标准化。最小最大标准化通过将原始特征值缩放到一个指定的范围,通常是,来实现标准化。这种方法通过以下公式进行计算:其中,是该特征的最大值。这种标准化的优点是简单易实现,且不会改变数据的分布。然而,它对极端值非常敏感,如果数据集中存在异常值,可能会对标准化结果产生较大影响。其中,是该特征的标准差。Z标准化的优点是能够消除量纲的影响,使不同量纲的特征值具有相同的权重,并且对异常值不敏感。然而,它可能会改变数据的分布,尤其是当原始数据分布不是正态分布时。在《特征工程训练营》中,我们学习了如何根据具体问题选择合适的数据标准化方法,并了解了在实际应用中如何使用的模块来实现数据标准化。通过这一章节的学习,读者能够掌握数据标准化在特征工程中的重要性,并在后续的机器学习项目中正确应用这一技术。3.1.4数据归一化避免尺度偏差:在许多机器学习算法中,模型对数值尺度非常敏感。如果特征之间存在很大的数值差异,可能会导致某些特征在模型训练过程中占据主导地位,从而影响模型的性能和泛化能力。加速收敛:对于某些优化算法,如梯度下降法,数据归一化可以加快算法的收敛速度。提高数值稳定性:在某些计算过程中,极端的数值可能会导致数值溢出或下溢,影响算法的稳定性。特点:将特征值转换为均值为0,标准差为1的分布。适用于特征值范围较大且需要保持分布特性的情况。特点:将特征值缩放到最大绝对值范围内。适用于特征值范围较大,但不需要保持原始分布的情况。选择合适的归一化方法:根据数据特性和模型要求选择合适的归一化方法。保留归一化参数:在模型部署或数据迁移时,需要保留归一化参数,以便于恢复原始数据的尺度。监控数据变化:在数据预处理过程中,监控数据的变化,防止异常值或数据泄露对归一化结果的影响。3.2数据探索在《特征工程训练营》这本书中,数据探索被强调为特征工程过程中的关键步骤。这一章节详细介绍了如何通过对数据进行初步的观察和分析,来发现数据中的潜在模式和异常,从而为后续的特征选择和预处理打下坚实的基础。数据概览:首先,对数据进行基本的统计描述,包括数值型特征的最大值、最小值、均值、标准差等,以及类别型特征的分布情况。这一步骤有助于快速了解数据的整体情况。数据可视化:利用图表和图形工具,如柱状图、饼图、散点图等,直观地展示数据的分布和特征之间的关系。可视化不仅有助于发现数据中的异常值和趋势,还能帮助我们更好地理解数据背后的故事。异常值检测:通过统计方法或可视化手段,识别并处理数据集中的异常值。异常值可能是由于数据录入错误、异常情况或者噪声所引起的,处理不当可能会对模型性能产生负面影响。缺失值分析:分析数据集中的缺失值情况,并采取相应的策略进行处理。缺失值的处理方法包括删除、填充或插值等,具体方法取决于缺失值的比例和特征的重要性。特征相关性与冗余分析:通过计算特征之间的相关系数或者使用特征选择算法,识别出高度相关的特征对,从而判断哪些特征是冗余的,并可能需要被去除。数据质量评估:对数据质量进行综合评估,确保数据满足后续模型训练的需求。这可能包括对数据的一致性、完整性、准确性和实时性的检查。3.2.1描述性统计集中趋势度量:集中趋势度量用于描述数据的一般水平或中心位置,常用的指标包括均值、中位数和众数。均值是所有数据的总和除以数据个数,它反映了数据的平均水平;中位数是将数据按大小顺序排列后位于中间的数值,它对极端值不敏感;众数是数据中出现次数最多的数值,它适用于分类数据。离散程度度量:离散程度度量用于描述数据的分散程度,常用的指标包括标准差、方差和极差。标准差是各个数据点与均值差的平方和的平均数的平方根,它反映了数据的波动程度;方差是标准差的平方,它也是衡量数据波动的一个指标;极差是最大值与最小值之差,它简单直观地表示了数据的最大范围。分布描述:描述性统计还包括对数据分布的描述,如正态分布、偏态分布和峰度等。正态分布是数据分布的一种理想状态,其特征是数据围绕均值对称分布;偏态分布描述了数据分布的不对称程度,正偏态意味着数据右侧尾部较长,负偏态则相反;峰度描述了数据分布的尖锐程度,高峰度表示数据分布较为尖锐。通过掌握描述性统计的方法,我们能够对数据集有一个初步的了解,为后续的特征选择、数据预处理和模型构建打下坚实的基础。在《特征工程训练营》的学习过程中,我们通过实际案例分析了如何运用描述性统计来发现数据中的规律和潜在问题,这对于提升我们的数据分析能力具有重要意义。3.2.2数据可视化数据探索与理解:通过数据可视化,我们可以快速浏览大量数据,发现数据的基本分布情况,如数据的集中趋势、离散程度等。这对于理解数据的整体情况,以及为后续的特征工程提供方向至关重要。特征选择:在特征工程过程中,数据可视化可以帮助我们识别出哪些特征对模型性能有显著影响。例如,通过散点图可以观察特征之间的关系,通过箱线图可以识别出异常值,从而辅助我们进行特征选择。异常值检测:通过可视化手段,如直方图、箱线图等,可以直观地发现数据中的异常值。异常值可能对模型训练产生不良影响,因此及时检测并处理异常值对于提高模型质量非常重要。模型验证:在模型训练完成后,使用数据可视化可以直观地展示模型的预测结果与真实值之间的差异,帮助我们评估模型的性能和预测能力。交互式探索:现代数据可视化工具提供了交互式界面,允许用户动态调整参数,探索数据的不同维度。这种交互性使得数据可视化成为探索性数据分析的重要工具。通过掌握这些数据可视化的技巧和方法,我们能够在特征工程过程中更加高效地处理和分析数据,为构建高质量的机器学习模型奠定坚实的基础。四、特征提取在《特征工程训练营》的第四章中,我们深入探讨了特征提取这一核心环节。特征提取是数据预处理阶段的关键步骤,它旨在从原始数据中提取出对模型学习有帮助的信息,从而提升模型的性能。特征提取的质量直接影响到后续模型的训练效果,一个优秀的特征提取过程可以显著提高模型的准确率、降低过拟合风险,甚至可以减少所需的训练数据量。统计特征:如均值、方差、最大值、最小值等,主要用于描述数据的分布特征。特征选择:通过过滤、包装和嵌入式方法来选择最有用的特征,减少冗余和噪声。特征组合:通过组合多个特征来创建新的特征,有时可以提升模型性能。特征缩放:通过标准化或归一化特征值,使得不同量级的特征对模型的影响更加均衡。4.1数值型特征离散数值特征:这类特征具有有限的取值范围,例如产品分类编号、用户等。在处理这类特征时,可以通过独热编码等方式将其转换为类别型特征。连续数值特征:这类特征通常表示连续的数值,如年龄、收入、温度等。连续数值特征的处理方法较为多样,以下是一些常见的方法:标准化:通过减去均值并除以标准差,将特征值转换为均值为0,标准差为1的分布,有助于改善模型性能。归一化:将特征值缩放到一个固定范围,如,有助于提高模型对特征值的敏感度。分箱:将连续数值特征划分为多个区间,每个区间用一个数值或类别表示,适用于某些模型如决策树、随机森林等。对数变换:对于具有长尾分布的特征,对数变换可以压缩数值范围,减少异常值的影响。特征组合:通过组合多个数值型特征,创建新的特征,如年龄与职业的组合、收入与地区等。特征变换:对数值型特征进行数学变换,如平方、立方、指数等,以揭示特征之间的关系。特征缩放:根据模型的敏感性,对特征进行缩放,以避免某些特征对模型结果产生过大的影响。4.1.1基本统计特征中位数:将数据集从小到大排序后,位于中间位置的数值,能够更好地反映数据的中心位置,尤其是在数据存在极端值时。提取基本统计特征对于理解数据的分布、发现数据中的异常值以及后续的数据预处理和模型训练都具有重要意义。在《特征工程训练营》中,我们会详细介绍如何计算这些统计量,并探讨它们在特征选择和特征构造中的应用。通过学习这些基本统计特征,读者可以更好地掌握特征工程的核心概念,为后续的数据分析和机器学习模型的构建打下坚实的基础。4.1.2线性组合特征线性组合特征是指在原始特征的基础上,通过数学运算组合成新的特征。这种特征工程方法在特征提取中非常常见,因为它能够利用已有特征之间的关系,创造出新的信息,从而提升模型的性能。增强特征表达能力:通过组合多个原始特征,可以形成更丰富的特征,有助于模型捕捉到更复杂的模式。简化模型复杂度:某些复杂的关系可以通过简单的线性组合来近似,从而简化模型结构,降低计算成本。提高模型鲁棒性:通过引入线性组合特征,可以减少模型对单一特征的过度依赖,提高模型对噪声和异常值的抵抗力。相关系数组合:利用特征间的相关系数,可以组合出反映特征间线性关系的特征,如_。避免过拟合:过度组合特征可能会导致模型过拟合,因此需要控制组合特征的个数。特征选择:在组合特征时,应考虑哪些特征组合能够提供额外的信息,避免无意义的组合。解释性:某些线性组合特征可能难以解释,需要根据具体问题进行权衡。通过合理地运用线性组合特征,我们可以有效地提升特征的质量,为机器学习模型提供更强大的数据基础。4.2类别型特征在特征工程中,类别型特征是指那些不能直接用于数值计算,而是由一系列离散标签或分类组成的特征。这类特征在机器学习模型中扮演着重要角色,因为它们往往包含着丰富的信息和潜在的模式。然而,由于类别型特征无法直接被机器学习算法理解和使用,因此在进行建模前需要对其进行适当的处理和转换。独热编码:这种方法将每个类别转换为一个二进制列,其中一个值为1表示该类别属于该特征,其余值为0。独热编码能够保留类别特征的所有信息,但会显著增加数据维度。标签编码:这种方法将每个类别赋予一个唯一的整数标签。标签编码简单易行,但可能会导致类内距离与类间距离混淆,影响模型性能。频率编码:这种方法将每个类别替换为其在特征中出现频率的数值。频率编码能够保留类别之间的频率差异,但可能会忽略类别本身的相对重要性。基数编码。这种方法可以减少维度,但需要谨慎选择基数以避免信息丢失。嵌入编码:对于具有丰富语义信息的类别型特征,可以使用嵌入编码,将类别映射到低维空间中的密集向量。这种方法能够捕捉类别之间的关系,但在处理高维类别特征时可能较为复杂。类别不平衡:在类别型特征中,某些类别可能比其他类别更常见。这可能导致模型偏向于多数类别,忽略少数类别。解决方法包括重采样、合成少数类样本等。特征缺失:类别型特征可能存在缺失值。处理缺失值的方法包括删除含有缺失值的样本、填充缺失值等。特征重要性:在处理类别型特征时,需要考虑特征的重要性。一些特征可能对模型的预测能力影响更大,应优先处理。通过合理处理和转换类别型特征,我们可以提高机器学习模型的性能和泛化能力,使其更好地理解和预测数据中的复杂模式。4.2.1编码方法标签编码是一种最简单的编码方法,它将分类特征的不同类别映射到一个连续的整数。这种方法适用于类别之间没有顺序关系的特征。独热编码为每个类别创建一个新列,如果原始特征中的类别为真,则该列的值为1,否则为0。这种方法适用于类别之间有顺序关系的特征。例如,将职业特征“教师”、“医生”、“工程师”编码后,每个职业都会变成一个新的列,且只有对应的列是1,其他列是0。二进制编码类似于独热编码,但它将类别编码为一个二进制数。这种方法在处理具有许多类别且类别之间没有明显顺序的特征时更为高效。例如,将城市特征编码为一个二进制数,每个城市的编码由若干位二进制数表示。当一个特征可以是多个类别的组合时,可以使用多标签二进制编码。这种方法将每个类别都映射到一个二进制位,如果一个样本同时属于多个类别,则相应的二进制位都为1。例如,将兴趣爱好的特征“阅读”、“运动”、“旅游”编码,如果一个用户同时喜欢阅读和旅游,那么对应的编码中“阅读”和“旅游”的二进制位都为1。目标编码是一种将类别特征编码为与目标变量相关数值的方法。它通过计算每个类别在目标变量中的平均值来编码类别。例如,在预测某个产品的价格时,将品牌特征编码为该品牌产品平均价格。频率编码将每个类别的出现频率编码为数值。这种方法适用于类别分布不均匀的特征。选择合适的编码方法对于提高模型的性能至关重要,在实际应用中,可能需要尝试多种编码方法,并通过交叉验证等方法评估其效果,以确定最佳的编码方式。4.2.2特征交叉特征交叉是特征工程中一种重要的方法,旨在通过组合多个特征来生成新的特征,从而提高模型对数据的描述能力和预测能力。这种方法的核心思想是将不同的特征进行数学运算或逻辑运算,生成新的特征列,这些新特征能够捕捉到原始特征之间可能存在的隐藏关系。乘积交叉:这种方法通过计算两个数值特征的乘积来创建新特征。例如,如果一个特征表示价格,另一个特征表示数量,那么它们的乘积可以代表总销售额,这样的新特征能够提供额外的信息。多项式交叉:通过将特征进行多项式运算,生成原特征的高阶组合。例如,对于两个特征A和B,可以计算AB2以及A2B等新特征。哈希交叉:当特征空间非常大时,直接进行交叉可能会消耗大量的内存和计算资源。哈希交叉通过哈希函数将特征映射到一个较小的空间,从而实现高效的特征交叉。逻辑交叉:适用于类别特征,通过组合不同的类别来创建新的类别特征。例如,如果有一个特征表示用户是否购买了商品A和商品B,可以创建一个新特征表示同时购买商品A和B的用户。4.3文本型特征在《特征工程训练营》中,文本型特征的处理是本章的重点内容。文本型特征通常指的是由字母、数字、符号等组成的非数值型数据,它们在文本数据中扮演着至关重要的角色。由于文本数据具有复杂性和多样性,直接将其用于机器学习模型往往效果不佳,因此需要进行特征工程来提取和转换文本型特征。去除停用词:停用词如“的”、“是”、“在”等在文本中频繁出现,但它们对模型的理解帮助不大,因此需要去除。词干提取或词形还原:通过将文本中的单词还原到基本形态,去除词尾变化带来的冗余信息。词嵌入:词嵌入是将单词转换为固定长度的向量表示,能够捕捉到词语的语义信息。常见的词嵌入模型有2和。3:N是指文本中的连续N个词汇的组合,它可以捕捉到词汇之间的顺序关系,比单个词更能反映文本的语义。主题模型:如可以用于发现文本数据中的潜在主题,从而提取出更具代表性的特征。需要注意的是,在处理文本型特征时,也要关注特征的可解释性和模型对特征的选择能力。过拟合和欠拟合都是可能的问题,因此需要通过交叉验证等方法来评估特征的有效性和模型的泛化能力。五、特征选择特征选择的重要性:特征选择不仅可以减少模型的过拟合风险,还能提高模型的可解释性,降低计算成本,因此在数据预处理阶段占有重要地位。统计方法:基于特征与目标变量之间的相关性进行选择,如卡方检验、互信息等。模型依赖方法:基于模型对特征重要性的评估进行选择,如回归、随机森林等。基于模型的特征选择:使用模型预测性能来评估特征的重要性,如使用决策树、神经网络等。迭代优化:根据特征重要性评估结果,调整特征集合,重新训练模型,直至找到最优特征组合。过拟合风险:避免过度依赖模型依赖的方法,以免模型对训练数据过于敏感,导致泛化能力下降。业务理解:结合业务背景,理解特征背后的含义,有助于更好地进行特征选择。通过合理运用特征选择的方法和技巧,我们可以有效地提升模型的性能,为后续的数据分析和建模奠定坚实的基础。5.1特征选择方法概述这种方法基于特征的某种统计属性,如方差、相关性等,来评估特征的重要性。过滤式方法简单易行,但可能无法考虑特征间的相互作用,因此可能在某些情况下效果不佳。包裹式方法通过在模型训练过程中逐步添加或删除特征,来评估特征集的质量。这种方法能够考虑特征之间的交互作用,但计算成本较高,尤其是当特征数量庞大时。嵌入式方法结合了特征选择和特征提取,通过模型学习过程中自动学习到特征的重要性。这类方法在许多机器学习算法中都有应用,如回归、随机森林等。这种方法利用模型评估特征的重要性,通常需要先训练一个基准模型。通过比较不同特征在模型中的贡献,选择出对模型性能影响较大的特征。利用信息增益、互信息等概念来评估特征对模型预测的贡献,选择信息量最大的特征。每种特征选择方法都有其适用的场景和优缺点,在实际应用中,需要根据具体问题和数据集的特点,选择合适的特征选择方法,以达到最优的模型性能。同时,特征选择过程也是一个不断迭代和优化的过程,可能需要结合多种方法来达到最佳效果。5.2基于模型的特征选择在特征工程中,基于模型的特征选择是一种常用的方法,它利用机器学习模型对特征的重要性进行评分,从而帮助我们识别出对预测任务贡献最大的特征。这种方法的核心思想是,通过训练一个模型,并观察模型对各个特征的权重分配,来决定哪些特征是重要的。模型选择:首先需要选择一个适合的机器学习模型来进行特征选择。常用的模型包括逻辑回归、支持向量机等。模型训练:使用包含所有特征的训练数据集来训练选定的模型。在训练过程中,模型会学习到如何根据特征预测目标变量。特征重要性评分:模型训练完成后,可以提取模型的特征重要性评分。例如,随机森林模型通过计算每个特征在所有决策树中的平均重要性得分来评估特征的重要性。特征筛选:根据特征的重要性评分,可以设置一个阈值来筛选出重要的特征。通常,重要性得分较高的特征被认为是对预测结果贡献较大的特征。模型优化:有时候,去除一些不重要的特征后,原始模型的性能可能得到提升。因此,在筛选特征后,可以对模型进行重新训练,以验证和优化模型的性能。随机森林特征选择:通过随机森林模型中每个特征的不纯度减少来评估特征的重要性。回归特征选择:利用正则化技术,通过在损失函数中添加L1惩罚项来强制一些特征系数变为零,从而实现特征选择。特征贡献率:某些模型如允许直接查看每个特征的贡献率,这可以作为特征选择的一个依据。基于模型的特征选择方法的优势在于其可以自动处理特征之间的相互作用,并且能够提供关于特征重要性的定量评估。然而,这种方法也可能受到模型选择和参数设置的影响,因此在实际应用中需要谨慎选择模型和调整参数。5.3基于统计的特征选择在特征工程中,基于统计的特征选择是一种常用的方法,它通过评估特征与目标变量之间的相关性来选择最有用的特征。这种方法的核心思想是利用统计测试来量化特征与目标变量之间的线性关系或非线性关系,从而筛选出对预测任务贡献最大的特征。卡方检验是一种非参数检验方法,用于检测分类变量与目标变量之间的独立性。它适用于分类数据,通过计算特征与目标变量之间的卡方值来评估特征的重要性。卡方值越大,表明特征与目标变量之间的关联性越强。互信息是一种衡量两个变量之间关联程度的指标,它既考虑了特征与目标变量之间的线性关系,也考虑了非线性关系。互信息值越大,表明特征对解释或预测目标变量的信息量越大。皮尔逊相关系数用于衡量两个连续变量之间的线性关系强度和方向。它的取值范围从1到1,值越接近1或1,表示线性关系越强;值接近0,则表示线性关系较弱。斯皮尔曼秩相关系数用于衡量两个变量的非参数关系,即不考虑变量是否为连续型。它适用于不满足正态分布或含有异常值的情形。当特征之间存在多重共线性时,方差膨胀因子可以用来衡量回归模型的方差膨胀程度。值越大,表明特征间的共线性越强,可能会影响模型的稳定性和预测性能。根据排序结果,选择一定比例的前置特征,或者直接选择统计量最高的特征。需要注意的是,基于统计的特征选择方法在处理高维数据时可能会受到维度的困扰,此时可以考虑结合其他特征选择方法或使用降维技术来提高效率。5.4基于信息增益的特征选择对于每个特征,计算其对应的条件熵:条件熵是指在给定一个特征的情况下,数据集的熵。根据信息增益的大小,选择信息增益最大的特征作为最优特征。重复此过程,逐步选择多个特征,直至达到预期特征数量或满足其他条件。对于特征之间相互关联的情况,信息增益可能无法准确评估每个特征的实际作用。在实际应用中,我们可以结合其他特征选择方法,如卡方检验、互信息等,对特征进行综合评估,以选择出最优特征集。通过优化特征,我们可以为模型提供更丰富的信息,从而提高模型的准确率和泛化能力。六、特征组合概念理解:特征组合是指将两个或多个原始特征通过某种方式结合起来,形成一个新的特征。这种组合可以是简单的加减乘除,也可以是复杂的函数运算。简单组合:如年龄与性别的组合,可以形成“年轻男性”、“年轻女性”等类别特征。特征交叉:将两个特征的不同取值进行交叉,如“职业”与“收入”交叉,可以形成“工程师高收入”这样的组合特征。时间序列组合:对于时间序列数据,可以组合不同时间点的特征,如“近三个月的销售额”与“近三个月的顾客数量”。相关性:选择具有强相关性的特征进行组合,以提高新特征的预测价值。维度控制:避免过度组合导致特征维度爆炸,影响模型的训练效率和效果。在电商推荐系统中,可以组合用户的历史购买记录和浏览记录,形成用户兴趣特征。在金融风控中,可以将借款人的收入、负债、信用记录等特征组合,形成信用风险评分。模型适应性:不同模型的特征组合方式可能不同,需要根据具体模型进行调整。通过合理地进行特征组合,我们可以有效提升模型的性能,为后续的数据挖掘和机器学习提供更丰富的特征信息。6.1特征组合的方法加法组合:这是最简单的特征组合方式,通过将原始特征进行简单的相加或相减。例如,将年龄和性别组合成“年龄+性别”的新特征,可能有助于模型捕捉到年龄和性别对某些结果的共同影响。乘法组合:当两个特征的相互作用对预测目标有重要影响时,可以使用乘法组合。例如,对于“价格”和“购买数量”这两个特征,可以将它们相乘得到“总花费”,这可能会对预测销售额有帮助。指数组合:在一些情况下,特征的交互作用可能不是线性的,这时可以使用指数组合来捕捉非线性关系。例如,将“收入”和“教育水平”的组合用指数函数表示,可能会发现教育水平对收入的影响随着收入水平的提高而增强。分组合:将原始特征分割成不同的部分,然后组合成新的特征。这种方法在处理时间序列数据或文本数据时特别有用,例如,可以将时间序列数据分割为小时、日期、星期几等,然后组合成新的时间特征。函数组合:通过对原始特征应用各种数学函数,可以生成新的特征。这种方法有助于捕捉特征的非线性关系,提高模型的解释能力。聚合组合:将多个相似的特征进行聚合,生成一个综合特征。例如,将一组用户的行为数据进行平均或求和,生成用户活跃度的综合指标。特征相关性:避免组合高度相关的特征,因为这可能不会带来新的信息,反而可能降低模型的泛化能力。数据类型一致性:组合的特征应该保持数据类型的一致性,以便于模型处理。业务意义:组合的特征应该有明确的业务意义,有助于解释模型预测结果。通过合理运用特征组合的方法,可以有效提高模型的学习能力和预测精度。6.2特征组合的步骤确定组合目标:首先明确组合特征的目的,是为了捕捉原始特征之间的相互作用,还是为了增加数据的稀疏性,或是为了简化模型复杂度。选择特征:根据组合目标,从原始特征集中选择合适的特征进行组合。选择特征时应考虑特征之间的相关性,避免冗余。设计组合方式:根据特征类型和组合目标,设计合适的组合方式。常见的组合方式包括:实施组合:按照设计的组合方式,对选定的特征进行数学或逻辑运算,生成新的特征组合。模型评估:将特征组合加入模型中,通过交叉验证等方法评估模型的性能。迭代优化:根据评估结果,对组合方式进行迭代优化,调整组合方式或选择不同的特征进行组合。记录与文档:将特征组合的过程、组合方式、评估结果等信息进行记录,以便后续查阅和分析。6.3特征组合的应用数值特征的组合:将两个或多个数值特征通过数学运算组合成一个新的特征。例如,在电商推荐系统中,可以将用户的购买金额和购买次数相乘,得到一个反映用户消费强度的特征。类别特征的组合:通过将类别特征进行合并或创建新的类别来构建新的特征。例如,在银行贷款审批模型中,可以将借款人的年龄、婚姻状况和职业进行组合,创建一个新的特征“年龄职业组合”,以帮助模型更好地理解借款人的整体情况。时间序列特征的组合:在处理时间序列数据时,可以将不同时间点的特征进行组合,如计算相邻时间点的差值、比值等,来捕捉时间序列中的变化趋势。文本特征的组合:在文本数据处理中,可以将多个词频或值进行组合,形成新的文本特征,以增强模型对文本内容的理解。交互特征的组合:交互特征是指原始特征之间相互作用产生的特征,它能够捕捉到特征之间的非线性关系。例如,在零售销售预测中,可以组合“商品类别”和“促销活动”这两个特征,创建一个“促销活动类别”交互特征,来分析特定促销活动对不同商品类别销售的影响。特征相关性:组合的特征应该具有一定的相关性,否则组合后的特征可能不会带来显著的预测性能提升。模型适应性:不同的机器学习模型对特征组合的敏感性不同,需要根据具体的模型进行调整。数据稀疏性:特征组合可能会增加数据的稀疏性,对于高维数据,需要特别注意这一点。特征组合是特征工程中的一个强大工具,合理运用可以显著提高模型的预测能力和泛化能力。在《特征工程训练营》的学习过程中,了解和掌握特征组合的技巧对于提升数据分析能力至关重要。七、特征降维在特征工程中,特征降维是一个至关重要的步骤,它旨在减少数据集中的特征数量,同时尽可能保留原有特征的信息。这一过程不仅有助于简化模型复杂度,提高计算效率,还能有效避免过拟合现象,提升模型的泛化能力。主成分分析:是一种常用的线性降维方法,它通过寻找数据的主要成分,即方差最大的方向,来实现特征降维。这种方法适用于线性可分的数据集。线性判别分析:是一种基于分类的降维方法,它通过寻找能够最大化不同类别之间差异和最小化类别内差异的特征子集来实现降维。数据预处理:在进行降维之前,需要对数据进行标准化或归一化处理,以保证不同特征的尺度一致。模型评估:评估降维前后模型性能的变化,确保降维没有显著降低模型的预测能力。降维过程中可能会丢失一些信息,因此在选择降维方法时需要权衡保留信息和模型性能。通过合理地应用特征降维技术,我们可以有效提升机器学习模型的性能,为后续的数据分析和模型构建打下坚实的基础。7.1主成分分析方差:方差是衡量数据分散程度的一个指标,通过提取方差最大的主成分来保留数据中的主要信息。数据标准化:由于对数据的量纲敏感,因此在开始之前需要将所有特征标准化到相同的量纲。常用的标准化方法有Z标准化和标准化。计算协方差矩阵:协方差矩阵描述了数据集中各个特征之间的关系。通过计算协方差矩阵,我们可以了解数据中各个特征之间的相关性。计算特征值和特征向量:协方差矩阵的特征值和特征向量是的核心。特征值代表了对应主成分的方差大小,而特征向量则代表了主成分的方向。选择主成分:根据特征值的大小,我们可以选择前k个最大的特征值对应的特征向量,这k个特征向量构成了新的k维空间,称为主成分空间。转换数据:将原始数据从原始空间转换到主成分空间,即使用主成分向量乘以原始数据矩阵,得到降维后的数据。机器学习:用于提高模型的可解释性和性能,尤其是在特征数量远大于样本数量的情况下。生物信息学:用于基因表达数据的降维,帮助研究人员识别关键的基因特征。需要注意的是,是一种无监督学习方法,它不能直接对分类问题进行预测。在使用进行降维时,我们需要结合其他机器学习方法来进行最终的模型训练和预测。7.2降维的其他方法主成分分析是一种常用的降维方法,它通过正交变换将一组可能相关的变量转换为一组线性不相关的变量,这组变量称为主成分。的核心思想是将数据的方差最大化,同时减少噪声的影响。数据标准化:为了使数据集的特征具有相同的尺度,需要将每个特征减去其均值,然后除以标准差。计算协方差矩阵的特征值和特征向量:特征值表示了对应特征向量的方差大小,特征向量表示了特征之间的关系。选择主成分:根据特征值的大小,选择前k个最大的特征值对应的特征向量,组成新的特征向量。构建主成分空间:将原始数据投影到主成分空间中,得到新的降维数据。因子分析是一种常用的降维方法,它通过寻找数据中的潜在因子来降低数据的维度。因子分析假设数据中存在一些不可观测的潜在因子,这些因子通过线性组合的方式影响可观测的变量。计算相关矩阵的特征值和特征向量:与类似,需要找到特征值和特征向量。提取因子:根据特征值的大小,提取前k个最大的特征值对应的特征向量,作为潜在因子的表示。因子旋转:为了使因子更加具有解释性,通常会对因子进行旋转,使得因子具有更好的命名和解释性。7.3降维的应用场景高维数据分析:在现实世界中,很多数据集都存在高维问题,即特征维度远大于样本数量。这种情况下,直接使用所有特征进行建模可能会导致计算效率低下,甚至无法收敛。通过降维,我们可以减少特征数量,降低计算复杂度,同时保留关键信息。可视化:在数据探索阶段,降维技术可以帮助我们可视化高维数据。例如,使用主成分分析可以将数据投影到二维或三维空间,使得原本难以直观理解的数据关系变得更加清晰。特征选择:降维可以作为一种特征选择的方法。通过将数据降维,我们可以识别出对目标变量影响最大的特征,从而排除掉冗余或无关的特征,提高模型的解释性和泛化能力。模型简化:在机器学习建模过程中,降维可以帮助简化模型。例如,在高维空间中,某些特征可能存在多重共线性,通过降维可以消除这种共线性,使得模型更加稳定和可靠。减少存储需求:降维可以显著减少数据存储的需求。在高维数据集中,每个样本可能包含大量特征,而通过降维,我们可以减少存储空间,降低数据处理的成本。提高计算效率:在深度学习等复杂模型中,降维可以减少网络的参数数量,从而降低模型的计算复杂度和训练时间。减少噪声影响:在高维数据中,可能存在大量噪声特征。通过降维,我们可以将噪声特征从数据中去除,提高模型的准确性和鲁棒性。降维技术在数据科学和机器学习中扮演着重要角色,它不仅可以帮助我们处理高维数据,还可以提高模型的性能和效率。在实际应用中,选择合适的降维方法对于数据质量和模型效果至关重要。八、案例研究在这个案例中,我们分析了如何通过用户行为数据和商品信息构建有效的特征。通过用户的历史浏览记录、购买记录以及商品的相关属性,我们设计了诸如用户兴趣特征、商品相似度特征等,显著提升了推荐系统的准确性和用户满意度。在金融领域,特征工程对于信用评分模型的构建至关重要。我们研究了如何从借款人的个人信息、交易记录、信用历史等多维度数据中提取特征,并探讨了如何通过特征选择和组合来降低违约风险。在这个案例中,我们学习了如何从社交媒体文本数据中提取情感特征。通过词频、情感词典等方法,我们构建了能够反映文本情感倾向的特征集,从而实现对用户评论的自动情感分类。自动驾驶系统中,特征工程对于感知和决策环节至关重要。我们分析了如何从摄像头、雷达等传感器数据中提取关键特征,如车道线、障碍物位置等,这些特征对于自动驾驶系统的安全性和可靠性至关重要。在医疗领域,特征工程可以帮助我们从大量的医疗数据中提取出对诊断有帮助的特征。案例中,我们探讨了如何从患者的病史、生理指标和影像数据中提取特征,以辅助医生进行疾病诊断。通过这些案例研究,我们不仅学习了特征工程的具体方法,还理解了特征工程在不同领域的实际应用和挑战。这些案例为我们提供了宝贵的经验和启示,让我们能够更好地在实际项目中应用特征工程技术。8.1案例一在本案例中,我们将以一家在线电商平台的用户行为数据为例,探讨特征工程在用户行为分析中的应用。该平台希望通过分析用户的历史浏览记录、购买行为和互动数据,来预测用户的潜在购买倾向,从而实现精准营销和个性化推荐。用户活跃度:计算用户在一定时间内的浏览时长和购买次数,以评估用户的活跃度。商品关联度:根据用户浏览和购买的商品类别,构建商品之间的关联矩阵,提取商品之间的相似度特征。用户购买力:通过用户的平均购买金额和购买频率来评估用户的购买力。特征选择:利用特征重要性评估方法筛选出对预测任务贡献较大的特征。特征组合:通过组合原始特征或衍生特征,创建新的特征,以提高模型的预测能力。8.2案例二数据收集:首先,我们从电商平台收集了用户的历史购买数据,包括用户的购买时间、购买的商品类别、购买金额、用户浏览记录等信息。数据预处理:对收集到的数据进行清洗,去除无效、重复和缺失的数据。同时,对数值型特征进行标准化处理,使不同量级的特征具有可比性。用户活跃度:计算用户在一定时间内的浏览次数、购买次数和购买频率。商品相关性:分析用户购买的商品类别,计算用户购买的商品与其他商品的相关性。促销活动:考虑用户参与促销活动的次数和金额,以及促销活动的类型。特征选择:通过特征重要性评估和相关性分析,筛选出对购买行为预测有显著影响的特征。模型训练:使用筛选后的特征,采用随机森林、逻辑回归等算法进行模型训练。模型评估:通过交叉验证等方法,对模型的预测效果进行评估,并与未进行特征工程的模型进行对比。8.3案例三在本案例中,我们将探讨如何利用深度学习技术进行异常检测。异常检测是数据挖掘中的一个重要任务,旨在识别出数据集中偏离正常模式的数据点。在金融、网络安全、医疗健康等领域,异常检测都有着广泛的应用。首先,我们以一个金融领域的案例入手。假设一家银行拥有大量的交易数据,通过分析这些数据,银行希望识别出潜在的欺诈交易。传统的异常检测方法往往依赖于统计模型,如孤立森林、K均值等,但

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论