分层特征提取和选择_第1页
分层特征提取和选择_第2页
分层特征提取和选择_第3页
分层特征提取和选择_第4页
分层特征提取和选择_第5页
已阅读5页,还剩21页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1/1分层特征提取和选择第一部分分层特征提取与选择概念 2第二部分分层特征提取方法概述 4第三部分基于距离的特征选择 6第四部分基于包装的特征选择 9第五部分基于滤波的特征选择 13第六部分基于嵌入的特征选择 15第七部分分层特征选择策略 17第八部分分层特征提取和选择的应用 20

第一部分分层特征提取与选择概念关键词关键要点分层特征提取

1.将原始数据分解为一系列增量表示,其中每一层都捕获原始数据不同级别的抽象或特征。

2.通过逐步添加数据处理或变换技术(如降维、特征选择)来逐层构建层次结构。

3.该过程旨在创建具有不同颗粒度的数据表示,以挖掘多尺度特征并增强模型性能。

分层特征选择

1.在特征提取的每一层中对特征进行评估和选择,以识别最相关的和信息丰富的特征。

2.使用过滤、包裹或嵌入式方法,考虑特征之间的相互关系和对任务的相关性。

3.通过这种逐步的过程,可以减少特征维度,提高模型的可解释性和预测精度。分层特征提取与选择概念

分层特征提取与选择是一种机器学习技术,用于从原始数据中提取并选择信息性特征,以用于预测建模和分类任务。该方法遵循一种分层结构,其中特征根据其对目标变量的相关性进行组织和选择。

#分层特征提取

分层特征提取涉及以下步骤:

-第1层:预处理和转换。对原始数据进行预处理和转换,以处理缺失值、异常值和非结构化数据。

-第2层:低级特征提取。使用统计方法、图像处理技术或自然语言处理技术从数据中提取基本特征。这些特征捕捉数据中的原始信息。

-第3层:中间层特征提取。组合低级特征以形成更复杂和信息丰富的特征。这通常涉及特征变换、降维技术和特征选择算法。

-第4层:高级特征提取。识别与目标变量高度相关的特征,并从中提取最高级别的特征。这可以通过特征选择方法或机器学习算法来实现。

每层都有助于从数据中提取更抽象和信息丰富的特征,这些特征对于预测建模任务至关重要。

#分层特征选择

分层特征选择是选择最具信息性和区分性的特征的过程。它涉及以下步骤:

-第1层:相关性分析。评估特征与目标变量之间的相关性,以确定其预测价值。

-第2层:冗余分析。识别与其他特征高度相关的特征,以消除冗余。

-第3层:重要性分析。基于特征在分类或预测任务中的性能,确定特征的重要性。

-第4层:最终选择。选择具有最高信息价值、最低冗余度和最高重要性的特征子集。

分层特征选择有助于创建一个紧凑而信息丰富的特征集,该特征集可以提高机器学习模型的性能。

#优点

分层特征提取与选择具有以下优点:

-性能提升:通过提取和选择最相关和信息丰富的特征,可以提高模型的预测精度。

-效率:分层方法允许以渐进的方式从数据中提取特征,这可以节省计算成本。

-可解释性:通过使用统计方法和机器学习算法,特征选择过程更加透明和可解釋。

-鲁棒性:分层方法对数据中的噪声和异常值不那么敏感。

#应用

分层特征提取与选择广泛应用于以下领域:

-计算机视觉

-自然语言处理

-生物信息学

-欺诈检测

-预测建模第二部分分层特征提取方法概述分层特征提取方法概述

分层特征提取是一种分步式特征提取技术,它通过构建一组分层特征金字塔,逐步从原始数据中提取高阶特征。这种分层结构允许表示数据的不同抽象级别,从而提高特征提取的效率和鲁棒性。

1.无监督分层特征提取方法

(1)聚类

*k-均值聚类:将数据点分配到k个簇中,每个簇中心表示该簇的特征。

*谱聚类:利用数据点的相似性图构建拉普拉斯矩阵并进行特征分解,从而获得分层特征。

(2)稀疏表示

*字典学习:学习一个过完备字典,将数据表示为稀疏线性组合,字典元素对应于分层特征。

*非负矩阵分解:将数据分解为非负矩阵的乘积,矩阵分解的列表示分层特征。

2.有监督分层特征提取方法

(1)深度学习

*卷积神经网络(CNN):利用卷积运算和池化操作逐步提取不同抽象级别的特征,构建分层特征金字塔。

*变分自编码器(VAE):通过自编码器和变分推理,学习数据的分层表示,以重建输入数据。

(2)决策树

*ID3和C4.5:通过贪婪搜索选择特征,构建决策树的分层结构,每个节点表示特定抽象级别的特征。

*随机森林:集成多个决策树,通过特征随机选取和随机子集训练,提高特征提取的鲁棒性。

3.其他分层特征提取方法

(1)原型分析

*将数据表示为由一组原型组成的凸组合,原型之间通过高斯核或其他相似性度量连接,形成分层特征结构。

(2)稀疏编码

*使用稀疏编码算法将数据表示为一组稀疏系数的线性组合,系数的稀疏性和局部性反映了数据的分层特征。

4.分层特征提取的优势

*逐步提取高阶特征,捕获数据的不同抽象级别。

*增强特征的鲁棒性和泛化能力,减少过拟合。

*提高特征提取的效率,通过分层结构避免不必要的计算。

*便于解释和可视化,分层结构提供对特征的层次理解。

5.分层特征提取的应用

分层特征提取广泛应用于计算机视觉、自然语言处理、生物信息学和信息检索等领域。具体应用包括:

*图像分类和对象检测

*文本分类和信息抽取

*生物序列分析和基因组学

*音频和视频信号处理第三部分基于距离的特征选择关键词关键要点距离度量在特征选择中的应用

1.距离度量可以量化不同样本之间的相似性或差异性。在特征选择中,距离度量用于评估特征对样本区分的能力。

2.常用的距离度量包括欧氏距离、曼哈顿距离、马氏距离和余弦相似度。选择合适的距离度量取决于数据的分布和特征的性质。

最近邻方法

1.最近邻方法(k-NN)是一种基于距离的非参数特征选择方法。它通过查找与给定样本最相似的k个样本,并根据这些邻近样本的类别来预测样本的类别。

2.在特征选择中,k-NN可用于计算特征与样本类别的相关性。特征与样本相似度较高的特征,表明其对预测样本类别有较好的区分能力。

最近中心点方法

1.最近中心点方法(NCC)是一种基于距离的特征选择方法,用于寻找距离不同类别的样本中心点最近的特征。这些特征对类间区分有较好的贡献。

2.NCC可以将特征选择问题转化为寻找最近邻样本中心的子问题。特征与类中心距离较小的特征,表明其对类间区分有较强的影响。

FarthestFirst方法

1.FarthestFirst方法是一种基于距离的贪心特征选择方法。它从找到距离样本最远的特征开始,逐步选择与已选特征距离最远的特征。

2.FarthestFirst方法可以避免选择高度相关的特征,因为它最大化了新选择特征与现有特征之间的距离。

Relief方法

1.Relief方法是一种基于距离的特征选择方法,用于评估特征对样本类别区分的权重。它通过随机选择一个样本,并计算该样本在同一类和不同类中最近邻样本的距离差。

2.Relief方法赋予对不同类别的样本区分贡献较大的特征较高的权重。这些特征对于分类任务具有较好的预测能力。

距离嵌入特征选择

1.距离嵌入特征选择将特征映射到一个新的特征空间,使得不同类别样本之间的距离变大,而同一类别样本之间的距离减小。

2.这种嵌入过程可以通过主成分分析(PCA)、t分布随机邻域嵌入(t-SNE)等方法实现。它可以提高后续分类器的性能,并简化特征选择的过程。基于距离的特征选择

基于距离的特征选择是一种特征选择方法,它使用距离度量来评估特征之间或特征与目标变量之间的相似性。目标是选择一组特征,这些特征既能很好地表示数据,又能保持可解释性和鲁棒性。

距离度量

基于距离的特征选择使用各种距离度量来计算特征之间的相似性。常用的距离度量包括:

*欧式距离:计算两个向量之间各个分量差值的平方和的平方根。

*曼哈顿距离:计算两个向量之间各个分量差值的绝对值的总和。

*余弦相似度:计算两个向量之间余弦的绝对值。

特征选择算法

基于距离的特征选择算法使用距离度量来选择一组相关性低且信息丰富的特征。常用的算法包括:

*递归特征消除(RFE):从一个包含所有特征的集合开始,迭代地移除与目标变量最不相关的特征,直到达到预定义的特征数量。

*特征重要性:计算每个特征与目标变量之间的距离度量,并选择具有最高重要性评分的特征。

*聚类:对特征聚类,并选择每个簇中最具代表性的特征。

基于距离的特征选择的优点

*可解释性:基于距离的特征选择使用直观的距离度量,便于解释特征选择过程。

*鲁棒性:对异常值和噪声数据具有鲁棒性,因为距离度量不太容易受到极端值的影响。

*高效性:可以高效地计算距离度量,这使得该方法适用于大数据集。

基于距离的特征选择的缺点

*依赖数据分布:距离度量对数据分布很敏感,因此特征选择结果可能会因数据分布的变化而变化。

*维度性诅咒:随着特征数量的增加,距离度量变得不那么可靠,从而导致特征选择性能下降。

*忽略特征交互:基于距离的特征选择不考虑特征之间的交互,这可能会导致选择冗余或无关的特征。

应用

基于距离的特征选择广泛应用于各种领域,包括:

*文本分类:选择与特定类别最相关的文本特征。

*图像处理:选择描述图像内容的显著特征。

*生物信息学:选择与疾病或治疗反应相关的基因特征。

*金融时间序列分析:选择预测股票价格或市场趋势的特征。

*推荐系统:选择用户感兴趣的内容或产品的特征。

总之,基于距离的特征选择是一种强大且可解释的特征选择方法,它使用距离度量来选择一组相关性低且信息丰富的特征。虽然它具有优点,但需要注意其局限性,并可能需要与其他特征选择方法结合使用以获得最佳结果。第四部分基于包装的特征选择关键词关键要点包装器方法的类型

1.正向选择:从空集开始,逐步向特征集添加特征,直到达到停止标准。

2.反向选择:从包含所有特征的集开始,逐步删除特征,直到达到停止标准。

3.双向选择:结合正向和反向选择,既添加又删除特征,以不断优化特征集。

包装器方法的评价准则

1.分类准确度:特征选择后的分类模型的准确率。

2.特征子集大小:选择的特征数量,越少越好。

3.计算时间:特征选择算法的运行时间,越短越好。

4.泛化能力:特征选择后的模型在未见数据上的性能。

基于包装的特征选择算法

1.贪心向前搜索:基于贪心算法的正向选择算法。

2.递归特征消除:基于反向选择的算法,使用分类器进行特征重要性评估。

3.顺序前向选择:一种变形的正向选择算法,使用统计检验来添加特征。

4.基于浮动的特征选择:一种双向选择算法,使用浮动阈值来控制特征的添加和删除。

包装器方法的应用

1.图像分类:选择图像特征以提高分类准确度。

2.文本分类:选择文本特征以改进文档分类。

3.医疗诊断:选择患者特征以辅助疾病诊断。

4.异常检测:选择数据特征以检测异常事件。

包装器方法的挑战

1.计算成本:包装器方法通常需要大量的计算资源。

2.过拟合:包装器方法可能导致对训练数据的过拟合,影响泛化能力。

3.特征相关性:包装器方法可能无法有效处理高度相关的特征。

4.维数灾难:当特征数量过多时,包装器方法的可行性会受到影响。

包装器方法的趋势

1.集成学习:将多个包装器方法结合起来以提高性能。

2.并行化:使用并行计算来加速包装器方法的运行。

3.基于图的特征选择:利用图论技术来捕获特征之间的关系。

4.主动学习:交互式特征选择方法,向用户查询信息以指导特征选择过程。基于包装的特征选择

基于包装的方法将特征选择问题视为一个优化问题,其中目标函数是对数据集性能的评估。这些方法使用机器学习算法来搜索特征子集,以最大化所选特征的预测性能。

优点:

*考虑到特征之间的相互作用,从而可以选择协同或互补的特征。

*适用于不同的预测模型,包括线性模型、决策树和神经网络。

*能够处理相关性较高的特征,从中选择具有不同信息的特征。

流程:

基于包装的特征选择通常遵循以下步骤:

1.特征子集生成:根据预定义的搜索策略(例如,顺序前进、顺序后退)生成候选特征子集。

2.模型训练:对每个候选特征子集,训练一个机器学习模型来评估其预测性能。

3.性能评估:使用交叉验证或其他评估方法来计算候选特征子集的预测得分(例如,准确率、F1分数)。

4.候选特征选择:选择具有最高预测得分的特征子集。

常见方法:

*顺序前进选择(SFS):从一个空的特征子集开始,逐步添加具有最高预测得分增益的特征,直到达到预定义的特征数量或评估分数停止提高。

*顺序后退选择(SBS):从一个包含所有特征的子集开始,逐步删除具有最低预测得分损失的特征,直到达到预定义的特征数量或评估分数停止提高。

*递归特征消除(RFE):训练一个学习器,并从特征中删除对学习器权重影响最小的特征。此过程重复进行,直到删除所有特征或达到预定义的特征数量。

超参数选择:

基于包装的方法通常涉及超参数的选择,例如搜索策略、终止条件和评估指标。谨慎选择这些超参数至关重要,以优化特征选择过程和最终模型的性能。

应用:

基于包装的特征选择广泛应用于各种领域,包括:

*自然语言处理:文本分类、主题建模

*图像分析:对象检测、人脸识别

*生物信息学:基因选择、疾病预测

局限性:

*计算成本:基于包装的方法需要训练和评估多个机器学习模型,这对于大数据集或特征数量众多时可能是计算密集型的。

*过拟合风险:在搜索过程中过分关注训练数据集的性能可能会导致过拟合,从而降低泛化能力。

*局部分析:基于包装的方法评估候选特征子集的局部性能,而可能忽略全局特征交互。

改进:

*集成嵌入式方法,例如L1正则化和树状模型,以促进稀疏特征选择。

*使用模型无关的方法,例如过滤式特征选择,作为基于包装的方法的先验步骤,以减少搜索空间。

*探索新的搜索策略和终止条件,以提高效率和泛化能力。第五部分基于滤波的特征选择基于滤波的特征选择

基于滤波的特征选择是一种无监督特征选择方法,通过计算特征与目标变量之间的统计关系来评估特征的重要性。与基于包装和嵌入方法不同,基于滤波的方法不依赖于机器学习模型的训练。

#相关性度量

基于滤波的特征选择使用相关性度量来量化特征与目标变量之间的线性或非线性关系。常用的相关性度量包括:

*Pearson相关系数:线性相关性的度量,范围为-1到1。

*Spearman等级相关系数:非线性相关性的度量,范围为-1到1。

*互信息:特征和目标变量之间信息的相互依赖性的度量。

*卡方检验:衡量特征值分布与目标变量类别之间的独立性的统计检验。

#信息增益

信息增益是另一种基于信息论的特征选择度量,它衡量了在知道特征值的情况下目标变量熵的减少程度。信息增益由以下公式计算:

```

IG(T,A)=H(T)-H(T|A)

```

其中:

*`IG(T,A)`是特征`A`对目标变量`T`的信息增益

*`H(T)`是`T`的熵

*`H(T|A)`是在知道`A`值的情况下`T`的条件熵

#基于滤波的特征选择算法

基于滤波的特征选择算法以特征相关性或信息增益为基础,对特征进行排序和选择。常用的算法包括:

*过滤方法:使用预先定义的阈值或百分比来选择特征。

*递归特征消除(RFE):迭代地训练线性模型并删除最不重要的特征。

*方差选择:选择具有最高方差的特征。

*主成分分析(PCA):将特征投影到方差最大的维度上,并选择主要成分作为特征。

#优点和缺点

优点:

*计算效率高

*不依赖于特定的机器学习模型

*能够处理大数据集

缺点:

*可能无法识别非线性关系

*对噪声和冗余特征敏感

*可能产生次优特征集

#应用

基于滤波的特征选择广泛应用于各种领域,包括:

*机器学习:特征预处理,提高模型性能

*数据分析:发现数据中的模式和趋势

*生物信息学:基因选择和疾病诊断

*金融:风险评估和预测建模第六部分基于嵌入的特征选择基于嵌入的特征选择

基于嵌入的特征选择是利用嵌入特征的方法来选择特征,其中嵌入特征指的是将原始特征转换为低维度的数值表示,这些表示保留了原始特征中的重要信息,同时更易于处理。

1.嵌入特征的获取

嵌入特征可以从各种来源获得,包括:

*WordEmbeddings:将单词或短语转换为数字向量的模型,如Word2Vec、GloVe

*SentenceEmbeddings:将句子转换为固定长度向量的模型,如UniversalSentenceEncoder、BERT

*图像特征:使用预训练的深度学习模型提取图像的特征,如VGGNet、ResNet

2.嵌入特征选择的优点

*自动化特征选择:嵌入特征选择自动化了特征选择过程,无需手动特征工程。

*捕获非线性关系:嵌入特征可以捕获原始特征之间的非线性关系,从而提高特征选择效率。

*减少维度:嵌入特征将原始特征转换为低维度的表示,降低计算复杂度。

3.嵌入特征选择的步骤

嵌入特征选择的步骤如下:

3.1提取嵌入特征

从原始特征中提取嵌入特征,使用合适的嵌入模型。

3.2计算特征重要性

可以使用各种方法计算特征重要性,如:

*基于相关性的方法:计算嵌入特征与目标变量之间的相关性。

*基于模型的方法:使用机器学习模型评估嵌入特征在预测中的贡献。

*基于信息增益的方法:测量嵌入特征对目标变量的不确定性减少程度。

3.3选择重要特征

根据计算的特征重要性,选择具有最高重要性评分的嵌入特征。

4.嵌入特征选择的应用

基于嵌入的特征选择广泛应用于各种机器学习和自然语言处理任务,包括:

*文本分类

*情感分析

*机器翻译

*图像分类

*推荐系统

5.替代方法

基于嵌入的特征选择之外,还有其他特征选择的替代方法,包括:

*基于过滤器的特征选择:根据统计或信息论度量筛选特征。

*基于包裹器的特征选择:通过迭代地评估特征组合来选择特征。

*基于递归的特征消除:逐步删除向模型性能贡献最小的特征。

6.结论

基于嵌入的特征选择是一种强大的技术,可以自动化特征选择并捕获原始特征中的非线性关系。它在各种机器学习和自然语言处理任务中取得了突出的成绩。选择合适的嵌入模型和特征重要性方法对于获得最佳特征选择结果至关重要。第七部分分层特征选择策略分层特征选择策略

分层特征选择策略是一种多阶段的过程,它通过逐层添加或删除特征来识别和选择最相关的特征子集。此策略的目的是通过移除冗余和无关的特征来提高模型的预测性能和可解释性。

分层特征提取策略

1.过滤式方法

*基于统计检验(例如卡方检验、信息增益)来评估每个特征与目标变量的相关性。

*仅选择相关性高于预定阈值的特征。

*优点:快速、可扩展。

*缺点:依赖于独立的假设,可能错过特征之间的交互。

2.包裹式方法

*使用机器学习模型评估特征子集的性能(例如决策树、支持向量机)。

*迭代地添加或删除特征,直到达到最佳性能。

*优点:考虑特征交互,比过滤式方法更准确。

*缺点:计算量大,可能陷入局部最优。

3.嵌入式方法

*在特征选择过程中同时进行模型训练。

*使用模型的正则化项(例如L1惩罚)来惩罚不重要的特征。

*优点:高效,随着训练的进行而自动选择特征。

*缺点:可能导致特征选择不稳定,难以解释选择的特征。

分层特征选择步骤

1.初始特征集生成

*根据领域知识或探索性数据分析确定候选特征。

2.分层选择

*选择一种分层特征提取策略(过滤式、包裹式或嵌入式)。

*迭代地应用选择策略,生成特征子集。

3.评估

*使用交叉验证或独立测试集评估每个特征子集的性能。

4.停止准则

*设置一个停止准则(例如性能阈值、特征数量阈值)来确定何时停止分层过程。

5.最终特征子集选择

*选择在评估中表现最佳的特征子集作为最终特征子集。

优点

*提高模型预测性能和可解释性。

*减少模型训练和预测时间。

*加强对数据特征空间的理解。

缺点

*可能错过重要的特征交互。

*具有计算量,可能需要调优超参数。

*依赖于所选的分层特征提取策略。

应用

分层特征选择策略广泛应用于各种机器学习任务,包括:

*分类

*回归

*聚类

*降维第八部分分层特征提取和选择的应用关键词关键要点图像识别

1.分层特征提取有助于捕获图像中不同层次的细节,从而提高对象识别的准确性。

2.分层特征选择可以有效减少冗余特征,同时保留与目标任务最相关的特征。

3.这种技术已被广泛应用于图像分类、目标检测和分割等各种图像识别任务。

自然语言处理

分层特征提取和选择的应用

分层特征提取和选择在各种机器学习和人工智能应用中发挥着关键作用,从图像识别到自然语言处理再到预测建模。

图像识别

*多尺度边缘检测:分层提取不同尺度的边缘,有利于提取图像的局部和全局特征。

*金字塔直方图:构建基于金字塔结构的图像特征,捕捉不同尺度和空间位置的信息。

*卷积神经网络(CNN):使用多层卷积和池化层,执行分层特征提取,从图像中学习层次化特征。

自然语言处理(NLP)

*词嵌入:将单词映射到低维向量空间,捕获单词的语义相似性。

*句法分析:提取句子的语法结构,包括主语、谓语和宾语。

*序列模型:如循环神经网络(RNN)和长短期记忆(LSTM),沿序列(如文本或语音)执行分层特征提取。

预测建模

*变量选择:识别与目标变量高度相关的特征,以提高模型预测性能。

*降维:通过去除冗余或不重要的特征,减少特征空间的维数,提高模型效率。

*特征工程:通过转换或组合原始特征,创建更有预测意义的新特征。

其他应用

*时间序列分析:提取时序数据的序列模式和趋势。

*异常检测:识别与正常数据显着不同的异常事件。

*推荐系统:基于用户行为提取相关性特征,提供个性化推荐。

分层特征提取和选择的具体示例

图像识别中的多尺度边缘检测:

*使用Canny边缘检测器在不同尺度上检测边缘。

*将边缘强度和方向编码为特征向量。

*使用支持向量机(SVM)或随机森林对图像进行分类。

NLP中的句法分析:

*使用依存语法解析器(如斯坦福解析器)提取句子的依存关系树。

*将依存关系树编码为图特征向量。

*使用卷积神经网络(CNN)或图神经网络(GNN)对句子进行情绪分析。

预测建模中的变量选择:

*使用相关分析或L1正则化(如LASSO)识别相关或重要的特征。

*仅保留具有最高相关性或最低L1惩罚项的特征。

*构建具有更少特征的更简单的模型,具有更高的可解释性和预测精度。

分层特征提取和选择的优势

*提高模型性能:通过提取更具区分性和相关性的特征,增强模型的预测能力。

*减少过拟合:通过去除冗余或不相关的信息,降低模型过拟合的风险。

*提高可解释性:通过层次化地组织特征,使其更容易理解模型做出的决策。

*提高计算效率:通过降维或去除不必要的特征,减少模型训练和推理的时间和计算成本。关键词关键要点主题名称:分层自编码器(SAE)

关键要点:

-SAE是一种神经网络架构,由多个自编码器堆叠而成。

-每个自编码器学习将输入数据压缩为更低维度的表示,并在解码器中将其重建。

-每一层自编码器都学习不同层次的特征,从低级特征(边缘、形状)到高级特征(对象、场景)。

主题名称:卷积神经网络(CNN)

关键要点:

-CNN是一种专门设计用于处理图像数据的神经网络。

-CNN具有卷积层,可提取局部特征并检测模式。

-层次结构中的每个卷积层学习不同特征,从低级特征(边缘、纹理)到高级特征(对象、场景)。

主题名称:多粒度表示

关键要点:

-多粒度表示捕获数据不同尺度的特征。

-它涉及使用多个卷积核或池化大小提取不同粒度的特征。

-通过同时考虑不同粒度的特征,可以提高分类或回归任务的性能。

主题名称:集成学习

关键要点:

-集成学习将多个基本学习器组合成一个更强大的学习器。

-每个基本学习器提取不同的特征子集,并对最终预测进行加权或平均。

-集成学习可以减少方差并提高鲁棒性,从而提高特征提取的准确性。

主题名称:主动学习

关键要点:

-主动学习是一种交互式学习方法,其中模型查询人类专家以获取更多信息。

-模型从不确定的实例中选择样本,专家提供标

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论