版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
24/26数据挖掘中的后序特征选择第一部分后序特征选择概述 2第二部分滤波式后序特征选择方法 4第三部分包裹式后序特征选择方法 7第四部分嵌入式后序特征选择方法 11第五部分后序特征选择评价指标 14第六部分后序特征选择算法比较 17第七部分后序特征选择在数据挖掘应用 20第八部分后序特征选择发展趋势 24
第一部分后序特征选择概述后序特征选择概述
后序特征选择(PostHocFeatureSelection)是一种在机器学习模型训练后执行的特征选择方法,其目的是从训练后的模型中识别出对模型性能贡献最大的特征子集。相较于预先特征选择,后序特征选择可以考虑模型拟合过程中的信息,因此具有更高的准确性和可解释性。
基本原理
后序特征选择的基本原理是:从训练后的模型中计算每个特征的重要性,然后根据重要性对特征进行排序,最后选择排名前列的特征作为最终特征子集。特征重要性的计算方法有很多种,包括:
*特征重要性指标:评估每个特征对模型预测的影响程度,例如互信息、信息增益、卡方统计量等。
*模型系数:对于线性模型,特征的重要性可以通过模型系数的大小来衡量。
*惩罚项:对于正则化模型,特征的重要性可以通过特征惩罚项的大小来衡量。
优点
后序特征选择具有以下优点:
*考虑到模型拟合信息:后序特征选择可以利用模型拟合过程中获取的知识,从而选择对模型性能影响最大的特征。
*提高模型可解释性:通过识别最重要的特征,后序特征选择可以帮助理解模型背后的机制。
*提高模型性能:移除不相关的特征可以减少模型过拟合的风险,从而提高模型的预测准确性。
*节省计算资源:后序特征选择仅在模型训练后执行,因此可以节省在预先特征选择上花费的计算资源。
步骤
后序特征选择的一般步骤如下:
1.训练机器学习模型。
2.计算每个特征的重要性。
3.根据重要性对特征进行排序。
4.选择排名前列的特征作为最终特征子集。
应用
后序特征选择广泛应用于各种机器学习任务,包括:
*分类
*回归
*聚类
*维度规约
注意事项
在使用后序特征选择时,需要注意以下事项:
*过拟合风险:后序特征选择可能会导致模型过拟合,特别是当样本量较小或特征数量较多时。
*特征相关性:后序特征选择往往会选择相关性较强的特征,这可能会导致特征冗余和模型不稳定性。
*模型选择:不同的模型可能对特征重要性的计算方式不同,因此需要根据所选模型选择合适的特征选择方法。第二部分滤波式后序特征选择方法关键词关键要点【相关性过滤】
1.通过计算特征与目标变量之间的相关性(例如,皮尔逊相关系数、信息增益)来度量特征的重要性。
2.选择具有高相关性且低冗余性的特征。
3.可用于数值型和分类型特征。
【互信息过滤】
滤波式后序特征选择方法
滤波式后序特征选择方法根据特征的统计特性对特征进行评分,不考虑特征之间的相互关系。主要方法如下:
信息增益
信息增益衡量了特征对类标签区分能力的增加。对于特征X和类标签Y,其信息增益计算如下:
```
IG(X,Y)=H(Y)-H(Y|X)
```
其中:
*H(Y)是类标签Y的熵
*H(Y|X)是在给定特征X的条件下类标签Y的条件熵
信息增益比
信息增益比将信息增益标准化为特征X的取值数量,避免偏向取值数量多的特征。计算公式如下:
```
IGR(X,Y)=IG(X,Y)/H(X)
```
其中:H(X)是特征X的熵。
卡方检验
卡方检验评估特征X与类标签Y的相关性。计算公式如下:
```
Pearsonχ²(X,Y)=Σ[(O-E)²/E]
```
其中:
*O是观测值
*E是期望值
互信息
互信息衡量特征X和类标签Y之间的相关性,计算公式如下:
```
MI(X,Y)=ΣΣp(x,y)log(p(x,y)/p(x)p(y))
```
其中:
*p(x,y)是联合概率
*p(x)和p(y)是边缘概率
相关系数
相关系数衡量特征X和Y之间的线性相关性,计算公式如下:
```
Pearsoncorr(X,Y)=Σ[(x-μx)(y-μy)]/√Σ[(x-μx)²]Σ[(y-μy)²]
```
其中:
*μx和μy分别是特征X和Y的均值
方差分析(ANOVA)
ANOVA衡量特征X对类标签Y的解释能力。计算公式如下:
```
F-value=MSB/MSW
```
其中:
*MSB是类间平方和
*MSW是类内平方和
优点:
*效率高,可以快速处理大量特征
*无需训练模型,因此不会过度拟合
*可以提供对特征重要性的直观洞察
缺点:
*忽略了特征之间的相互关系
*可能选择冗余特征
*对某些数据类型(如文本数据)效果较差第三部分包裹式后序特征选择方法关键词关键要点包装器嵌入式特征选择
1.将特征选择过程嵌入学习算法中,通过不断评估不同特征子集的性能来迭代地选择最佳子集。
2.使用交叉验证或引导法等技术评估特征子集的性能,并基于评估结果更新特征权重或选择阈值。
3.优势在于其能够发现具有非线性关系的特征,并且适用于大数据集,因为计算效率高。
惩罚项特征选择
1.通过在学习算法的目标函数中引入惩罚项来实现特征选择,该惩罚项与特征数量成正比。
2.惩罚项的强度决定了特征选择的严格程度,较大的惩罚项导致更少的特征被选择。
3.常用惩罚项包括L1正则化(lasso)和L2正则化(岭回归),它们分别促进稀疏解和稳定的解。
稀疏表示特征选择
1.利用稀疏表示技术将原始数据表示为一组加权特征的线性组合,然后通过最小化组合中非零权重的数量来选择特征。
2.常用的稀疏表示算法包括L1正则化和k-最邻近(k-NN),它们能够发现具有区分性的和非冗余的特征。
3.优势在于其能够处理高维数据,并且适用于特征之间存在相关性或共线性的情况。
基于统计显著性特征选择
1.利用统计检验来评估各个特征与目标变量之间的相关性,并选择具有统计显著性差异的特征。
2.常用的统计检验包括t检验、卡方检验和互信息,它们衡量特征与目标变量之间的线性或非线性关系。
3.优势在于其能够为特征选择提供客观的度量,并且适用于各种数据类型。
基于嵌入式特征选择
1.将特征选择过程嵌入机器学习模型中,通过监控模型性能的变化来确定最佳特征子集。
2.常见的嵌入式特征选择方法包括决策树、随机森林和支持向量机(SVM),它们能够在训练模型的同时自动选择特征。
3.优势在于其能够识别与目标变量高度相关的特征,并且适用于复杂和非线性问题。
元特征选择
1.利用特征的元数据信息(如特征类型、数据分布和相关性)来选择特征。
2.元特征选择算法可以识别存在缺失值、异常值或高度相关性的特征,并据此对特征进行过滤或降维。
3.优势在于其能够提供对特征质量的全面评估,并且适用于处理大数据集和复杂特征集。包裹式后序特征选择方法
在后序特征选择中,包裹式方法通过评估每个特征子集对目标变量预测能力的影响来选择特征。这些方法将特征选择过程视为一个优化问题,其中目标是找到使预测模型性能(通常以精度或误差衡量)最优的特征子集。
包裹式方法最常用的两种类型是:
1.前向选择
前向选择算法从一个空的特征集开始,并逐步将特征添加到子集中,每次添加特征都会提高模型性能。该过程持续到模型性能不再显着改善或者达到预先确定的特征数量为止。
优点:
*对于小数据集,计算成本较低
*保证找到一个局部最优解
缺点:
*对于大数据集,计算成本可能很高
*容易过拟合
2.后向选择
后向选择算法从一个包含所有特征的特征集开始,并逐步从子集中删除特征,每次删除特征都会提高模型性能。该过程持续到模型性能不再显着改善或者达到预先确定的特征数量为止。
优点:
*对于大数据集,计算成本较低
*减少过拟合的风险
缺点:
*不保证找到局部最优解
3.递归特征消除(RFE)
递归特征消除(RFE)是一种包裹式特征选择方法,它通过反复拟合模型并删除对模型预测贡献最小的特征来选择特征。该过程持续到模型性能不再显着改善或者达到预先确定的特征数量为止。
优点:
*对于大数据集,计算成本较低
*减少过拟合的风险
缺点:
*不保证找到局部最优解
优点
包裹式后序特征选择方法的主要优点包括:
*高预测精度:它们通过找到最相关的特征子集来提高模型的预测精度。
*可解释性:它们提供对特征重要性的见解,帮助解释模型的预测。
*过拟合减少:通过选择最相关的特征,它们有助于减少过拟合,这可能会导致模型对新数据的泛化能力较差。
缺点
包裹式后序特征选择方法也有一些潜在缺点:
*计算成本高:对于大数据集,它们可能需要大量计算时间,尤其是对于前向选择算法。
*过拟合风险:如果特征子集选择不当,它们可能导致过拟合,从而导致模型对新数据的泛化能力较差。
*不确定性:它们可能无法始终找到最佳的特征子集,因为结果取决于所使用的优化算法和超参数。
应用
包裹式后序特征选择方法广泛应用于各种机器学习任务中,包括:
*分类:预测离散目标变量
*回归:预测连续目标变量
*聚类:将数据点分组到不同的组中
*异常检测:识别与正常数据显着不同的数据点
总结
包裹式后序特征选择方法是通过评估每个特征子集对目标变量预测能力的影响来选择特征。它们通常能够提供高预测精度、可解释性和过拟合减少。然而,它们也可能是计算成本高的,并且可能面临过拟合风险和不确定性。第四部分嵌入式后序特征选择方法关键词关键要点过滤器式
1.使用独立于学习算法的统计度量来衡量特征重要性,如信息增益、互信息等。
2.优点:计算效率高、对模型无关性强。
3.缺点:可能忽略特征之间的相关性,导致过拟合或欠拟合。
包裹式
1.将特征选择过程集成到学习算法中,通过评估特征子集对模型性能的影响来选择特征。
2.优点:考虑了特征之间的相关性,减少过拟合的风险。
3.缺点:计算复杂度高,特别是对于大数据集。
递进式
1.逐个添加或删除特征,同时评估每个特征子集的模型性能。
2.优点:在特征数量较多时效率较高,可以避免过拟合。
3.缺点:可能陷入局部最优,需要精心设计后序搜索策略。
基于树的
1.利用决策树或随机森林等树形结构来识别具有高预测力的特征。
2.优点:可以处理非线性特征关系,对缺失值更鲁棒。
3.缺点:可能产生冗余特征,需要额外的筛选步骤。
基于规则的
1.使用关联规则或决策规则来确定特征之间的关系,并基于规则重要性进行特征选择。
2.优点:易于理解,能够揭示特征之间的可解释性。
3.缺点:对噪声数据敏感,可能产生大量规则,需要进一步筛选。
神经网络嵌入式
1.通过神经网络来学习特征嵌入,并基于嵌入空间的表示进行特征选择。
2.优点:擅长处理高维非线性数据,能够捕捉特征之间的复杂关系。
3.缺点:计算成本高,可能对超参数敏感。嵌入式后序特征选择方法
嵌入式后序特征选择方法将在模型训练过程中进行特征选择。与过滤式和包装式方法不同,嵌入式方法不会单独执行特征选择过程,而是将其集成到模型学习算法中。通过这样做,嵌入式方法可以利用模型的学习过程来指导特征选择,从而产生更有效的特征集。
嵌入式后序特征选择方法通常涉及两个阶段:
1.特征权重的计算:
首先,模型学习算法会根据每个特征的重要性计算一个权重或分数。该权重可以基于各种标准,例如特征与目标变量之间的相关性、信息增益或正则化惩罚。
2.基于权重进行特征选择:
一旦计算出特征权重,就可以使用阈值或排名来选择重要特征。通常,会选择权重高于或低于特定阈值的特征,或者选择权重排名最高的特征。
嵌入式后序特征选择方法可分为两大类:
1.过滤式嵌入式方法:
这些方法将过滤式特征选择技术与嵌入式模型学习相结合。它们通过计算特征权重来执行特征选择,然后使用阈值或排名来选择重要特征。
*L1正则化(Lasso):L1正则化通过为特征系数施加L1惩罚来执行特征选择。该惩罚迫使不重要的特征系数变为零,从而实现特征选择。
*L2正则化(岭回归):与L1正则化类似,L2正则化通过为特征系数施加L2惩罚来执行特征选择。不过,L2正则化不会导致特征系数变为零,而是将其缩小。
2.包装式嵌入式方法:
这些方法将包装式特征选择技术与嵌入式模型学习相结合。它们通过迭代地添加或删除特征来执行特征选择,同时评估模型性能的变化。
*递归特征消除(RFE):RFE是一种包装式嵌入式特征选择方法,它通过反复训练模型并删除最不重要的特征来执行特征选择。该过程重复进行,直到达到预定义的特征数量或达到性能限制为止。
*树状模型选择:决策树和随机森林等树状模型可以执行内置的特征选择。它们会根据特征的重要性对数据进行分割,并使用信息增益或吉尼不纯度等标准来选择分裂特征。
嵌入式后序特征选择方法的优点:
*与过滤式和包装式方法相比,计算效率更高。
*能够利用模型学习过程来指导特征选择。
*可以产生比过滤式和包装式方法更有效的特征集。
*适用于高维数据集,其中特征数量远远多于观察值。
嵌入式后序特征选择方法的缺点:
*可能无法识别一些非线性和交互式特征。
*可能偏向于选择相关性高的特征,即使这些特征并不重要。
*对于某些模型,例如神经网络,计算特征权重可能很困难。
总之,嵌入式后序特征选择方法通过将特征选择集成到模型学习算法中,提供了高效且有效的特征选择。它们适用于高维数据集,并且能够产生比过滤式和包装式方法更有效的特征集。然而,在选择嵌入式方法时,需要考虑其潜在的优点和缺点。第五部分后序特征选择评价指标关键词关键要点信息增益(InformationGain)
1.度量特征对目标变量区分程度的指标,通过计算信息熵差异来衡量。
2.信息增益越大,表明该特征对目标变量的影响越大,更适合作为选择的特征。
增益比(GainRatio)
1.对信息增益的改进,考虑了特征取值分布的均匀性。
2.防止特征取值过多或分布过于均匀的情况对信息增益的过分影响。
基尼不纯度(GiniImpurity)
1.度量数据集不纯度的指标,用于衡量特征对数据集分类能力。
2.基尼不纯度越小,表明特征对数据集的分类能力越强。
卡方检验(Chi-SquareTest)
1.统计检验方法,用于判断特征与目标变量之间的独立性。
2.卡方值越大,表明特征与目标变量之间的独立性越弱,更适合作为选择的特征。
互信息(MutualInformation)
1.度量两个随机变量之间相关性的指标,通过计算联合概率分布与边缘概率分布之差得到。
2.互信息越大,表明特征与目标变量之间的相关性越强,更适合作为选择的特征。
相关系数(CorrelationCoefficient)
1.数值型变量之间相关强度的度量。
2.皮尔逊相关系数(PearsonCorrelationCoefficient)适用于线性相关,而斯皮尔曼相关系数(Spearman'sCorrelationCoefficient)适用于非线性相关。后序特征选择评价指标
在后序特征选择中,评价指标用于衡量特征子集的性能,并确定最优子集。以下是一些常见的评价指标:
1.精度(Accuracy)
精度是最直接的评价指标。衡量的是分类模型对已知数据集的预测准确率,计算公式为:
```
精度=正确预测的样本数/总样本数
```
2.召回率(Recall)
召回率衡量的是模型预测的正例样本中,实际为正例的样本比例,计算公式为:
```
召回率=真正例数/(真正例数+假反例数)
```
3.特异性(Specificity)
特异性衡量的是模型预测的负例样本中,实际为负例的样本比例,计算公式为:
```
特异性=真负例数/(真负例数+假正例数)
```
4.F1-分数(F1-score)
F1-分数综合考虑了精度和召回率,是二者的加权调和平均值,计算公式为:
```
F1-分数=2*(精度*召回率)/(精度+召回率)
```
5.曲线下面积(AUC)
AUC(AreaUnderCurve)衡量的是接收者操作特性(ROC)曲线下的面积,用于评估分类模型的整体性能。AUC值介于0和1之间,值越大表示模型性能越好。
6.交叉验证(Cross-validation)
交叉验证是一种评估模型泛化能力的方法。将数据集随机划分为若干个子集,轮流使用其中的一部分作为验证集,其余部分作为训练集,重复多次并计算平均性能。
7.信息增益(InformationGain)
信息增益是特征选择中常用的度量,衡量的是一个特征对目标变量的分类能力。信息增益值越大,表示特征越重要。
8.基尼不纯度(GiniImpurity)
基尼不纯度也是特征选择中的常用度量,衡量的是一个特征对目标变量的分类不纯度。基尼不纯度值越小,表示特征越纯,分类能力越强。
9.方差(Variance)
方差是衡量特征值分布离散程度的指标。方差越大,表示特征值分布越分散,分类能力越弱。
10.相关系数(CorrelationCoefficient)
相关系数是衡量两个变量之间线性相关性的指标。相关系数绝对值越接近1,表示两个变量越相关,其中一个变量的变化会影响另一个变量。在特征选择中,通常选择与目标变量相关性高的特征。
选择合适评价指标的考虑因素:
*数据集类型(二分类、多分类、回归)
*模型类型(线性回归、逻辑回归、决策树)
*特征选择目标(提高精度、召回率、泛化能力)
通过使用适当的评价指标,可以有效选择最优特征子集,提高模型的性能和可解释性。第六部分后序特征选择算法比较后序特征选择算法比较
后序特征选择算法通过评估特征集中的特征,从已选择的特征集中迭代删除冗余和无用特征。这些算法旨在识别最具信息量和预测性的特征子集,同时最大限度地减少特征数量。以下是一些常见的后序特征选择算法:
递归特征消除(RFE)
RFE是一种递归算法,从一个初始特征集开始,并逐渐删除最不重要的特征。它使用包装器方法,通过构建分类器或回归模型并评估模型性能来评估特征的重要性。RFE会重复以下步骤:
1.构建一个模型。
2.评估特征的重要性。
3.删除重要性最低的特征。
4.重复步骤1-3,直到达到预定的特征数。
逐步后向选择
逐步后向选择从一个包含所有特征的初始特征集开始,并逐步删除不重要的特征。它使用过滤式方法,根据启发式或统计标准(例如卡方检验或信息增益)评估特征的重要性。算法重复以下步骤:
1.评估特征的重要性。
2.删除重要性最低的特征。
3.训练模型并评估性能。
4.如果模型性能改善,则接受特征删除。否则,则恢复已删除的特征。
包装式嵌入
包装式嵌入算法将特征选择集成到模型训练过程中。它们通过直接优化模型性能来选择特征。包装式嵌入算法包括:
*L1正则化(LASSO):LASSO是一种回归正则化技术,它向模型的损失函数中添加一个L1范数惩罚项。较大的L1系数会使非信息性的特征的权重为零,从而实现特征选择。
*L2正则化(岭回归):岭回归是一种回归正则化技术,它向模型的损失函数中添加一个L2范数惩罚项。L2正则化不会产生稀疏解,但它可以通过惩罚较大的权重来降低特征的重要性。
嵌套交叉验证
嵌套交叉验证是一种用于评估特征选择算法性能的技术。它涉及使用外层交叉验证来选择特征,然后使用内层交叉验证来评估这些特征在单独训练和测试数据集上的性能。嵌套交叉验证有助于避免过拟合问题并提供更可靠的特征选择结果。
算法比较
不同后序特征选择算法的性能取决于具体的数据集和任务。一般来说,RFE适用于特征数量较多的数据集,而逐步后向选择适用于特征数量较少的数据集。包装式嵌入算法通常比过滤式算法性能更好,但计算成本更高。
下表总结了这些算法的主要特点:
|算法|类型|评估标准|计算成本|
|||||
|RFE|递归|模型性能|高|
|逐步后向选择|逐步|启发式/统计|中|
|L1正则化|包装式嵌入|模型性能|高|
|L2正则化|包装式嵌入|模型性能|中|
|嵌套交叉验证|评估|模型性能|高|
在实践中,选择最佳的后序特征选择算法需要根据数据集、任务和计算资源的限制进行经验性优化。第七部分后序特征选择在数据挖掘应用关键词关键要点客户细分与目标营销
1.通过后序特征选择识别客户群体差异化的特征,将客户划分为不同的细分,提高营销针对性。
2.运用机器学习技术建立预测模型,根据客户特征预测其购买行为,实现个性化推荐和精准营销。
3.不断优化特征选择算法和模型参数,提升客户细分和目标营销的精准度和有效性。
疾病诊断与预测
1.利用后序特征选择从医疗数据中筛选出重要的病理特征,辅助疾病诊断和鉴别诊断。
2.构建基于病理特征的预测模型,预测疾病风险和发展趋势,为疾病预防和治疗决策提供依据。
3.结合多模态数据(如基因组、影像学和电子健康记录)进行特征选择,提高疾病诊断和预测的准确率。
金融风控与欺诈检测
1.后序特征选择能从金融交易数据中提取客户信用风险和欺诈行为的潜在特征。
2.建立基于特征的风险评估模型,识别高风险客户和可疑交易,防范金融欺诈和违约风险。
3.利用图神经网络等先进算法,挖掘交易网络中的复杂关联关系,提升欺诈检测和金融风控的效率。
个性化推荐与搜索
1.应用后序特征选择从用户行为数据中提取偏好特征,实现个性化商品推荐和搜索结果定制化。
2.结合神经网络技术构建推荐系统,根据用户特征和物品特征进行匹配,提高推荐准确性和用户满意度。
3.利用多任务学习和协同过滤算法,优化特征选择过程,增强推荐系统的泛化能力和鲁棒性。
自然语言处理
1.后序特征选择有助于识别文本数据中的重要词语和语义特征,提升自然语言处理任务的性能。
2.利用词嵌入技术将词语映射到向量空间中,进行特征降维和相似性分析。
3.结合生成语言模型和注意机制,增强特征选择过程的语义理解能力,提高自然语言处理应用的准确性。
智能制造与过程监视
1.后序特征选择从工业传感器数据中提取故障特征,实现设备状态监测和故障预测。
2.构建基于特征的异常检测模型,识别过程中的异常情况和潜在故障,保障生产安全性和稳定性。
3.利用时间序列分析技术,捕捉过程动态变化,提升特征选择和故障预测的准确率。后序特征选择在数据挖掘应用
后序特征选择(PSFS)是在特征子集中选择最佳特征子集的过程,该过程发生在初始模型训练和评估之后。与事前特征选择不同,PSFS利用模型的信息来指导特征选择过程,使其更具信息性和针对性。
优点
*提高预测性能:PSFS可以删除噪声和无关特征,从而提高模型的预测精度和泛化能力。
*解释性增强:PSFS产生的特征子集通常更具可解释性,方便用户理解模型的行为。
*计算效率:PSFS是计算上高效的,尤其是在数据集包含大量特征时。
*鲁棒性:PSFS对特征相关性和多重共线性不敏感,使其对各种问题都适用。
应用
PSFS在数据挖掘中有广泛的应用,包括:
分类
*提高分类器的准确性,例如决策树、支持向量机和k近邻算法。
*识别对分类最有影响力的特征。
*减少模型复杂度,提高可解释性。
回归
*提高回归模型的预测精度,例如线性回归、岭回归和套索回归。
*确定对目标变量影响最显著的特征。
*简化模型,便于解释和可视化。
聚类
*优化聚类算法的性能,例如k-均值聚类、层次聚类和密度聚类。
*شناسایی区分不同集群的最重要特征。
*减少聚类维数,提高可视化和解释性。
异常检测
*增强异常检测算法的准确性,例如局部异常因子(LOF)和孤立森林。
*确定最能区分异常观测和正常观测的特征。
*减少算法的计算复杂度。
其他应用
*图像处理:选择最重要的特征来表示图像,用于目标识别、图像分类和图像修复。
*文本挖掘:识别影响文本分类、主题建模和情感分析的关键词和短语。
*生物信息学:选择基因、蛋白和转录本,用于疾病诊断、生物标志物识别和药物发现。
步骤
PSFS通常涉及以下步骤:
1.训练初始模型:使用所有特征训练一个模型,评估其性能。
2.确定候选特征子集:根据模型信息(例如特征重要性、相关性)生成候选特征子集。
3.评估特征子集:使用交叉验证或留出法评估候选特征子集的性能。
4.选择最优子集:根据评估结果选择最优特征子集。
5.重新训练模型:使用选定的特征子集重新训练模型,获得最终模型。
注意
在使用PSFS时,有以下注意事项:
*PSFS可能依赖于特定的模型类型和数据分布。
*PSFS产生的特征子集可能对数据子集的差异很敏感。
*PSFS的计算复杂度可
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2023六年级数学下册 二 圆柱和圆锥第四课时 圆柱的体积教案 苏教版
- 租赁仓库合同(2篇)
- 自担风险的合同(2篇)
- 西南林业大学《城市规划原理》2021-2022学年第一学期期末试卷
- 西京学院《艺术鉴赏》2021-2022学年第一学期期末试卷
- 西京学院《摄影摄像基础》2021-2022学年第一学期期末试卷
- 别克新一代君威按键操作课件
- 西京学院《电子系统综合设计实训》2021-2022学年期末试卷
- 风力发电 课件
- 浣溪沙课件图片
- 涵洞检查评定表
- 幼儿园健康课件ppt
- 卫健委2020年落实妇女儿童发展规划情况的汇报
- 白蛋白的合理使用(专业应用)
- 不同季节的花(共27张PPT)课件
- 绿化起重吊装专项方案
- 计算机网络技术ppt课件(完整版)
- DB62∕T 4339-2021 高速公路工地试验室标准化指南
- 安然纳米会员手册
- 发散思维与聚合思维(课堂PPT)
- 《安全评价》课程设计-采石场
评论
0/150
提交评论