人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述_第1页
人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述_第2页
人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述_第3页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

习题及参考答案降维的目的是什么?答:(1)提高准确率;(2)减少数据量;(3)数据可视化。降维的方法分哪几类?特点分别是什么?答:(1)直接降维。特点:没有改变原始的特征空间(2)间接降维。特点:改变了原来的特征空间。主成分分析是如何实现数据降维的?答:PCA算法通过正交变换将一组可能存在相关性的变量转换为一组线性不相关的变量,转换后的这组变量的个数通常小于原始变量的个数,可以去除冗余、降低噪音,达到降维的目的。线性判别分析是如何实现数据降维的?答:将高维的样本投影到最佳鉴别矢量空间,即:把高维空间中的数据进行点投影到一条直线上,将多维降为一维。线性判别分析的分类目标是什么?答:目标:类间离差最大,类内离差最小。特征选择的考虑因素有哪些?答:(1)特征是否发散;(2)特征与目标的相关性。特征选择的方法有哪些?特点分别是什么?答:(1)过滤法优点:不依赖于任何机器学习方法,并且不需要交叉验证,计算效率比较高,只需要基础统计知识;缺点:没有考虑机器学习算法的特点,特征之间的组合效应难以挖掘。(2)包装法优点:特征选择直接针对给定学习器来进行优化,从最终学习器的性能来看,包装法比过滤法更优;缺点:特征选择过程中需要多次训练学习器,因此,包装法特征选择的计算开销通常比过滤法大得多。(3)嵌入法特点:使用某些机器学习的算法和模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。采用主成分分析法将下列二维数据降为一维数据。XY1113234424答:(1)分别计算X和Y的均值X=2(2)将原数据去均值化X去均值Y去均值-1-2-10002101(3)计算协方差矩阵cov(4)计算协方差矩阵的特征值λ1=2.5(5)计算特征值对应的特征向量U=(6)选择较大的特征值对应的特征向量组成特征向量矩阵u(7)将样本点投影到选取的特征向量上降维数据-2.1213-0.707102.12130.7071Python程序:importnumpyasnpx=np.array([[1,1],[1,3],[2,3],[4,4],[2,4]])meanval=np.mean(x,axis=0)#计算原始数据中每一列的均值,axis=0按列取均值newData=x-meanval#去均值化covMat=np.cov(newData,rowvar=0)#计算协方差矩阵featValue,featVec=np.linalg.eig(covMat)#计算协方差矩阵的特征值和特征向量index=np.argsort(featValue)#将特征值按从小到大的顺序排列n_index=index[-1]#取最大的特征值在原featValue中的下标n_featVec=featVec[:,n_index]#取最大的特征值对应特征向量lowData=np.dot(newD

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论