机器学习(山东联盟)智慧树知到期末考试答案2024年_第1页
机器学习(山东联盟)智慧树知到期末考试答案2024年_第2页
机器学习(山东联盟)智慧树知到期末考试答案2024年_第3页
机器学习(山东联盟)智慧树知到期末考试答案2024年_第4页
机器学习(山东联盟)智慧树知到期末考试答案2024年_第5页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习(山东联盟)智慧树知到期末考试答案2024年机器学习(山东联盟)线性判别分析地基本思想是给定训练样例集,设法将样例投影到()上。

A:多条曲线B:一条曲线C:一条直线D:二条直线答案:一条直线无监督学习是指训练样本的标记信息是(),目标是通过对()标记训练样本的学习来揭示数据内在的性质及规律,为进一步的数据分析提供基础

A:未知,无B:部分未知,部分无C:部分已知,部分有D:已知,有答案:未知,无半朴素贝叶斯分类器最常用的一种策略是()。

A:相互依赖估计B:独依赖估计C:V型依赖D:顺序依赖估计答案:顺序依赖估计朴素贝叶斯分类器的训练过程就是基于训练集D来估计(),并为每个属性估计()。

A:P(c),P(xi|c)B:P(c),P(xi)C:P(xi|c),P(c)D:P(xi),P(c)答案:P(c),P(xi;c)模型评估方法中留出法的缺点是()。

A:样本利用率低B:改变了初始数据集的分布,引入估计偏差C:在数据集比较大的时候,训练M个模型的计算开销可能是难以忍受的D:只能得到一个评估值。答案:只能得到一个评估值。距离等度量映射是在降维时试图保持()

A:样本之间的线性关系B:样本之间的距离C:相邻样本之间的距离D:相邻样本之间的线性关系答案:相邻样本之间的距离若我们用一类对另一类的方法来解决多分类问题,当有K类时,我们需要训练()个支持向量机。

A:K(K+1)/2B:K-1C:K(K-1)/2D:K答案:K给定训练数据集,交叠的采样子集的方法是()。

A:EMB:AdaBoostC:BaggingD:SVM答案:Bagging流形学习方法是模式识别中的基本方法,分为线性流形学习算法和非线性流形学习算法。下列属于线性流形学习算法的是()

A:局部线性嵌入B:等距映射C:拉普拉斯特征映射D:主成分分析答案:主成分分析贝叶斯网假设每个属性与他的()属性独立。

A:后裔B:兄弟C:非后裔D:非兄弟答案:非后裔机器学习可以应用在下列哪些领域()

A:商业营销B:天气预报C:搜索引擎D:自动驾驶汽车答案:商业营销###天气预报###搜索引擎###自动驾驶汽车实际中常采用sigmoid函数而不是阶跃函数作为激活函数是因为

A:连续B:复杂C:光滑D:简单答案:光滑###连续常用的替代损失函数有()

A:对率损失B:hinge损失C:指数损失D:线性损失答案:指数贝叶斯网结构中有三种典型的依赖关系()。

A:顺序结构B:选择结构C:同父结构D:V型结构答案:选择结构所有相关概率都已知的理想情形下,贝叶斯决策考虑如何基于()来选择最优的类别标记。

A:信息增益B:准确率C:误判损失D:概率答案:概率;误判损失距离度量一般满足的性质为:非负性、同一性、对称性和直递性。

A:错误B:正确答案:正确K近邻学习算法是一种常用的监督学习算法。

A:错误B:正确答案:正确决策树模型中,决策过程的最终结论对应了我们所希望的判定结果。

A:错B:对答案:对Boosting,个体学习器存在强依赖关系,逐个生成基学习器,每次调整训练数据的样本分布

A:错B:对答案:对分类和回归是无监督学习

A:错B:对答案:错主成分分析的协方差矩阵为对角化矩阵。

A:正确B:错误答案:正确机器学习的目标就是获得与训练集一致的假设。

A:对B:错答案:对无监督学习任务中研究最多、应用最广的是“分类”。

A:错B:对答案:错现实学习任务中,常会遇到连续属性,其可取值数目不再有限,可以使用离散化技术将连续属性转化为离散属性

A:错B:对答案:对分类学习任务中,若不同类别的训练样本数目差别很大时,对学习过程没有明显影响

A:对B:错答案:错对于正交属性中的样本点,用一个超平面对所有样本进行恰当表达,则该超平面需要满足最大可分性和最小重构性。

A:错B:对答案:对频率主义学派认为参数是未观察到的随机变量,其本身也可有分布,因此,可假定参数服从一个先验分布,然后,基于观察到的数据来计算参数的后验分布。

A:错误B:正确答案:错误在分类学习任务中,若正例远少于反例时,可以通过增加一些正例解决类别不平衡问题。

A:错B:对答案:对将闵可夫斯基距离和VDM距离结合可以处理混合属性之间的距离。

A:对B:错答案:对估计类条件概率P(x|C)的常用策略先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布参数估计。

A:错B:对答案:对为了更好地解决线性不可分问题,我们常常需要扩大可选函数的范围。

A:对B:错答案:对贝叶斯网的近似推断常使用吉布斯采样(Gibbssampling)来完成,吉布斯采样可以看做,每一步仅依赖于前一步的状态,这是一个“马尔可夫链”。

A:错B:对答案:对AGENS方法是一种采用自底向上聚合策略的层次聚类方法。

A:正确B:错误答案:正确预剪枝策略降低了过拟合风险。

A:错B:对答案:对对数几率回归模型不仅预测出“类别”,且可得到“类别”的近似概率预测。

A:错B:对答案:对一般来说,欲获得低维子空间,最简单的是对原始高维空间进行线性变换。

A:正确B:错误答案:正确通过已知变量观测值来推测待推测查询变量的过程称为“推断”

A:错B:对答案:对线性判别分析模型中,异类样本的均值向量之间的距离应尽可能小。

A:错B:对答案:对决策树模型中,随着划分过程不断进行,我们希望结点的“纯度”越来越小。

A:对B:错答案:错对于不能线性可分的情况,考虑采用核的方法把不线性可分的高维空间映射到线性可分的低维空间。

A:对B:错答案:对支持向量机可近似地看作一个单层的神经网络。

A:正确B:错误答案:正确在空间上线性可分的两类点,分别向SVM分类的超平面上做投影,这些点在超平面上的投影仍然是线性可分的

A:错B:对答案:错PCA方法

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论