机器学习(山东联盟)知到章节答案智慧树2023年山东财经大学_第1页
机器学习(山东联盟)知到章节答案智慧树2023年山东财经大学_第2页
机器学习(山东联盟)知到章节答案智慧树2023年山东财经大学_第3页
机器学习(山东联盟)知到章节答案智慧树2023年山东财经大学_第4页
机器学习(山东联盟)知到章节答案智慧树2023年山东财经大学_第5页
已阅读5页,还剩19页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习(山东联盟)知到章节测试答案智慧树2023年最新山东财经大学第一章测试

对西瓜的成熟度进行预测得到结果为0.51,这属于()学习任务。

参考答案:

回归

在学习过程中,X表示数据集,Y是所有标记的集合,也称为()。

参考答案:

输出空间

机器学习算法在学习过程中可能获得多个不同的模型,在解决“什么样的模型更好”这一问题时遵循“若有多个假设与观察一致,则选最简单的那个”,即()原则。

参考答案:

奥卡姆剃刀

机器学习是整个人工智能的核心,机器学习算法的特征之一就是()。

参考答案:

模型

模型的泛化能力是指

参考答案:

适用于新样本的能力

下列关于学习算法的说法正确的是

参考答案:

要谈论算法的相对优劣,必须要针对具体的学习问题;学习算法必须有某种偏好,才能产出它认为“正确”的模型;在某些问题上表现好的学习算法,在另一些问题上却可能不尽人意

获得假设(模型)空间时,从特殊到一般的过程属于

参考答案:

泛化;归纳

机器学习可以应用在下列哪些领域()

参考答案:

商业营销;自动驾驶汽车;搜索引擎;天气预报

根据训练数据是否拥有标记信息,学习任务可以分为()。

参考答案:

无监督;监督;半监督

演绎是从一般到特殊的"特化"过程,即从基础原理推演出具体状况

参考答案:

分类预测的是离散值

参考答案:

分类和回归是无监督学习

参考答案:

奥卡姆剃刀原则:即“若有多个假设与观察一致,选最简单的一个”。

参考答案:

实际应用中,“一个模型肯定比另一个模型具有更强的泛化能力”的这种情况是不存在的。

参考答案:

机器学习的目标就是获得与训练集一致的假设。

参考答案:

第二章测试

测试性能随着测试集的变化而变化

参考答案:

以下关于回归的说法中,不正确的是()。

参考答案:

回归的目标属性是离散的

下列关于查全率和查准率的说法哪种正确()。

参考答案:

查全率和查准率存在着互逆关系

关于性能比较和模型选择,下列说法正确的是()。

参考答案:

测试性能随着测试集的变化而变化

模型的评估方法不包括()。

参考答案:

计分法

模型评估方法中留出法的缺点是()。

参考答案:

只能得到一个评估值。

选择模型的依据包括()。

参考答案:

泛化性能;时间开销;可解释性;存储开销

以下哪些方法可以用于单个学习器性能的比较()。

参考答案:

二项检验;t-检验

模型的泛化性能由()决定。

参考答案:

学习算法的能力;学习任务本身的难度;数据的充分性

解决过拟合的方案包括()。

参考答案:

选择合适的迭代次数停止模型的学习;引入正则项

以下哪些是可能导致模型过拟合的原因()

参考答案:

训练集和测试集特征分布不一致;学习迭代次数过多;训练集数量级和模型复杂度不匹配,训练集的数量级小于模型的复杂度

过拟合不可以彻底避免。

参考答案:

回归任务最常用的性能度量是“查准率和查全率”

参考答案:

训练数据较少时更容易发生欠拟合

参考答案:

方差度量了学习算法期望预测与真实结果的偏离程度

参考答案:

第三章测试

线性回归目的是学得一个()以尽可能准确地预测实值输出标记

参考答案:

线性模型

线性回归模型中,联系函数g(∙)为对数几率函数ln(y/(1-y))时,该线性模型成为()

参考答案:

对数几率回归

线性判别分析可通过该投影减小样本点的维数,且投影过程中使用了类别信息。因此,线性判别分析也常被视为一种经典的()

参考答案:

监督降维技术

解决类别不平衡的方法包括()

参考答案:

过采样;阈值移动;欠采样

在线性模型的基础上,引入层级结构或高维映射,构成非线性模型。因此,非线性模型可以转换为线性模型。

参考答案:

线性判别分析(LDA)设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近

参考答案:

分类学习任务中,若不同类别的训练样本数目差别很大时,对学习过程没有明显影响

参考答案:

线性模型学得的参数ω直观地表达了各属性在预测中的重要性,因此,该模型具有较好的可解释性。

参考答案:

线性判别分析在对新样例进行分类时,将其投影到曲线上,再根据投影点的位置来确定新样本的类别。

参考答案:

基于均方误差最小化来进行模型求解的方法,称为“最小二乘法”。

参考答案:

线性判别分析模型中,同类样本的投影点尽可能近,即同类样本的协方差尽可能小

参考答案:

在分类学习任务中,若正例远少于反例时,可以通过增加一些正例解决类别不平衡问题。

参考答案:

线性回归目的是学得多项式模型以尽可能准确地预测实值输出标记。

参考答案:

单一属性的线性回归目标函数为f(x)=ωx+b使得min(f(x)–y)2

参考答案:

常用的广义线性回归有单位跃阶函数、对数线性回归、对数几率回归

参考答案:

第四章测试

在属性划分中,信息增益越大,结点的纯度()

参考答案:

提升越大

决策树算法的泛化性能提升,则验证集精度()

参考答案:

提高

多变量决策树中的非叶子节点是对()属性的线性组合进行测试。

参考答案:

若干个

决策树的结点包含()

参考答案:

内部结点;根结点;叶结点

决策树学习算法中,预留一部分数据用作“验证集”,进行性能评估,决定是否剪枝。

参考答案:

决策树模型中,随着划分过程不断进行,我们希望结点的“纯度”越来越小。

参考答案:

决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树

参考答案:

决策树学习算法中,属性a的信息增益越大,则使用该属性进行划分所获得的“纯度提升”越大。

参考答案:

决策树学习算法中,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于不同类别。

参考答案:

基尼指数,反映了从D中随机抽取两个样本,其类别标记一致的概率

参考答案:

预剪枝策略降低了过拟合风险。

参考答案:

基尼值可以度量样本集合的纯度。

参考答案:

现实学习任务中,常会遇到连续属性,其可取值数目不再有限,可以使用离散化技术将连续属性转化为离散属性

参考答案:

剪枝策略是对付“过拟合”的主要手段,即可通过主动去掉一些分支来降低过拟合的风险。

参考答案:

第五章测试

若两类模式是线性可分的,即存在一个线性超平面能将它们分开,则感知机的学习过程一定会收敛。

参考答案:

多隐层感知机比单隐层感知机的表达能力强

参考答案:

误差逆传播算法是迄今最成功的神经网络学习算法。

参考答案:

基于梯度的搜索是使用最广泛的参数寻优方法,若误差函数在当前点的梯度为零,则已达到全局最小。

参考答案:

多层感知机表示异或逻辑时最少需要()个隐含层(仅考虑二元输入)

参考答案:

2

BP算法基于()策略对参数进行调整

参考答案:

梯度下降

BP神经网络由于其强大的表示能力,经常遭遇()问题,即训练误差持续下降,但测试误差却可能上升。

参考答案:

过拟合

在现实任务中,人们常采用以下策略来试图跳出局部极小,进而接近全局最小

参考答案:

随机梯度下降;遗传算法;模拟退火

神经网络中的激活函数可以采用线性函数

参考答案:

只拥有一层功能神经元(能进行激活函数处理)的感知机学习能力依然很强,能解决异或这样的非线性可分问题。

参考答案:

第六章测试

线性可分支持向量机是一种()模型

参考答案:

二分类

支持向量机的学习策略是()

参考答案:

间隔最大

支持向量机的求解通常采用()来求解

参考答案:

二次规划算法

当训练样本线性不可分时可采用()来缓解和解决

参考答案:

软间隔;核函数

为了更好地解决线性不可分问题,我们常常需要扩大可选函数的范围。

参考答案:

支持向量机的经验风险描述了模型的某些性质

参考答案:

在空间上线性可分的两类点,分别向SVM分类的超平面上做投影,这些点在超平面上的投影仍然是线性可分的

参考答案:

引入软间隔是为了允许支持向量机在一些样本上出错。

参考答案:

核函数的引入是将原始空间中不可分的训练样本映射到高维的特征空间后变得可分。

参考答案:

训练样本集越大,SVM的分类结果越好

参考答案:

第七章测试

在样本X上的条件风险是指将一个真实标记为Cj的样本x分类为ci所产生的期望损失。

参考答案:

极大似然估计是试图在θc所有可能的取值中,找到一个能使数据出现的“可能性”的最大的值。

参考答案:

拉普拉斯修正没能避免因训练集样本不充分而导致概率估值为0的问题。

参考答案:

贝叶斯网学习的首要任务就是通过对训练样本“计数”,估计出每个结点的条件概率表。

参考答案:

通过已知变量观测值来推测待推测查询变量的过程称为“推断”

参考答案:

贝叶斯网的近似推断常使用吉布斯采样(Gibbssampling)来完成,吉布斯采样可以看做,每一步仅依赖于前一步的状态,这是一个“马尔可夫链”。

参考答案:

对分类任务来说,在所有相关概率都已知的理想情况下,()考虑如何基于这些概率和误判损失来选择最优的类别标记。

参考答案:

贝叶斯决策论

朴素贝叶斯分类器假设所有属性相互独立,其训练过程就成了基于训练集D来估计类先验概率P(c),并估计()。

参考答案:

每个属性的条件概率P(xi|c)

为了适当考虑一部分属性间的相互依赖信息,从而不需要进行完全联合概率计算,又不至于彻底忽略了比较强的熟悉依赖关系,这种分类器是()。

参考答案:

半朴素贝叶斯分类器

一个贝叶斯网由结构和参数两部分组成,结构是一个(),每个节点对应个属性,若两属性有直接依赖关系,则它们由一条边连接起来,参数定量描述这种依赖关系。

参考答案:

有向无环图

第八章测试

Boosting,个体学习器存在强依赖关系,逐个生成基学习器,每次调整训练数据的样本分布

参考答案:

加权平均法的权重,一般是从训练数据中学习而得,规模比较大的集成,要学习的权重比较多,较容易导致欠拟合。

参考答案:

分歧代表了个体学习器在样本x上的不一致性。

参考答案:

假设集成通过()结合T个分类器,若有超过半数的基分类器正确则分类就正确。

参考答案:

简单投票法

Boosting算法关注降低偏差,可对泛化性能()的学习器,构造出很()的集成。

参考答案:

相对弱,强

Bagging是并行式集成学习的最著名的代表,给定训练数据集,采用()方法采样数据。

参考答案:

自主采样

若同时有多个标记获最高票,则从中随机选取一个,该结合策略是()。

参考答案:

相对多数投票法

对基决策树的每个结点,首先,从该结点的属性集合中,随机选择一个包含k个属性的子集。然后,从这个子集中,选择一个最优属性,用于划分。该方法是()。

参考答案:

随机森林

随机改变一些训练样本的标记;将多分类任务,拆解为一系列二分类任务,来训练基学习器,这属于()。

参考答案:

输出表示扰动

要获得好的集成,个体学习器应满足()。

参考答案:

学习器不能太差;学习器应该不同

第九章测试

无监督学习是指训练样本的标记信息是(),目标是通过对()标记训练样本的学习来揭示数据内在的性质及规律,为进一步的数据分析提供基础

参考答案:

未知,无

常用的聚类距离计算采用()。

参考答案:

闵可夫斯基

懒惰学习是指在训练阶段(),训练时间开销为零,待收到测试样本后再进行处理。

参考答案:

对训练样本进行保存

聚类的基本目标是()

参考答案:

簇内相似度高;簇间相似度低

聚类性能度量大致有两类指标:外部指标和内部指标。

参考答案:

常见的原型聚类方法:K均值聚类、学习向量量化和密度聚类。

参考答案:

在训练阶段就对样本进行学习处理的方法是急切学习。

参考答案:

层次聚类试图在不同层次对数据及进行划分,从而形成树形的聚类结构。

参考答案:

无监督学习任务中研究最多、应用最广的是“分类”。

参考答案:

常用的聚类距离计算采用“余弦相似度距离”

参考答案:

第十章测试

局部线性嵌入在降维时试图保持邻域内样本之间的线性关系。

参考答案:

相邻样本之间的线性关系

缓解维数灾难的操作是()

参考答案:

降维

距离等度量映射是在降维时试图保持()

参考答案:

相邻样本之间的距离

流形学习中的流形是指在

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论