机器学习智慧树知到课后章节答案2023年下山东科技大学_第1页
机器学习智慧树知到课后章节答案2023年下山东科技大学_第2页
机器学习智慧树知到课后章节答案2023年下山东科技大学_第3页
机器学习智慧树知到课后章节答案2023年下山东科技大学_第4页
机器学习智慧树知到课后章节答案2023年下山东科技大学_第5页
已阅读5页,还剩11页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习智慧树知到课后章节答案2023年下山东科技大学山东科技大学

第一章测试

机器学习最主要的两种形式是监督学习和无监督学习。()

A:对B:错

答案:对

下面哪句话是正确的?()

A:增加模型的复杂度,总能减小训练样本误差B:ABC说法都不对C:机器学习模型的精准度越高,则模型的性能越好D:增加模型的复杂度,总能减小测试样本误差

答案:增加模型的复杂度,总能减小训练样本误差

下列属于无监督学习的是()

A:逻辑回归B:SVMC:决策树D:K-Means

答案:K-Means

机器学习的核心是算法。()

A:对B:错

答案:对

过拟合只是监督学习中的问题,对于无监督学习影响不大。()

A:对B:错

答案:错

机器学习最主要的两种形式是监督学习和无监督学习。()

A:对B:错

答案:对

下面哪句话是正确的?()

A:ABC说法都不对B:机器学习模型的精准度越高,则模型的性能越好C:增加模型的复杂度,总能减小测试样本误差D:增加模型的复杂度,总能减小训练样本误差

答案:增加模型的复杂度,总能减小训练样本误差

下列属于无监督学习的是()

A:决策树B:SVMC:逻辑回归D:K-Means

答案:K-Means

机器学习的核心是算法。()

A:错B:对

答案:对

过拟合只是监督学习中的问题,对于无监督学习影响不大。()

A:错B:对

答案:错

第二章测试

在实际应用中,选取损失函数的制约因素包括()。

A:是否有异常值B:机器学习算法的选择C:梯度下降的时间复杂度D:求导的难易程度

答案:是否有异常值;机器学习算法的选择;梯度下降的时间复杂度;求导的难易程度

岭回归的目标函数是一个严格凸函数,没有唯一最优解。()

A:错B:对

答案:错

线性回归算法、逻辑回归算法和支持向量机等监督式学习算法,都是经验损失最小化架构在具体问题中的表现。()

A:对B:错

答案:对

以下关于无约束经验损失最小化算法的说法哪个是正确的?()

A:“无约束”的意思是模型的选择不受任何约束,可以输出模型空间中的任何模型B:容易发生过渡拟合C:可以精确地拟合训练数据D:为了降低过拟合,在实际应用中大多会采用无约束经验损失最小化算法

答案:“无约束”的意思是模型的选择不受任何约束,可以输出模型空间中的任何模型;容易发生过渡拟合;可以精确地拟合训练数据

以下关于结构损失最小化算法的说法哪个是错误的?()

A:体现了奥卡姆剃刀法则思想B:带有正则化方法的经验损失最小化算法被称为结构损失最小化算法C:任何经验损失最小化算法,都可以通过正则化方法转化成结构损失最小化算法D:不会发生过渡拟合

答案:不会发生过渡拟合

第三章测试

以下是线性回归应用场景的是()

A:垃圾邮件判断B:医生病理诊断C:房价预测D:银行个人信用评估

答案:房价预测

下列属于线性回归的分类的有()

A:ABC都是B:非线性关系C:单变量线性关系D:多变量线性关系

答案:ABC都是

以下关于随机森林算法说法错误的是()

A:随机森林分类算法的输出类别是由所有决策树输出类别的平均数来确定的。B:随机森林算法的分类精度不会随着决策树数量的增加而提高。C:决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型的分类效果越好。D:随机森林算法对异常值和缺失值不敏感。

答案:随机森林分类算法的输出类别是由所有决策树输出类别的平均数来确定的。

K均值算法的关键是?()

A:所选取数据集的大小B:选取数据样本的K个中心C:确定最终聚类类别数KD:计算每一个样本和质心之间相似度所用的距离算法

答案:选取数据样本的K个中心

合并聚类算法的时间复杂度为O(m2)。()

A:错B:对

答案:错

第四章测试

梯度下降算法的正确步骤是什么?

(a)计算预测值和真实值之间的误差;(b)迭代更新,直到找到最佳权重;(c)把输入传入网络,得到输出值;(d)初始化随机权重和偏差;(e)对每一个产生误差的神经元,改变相应的(权重)值以减少误差。()

A:c,b,a,e,dB:a,b,c,d,eC:e,d,c,b,aD:d,c,a,e,b

答案:d,c,a,e,b

随机梯度下降法缺点在于每次更新可能并不会按照正确的方向进行,参数更新具有高方差,从而导致损失函数剧烈波动。()

A:错B:对

答案:对

牛顿法是梯度下降法的进一步发展,牛顿法不仅使用目标函数的一阶偏导数,还进一步利用了目标函数的二阶偏导数,这样就考虑了梯度变化的趋势,因而能更全面地确定合适的搜索方向加快收敛,它具二阶收敛速度。()

A:对B:错

答案:对

坐标下降算法的优点是容易计算,同时收敛很快;缺点是当loss比较复杂时,会很明显的降低速度。()

A:对B:错

答案:对

第五章测试

关于分类和回归问题,下面说法正确的是?()

A:输出变量为有限个离散变量的预测问题是回归问题;输出变量为连续变量的预测问题是分类问题。B:回归问题和分类问题都有可能发生过拟合。C:回归和分类都是有监督学习问题。D:一般来说,回归不用在分类问题上,但是也有特殊情况,比如Logistic回归可以用来解决0/1分类问题。

答案:回归问题和分类问题都有可能发生过拟合。;回归和分类都是有监督学习问题。;一般来说,回归不用在分类问题上,但是也有特殊情况,比如Logistic回归可以用来解决0/1分类问题。

我们知道二元分类一般设定输出概率大于或等于0.5,则预测为正类;若输出概率小于0.5,则预测为负类。那么,如果将阈值0.5提高,例如0.6,大于或等于0.6的才预测为正类,则精确率(Precision)和召回率(Recall)会发生什么变化?()

A:精确率(Precision)减小。B:召回率(Recall)减小或者不变。C:召回率(Recall)增大。D:精确率(Precision)增大或者不变。

答案:召回率(Recall)减小或者不变。;精确率(Precision)增大或者不变。

Logistic回归算法是模型假设为Sigmoid函数的经验损失最小化算法。()

A:对B:错

答案:对

Logistic回归属于()

A:非概率性线性回归B:概率型非线性回归C:非概率型非线性回归D:概率型线性回归

答案:概率型非线性回归

Logistic回归可用于()

A:预测B:校正混杂因素C:影响因素分析D:ABC都是

答案:ABC都是

关于分类和回归问题,下面说法正确的是?()

A:输出变量为有限个离散变量的预测问题是回归问题;输出变量为连续变量的预测问题是分类问题。B:回归问题和分类问题都有可能发生过拟合。C:一般来说,回归不用在分类问题上,但是也有特殊情况,比如Logistic回归可以用来解决0/1分类问题。D:回归和分类都是有监督学习问题。

答案:回归问题和分类问题都有可能发生过拟合。;一般来说,回归不用在分类问题上,但是也有特殊情况,比如Logistic回归可以用来解决0/1分类问题。;回归和分类都是有监督学习问题。

我们知道二元分类一般设定输出概率大于或等于0.5,则预测为正类;若输出概率小于0.5,则预测为负类。那么,如果将阈值0.5提高,例如0.6,大于或等于0.6的才预测为正类,则精确率(Precision)和召回率(Recall)会发生什么变化?()

A:召回率(Recall)减小或者不变。B:精确率(Precision)减小。C:召回率(Recall)增大。D:精确率(Precision)增大或者不变。

答案:召回率(Recall)减小或者不变。;精确率(Precision)增大或者不变。

Logistic回归算法是模型假设为Sigmoid函数的经验损失最小化算法。()

A:错B:对

答案:对

Logistic回归属于()

A:非概率性线性回归B:概率型非线性回归C:概率型线性回归D:非概率型非线性回归

答案:概率型非线性回归

Logistic回归可用于()

A:校正混杂因素B:影响因素分析C:预测D:ABC都是

答案:ABC都是

第六章测试

下面关于SVM原理的说法错误的是:()

A:分类超平面的法向量可用于计算样本与分类超平面之间的最短距离。B:最大化间隔就是最大化,其中w是分类超平面的法向量C:在样本线性不可分的情况下引入核函数是一个明智的选择。D:SVM通过计算样本到分类超平面的最大距离来确定最优模型。

答案:最大化间隔就是最大化,其中w是分类超平面的法向量

SVM决策边界只会被支持向量影响,跟其它样本点无关。()

A:错B:对

答案:对

SVM使用高斯核函数之前通常会进行特征归一化,经过特征归一化得到的新特征通常优于旧特征。()

A:错B:对

答案:对

SVM使用高斯核函数之前通常会进行特征归一化,经过特征归一化得到的新特征通常优于旧特征。()

A:错B:对

答案:对

SVM决策边界只会被支持向量影响,跟其它样本点无关。()

A:对B:错

答案:对

下列关于SVM的应用场景说法正确的是(多选):()

A:SVM在二分类问题上表现突出。B:SVM能够实现异常值检测。C:SVM思想能够应用于回归问题。D:SVM能够解决多分类问题。

答案:SVM在二分类问题上表现突出。;SVM能够实现异常值检测。;SVM思想能够应用于回归问题。;SVM能够解决多分类问题。

关于SVM核函数,下列说法中错误的是:()

A:常见的核函数有线性核、高斯核、多项式核、Sigmoid核等。B:核函数是一种将某一类输入映射为某一类输出的函数。C:核函数的引入极大地提升了SVM在线性不可分场景下的模型的稳健性。D:核函数把特征映射到的空间维度越高越好。

答案:核函数把特征映射到的空间维度越高越好。

第七章测试

以下哪项关于决策树的说法是错误的()

A:子树可能在决策树中重复多次B:寻找最佳决策树是NP完全问题C:冗余属性不会对决策树的准确率造成不利的影响D:决策树算法对于噪声的干扰非常敏感

答案:决策树算法对于噪声的干扰非常敏感

以下关于决策树原理介绍错误的有()。

A:决策树算法属于无监督学习B:决策树算法本质上是贪心算法C:决策树生成过程中需要用到分割法D:决策树决策过程从根节点开始

答案:决策树算法属于无监督学习

我们想要在大数据集上训练决策树模型,为了使用较少的时间,可以()。

A:增加树的深度B:减少树的数量C:增大学习率D:减少树的深度

答案:减少树的深度

决策树的说法正确的是()。

A:它易于理解、可解释性强B:CART使用的是二叉树C:不能处理连续型特征D:其可作为分类算法,也可用于回归模型

答案:它易于理解、可解释性强;CART使用的是二叉树;其可作为分类算法,也可用于回归模型

决策树的生成只考虑局部最优,相对地,决策树的剪枝则考虑全部最优。()

A:对B:错

答案:对

第八章测试

有关循环神经网络(RNN)的理解,以下哪些说法是正确的?()

A:某个时刻t,隐层神经元拟合了上一时刻输入与输出以及当前输入与输出的关系B:某个时刻t输入和输出之间的关系可以通过隐层神经元拟合C:RNN不能处理数值型时序的数据,例如由某行业几个月的平均股票价格预测未来月份的平均股票价格D:对于只有在最后一个时刻有输出的RNN,可以拟合输出的时序数据之间的关系对应的类别,例如商超客户的消费行为分析

答案:某个时刻t,隐层神经元拟合了上一时刻输入与输出以及当前输入与输出的关系;某个时刻t输入和输出之间的关系可以通过隐层神经元拟合;对于只有在最后一个时刻有输出的RNN,可以拟合输出的时序数据之间的关系对应的类别,例如商超客户的消费行为分析

长短期记忆网络(LSTM)通过遗忘门减少一般循环神经网络(RNN)的短期记忆不足,但增加算法的计算复杂度。()

A:对B:错

答案:对

误差的反向传播,即从第一个隐藏层到输出层,逐层向前修改神经元的连接权值参数,使得损失函数值最小。()

A:错B:对

答案:对

Sigmoid函数在变量取绝对值非常大的正值或负值时会出现饱和现象,意味着函数会变得很平,并且对输入的微小改变会变得不敏感。在反向传播时,当梯度接近于0,权重基本不会更新,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练。()

A:错B:对

答案:对

第九章测试

下列关于自动编码器说法错误的是()

A:自动编码器是一种无监督学习,不需要损失函数。B:自动编码器由编码器和解码器两部分组成。C:自动编码器是神经网络在降维问题中的应用。D:自动编码器算法的目标是:训练编码器与解码器,使得重构误差最小。

答案:自动编码器是一种无监督学习,不需要损失函数。

线性判别分析法的目标是()

A:类间区别尽可能大,类内区别尽可能小。B:类间区别尽可能小,类内区别尽可能小。C:类间区别尽可能小,类内区别尽可能大。D:类间区别尽可能大,类内区别尽可能大。

答案:类间区别尽可能大,类内区别尽可能小。

局部线性嵌入法的基本思想是保持样本点之间距离经降维后不改变。()

A:对B:错

答案:错

下列方法中,可以用于特征降维的方法包括()

A:线性判别分析法LDAB:最小二乘法LeastSquaresC:主成分分析法PCAD:自动编码器AE

答案:线性判别分析法LDA;主成分分析法PCA;自动编码器AE

下列关于PCA说法正确的是()

A:在使用PCA之前,通常需要对数据进行标准化放缩。B:可以使用PCA在低维空间中可视化数据。C:优先选择具有最大方差的主成分。D:优先选择具有最小方差的主成分。

答案:在使用PCA之前,通常需要对数据进行标准化放缩。;可以使用PCA在低维空间中可视化数据。;优先选择具有最大方差的主成分。

下列关于自动编码器说法错误的是()

A:自动编码器由编码器和解码器两部分组成。B:自动编码器算法的目标是:训练编码器与解码器,使得重构误差最小。C:自动编码器是神经网络在降维问题中的应用。D:自动编码器是一种无监督学习,不需要损失函数。

答案:自动编码器是一种无监督学习,不需要损失函数。

线性判别分析法的目标是()

A:类间区别尽可能大,类内区别尽可能小。B:类间区别尽可能小,类内区别尽可能大。C:类间区别尽可能大,类内区别尽可能大。D:类间区别尽可能小,类内区别尽可能小。

答案:类间区别尽可能大,类内区别尽可能小。

局部线性嵌入法的基本思想是保持样本点之间距离经降维后不改变。()

A:错B:对

答案:错

下列方法中,可以用于特征降维的方法包括()

A:最小二乘法LeastSquaresB:线性判别分析法LDAC:主成分分析法PCAD:自动编码器AE

答案:线性判别分析法LDA;主成

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论