机器学习知到智慧树章节测试课后答案2024年秋山东科技大学_第1页
机器学习知到智慧树章节测试课后答案2024年秋山东科技大学_第2页
机器学习知到智慧树章节测试课后答案2024年秋山东科技大学_第3页
机器学习知到智慧树章节测试课后答案2024年秋山东科技大学_第4页
机器学习知到智慧树章节测试课后答案2024年秋山东科技大学_第5页
免费预览已结束,剩余6页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习知到智慧树章节测试课后答案2024年秋山东科技大学第一章单元测试

机器学习最主要的两种形式是监督学习和无监督学习。()

A:错B:对

答案:对机器学习的核心是算法。()

A:对B:错

答案:对过拟合只是监督学习中的问题,对于无监督学习影响不大。()

A:对B:错

答案:错下面哪句话是正确的?()

A:机器学习模型的精准度越高,则模型的性能越好B:其余说法都不对C:增加模型的复杂度,总能减小测试样本误差D:增加模型的复杂度,总能减小训练样本误差

答案:增加模型的复杂度,总能减小训练样本误差下列属于无监督学习的是()

A:K-MeansB:决策树C:逻辑回归D:SVM

答案:K-Means

第二章单元测试

在实际应用中,选取损失函数的制约因素包括()。

A:是否有异常值B:求导的难易程度C:机器学习算法的选择D:梯度下降的时间复杂度

答案:是否有异常值;求导的难易程度;机器学习算法的选择;梯度下降的时间复杂度岭回归的目标函数是一个严格凸函数,没有唯一最优解。()

A:对B:错

答案:错线性回归算法、逻辑回归算法和支持向量机等监督式学习算法,都是经验损失最小化架构在具体问题中的表现。()

A:错B:对

答案:对以下关于无约束经验损失最小化算法的说法哪个是正确的?()

A:“无约束”的意思是模型的选择不受任何约束,可以输出模型空间中的任何模型B:可以精确地拟合训练数据C:为了降低过拟合,在实际应用中大多会采用无约束经验损失最小化算法D:容易发生过渡拟合

答案:“无约束”的意思是模型的选择不受任何约束,可以输出模型空间中的任何模型;可以精确地拟合训练数据;容易发生过渡拟合以下关于结构损失最小化算法的说法哪个是错误的?()

A:任何经验损失最小化算法,都可以通过正则化方法转化成结构损失最小化算法B:体现了奥卡姆剃刀法则思想C:不会发生过渡拟合D:带有正则化方法的经验损失最小化算法被称为结构损失最小化算法

答案:不会发生过渡拟合

第三章单元测试

以下是线性回归应用场景的是()

A:银行个人信用评估B:房价预测C:医生病理诊断D:垃圾邮件判断

答案:房价预测下列属于线性回归的分类的有()

A:单变量线性关系B:多变量线性关系C:非线性关系D:ABC都是

答案:ABC都是以下关于随机森林算法说法错误的是()

A:决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型的分类效果越好。B:随机森林算法对异常值和缺失值不敏感。C:随机森林分类算法的输出类别是由所有决策树输出类别的平均数来确定的。D:随机森林算法的分类精度不会随着决策树数量的增加而提高。

答案:随机森林分类算法的输出类别是由所有决策树输出类别的平均数来确定的。K均值算法的关键是?()

A:计算每一个样本和质心之间相似度所用的距离算法B:所选取数据集的大小C:选取数据样本的K个中心D:确定最终聚类类别数K

答案:选取数据样本的K个中心合并聚类算法的时间复杂度为O(m2)。()

A:错B:对

答案:错

第四章单元测试

梯度下降算法的正确步骤是什么?

(a)计算预测值和真实值之间的误差;(b)迭代更新,直到找到最佳权重;(c)把输入传入网络,得到输出值;(d)初始化随机权重和偏差;(e)对每一个产生误差的神经元,改变相应的(权重)值以减少误差。()

A:e,d,c,b,aB:c,b,a,e,dC:a,b,c,d,eD:d,c,a,e,b

答案:d,c,a,e,b随机梯度下降法缺点在于每次更新可能并不会按照正确的方向进行,参数更新具有高方差,从而导致损失函数剧烈波动。()

A:错B:对

答案:对牛顿法是梯度下降法的进一步发展,牛顿法不仅使用目标函数的一阶偏导数,还进一步利用了目标函数的二阶偏导数,这样就考虑了梯度变化的趋势,因而能更全面地确定合适的搜索方向加快收敛,它具二阶收敛速度。()

A:对B:错

答案:对坐标下降算法的优点是容易计算,同时收敛很快;缺点是当loss比较复杂时,会很明显的降低速度。()

A:对B:错

答案:对通过梯度下降算法,计算方程取最小值(极小值)时候的最优解x。求解过程主要通过迭代优化方法完成迭代的方程为:

其中x为要求的解,为梯度(也就是导数或偏导,我们在这里用最简单的一元函数演示,所以直接写成导数),a为学习率(或称步长,是一个重要的参数,a的选择直接影响这着算法的效率)

答案:/zhs/onlineexam/ansewerImg/202210/8c1640e3e9a74f8b99972986850f0140.png

第五章单元测试

Logistic回归算法是模型假设为Sigmoid函数的经验损失最小化算法。()

A:对B:错

答案:对Logistic回归属于()

A:概率型线性回归B:非概率性线性回归C:概率型非线性回归D:非概率型非线性回归

答案:概率型非线性回归Logistic回归可用于()

A:影响因素分析B:校正混杂因素C:预测D:其余选项都是

答案:其余选项都是关于分类和回归问题,下面说法正确的是?()

A:回归和分类都是有监督学习问题。B:回归问题和分类问题都有可能发生过拟合。C:输出变量为有限个离散变量的预测问题是回归问题;输出变量为连续变量的预测问题是分类问题。D:一般来说,回归不用在分类问题上,但是也有特殊情况,比如Logistic回归可以用来解决0/1分类问题。

答案:回归和分类都是有监督学习问题。;回归问题和分类问题都有可能发生过拟合。;一般来说,回归不用在分类问题上,但是也有特殊情况,比如Logistic回归可以用来解决0/1分类问题。我们知道二元分类一般设定输出概率大于或等于0.5,则预测为正类;若输出概率小于0.5,则预测为负类。那么,如果将阈值0.5提高,例如0.6,大于或等于0.6的才预测为正类,则精确率(Precision)和召回率(Recall)会发生什么变化?()

A:召回率(Recall)增大。B:召回率(Recall)减小或者不变。C:精确率(Precision)减小。D:精确率(Precision)增大或者不变。

答案:召回率(Recall)减小或者不变。;精确率(Precision)增大或者不变。

第六章单元测试

SVM决策边界只会被支持向量影响,跟其它样本点无关。()

A:对B:错

答案:对SVM使用高斯核函数之前通常会进行特征归一化,经过特征归一化得到的新特征通常优于旧特征。()

A:错B:对

答案:对下面关于SVM原理的说法错误的是:()

A:分类超平面的法向量可用于计算样本与分类超平面之间的最短距离。B:最大化间隔就是最大化,其中w是分类超平面的法向量C:在样本线性不可分的情况下引入核函数是一个明智的选择。D:SVM通过计算样本到分类超平面的最大距离来确定最优模型。

答案:最大化间隔就是最大化,其中w是分类超平面的法向量下列关于SVM的应用场景说法正确的是(多选):()

A:SVM在二分类问题上表现突出。B:SVM思想能够应用于回归问题。C:SVM能够解决多分类问题。D:SVM能够实现异常值检测。

答案:SVM在二分类问题上表现突出。;SVM思想能够应用于回归问题。;SVM能够解决多分类问题。;SVM能够实现异常值检测。关于SVM核函数,下列说法中错误的是:()

A:常见的核函数有线性核、高斯核、多项式核、Sigmoid核等。B:核函数把特征映射到的空间维度越高越好。C:核函数是一种将某一类输入映射为某一类输出的函数。D:核函数的引入极大地提升了SVM在线性不可分场景下的模型的稳健性。

答案:核函数把特征映射到的空间维度越高越好。

第七章单元测试

以下哪项关于决策树的说法是错误的()

A:子树可能在决策树中重复多次B:决策树算法对于噪声的干扰非常敏感C:冗余属性不会对决策树的准确率造成不利的影响D:寻找最佳决策树是NP完全问题

答案:决策树算法对于噪声的干扰非常敏感以下关于决策树原理介绍错误的有()。

A:决策树算法本质上是贪心算法B:决策树生成过程中需要用到分割法C:决策树算法属于无监督学习D:决策树决策过程从根节点开始

答案:决策树算法属于无监督学习我们想要在大数据集上训练决策树模型,为了使用较少的时间,可以()。

A:增加树的深度B:减少树的数量C:减少树的深度D:增大学习率

答案:减少树的深度决策树的说法正确的是()。

A:它易于理解、可解释性强B:CART使用的是二叉树C:其可作为分类算法,也可用于回归模型D:不能处理连续型特征

答案:它易于理解、可解释性强;CART使用的是二叉树;其可作为分类算法,也可用于回归模型决策树的生成只考虑局部最优,相对地,决策树的剪枝则考虑全部最优。()

A:对B:错

答案:对

第八章单元测试

有关循环神经网络(RNN)的理解,以下哪些说法是正确的?()

A:对于只有在最后一个时刻有输出的RNN,可以拟合输出的时序数据之间的关系对应的类别,例如商超客户的消费行为分析B:某个时刻t,隐层神经元拟合了上一时刻输入与输出以及当前输入与输出的关系C:RNN不能处理数值型时序的数据,例如由某行业几个月的平均股票价格预测未来月份的平均股票价格D:某个时刻t输入和输出之间的关系可以通过隐层神经元拟合

答案:对于只有在最后一个时刻有输出的RNN,可以拟合输出的时序数据之间的关系对应的类别,例如商超客户的消费行为分析;某个时刻t,隐层神经元拟合了上一时刻输入与输出以及当前输入与输出的关系;某个时刻t输入和输出之间的关系可以通过隐层神经元拟合长短期记忆网络(LSTM)通过遗忘门减少一般循环神经网络(RNN)的短期记忆不足,但增加算法的计算复杂度。()

A:错B:对

答案:对误差的反向传播,即从第一个隐藏层到输出层,逐层向前修改神经元的连接权值参数,使得损失函数值最小。()

A:错B:对

答案:对Sigmoid函数在变量取绝对值非常大的正值或负值时会出现饱和现象,意味着函数会变得很平,并且对输入的微小改变会变得不敏感。在反向传播时,当梯度接近于0,权重基本不会更新,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练。()

A:对B:错

答案:对设输入为,滤镜(卷积核)为,在步幅为1且无填充等其他特殊处理的情况下,请计算卷积生成的镜像V

答案:/zhs/onlineexam/ansewerImg/202210/052ff6ac98984a6a98e61c1323130b31.png

第九章单元测试

局部线性嵌入法的基本思想是保持样本点之间距离经降维后不改变。()

A:错B:对

答案:错下列关于自动编码器说法错误的是()

A:自动编码器是神经网络在降维问题中的应用。B:自动编码器是一种无监督学习,不需要损失函数。C:自动编码器由编码器和解码器两部分组成。D:自动编码器算法的目标是:训练编码器与解码器,使得重构误差最小。

答案:自动编码器是一种无监督学习,不需要损失函数。线性判别分析法的目标是()

A:类间区别尽可能小,类内区别尽可能大。B:类间区别尽可能小,类内区别尽可能小。C:类间区别尽可能大,类内区别尽可能小。D:类间区别尽可能大,类内区别尽可能大。

答案:类间区别尽可能大,类内区别尽可能小。下列方法中,可以用于特征降维的方法包括()

A:最小二乘法LeastSquaresB:线性判别分析法LDAC:主成分分析法PCAD:自动编码器AE

答案:线性判别分析法LDA;主成分分析法PCA;自动编码器AE下列关于PCA说法正确的是()

A:在使用PCA之前,通常需要对数据进行标准化放缩。B:可以使用PCA在低维空间中可视化数据。C:优先选择具有最小方差的主成分。D:优先选择具有最大方差的主成分。

答案:在使用PCA之前,通常需要对数据进行标准化放缩。;可以使用PCA在低维空间中可视化数据。;优先选择具有最大方差的主成分。

第十章单元测试

下列哪些属于聚类算法()

A:K-中心点B:KNNC:K-meansD:DBSCAN

答案:K-中心点;K-means;DBSCANK-means的主要缺点之一是其简单地使用了平均值作为簇的中心。()

A:对B:错

答案:对合并聚类算法是经典的层级聚类算法,合并聚类算法不是贪心算法。()

A:对B:错

答案:错DBSCAN算法的优点有?()。

A:不需要指定最小样本量和半径两个参数B:可以处理噪声点C:不需要划分个数。跟K-means比起来,DBSCAN可以自动分出类别个数D:可以处理任意形状的空间聚类问题

答案:可以处理噪声点;不需要划分个数。跟K-means比起来,DBSCAN可以自动分出类别个数;可以处理任意形状的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论