南开《数据科学导论》20春期末考核答案_第1页
南开《数据科学导论》20春期末考核答案_第2页
已阅读5页,还剩4页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、数据科学导论20春期末考核-00001试卷总分:100 得分:70一、单选题 (共 15 道试题,共 30 分)1.下面不是分类的常用方法的有()A.K近邻法B.朴素贝叶斯C.决策树D.条件随机场答案:D2.BFR聚类用于在()欧氏空间中对数据进行聚类A.高维B.中维C.低维D.中高维答案:A3.聚类是一种()。A.有监督学习B.无监督学习C.强化学习D.半监督学习答案:B4.数据库中相关联的两张表都存储了用户的个人信息,但在用户的个人信息发生改变时只更新了一张表中的数据,这时两张表中就有了不一致的数据,这属于()A.异常值B.缺失值C.不一致的值D.重复值答案:C5.某商品的产量(X,件)与

2、单位成本(Y,元/件)之间的回归方程为Y=100-1.2X,这说明()。A.产量每增加一台,单位成本增加100元B.产量每增加一台,单位成本减少1.2元C.产量每增加一台,单位成本平均减少1.2元D.产量每增加一台,单位平均增加100元答案:C6.在k近邻法中,选择较小的k值时,学习的“近似误差”会(),“估计误差”会()。A.减小,减小B.减小,增大C.增大,减小D.增大,增大答案:B7.在回归分析中,自变量为(),因变量为()。A.离散型变量,离散型变量B.连续型变量,离散型变量C.离散型变量,连续型变量D.连续型变量,连续型变量答案:D8.手肘法的核心指标是()。A.SESB.SSEC.

3、RMSED.MSE答案:B9.特征选择的四个步骤中不包括()A.子集产生B.子集评估C.子集搜索D.子集验证答案:C10.一元线性回归中,真实值与预测值的差称为样本的()。A.误差B.方差C.测差D.残差答案:D11.K-means聚类适用的数据类型是()。A.数值型数据B.字符型数据C.语音数据D.所有数据答案:A12.以下哪些不是缺失值的影响()A.数据建模将丢失大量有用信息B.数据建模的不确定性更加显著C.对整体总是不产生什么作用D.包含空值的数据可能会使建模过程陷入混乱,导致异常的输出答案:C13.下列两个变量之间的关系中,哪个是函数关系()。A.人的性别和他的身高B.人的工资与年龄C

4、.正方形的面积和边长D.温度与湿度答案:C14.考虑下面的频繁3-项集的集合:1,2,3,1,2,4,1,2,5,1,3,4,1,3,5,2,3,4,2,3,5,3,4,5假定数据集中只有5个项,采用 合并策略,由候选产生过程得到4-项集不包含()A.1,2,3,4B.1,2,3,5C.1,2,4,5D.1,3,4,5答案:C15.单层感知机模型属于()模型。A.二分类的线性分类模型B.二分类的非线性分类模型C.多分类的线性分类模型D.多分类的非线性分类模型答案:A二、多选题 (共 5 道试题,共 10 分)16.系统日志收集的基本特征有()A.高可用性B.高可靠性C.可扩展性D.高效率答案:

5、ABC17.距离度量中的距离可以是()A.欧式距离B.曼哈顿距离C.Lp距离D.Minkowski距离答案:ABCD18.K-means聚类中K值选取的方法是()。A.密度分类法B.手肘法C.大腿法D.随机选取答案:AB19.多层感知机的学习过程包含()。A.信号的正向传播B.信号的反向传播C.误差的正向传播D.误差的反向传播答案:AD20.一元回归参数估计的参数求解方法有()。A.最大似然法B.距估计法C.最小二乘法D.欧式距离法答案:ABC三、判断题 (共 15 道试题,共 30 分)21.Jaccard系数只关心个体间共同具有的特征是否一致这个问题。答案:正确22.标准BP算法是在读取全

6、部数据集后,对参数进行统一更新的算法。答案:错误23.使用SVD方法进行图像压缩不可以保留图像的重要特征。答案:错误24.特征选择和降维都是用于减少特征数量,进而降低模型复杂度、防止过度拟合。答案:正确25.一个人的身高与体重之间具有函数关系。答案:错误26.K均值(K-Means)算法是密度聚类。答案:错误27.数据科学可以回答复杂的问题,发现世界中隐藏的联系并预测和指导未来。答案:正确28.选择较小的k值,相当于用较小的邻域中的训练实例进行预测,学习的“近似误差”会减小,“估计误差”会增大,预测结果会对近邻的点实例点非常敏感。答案:正确29.利用K近邻法进行分类时,使用不同的距离度量所确定

7、的最近邻点都是相同的。答案:错误30.对于项集来说,置信度没有意义。答案:正确31.每个类的先验概率可以通过属于该类的训练记录所占的比例来估计。答案:正确32.当维度增加时,特征空间的体积增加得很快,使得可用的数据变得稠密。答案:错误33.利用K近邻法进行分类时,k值过小容易发生过拟合现象。答案:正确34.聚合方法是自底向上的方法。答案:正确35.平均减少的不纯度越大,则特征重要度越高。答案:正确四、主观填空题 (共 5 道试题,共 10 分)36.#感知机足以解决任何复杂的分类问题。答案:双隐层37.判定系数取值范围为0,1,判定系数越接近#,表明变量之间的相关性越强。答案:-138.在线性回归分析中,当输入特征的维度从一维增加到d维(d>1),则该问题为#问题。答案:多元线性回归39.多元线性回归中,在有统计学意义的前提下,标准化偏回归系数的绝对值越大,说明相应的自变量对y的作用#。答案:越大40.在k近邻法中,通常采用#来选取最优的k值。答案:交叉验证法五、简答题 (共 2 道试题,共 20 分)41.单层感知机和多层感知机分别解决的是哪类问题?答案:1).单层感知机只能

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论