机器学习与模式识别期末复习题及答案_第1页
机器学习与模式识别期末复习题及答案_第2页
机器学习与模式识别期末复习题及答案_第3页
机器学习与模式识别期末复习题及答案_第4页
机器学习与模式识别期末复习题及答案_第5页
已阅读5页,还剩3页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

一、单选题

1、处理二维数据的单个神经元模型的参数个数是:()。

A.1个

B.3个

C.2个

D.不确定

正确答案:B

2、从当前考场的所有考生中,找出作弊的学生,该任务属于:()。

A.分类

B.聚类

C.异常检测

D.以上均是

正确答案:C

3、以下方法中不属于主流机器学习方法的是:()。

A.随机学习

B.强化学习

C.有监督学习

D.无监督学习

正确答案:A

4、假设样本XCR3,服从多元正态分布N(u,£),则类条件概率密度函数的有效

参数数量为:()。

A.6个

B.9个

C12个

D.不确定

正确答案:B

5、对于一维样本二分类问题,叫,32两类均服从正态分布,假设按照最小平均

错误概率准则设计的分类器为CL分类阈值为TL按照最小平均风险准则设计

的分类器为C2,T2,如果风险系数入12>入21,入11>入22则以下论断正确的是:

()。

A.T2比T1更靠近类的均值

B.T1与T2相同

C.无法判断

D.T1比T2更靠近类的均值

正确答案:D

3

6、假设线性回归问题的训练集为:XiGR,i=l,…,100,则该线性模型包含多少

个参数:()o

A.101个

B.3个

C.4个

D100个

7、上题中如果使用线性回归的最小二乘解的封闭解形式,则自相关矩阵Rx的大

小为:()。

A.3X3

B.4X4

C.101X101

D.100X100

8、逻辑回归模型中的逻辑回归函数可以看作是对以下哪种概率的描述:()。

A.pM)

B.p(o)1|x)

C.p(x®)

Dp(x)

9、对于包含100个样本的训练集,线性SVM原始问题的待优化变量数量为()。

A.2个

B.101个

C.3个

D.无法确定

正确答案:D

10、原始线性SVM问题经过拉格朗日对偶处理后转化为一个:()。

A.无约束最大化问题

B.有约束最小化问题

C.有约束最大化问题

D.无约束最小化问题

正确答案:A

11、利用SMO算法求解SVM问题时,每轮迭代选取()个系数变量进行更新。

A.2个

B.无法确定

C.1个

D.样本数量

正确答案:A

12、点样本集为,且有A(xDWa2,VXiCS,则利用特征A进行分裂后产生几个子

节点:()o

A.无法分裂

B.无法确定

C.2个

D.3个

正确答案:D

13、当前节点内样本集包含5个样本,特征数量为3,其中两个离散特征,1个

连续特征,采用多叉树方案,则当前节点共有多少种可选的分裂方案。()

A.无法确定

B.3种

C.2种

D.1种

正确答案:B

14、设样本集为X={1,3,5,7},Y={+1,-1,-1,+1},权重为口1={0.1,0.5,0.2,0.2),

个体分类器函数形式为%(x)=sign(x-v)。则当前的最优取值为:()。

A.0

B.2

C.6

D.4

正确答案:C

15、当样本数趋近于无穷大时,Bootstrap采样时样本被抽中的概率约为:()。

A.0.612

B.1

C.0.5

D.0.368

正确答案:A

16、当样本数为N,精度为巳置信度为5时,下述那种学习时间T对应的学习算

法是PAC学习算法:()。

?N

B-T=N10gN+蔡)5

C.T=NlogN+21/e

D.T=N!

正确答案:B

二、判断题

1、一个数据集的特征维度总是小于该数据集的样本数量。

正确答案:X

2、模型容量大小与训练集样本数量无关。

正确答案:V

3、明日降水概率预测属于回归问题。

正确答案:V

4、班级内自由分组讨论不属于分类问题。

正确答案:X

5、驯兽师用鞭打和喂食的方式教导老虎跳火圈属于有监督学习。

正确答案:X

6、在分类问题中,类条件概率是概率质量,后验概率是概率密度。

正确答案:X

7、有些问题中,无需了解先验概率也可以直接估计后验概率。

正确答案:V

8、最大后验概率分类准则和最小错误概率分类准则在任何情况下给出的分类结

果都是一样的。

正确答案:V

9、最小错误概率分类准则给出的分类结果总是正确的。

正确答案:X

10、对于一组线性可分的训练集,所有能够将它们正确分类的线性分类器都具有

相同的分类性能。

正确答案:X

11、所有支撑向量均在间隔区域的边界上。

正确答案:X

12、间隔区域越宽意味着模型的经验风险越小。

正确答案:X

13、线性SVM求解必须依靠拉格朗日对偶技巧。

正确答案:X

14、基于基尼指数的分裂结果与基于信息增益比的分裂结果总是相同的。

正确答案:X

15、信息增益越大的特征信息增益比也越大。

正确答案:X

16、信息增益比越大的特征不纯度越小。

正确答案:X

17、使用相对多数投票时,若没有任何一类得票数高于50%,则拒绝分类。

正确答案:X

18、采用前向分步优化策略得到的最优解就是集成学习问题的全局最优解。

正确答案:X

19、Adaboost算法中,被个体学习器%错误分类的样本的权重在的学习中一

定会增加。

正确答案:X

20、模型在独立同分布采样获得的训练集上的经验误差总是小于该模型在该分布

上的泛化误差。

正确答案:X

21、若存在假设heH在数据集D上的经验误差为零,则有真实映射feH。

正确答案:X

22、线性分类器h(x)=WiX]+w2x2+Wo的VC维是3

正确答案:V

23、表情特征可以用于身份识别。

正确答案:X

24、稀疏编码方法中的编码数值是通过将原始数据向字典上投影得到的。

正确答案:X

25

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论