自然语言技术N1考试复习题库(浓缩300题)_第1页
自然语言技术N1考试复习题库(浓缩300题)_第2页
自然语言技术N1考试复习题库(浓缩300题)_第3页
自然语言技术N1考试复习题库(浓缩300题)_第4页
自然语言技术N1考试复习题库(浓缩300题)_第5页
已阅读5页,还剩72页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

自然语言技术N1考试复习题库(浓缩300题)

一'单选题

1.Relu和Tanh相比有什么不同的地方

A、输出的值域不同

B、Relu可以做非线性变换而Tanh不可以

C、Relu是激活函数但是Tanh不是激活函数

D、都不可以做线性变换

答案:A

2.以下四个选项中,关于随机森林和GBDT说法正确的是

A、都是由多棵树组成,最终的结果都是由多棵树一起决定。

B、RF和GBDT在使用CART树时,只能做回归不能做分类。

GRF和GBDT在使用CART树时,只能做分类不能做回归。

D、不确定

答案:A

3.通过getTreeDepth可以获取决策树中的什么

A、获取决策树叶子节点的个数

B、获取决策树的层数

C、绘制节点

D、标注有向边属性

答案:B

4.下列几个选项中关于GBDT,说法错误的是

A、GBDT是深度学习算法

B、传统的GBDT采用CART作为基分类器

C、传统的GBDT在每轮迭代时使用全部的数据

D、没有对确实值进行处理

答案:A

5.零均值归一化会将原始数据的标准差映射为多少?

A、0

B、1

C、2

D、3

答案:B

6.小概率事件怎么理解?以下选项当中描述正确的是?

A、发生可能性不大的事件

B、发生可能性大的事件

C、发生可能性不去确定的事件

D、以上都正确

答案:A

7.串行地训练一系列前后依赖的同类模型,即后一个模型用来对前一个模型的输

出结果进行纠正属于什么思想

A、Bagging

B、Boosting

C、Stacking

D、以上都正确

答案:B

8.以下几个算法中哪个不容易陷入过拟合

A、未剪枝的决策树

B、随机森林

C、不加正则的线性回归

D、不加正则的逻辑回归

答案:B

9.LightGBM是实现GBDT算法的很好的框架,在下列四个选项中,哪个对于Lig

htGBM的优势描述是正确的

A、更慢的训练速度

B、更低的内存消耗

C、更差的准确率

D、不支持分布式

答案:B

10.高维组合特征的处理,具体是怎么做的

A、在特征工程中经常会把一阶离散特征两两组合

B、在特征工程中经常会把一阶离散特征打散

C、删除一部分离散特征

D、不确定

答案:A

H.XGBoost中对树上叶子节点的得分w的L2模平方,有什么目的

A、为了避免过拟合

B、为了避免欠拟合

C、为了增加叶子节点个数

D、不确定

答案:A

12.以下哪些算法是分类算法

A、DBSCAN

B、C4.5

C、K-Mean

DvEM

答案:B

13.先把连续的浮点特征值离散化成k个整数,构造一个宽度为k的直方图。是

以下哪个算法的优化

A、直方图算法算法

B、带深度限制的Leaf-wise的叶子生长策略

C、不确定

D、直接支持类别特征

答案:A

14.RNN中常用到Tanh激活函数,它在求导之后的取值范围是多少

A、(0,1)

B、(-1,1)

C、(0,0.5)

D、0或1

答案:A

15.纵观决策树有哪些优点

A、易于理解和解释,决策树可以可视化。

B、决策树学习可能创建一个过于复杂的树,并不能很好的预测数据。也就是过

拟合

C、决策树可能是不稳定的,因为即使非常小的变异,可能会产生一颗完全不同

的树

D、如果某些分类占优势,决策树将会创建一棵有偏差的树

答案:A

16.对于k-NN分类器,以下哪个陈述是正确的?

A、k值越大,分类精度越好

B、k值越小,决策边界越光滑

C、决策边界是线性的

D、k-NN不需要显式的训练步骤

答案:D

17.XGBoost是对某个算法的改进,是以下四个选项中的哪个算法

A、GBDT

B、随机森林

C、线性回归

D、逻辑回归

答案:A

18.在下列任务当中,哪个任务可以使用线性回归去实现

A、数据降维

B、垃圾邮件分类

C、癌症良性恶性分类

D、房价预测

答案:D

19.如何理解线性回归中的“线性”

A、两个变量之间的关系是一次函数的关系,图像是条直线

B、两个变量之间的关系是二次函数的关系,图像是条抛物线

C、两个变量之间的关系是对数的关系

D、两个变量之间的关系是指数函数的关系

答案:A

20.下列关于基尼系数和熠说法正确的是

A、基尼系数更偏向于连续值

B、熠更偏向于离散值

C、基尼系数的计算需要对数的运算

D、焰运算起来更加的高效

答案:A

21.XGBoost中加入正则化会怎么样

A、可以防止欠拟合

B、可以增加模型的泛化能力

C、可以增加模型的复杂度

D、以上都是

答案:B

22.以下关于ROC曲线的说法,正确的是

A、ROC曲线越靠拢(1,2)点

B、ROC曲线越靠拢(0.5,0.5)点

C、R0C曲线越靠拢(0,1)点越好

D、R0C曲线越靠拢(1,0)点

答案:C

23.网络表示(NetworkEmbedding)模型是受到以下哪种模型的启发而来?

A、LDA

B、word2vec

C、PageRank

D、SVD

答案:B

24.什么是概率图模型,如何去理解概率图模型

A、概率图模型是用图来表示变量概率依赖关系

B、概率图是树状的结构

C、概率图就是概率,是相同的

D、不确定

答案:A

25.若训练时使用了数据集的全部特征,模型在训练集上的准确率为100%,验证

集上准确率为70%o出现的问题是?

A、欠拟合

B、过拟合

C、模型很完美

D、不确定

答案:B

26.线性回归使用的目标函数是以下哪个

A、信息增益

B、信息熔

C、交叉熔

D、均方误差

答案:D

27.在使用EM算法的时候可能会出现以下什么问题(弊端)

A、算法快速收敛

B、可能达到局部最优

C、不确定

D、使梯度的计算更便捷

答案:B

28.建立了一个kNN分类器,该分类器在训练数据上获得100%的准确性。当他

们在客户端上部署此模型时,发现该模型根本不准确。以下哪项可能出错了?

A、可能是模型过拟合

B、可能是模型未拟合

C、不能判断

D、这些都不是

答案:A

29.欠拟合是不好的现象,那么它有什么不好的影响

A、在训练集上的效果很好,但是在测试集上的效果很差

B、在训练集上的效果差,在测试集上的效果也差

C、在训练集上的效果很好,在测试集上的效果也很好

D、在训练集上的效果很差,但是在测试集上的效果很好

答案:B

30.EM算法应用广泛,它的求解原理是什么

A、是通过寻找最优的自变量和因变量之间的一次函数关系

B、通过寻找最优的超平面进行更好的分类

C、是通过迭代,不断求解下界的极大化,来逐步求解对数似然函数极大化

D、不确定

答案:C

31.在寻找最优结构树的过程中,经常会使用到以下哪个算法

A、逻辑回归

B、线性回归

C、聚类

D、贪心算法

答案:D

32.以下属于异质集成的是哪个

A、Bagging

B、Boosting

C、Stacking

D、以上都正确

答案:c

33.怎么去理解模型当中的过拟合现象

A、指的就是样本该学习到的特征没有学习到,导致了曲线拟合数据的时候,效

果不好。

B、指的肯定就是说,这条曲线,过分的去描述现有的数据特征了。

C、指得就是说这个曲线能不能去很好的描述现有的数据。

D、欠拟合指的就是在训练和测试数据上的表现都不好

答案:B

34.KNearestNeighbors属于以下哪个算法的全称

A、线性回归

B、逻辑回归

C、KNN

D、K-means

答案:C

35.以下几个关于EM算法的说法,正确的是

A、传统EM算法对初始值不敏感

B、EM算法不能应用到HMM的求解中

C、不确定

D、传统EM算法对初始值敏感

答案:D

36.以下四个选项中代表的随机森林缩写的是哪个?

A、RF

B、GBDT

C、XGBoost

D、LightGBM

答案:A

37.为什么会提出LightGBM,最主要是什么原因

A、并无实际的意义

B、为了解决GBDT的并行问题

G为了改进XGBoost

D、为了解决GBDT在大数据上遇到的问题

答案:D

38.RandomForest说的是以下哪个选项

A、随机森林

B、决策树

G聚类

D、逻辑回归

答案:A

39.高斯混合模型与K均值算法的相同点有哪些

A、都是可用于分类的算法

B、都是可用于聚类的算法

C、都是可用于回归的算法

D、都是可用于降维的算法

答案:B

40.什么时候可以选取KNN算法

A、当需要使用分类算法,且数据比较大的时候就可以尝试使用KNN算法进行分

类了。

B、当需要使用聚类算法,且数据比较大的时候就可以尝试使用KNN算法进行分

类了。

C、当需要使用降维算法,且数据比较大的时候就可以尝试使用KNN算法进行分

类了。

D、不能确定

答案:A

41.GBDT属于集成学习,因此它拥有哪些优点

A、采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自

动发现特征间的高阶关系。

B、GBDT在高维稀疏的数据集上,表现不如支持向量机或者神经网络。

C、GBDT在处理文本分类特征问题上,相对其他模型的优势不如它在处理数值特

征时明显。

D、训练过程需要串行训练,只能在决策树内部采用一些局部并行的手段提高训

练速度。

答案:A

42.精确率是怎么计算的?

A、真正正确的占所有预测为正的比例。

B、真正正确的占所有实际为正的比例。

C、错误的的占所有预测为正的比例。

D、错误的的占所有实际为正的比例。

答案:A

43.KNN算法的肘部法则中,在k=10处是个拐点,那么k的最佳值应该是多少

A、3

B、10

C、20

D、30

答案:B

44.在贝叶斯统计中,如果后验分布与先验分布属于同类,则被称为什么

A、二项分布

B、多项分布

C、共拆分布

D、Bete分布

答案:C

45.如果测试数据中有N(非常大)的观测值,则1-NN将花费多少时间?

A、N*D

B、N*D*2

C、(N*D)/2

D、这些都不是

答案:A

46.SVM算法的最小时间复杂度是0(r?),基于此,以下哪种规格的数据集并

不适该算法?

A、大数据集

B、小数据集

C、中等数据集

D、不受数据集大小影响

答案:A

47.哪种数据类型数据类型可以看作关系型数据库的一张表

A、半结构化数据

B、非结构化数据

C、结构化数据

D、不确定

答案:C

48.为模型加上正则项,可以很好的防止什么?

A、过拟合

B、欠拟合

C、完美拟合

D、不确定

答案:A

49.如何理解想“回归”

A、通过数据使预测回归到真实值上

B、通过数据做分类

C、通过数据做缩小维度

D、通过数据使相似的数据聚到一块

答案:A

50.LDA属于一个什么模型

A、语言模型

B、词袋子模型

C、预训练模型

D、不确定

答案:B

51.Sigmoid激活函数求导之后,最大值为多少

A、1

B、0.5

C、0.25

D、0.3

答案:C

52.XGBoost和GBDT都是运用了什么思想

A、Boosting

B、Bagging

C、Stacking

D、以上都正确

答案:A

53.GBDT(GradientBoostingDecisionTree)使用到的是什么思想

A、未剪枝的决策树

B、随机森林

C、不加正则的线性回归

D、不加正则的逻辑回归

答案:B

54.Tanh激活函数活跃在各大算法当中,当Tanh求导了之后,它的取值范围是

多少

Ax[-1,1]

B、[0,2]

Cx[0,1]

D、0或1

答案:A

55.在k-NN中,增加/减少k值会发生什么?

A、K值越大,边界越光滑

B、随着K值的减小,边界变得更平滑

C、边界的光滑性与K值无关

D、这些都不是

答案:A

56.sigmoid输出的值域可以代表什么

A、概率

B、代价

C、学习率

D、权重w

答案:A

57.加入正则项,可以解决处理以下哪个问题

A、正常拟合

B、过拟合

C、欠拟合

D、不确定

答案:B

58.以下四个描述中,哪个选项正确的描述了XGBoost的基本核心思想

A、训练出来一个一次函数图像去描述数据

B、训练出来一个二次函数图像去描述数据

C、不断地添加树,不断地进行特征分裂来生长一棵树,每次添加一个树,其实

是学习一个新函数f(x),去拟合上次预测的残差。

D、不确定

答案:C

59.GBDT使用的是什么思想

A、Bagging

B、Boosting

C、逻辑回归

D、线性回归

答案:B

60.SVM中,若C趋于无穷,以下哪种说法正确?

A、数据仍可正确分类

B、数据无法正确分类

C、不确定

D、以上都不对

答案:A

61.ID3,C4.5,他们有什么,相同的地方?

A、将信息增益比作为了选择特征的标准

B、将信息增益作为了选择特征的标准

C、将基尼系数作为了选择特征的标准

D、都属于决策树算法

答案:D

62.在编写模型或者训练模型的时候,如果模型过于复杂的话,会出现什么情况

A、正常拟合

B、过拟合

C、欠拟合

D、不确定

答案:B

63.LDA模型可以做什么事情

A、将文档集中每篇文档的主题以概率分布的形式给出,从而通过分析一些文档

抽取出它们的主题(分布)出来后,便可以根据主题(分布)进行主题聚类或文

本分类

B、可以找出来最优的分类超平面

C、可以找到因变量和自变量之间的一次关系

D、不确定

答案:A

64.以下哪个操作可以停止树的循环

A、加入L2正则

B、加入L1正则

C、设置树的最大深度

D、以上都可以

答案:C

65.基于直方图的稀疏特征优化多线程优化。是以下哪个框架做的优化

A、LightGBM

B、XGBoost

C、随机森林

D、GBDT

答案:A

66.从工程的角度出发去看,随机森林有什么优点

A、随机森林的每棵树训练是相互独立的,可以串行生成,调高训练的效率

B、随机森林的每棵树训练是相互独立的,可以并行生成,调高训练的效率

C、随机森林的每棵树训练是相互独立的,可以并行生成,降低训练的效率

D、不确定

答案:B

67.1-NN,2-NN,3-NN所花费的时间之间是什么关系。

A、1-NN>2-NN>3-NN

B、1-NN<2-NN<3-NN

C、1-NN~2-NN~3-NN

D、这些都不是

答案:c

68.以下四个选项中哪个是激活函数

A、L1

B、ReIu

C、L2

D、MSE

答案:B

69.马尔科夫可以用一个什么图去进行表示

A、无向图

B、有无向图

C、有向图

D、不确定

答案:A

70.主成分分析法的简写是哪个

A、PCA

B、LDA

C、SVM

D、K-Means

答案:A

71.如果适当的增加了模型的复杂度会达到什么效果

A、防止过拟合

B、防止欠拟合

C、防止完美拟合

D、不确定

答案:B

72.以下哪些算法是聚类算法

A、ID3

B、C4.5

C、K-Means

D、SVM

答案:C

73.在同质集成(系统中个体学习器的类型相同)中,个体学习器又被称为

A、基学习器

B、组建学习

C、不能判断

D、以上都正确

答案:A

74.朴素贝叶斯分类是基于()假设。

A、条件独立

B、条件不独立

C、联合概率

D、不确定

答案:A

75.LDA中的五个分布其中的二项分布,是一个什么分布

A、离散的随机分布

B、连续的随机分布

C、连续的分布

D、不确定

答案:A

76.KNN算法的分类原理是什么

A、利用自变量和因变量之间的一次函数关系

B、需要分类的样本选择特征空间上和自己最邻近的K个样本_xOOO1一把已经分类

或需要分类的样本在定义的特征空间上表征需要分类的样本的类别就是这K个

样本中最多的那个类别

C、利用自变量和因变量之间的对数关系

D、找出最好的分类超平面

答案:B

77.文本,图像,视频,音频这样的数据数据属于哪种类型的数据

A、结构化数据

B、半结构化数据

C、非结构化数据

D、不确定

答案:c

78.Bagging中的采样方法是什么样的

A、有放回的随机抽样

B、无放回的随机抽样

C、有放回的顺序抽样

D、无放回的顺序抽样

答案:A

79.sigmoid激活函数来说,它输出值的范围是_?

Ax[0,1]

B、[0,2]

G[0,3]

D、[-1,1]

答案:A

80.K-Means中的K应该如何去选择

A、贪心法则

B、马尔科夫

C、肘部法则

D、概率图

答案:C

81.激活函数有广泛的应用,下列选项中,对于激活函数存在意义的理解,正确

的是?

A、进行非线性变换,增强表达能力

B、进行线性变换,增强表达能力

C、进行线性变换,减少表达能力

D、进行非线性变换,减少表达能力

答案:A

82.带有深度限制的按叶子生长(leaf-wise)算法,主要做了什么事情

A、增加了一个最大深度的限制,在保证高效率的同时防止过拟合

B、先把连续的浮点特征值离散化成k个整数,同时构造一个宽度为k的直方图

C、不确定

D、以上都正确

答案:A

83.以下哪种情况下树会容易发生了过拟合的现象

A、加入L2正则

B、加入L1正则

C、设置树的最大深度

D、没有设置树的最大深度

答案:D

84.关于k-NN算法的应用,以下说法正确的是?

A、可用于分类

B、可用于回归

C、可用于分类和回归

D、聚类

答案:C

85.以下四个算法当中,哪个算法和逻辑回归一样都可以做分类

A、线性回归

B、岭回归

C、K-means

D、SVM

答案:D

86.以下四个选项当中,关于带有深度限制的按叶子生长(leaf-wise)算法,主要

做了什么事情,描述正确的是?

A、增加了一个最大深度的限制,在保证高效率的同时防止过拟合

B、先把连续的浮点特征值离散化成k个整数,同时构造一个宽度为k的直方图

C、不确定

D、以上都正确

答案:A

87.以下四个说法中,哪个是GBDT的优点

A、在分布稠密的数据集上,泛化能力和表达能力都很好;

B、GBDT在高维稀疏的数据集上表现不佳;

C、训练过程需要串行训练,只能在决策树内部采用一些局部并行的手段提高训

练速度。

D、不确定

答案:A

88.sigmoid作为常见的激活函数,有着非线性变化的作用,它的曲线是什么样

A、直线

B、A型曲线

C、C型曲线

D、S型曲线

答案:D

89.并行地训练一系列各自独立的不同类模型,然后通过训练一个元模型(meta­

model)来将各个模型输出结果进行结合,是什么思想

A、Bagging

B、Boosting

C、Stacking

D、以上都正确

答案:c

90.当EM在做完计算期望之后,下一步应该做什么事情?

A、最大化

B、求代价

C、计算期望

D、不确定

答案:A

91.下列哪个不是体现出的随机森林的随机性

A、样本的随机性(Bagging):在Bagging时,随机选择样本

B、特征的随机性(Randomsubspace)

C、随机特征组合(Randombination)

D、随机代价函数

答案:D

92.信息熠又叫什么?

A、信息增益

B、信息增益比

C、基尼系数

D、香农熔

答案:D

93.关于Relu激活函数说法正确的是

A、经过Reiu变换之后的取值在[0,1]之间

B、正半区是本身,负半区全为0

G经过Relu变换之后的取值在[7,1]之间

D、经过Reiu变换之后的取值在[-8,+8]之间

答案:B

94.以下四个选项当中,哪个不属于抽象模型的是()

A、概率统计模型

B、比例模型

C、符号模型

D、流程图

答案:B

95.ReIu在负半区求导之后值为多少

A、0

B、1

C、2

D、-1

答案:A

96.虽然随机森林和GBDT都属于集成学习,他们有什么不同之处

A、都是由多棵树组成,最终的结果都是由多棵树一起决定。

B、组成随机森林的树可以并行生成,而GBDT是串行生成

C、RF和GBDT在使用CART树时,可以是分类树或者回归树。

D、不确定

答案:B

97.如果对数据进行了归一化的处理,可以达到什么样的效果

A、将所有的特征都统一到一个大致相同的数值区间内

B、并无实际的意义

C、不确定

D、可以对数据进行等比例的扩大

答案:A

98.下列算法中,训练数据集是无label的数据,是杂乱无章的,经过变换后变

得有序,先无序,后有序是哪个算算法

A、SVM

B、逻辑回归

G线性回归

D、聚类

答案:D

99.在下列四个选项中,正确的找出激活函数

A、L1

B、ReIu

C、L2

D、MSE

答案:B

100.训练了一个线性SVM,这个模型出现了欠拟合现象。应该采取下列什么措

施?

A、增加数据点

B、减少数据点

C、增加特征

D、减少特征

答案:C

101.贝叶斯判别规则是什么

A、就是判断自变量和因变量之间的关系

B、把特征向量X落入某类集群wi的条件概率平P(wi/X)当成分类判别函数,

把X落入某集群的条件概率最大的类为X的分类这种判别规则叫贝叶斯判别规则

C、不确定

D、就是通过选择最优的超平面去进行最好的分类超平面

答案:B

102.当我们选择K-NN中的K时,可以通过下边哪种方式去选择?

A、肘部法则

B、代价函数

C、不确定

D、以上都可以

答案:A

103.独热编码可以完成什么事情

A、对数据进行向量化

B、对数据进行特征缩放

C、对特征进行归一化处理

D、消除数据特征之间的量纲影响

答案:A

104.EM算法在高斯混合模型中的应用中的E步骤主要做了什么事情

A、确定Q函数

B、明确隐变量,写出完全数据的对数似然函数

C、求Q函数对theta的极大值,即求新一轮迭代的模型参数

D、不确定

答案:A

105.下列关于GBDT的说法正确的是哪个

A、GBDT是机器学习的算法

B、GBDT是深度学习的算法

C、GBDT属于特征工程部分

D、以上都正确

答案:A

106.每个算法都会有缺点,对于集成学习GBDT的缺点是什么

A、预测阶段的计算速度快,树与树之间可并行化计算。

B、GBDT在高维稀疏的数据集上,表现不如支持向量机或者神经网络。

C、在分布稠密的数据集上,泛化能力和表达能力都很好,这使得GBDT在Kaggl

e的众多竞赛中,经常名列榜首。

D、采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自

动发现特征间的高阶关系。

答案:B

107.K-Means最终得到的结果是什么

A、将已经分类好的数据,重新进行划分类别

B、未标记的数据聚类成不同的组

C、不确定

D、将已经标记好的数据打散成无类别形式

答案:B

108.决策树有可能会造成什么缺点

A、可能会对缺失值很敏感

B、无法处理不相关的数据

C、可能产生过渡匹配问题

D、计算的复杂度很高

答案:C

109.关于贝叶斯判别规则,下列选项中描述正确的是?

A、就是判断自变量和因变量之间的关系

B、把特征向量X落入某类集群wi的条件概率平P(wi/X)当成分类判别函数,

把X落入某集群的条件概率最大的类为X的分类这种判别规则叫贝叶斯判别规则

C、不确定

D、就是通过选择最优的超平面去进行最好的分类超平面

答案:B

110.什么是特征工程,如何去理解特征工程

A、特征工程就是对原始的数据做一系列的处理

B、特征工程就是使用各种算法实现结果

C、特征工程就是聚类和降维

D、特征工程就是回归和分类

答案:A

111.SVM算法的性能取决于:

A、核函数的选择

B、核函数的参数

C、软间隔参数C

D、以上所有

答案:D

112.SVM其中有个参数C,这个参数代表的是什么意思?

A、交叉验证的次数

B、用到的核函数

C、在分类准确性和模型复杂度之间的权衡

D、以上都不对

答案:C

113.K-Means中K代表的是什么意思

A、学习率

B、聚类中心

C、代价

D、不确定

答案:B

114.NLP中常处理的文本,属于什么样的数据

A、结构化数据

B、非结构化数据

C、半结构化数据

D、以上都是

答案:B

115.特征的归一化属于以下哪个选项中

A、特征工程

B、分类

C、回归

D、聚类

答案:A

116.以下四个选项中哪个属于决策树

A、SVM

B、K-Means

GPCA

D、C4.5

答案:D

117.逻辑回归是如何做分类的,为什么可以做分类

A、因为使用了Y=W*X+b的函数表达式

B、因为逻辑回归引入了激活函数做了非线性的变换

C、因为逻辑回归使用了误差平方和作为目标函数

D、因为逻辑处理的都是连续性数据

答案:B

118.以下关于梯度下降优化算法的描述,错误的是?

A、靠近极值点收敛速度慢

B、直线搜索时可能会产生问题

C、可能会“之字形”地下降。

D、越靠近极值点收敛速度快

答案:D

119.以下选项中关于LDA的优点描述说法正确的是

A、LDA适合对非高斯分布样本进行降维;

B、可以使用类别的先验知识;

C、LDA降维最多降到分类数k7维;

D、LDA可能过度拟合数据。

答案:B

120.GBDT(GradientBoostingDecisionTree)的全名叫什么

A、随机森林

B、梯度提升决策树

C、聚类

D、逻辑回归

答案:B

121.关于损失函数的意义说法正确的是

A、损失函数越小,模型鲁棒性越好

B、损失函数越小,模型鲁棒性越差

C、损失函数越大,模型鲁棒性越好

D、不确定

答案:A

122.C4.5相比较于ID3算法,在哪个地方得进行了改变

A、将信息增益比作为了选择特征的标准

B、将信息增益作为了选择特征的标准

C、将基尼系数作为了选择特征的标准

D、将信息帽作为了选择特征的标准

答案:A

123.如果使用了Tanh作为激活函数你,那么经过此非线性变换后值的范围为_?

A、[-1,1]

B、[0,2]

C、[0,1]

D、0或1

答案:A

124.若参数C(costparameter)被设为无穷,下面哪种说法是正确的?

A、只要最佳分类超平面存在,它就能将所有数据全部正确分类

B、软间隔SVM分类器将正确分类数据

C、二者都不对

D、不确定

答案:A

125.平方损失函数一般用在以下哪个算法中

A、逻辑回顾

B、线性回归

C、SVM

D、聚类

答案:B

126.LDA的实质是在做一个什么东西

A、根据给定的一篇文档,反推其主题

B、可以找出来最优的分类超平面

C、可以找到因变量和自变量之间的一次关系

D、不确定

答案:A

127.朴素贝叶斯作为常用的方法,它是以()为基础的分类方法。

A、概率论

B、线性代数

C、微积分

D、都不是

答案:A

128.以下四个任务中,逻辑回归可以做哪个

A、数据降维

B、垃圾邮件分类

C、电影票房预测

D、房价预测

答案:B

129.sigmoid缺点之一就是非线性变化较慢,可以通过以下哪个激活函数进行改

A、Sigmoid

B、Tanh

GReIu

D、不确定

答案:c

130.Histogram算法的思想是什么

A、寻找最优分割面

B、寻找因变量和自变量之间的关系

C、先把连续的浮点特征值离散化成k个整数,同时构造一个宽度为k的直方图。

D、不确定

答案:C

131.MSE代表什么意思

A、信息炳

B、均方误差

C、交叉熠

D、信息增益

答案:B

132.直方图算法中的K可以认为是什么

A、代价

B、常数

C、学习率

D、不确定

答案:B

133.以下四种说法当中,关于GBDT的描述说法正确的有哪些

A、GBDT是并行生成

B、GBDT则是多棵树累加之和

C、GBDT对异常值比较敏感

D、GBDT是减少模型的偏差

答案:A

134.如果训练完成的模型存在过拟合现象会造成什么影响

A、在训练集上的效果很好,但是在测试集上的效果很差

B、在训练集上的效果差,在测试集上的效果也差

C、在训练集上的效果很好,在测试集上的效果也很好

D、在训练集上的效果很差,但是在测试集上的效果很好

答案:A

135.线性判别分析LDA的思想是什么

A、投影后类内方差最大

B、类间方差最小

C、投影后类内方差最小

D、不确定

答案:C

136.下列关于K均值说法,正确的是?

A、K均值接收未标记的数据集,然后将数据聚类成不同的组

B、通过生成树的形式对,数据集进行分类

C、通过自变量和因变量之间的一次函数关系,构建回归模型

D、构建一个超平面,将数据在更高维度上,使用超平面更好的划分

答案:A

137.随机森林和GBDT有很多相似的地方,以下几个选项中描述它们相同点正确

的是哪个?

A、组成随机森林的树可以并行生成,而GBDT是串行生成

B、随机森林的结果是多数表决表决的,而GBDT则是多棵树累加之和

C、都是由多棵树组成,最终的结果都是由多棵树一起决定。

D、RF和GBDT在使用CART树时,只能是分类树

答案:C

138.XGBoost虽然也是个算法,但是这个算法的本质其实是很么算法

A、随机森林

B、GBDT

C、线性回归

D、逻辑回归

答案:B

139.sigmoid作为常用的激活函数,它的曲线是什么样子的?

A、直线

B、A型曲线

C、C型曲线

D、S型曲线

答案:D

140.以下哪种情况会导致SVM算法性能下降?

A、数据线性可分

B、数据干净、格式整齐

C、数据有噪声,有重复值

D、不确定

答案:C

多选题

1.如何去构建一颗决策树

A、构建根节点

B、构建叶子节点

C、选择新特征继续分割

D、最终子集都被分到叶子节点上

答案:ABCD

2.可以通过以下哪些方式划分数据集

A、信息增益

B、信息增益比

C、代价函数

D、极大似然

答案:AB

3.以下四个选项中,经典的概率模型有哪些?

A、不确定

B、古典概型

C、几何概型

D、以上都正确

答案:BC

4.在下列四个选项中,关于GBDT算法描述正确的选项有哪些?

A、预测阶段的计算速度快,树与树之间可并行化计算(注意预测时可并行)

B、在分布稠密的数据集上,泛化能力和表达能力都很好;

C、GBDT在高维稀疏的数据集上表现不佳;

D、训练过程需要串行训练,只能在决策树内部采用一些局部并行的手段提高训

练速度。

答案:ABCD

5.网络结构分别都有哪些形式,以下选项中正确是?

A、星形结构:具有一个中心结点,所有通讯都通过它。

B、环形结构:网络结点连成一个封闭的环形。

C、总线结构:具有一个共享总线,所有结点挂在上面,又称树形结构

D、以上都正确

答案:ABCD

6.随机森林中的“随机”体现在什么方面

A、随机森林的随机性体现在每棵树的训练样本都是随机的

B、模型的代价是随机的

C、树中每个节点的分裂属性集合也是随机选择确定的。

D、以上都正确

答案:AC

7.LightGBM为了更好的实现落地GBDT算法,在以下哪些方向上做了优化?

A、带深度限制的Leaf-wise的叶子生长策略

B、直方图做差加速直接

C、支持类别特征(CategoricaIFeature)

D、以上不都是

答案:ABC

8.逻辑回归在工业中可以有哪些应用

A、各种分类场景

B、某搜索引擎厂的广告CTR预估基线版是LR。

C、某电商搜索排序/广告CTR预估基线版是LR。

D、某电商的购物搭配推荐用了大量LR。

答案:ABCD

9.SVM在工业中有广泛的应用,以下说法正确的是

A、文本分类

B、图片分类

C、新闻聚类

D、以上都对

答案:ABCD

10.为什么SVM对缺失某些特征数据敏感?

A、VM没有处理缺失值的策略(决策树有)

B、特征空间的好坏对SVM的性能很重要

C、SVM希望样本在特征空间中线性可分

D、以上都正确

答案:ABCD

11.GBDT算法中如果按照高维的ID特征做分裂,会出现哪些不好的情况

A、子树数量非常多

B、计算量会非常大

C、训练会非常慢

D、以上都正确

答案:ABCD

12.以下几个选项中关于逻辑回归优化方法的描述,正确的是?

A、梯度下降

B、随机梯度下降

Gmini随机梯度下降

D、以上都正确

答案:ABCD

13.以下关于LightGBM对XGBoost的优化说法正确的是

A、基于Histogram的决策树算法

B、带深度限制的Leaf-wise的叶子生长策略

C、直方图做差加速直接

D、支持类别特征(CategoricaIFeature)

答案:ABCD

14.下列选项中SVM可以调节的参数是?

A、C

B、kerneI

C、degree

D、gamma

答案:ABCD

15.在训练模型的阶段,如果说发生了过拟合现象,以下四个选项中,可以通过

哪些方式解决

A、增加数据量

B、减少数据量

C、增加迭代次数

D、减少迭代次数

答案:AD

16.在k-NN中可以使用以下哪个距离度量?

AxManhattan

B、Minkowski

C、Tanimoto

D、Jaccard

答案:ABCD

17.预处理单个特征的时候,通常有哪些操作

A、归一化

B、离散化

C、缺失值处理

D、数据变换

答案:ABCD

18.决策树有什么特点,以及优点

A、计算复杂度低

B、输出结果易于理解

C、对中间缺失值不过敏

D、可以处理不相关的特征

答案:ABCD

19.概率图模型中的边可以分为哪几种

A、有向边

B、不确定

C、无向边

D、以上都正确

答案:AB

20.EM算法在高斯混合模型中的应用包含哪些步骤

A、明确隐变量,写出完全数据的对数似然函数。

B、EM算法的E步:确定Q函数

C、求Q函数对theta的极大值,即求新一轮迭代的模型参数。

D、以上都正确

答案:ABCD

21.机器学习中的检验方法有很多种,以下常用的检验方法有哪些?

AxKS检验

B、T检验

C、F检验

D、卡方检验

答案:ABCD

22.在Histogram算法之上,LightGBM还做了哪些优化

A、带深度限制的Leaf-wise的叶子生长策略

B、直方图做差加速直接

C、支持类别特征(CategoricaIFeature)

D、不确定

答案:ABC

23.Bagging的操作主要分为哪些阶段

A、Aggregating阶段,将上一个阶段训练得到的n个基模型组合起来,共同做

决策。在分类任务中,可采用投票法,比如相对多数投票法,将结果预测为得票

最多的类别。而在回归任务中可采用平均法,即将每个基模型预测得到的结果进

行简单平均或加权平均来获得最终的预测结果。

B、Boostrap阶段,即采用有放回的采样方式,将训练集分为n个子样本集;并

用基学习器对每组样本分布进行训练,得到n个基模型

C、分别采用全部的训练样本来训练n个组件模型,要求这些个体学习器必须异

构的,比如可以分别是线性学习器,SVM,决策树模型和深度学习模型。

D、训练一个元模型(meta-model)来将各个组件模型的输出结果进行结合,具体

过程就是将各个学习器在训练集上得到的预测结果作为训练特征和训练集的真

实结果组成新的训练集;然后用这个新组成的训练集来训练一个元模型。这个元

模型可以是线性模型或者树模型。

答案:AB

24.以下四个算法中,有哪些算法是属于决策树算法的

A、SVM

B、ID3

C、C4.5

D、CART

答案:BCD

25.LDA中有四个分布分别是哪四个分布

A、二项分布

B、多项分布

Gbeta分布

D、Dirichlet分布

答案:ABCD

26.以下四个关于EM算法的描述,正确的是

A、对初始值敏感

B、对初始值敏感

C、不同的初值可能得到不同的参数估计值

D、不能保证找到全局最优值。

答案:ABCD

27.在k-NN中,由于维数的存在,很可能过度拟合。你将考虑使用以下哪个选项

来解决此问题?

A、降维

B、特征选择

C、不确定

D、以上都正确

答案:AB

28.LDA中的两个模型指的是哪两个

A、pLSA

B、GBDT

C、LDA

D、XGBoost

答案:AC

29.以下是针对k-NN算法给出的两条陈述,其中哪一条是真的?

A、我们可以借助交叉验证来选择k的最优值

B、不能判断

C、欧氏距离对每个特征一视同仁

D、以上都正确

答案:AC

30.在代价函数上加入一个正则项,我们可以使用以下哪种

A、L1

B、L2

C、余弦公式

D、正弦公式

答案:AB

31.K-NN和K-Means很相像,他们有什么具体的区别

A、K-Means是聚类算法,KNN是分类算法。

B、KNN需要标记点,因此是有监督的学习,而k-means不是,因此是无监督学

习。

C、K均值聚类仅需要一组未标记的点和阈值

D、以上都正确

答案:ABCD

32.为什么SVM要引入核函数?

A、将样本从原始空间映射到一个更低维的特征空间

B、将样本从原始空间映射到一个更高维的特征空间

C、使得样本在高维特征空间内线性不可分。

D、使得样本在高维特征空间内线性可分。

答案:BD

33.聚类算法可以基于以下哪些选项去划分

A、基于划分

B、基于层次

C、基于密度

D、基于网格

答案:ABCD

34.一个合格的机器算法包含哪些部分

A、模型表征

B、模型评估

C、优化算法

D、学习率

答案:ABC

35.朴素贝叶斯不是以()为基础的分类方法。

A、概率论

B、天文学

C、地理学

D、物理学

答案:BCD

36.ID3算法的实现步骤有哪些

A、从根结点(rootnode)开始,对结点计算所有可能的特征的信息增益,选择信

息增益最大的特征作为结点的特征。

B、由该特征的不同取值建立子节点,再对子结点递归地调用以上方法,构建决

策树;直到所有特征的信息增益均很小或没有特征可以选择为止;

C、最后得到一个决策树。

D、不确定

答案:ABC

37.SVM的原理是什么?

A、当训练样本线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性

可分支持向量机

B、当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化,学习一个

线性分类器,即线性支持向量机;

C、当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支

持向量机。

D、以上都正确

答案:ABCD

38.正常情况下,集成学习一般有哪些步骤

A、不确定

B、生产一组“个体学习器

C、以上都正确

D、用某种策略将他们结合起来

答案:BD

39.XGBoost的目标函数由哪些组成

A、损失函数

B、正则项

C、梯度下降

D、以上都正确

答案:AB

4O.LightGBM中使用了使用直方图算法的优点是什么

A、最明显就是内存消耗的升高

B、直方图算法不仅不需要额外存储预排序的结果

C、可以只保存特征离散化后的值

D、以上都正确

答案:BC

41.LightGBM在Leaf-wise之上增加了一^最大深度的限制,是为了什么

A、高效率

B、低效率

C、防止过拟合

D、防止欠拟合

答案:AC

42.Boosting思想是怎么进行学习的?

A、先从初始训练集训练出一个基学习器

B、再根据基学习器的表现对训练样本进行调整

C、然后基于调整后的样本分布来训练下一个基学习器

D、重复进行。直至基学习器数目达到实现指定的值n,最终将这n个基学习器

进行结合。

答案:ABCD

43.下列选项中关于高维数据处理描述正确的是?

A、为了提高复杂关系的拟合能力

B、在特征工程中经常会把一阶离散特征两两组合

C、构成高阶组合特征

D、以上都正确

答案:ABCD

44.聚类是工业中常用的算法,以下选项中哪些属于聚类的常用算法

A、K-Means

B、高斯混合模型

C、自组织映射神经网络

D、以上都正确

答案:ABCD

45.聚类的相似度计算方法

A、SVM

B、余弦相似度

C\欧氏距离

D、Ligist

答案:BC

46.模型训练阶段经常发生过拟合或者欠拟合,当发生欠拟合是,应该如何解决

A、降低模型复杂度。

B、添加新特征。

C、增加模型复杂度。

D、减小正则化系数

答案:BCD

47.信息增益是由什么求来的

A、信息病

B、信息增益比

G条件由

D、基尼系数

答案:AC

48.Stacking都有哪些阶段,分别是怎么做的?

A、Aggregating阶段,将上一个阶段训练得到的n个基模型组合起来,共同做

决策。在分类任务中,可采用投票法,比如相对多数投票法,将结果预测为得票

最多的类别。而在回归任务中可采用平均法,即将每个基模型预测得到的结果进

行简单平均或加权平均来获得最终的预测结果。

B、Boostrap阶段,即采用有放回的采样方式,将训练集分为n个子样本集;并

用基学习器对每组样本分布进行训练,得到n个基模型

C、分别采用全部的训练样本来训练n个组件模型,要求这些个体学习器必须异

构的,比如可以分别是线性学习器,SVM,决策树模型和深度学习模型。

D、训练一个元模型(meta-model)来将各个组件模型的输出结果进行结合,具体

过程就是将各个学习器在训练集上得到的预测结果作为训练特征和训练集的真

实结果组成新的训练集;然后用这个新组成的训练集来训练一个元模型。这个元

模型可以是线性模型或者树模型。

答案:BC

49.EM算法放到高斯混合模型中应用,一般会有哪些步骤?

A、明确隐变量,写出完全数据的对数似然函数。

B、EM算法的E步:确定Q函数

C、求Q函数对theta的极大值,即求新一轮迭代的模型参数

D、以上都正确

答案:ABCD

50.以下选项中,可能会造成欠拟合的是哪些

A、模型复杂度太低

B、模型过于简单

C、数据特征太少

D、没有使用到重要的特征

答案:ABCD

51.以下哪些数据是常见的数据

A、文本

B、图像

C、首频

D、视频

答案:ABCD

52.以下四个任务中,决策树可以完成哪些

A、分类

B、聚类

C、回归

D、降维

答案:AC

53.逻辑回归有哪些可以优化的方法

A、梯度下降

B、随机梯度下降

Gmini随机梯度下降

D、以上都正确

答案:ABCD

54.常见的几种最优化的方法有哪些

A、梯度下降法

B、牛顿法

C、拟牛顿法

D、共拆梯度法

答案:ABCD

55.降维的目的是为了什么,达到什么效果

A、减少预测变量的个数。

B、确保这些变量是相互独立的。

C、数据在低维下更容易处理、更容易使用。

D、去除数据噪声。

答案:ABCD

56.下列四个选项中,朴素贝叶斯不是以哪些为基础的分类方法?

A、概率论

B、天文学

C、地理学

D、物理学

答案:BCD

57.特征清洗中包括以下哪些操作

A、清洗异常样本

B、数据不均衡

C、归一化

D、样本权重

答案:ACD

58.EM算法过程中,可以分为哪两个步骤

A、期望步

B、极大步

C、不确定

D、选择最优K取值

答案:AB

59.当然朴素贝叶斯也有很多的缺点,以下关于它缺点描述正确的是?

A、对缺失数据不太敏感

B、分类效果不稳定

C、先验模型可能导致结果不佳

D、不适合增量式训练

答案:AC

6O.LightGBM在哪些地方进行了优化(区别XGBoost)?

A、基于Histogram的决策树算法

B、带深度限制的Leaf-wise的叶子生长策略

C、直方图做差加速直接

D、支持类别特征(CategoricaIFeature)

答案:ABCD

判断题

1.线性回归目标函数中加入L2正则就变成了岭回归

A、正确

B、错误

答案:A

2.条件概率(又称后验概率)就是事件A在另外一个事件B已经发生条件下的发

生概率

A、正确

B、错误

答案:A

3.概率图模型包括了朴素贝叶斯模型、最大煽模型、隐马尔可夫模型、条件随机

场'主题模型等,在机器学习的诸多场景中都有着广泛的应用。

A、正确

B、错误

答案:A

4.基于密度聚类的特点是计算量大。很适合发现中小规模的数据库中小规模的数

据库中的球状簇。

A、正确

B、错误

答案:B

5.通过较少树,叶节点的数量,可以较小树的复杂度

A、正确

B、错误

答案:A

6.关于LDA有两种含义,一种是线性判别分析含inearDiscriminantAnalysis),

一种是概率主题模型:隐含狄利克雷分布(LatentDirichletAIlocation,简称

LDA)

A、正确

B、错误

答案:A

7.AUC值越大的分类器,正确率越低

A、正确

B、错误

答案:B

8.XGBoost的本质其实就是一个随机森林

A、正确

B、错误

答案:B

9.损失函数MSE经常用在SVM中使用

A、正确

B、错误

答案:B

10.L2其实就是在目标函数上加入了L2范数

A、正确

B、错误

答案:A

11.符合正态分布的两类样本的分类面的位置与先验概率无关。

A、正确

B、错误

答案:B

12.K-Means算法对开始初始的簇数和对初始聚类中心敏感

A、正确

B、错误

答案:A

13.决策树只能做分类,但是做不了回归问题

A、正确

B、错误

答案:B

14.LDA和PCA都可以做降维操作

A、正确

B、错误

答案:A

15.GBDT的核心就在于,每一棵树学的是之前所有树结论和的残差,这个残差就

是一个加预测值后能得真实值的累加量。

A、正确

B、错误

答案:A

16.如果发生了过拟合可以增加迭代的次数去解决

A、正确

B、错误

答案:B

17.XGBoost和随机森林的思想是一样的

A、正确

B、错误

答案:B

18.防止过拟合:从数据入手,获得更多的训练数据。

A、正确

B、错误

答案:A

19.首先gbdt是通过采用加法模型(即基函数的线性组合),以及不断减小训练

过程产生的残差来达到将数据分类或者回归的算法。

A、正确

B、错误

答案:A

20.SVM算法中,既可以做分类又可以做回归

A、正确

B、错误

答案:A

21.随机森林属于集成学习

A、正确

B、错误

答案:A

22.可以使用1-NN分类器构造2-NN分类器吗?

A、正确

B、错误

答案:A

23.随机森林是由多棵树构成的

A、正确

B、错误

答案:A

24.召回率真正正确的占所有实际为正的比例。

A、正确

B、错误

答案:A

25.线性回归中的因变量和自变量呈现一次函数关系

A、正确

B、错误

答案:A

26.LightGBM虽然在很多方面上做了优化,但是占用的内存会比较大

A、正确

B、错误

答案:B

27.LightGBM是带深度限制的Leaf-wise的叶子生长策略

A、正确

B、错误

答案:A

28.LightGBM牺牲了一定的精度,但是提升了速度

A、正确

B、错误

答案:B

29.XGBoost本质上还是一个GBDT,但是力争把速度和效率发挥到极致

A、正确

B、错误

答案:A

30.RandomForest(随机森林)是一种基于树模型的Bagging的优化版本,一棵树

的生成肯定还是不如多棵树,因此就有了随机森林

A、正确

B、错误

答案:A

31.KNN是一种基于划分的聚类

A、正确

B、错误

答案:B

32.LR的训练速度很慢

A、正确

B、错误

答案:B

33.分隔超平面所产生的分类结果是最鲁棒的,对未知实例的泛化能力最弱

A、正确

B、错误

答案:B

34.EM算法是一个聚类算法

A、正确

B、错误

答案:B

35.KNN算法和K-Means没有任何区别

A、正确

B、错误

答案:B

36.EM算法就是对于一个含有隐变量的概率模型,目标是极大化观测数据Y关于

参数theta的对数似然函数

A、正确

B、错误

答案:A

37.增大正则化并不能防止过拟合的发生

A、正确

B、错误

答案:B

38.线性回归的一般表达式为:Y=W*X+b

A、正确

B、错误

答案:A

39.概率图模型构建了这样一幅图,用观测结点表示观测到的数据,用隐含结点

表示潜在的知识,用边来描述知识与数据的相互关系

A、正确

B、错误

答案:A

40.LR的可解释性强,可控度高

A、正确

B、错误

答案:A

41.XGBoost使用的是Boosting方法,而GBDT使用的是Bagging方法

A、正确

B、错误

答案:B

42.逻辑回归的目标函数中也可以加入正则化

A、正确

B、错误

答案:A

43.XGBoost中枚举所有不同树结构的贪心法

A、正确

B、错误

答案:A

44.线性回归不仅可以最回归同时也可以做分类

A、正确

B、错误

答案:B

45.机器学习算法=模型表征+模型评估+优化算法。

A、正确

B、错误

答案:A

46.GBDT中的树都是分类树

A、正确

B、错误

答案:B

47.在逻辑回归中也可以在目标函数上加入L1,L2正则项

A、正确

B、错误

答案:A

48.数据特征归一化可以用到决策树中

A、正确

B、错误

答案:B

49.损失函数(lossfunction)是用来估量你模型的预测值f(x)与真实值Y的不

一致程度

A、正确

B、错误

答案:A

50.当数据的先验分布假定为正态分布时,贝叶斯判别与正态分布等价

A、正确

B、错误

答案:A

51.决策树在进行输入的时候也需要做到归一化

A、正确

B、错误

答案:B

52.EM算法中要先求解最大化,然后求最大期望

A、正确

B、错误

答案:B

53.gbdt通过多轮迭代,每轮迭代产生一个弱分类器,每个分类器在上一轮分类

器的残差基础上进行训练。

A、正确

B、错误

答案:A

54.特

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论