深度学习之瑞士军刀-pytorch入门智慧树知到课后章节答案2023年下内蒙古科技大学_第1页
深度学习之瑞士军刀-pytorch入门智慧树知到课后章节答案2023年下内蒙古科技大学_第2页
深度学习之瑞士军刀-pytorch入门智慧树知到课后章节答案2023年下内蒙古科技大学_第3页
深度学习之瑞士军刀-pytorch入门智慧树知到课后章节答案2023年下内蒙古科技大学_第4页
深度学习之瑞士军刀-pytorch入门智慧树知到课后章节答案2023年下内蒙古科技大学_第5页
已阅读5页,还剩14页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

深度学习之瑞士军刀-pytorch入门智慧树知到课后章节答案2023年下内蒙古科技大学内蒙古科技大学

第一章测试

已知某函数的参数为35.8,执行后结果为35,可能是以下函数中的()。

A:floorB:roundC:intD:abs

答案:floor;int

以下表达式中,()的运算结果是False。

A:3<4and7<5or9>10

B:(10is11)==0C:24!=32

D:’abc’<’ABC’

答案:’abc’<’ABC’

在以下Python循环中,foriinrange(1,3):

foriinrange(2,5):

print(i*j)语句print(i*j)共执行了()次。

A:3B:5

C:6D:2

答案:6

在Python中,对于函数中return语句的理解,错误的是()。

A:return可以不带返回参数B:return可以带返回参数

C:一定要有return语句D:可以有多条return语句,但只执行一条

答案:一定要有return语句

一个直接或间接地调用自身的算法称为递归,它有两个条件,一个是要直接或间接地调用自身,另一个是必须有出口。

A:对B:错

答案:对

关于递归函数的描述,以下选项中正确的是(

)。

A:包含一个循环结构

B:函数名称作为返回值

C:函数内部包含对本函数的再次调用

D:函数比较复杂

答案:函数内部包含对本函数的再次调用

关于形参和实参的描述,以下选项中正确的是()。

A:程序在调用时,将形参复制给函数的实参

B:参数列表中给出要传入函数内部的参数,这类参数称为形式参数,简称形参

C:程序在调用时,将实参复制给函数的形参

D:函数定义中参数列表里面的参数是实际参数,简称实参

答案:程序在调用时,将实参复制给函数的形参

关于return语句,以下选项中描述正确的是(

)。

A:return只能返回一个值

B:函数可以没有return语句

C:函数必须有一个return语句

D:函数中最多只有一个return语句

答案:函数可以没有return语句

下面代码的运行结果是(

)。deffunc(num):

num+=1a=10func(a)print(a)

A:11

B:出错

C:int

D:10

答案:10

下面代码的输出结果是(

)。

deffunc(a,b):

a*=breturnas=func(5,2)print(s)

A:10

B:1

C:12

D:20

答案:10

第二章测试

ndarray.shape返回一个元祖,表示数组在各个方向上的长度

A:对B:错

答案:对

empty()函数生成的数组完全是随机的

A:对B:错

答案:对

b[1][1]是指数组中第一行第一列的元素值

A:错B:对

答案:错

numpy提供了rand()函数用于生成元素()区间上均匀分布的数组

A:以上都不是B:[0,1)C:[0,1]D:(0,1)

答案:[0,1)

Python中的数据类型包括

A:整型B:浮点型C:字符型D:布尔型

答案:整型;浮点型;字符型;布尔型

列表用(

)标识。

A:对B:错

答案:错

python2、python3都默认支持默认支持中文。

A:错B:对

答案:错

b=np.arange(0,20,2)查找索引号为2的数据,取出数组中元素4。

A:对B:错

答案:对

b[1:8:2]=1,数组输出0,1,4,1,8,1,12,1,16,18

A:错B:对

答案:对

flatten()方法就把X转换成一维数组返回一个一维的数组,作用的对象可以是列表。

A:错B:对

答案:对

第三章测试

Series支持向量化操作。

A:错B:对

答案:对

一个DataFrame中可以包含若干个Series。

A:对B:错

答案:对

在DataFrame数据结构中,使用drop删除指定行或列,drop默认删除行。

A:对B:错

答案:对

sort_index方法默认是按照索引进行倒序排的。

A:对B:错

答案:错

在使用Pandas离散化功能时,cut是根据每个值出现的次数来进行离散化的,qcut是根据每个值的大小来进行离散化的。

A:对B:错

答案:错

以下选项中,不是Python中用于进行数据分析及可视化处理的第三方库是(

)。

A:numpy

B:mxnet

C:mayavi2

D:pandas

答案:mxnet

数据分析方向的第三方库是(

)。

A:timeB:pdfminerC:beautifulsoup4D:numpy

答案:numpy

以下选项中,Python数据分析方向的第三方库是(

)。

A:PILB:DjangoC:flaskD:pandas

答案:pandas

PythonWeb开发方向的第三方库是(

)。

A:requestsB:DjangoC:pandasD:scipy

答案:Django

IDLE菜单中将选中区域取消缩进的快捷键是(

)。

A:Ctrl+[B:Ctrl+OC:Ctrl+VD:Alt+C

答案:Ctrl+[

第四章测试

一个figure(图)可以包含多个axes(坐标系),但是一个axes只能属于一个figure。

A:错B:对

答案:对

一个axes(坐标系)可以包含多个axis(坐标轴),包含两个即为2d坐标系,3个即为3d坐标系。

A:对B:错

答案:对

调用plt.bar函数,绘制柱状图。

A:错B:对

答案:对

plt.subplot(2,1,1)表示将图像窗口分为了2行1列,当前活跃区为1。

A:对B:错

答案:对

通过plt.text标注数值,设置参数ha='center'纵向居中对齐,设置va='bottom'横向底部(顶部)对齐。

A:对B:错

答案:错

axes是一个数轴区域,通常一个axes包含两个axis对象。

A:错B:对

答案:对

subplot是按网格分割figure后的子画布。

A:对B:错

答案:对

axes包含legend(图例)、title(子图标题)等属性。

A:对B:错

答案:对

在绘制之前,需要设置内容,尺寸size、颜色color以及style,来决定图形如何渲染。

A:错B:对

答案:对

axis实例包含了刻度标签ticklabel、轴的名字label、有刻度tick,以及轴对应的横向空间grid等。

A:错B:对

答案:对

第五章测试

人工神经网络的模型按照学习方法来分成下面的哪几个?

A:无监督的学习网络B:一阶线性关联网络C:高阶非线性关联网络D:有监督的学习网络

答案:无监督的学习网络;有监督的学习网络

感知机模型是谁提出的?

A:罗森勃拉特B:赫布C:麦克洛奇D:皮兹

答案:罗森勃拉特

关于tensor的类型转换的问题,我们想要将该tensor投射为short类型,应该选择哪一种方法?

A:torch.byte()B:torch.char()C:t.float()D:torch.short()

答案:torch.short()

在神经网络中,不包含那一层?

A:输出层B:输入层C:激励函数层D:隐藏层

答案:激励函数层

adam梯度下降的方法是momentum和adagrad两种方法的融合。

A:错B:对

答案:对

activationfunction指的是什么(

A:损失函数

B:激励函数

C:自适应函数

D:活动函数

答案:激励函数

深度学习本质上是构建含有多隐层的机器学习架构模型,通过大规模数据进行训练,得到大量更具代表性的特征信息。

A:错B:对

答案:对

tensor的形状是一经定义就不能改变。

A:错B:对

答案:错

深度学习从业工作者又被称为调参工程师。

A:对B:错

答案:对

Hebb或者赫布法则为构造有学习功能的神经网络模型奠定了基础。

A:错B:对

答案:对

第六章测试

LeCun确立了CNN的现代结构。

A:对B:错

答案:对

卷积层常用的激活函数是relu。

A:错B:对

答案:对

池化层常用到的3种循环方法是LP池化,混合池化,随机池化。

A:对B:错

答案:对

CPU和GPU集群能够加速神经网络的训练进程。

A:对B:错

答案:对

当序列很长的时候RNN会出现梯度消失问题。

A:错B:对

答案:对

Fullconnectedlayer指的是()。

A:全连接层

B:激励层

C:卷积层

D:池化层

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论