人工智能与信息社会2019尔雅答案_第1页
人工智能与信息社会2019尔雅答案_第2页
人工智能与信息社会2019尔雅答案_第3页
人工智能与信息社会2019尔雅答案_第4页
人工智能与信息社会2019尔雅答案_第5页
已阅读5页,还剩22页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、C、用户接口更多样D、用户需求量减少15深蓝在开局阶段的算法主要是0。D 二分查找法AlphaBeta 剪枝 深度优先搜索 启发式算法A、B、C、D、16. 0是第一个使用蒙特卡洛树搜索的围棋程序,在9X9的棋盘上击败了职业选手。BGNUGoMoGoDeepZenGoAlphaGoA、B、C、D、17.专家系统的主要组成部分包括0。ABC 知识库推理引擎用户接口自主学习系统A、B、C、D、1&以下属于完全信息博弈的游戏有0。ABC 井字棋黑白棋围棋桥牌军棋A、B、C、D、E、A、B、C、D、19蒙特卡洛树搜索的主要流程有0。ABCD 选择扩张模拟反馈A、B、C、D、20专家系统的适用领

2、域的特征包括0。ABCD 不需要额外常识输入的数据可以客观描述人类专家稀缺用户需求量大21.基于规则的Al系统由一连串的if-then-else规则来进行推断或行动决策。0 V 22博弈树的每个结点表示一个动作。0错误23估值函数就是对每一个局面给出一个评价分数0。正确 24. AlphaBeta剪枝的效率一定比单纯的minimax算法效率高。()错误 25二分查找是一个有效计算平方根的办法。0正确26. 零和博弈中,双方(或多方)的收益相加为0或负数。0错误27. 启发式算法与AlphaBeta剪枝类似,是从叶节点自底向上计算估值。0错误第四章A、B、C、D、L色彩的三原色模型是0。A 红、

3、绿、蓝.红、黄、蓝黄、绿、蓝红、绿、黄2图中所展示的基因遗传算法过程是0过程。CA、B、C、D、交叉 复制 变异 初始化3.将两个图片每个像素RGB三个分量的差值的平方和作为适应度函数的计算方法,两次计算 得岀来的值分别为1512869728和1495705312,那么说明适应度函数值0 ,适应度0 ° C高了 ;高了高了;低了低了;高了低了;低了A、B、C、D、4. RGB模型可以组合出0种颜色。DWOIRD格式A、B、C、D、16777216256735781735666专业资料整理5仿生算法的特点有0。ACDA、模拟自然生物群体的行为B、针对特定的输入能够得到确定的结果C、需要

4、大量的模拟计算过程D、适用于大规模复杂优化问题6以下属于仿生算法的有0。ABC 蚁群算法 遗传算法人工神经网络 蒙特卡洛方法 归并排序算法A、B、C、D、E、7.以下对基因遗传算法描述正确的是0。AC 基因遗传算法反映了自然选择的过程 基因遗传算法一定能得到最优解 是一种启发式的搜索算法 能够穷尽所有可能性A、B、C、D、&基因遗传算法的组成部分包括0 ° ABCD 初始化编码适应度函数选择交叉和变异A、B、C、D、9基因遗传算法的两个常用的结束条件为0。AB 达到一定的迭代次数适应度函数达到一定的要求达到一定的变异次数达到一定的交叉次数A、B、C、D、10仿生算法是一类模拟

5、自然生物进化或者群体社会行为的随机搜索方法的统称。0正确11.在解决函数优化问题时,基因遗传算法的全局性不好,容易陷入局部最优值。0错误12.自然界中生物变异的概率是不确定的,但是基因遗传算法的变异概率可以人为调节。0正 确13.基因遗传算法中,利用适应度函数表示参数值的大小,判断个体是否应该被淘汰。0正确14.基因遗传算法的终止条件一般是适应度数值小了 0. 0错误第五章1能够提取出图片边缘特征的网络是0。AA、卷积层B、池化层C、全连接层D、输出层2.向量0. 1, 0. 1, 0. 2, 0. 3, 0. 6的维数是 0 O BA、10B、5C、3D、13. 0是用来评估神经网络的计算模

6、型对样本的预测值和真实值之间的误差大小。A 损失函数优化函数反向传播梯度下降A、B、C、D、4.在第五章手写数字识别的例子中,输入的图片为长和宽都是28像素的图片,输出判断数字 0-9的概率。要构建前馈型神经网络去解决这个问题,输入层是0维的,输出层是0维的。A 784;1028;10784:128:1A、B、C、D、5前馈型神经网络的中各个层之间是0的,反馈型神经网络中各个层之间是0的。C 有环;有环有环;无环无环;有环无环;无环A、B、C、D、6.关于MNIST,下列说法错误的是0。C 是著名的手写体数字识别数据集 有训练集和测试集两部分 训练集类似人学习中使用的各种考试试卷 测试集大约包

7、含10000个样本和标签A、B、C、D、7隐藏层中的池化层作用是0训练参数,对原始特征信号进行采样。A 减少增加分割组合A、B、C、D、&如果某个隐藏层中存在以下四层,那么其中最接近输岀层的是0。D 卷积层池化层全连接层归一化指数层A、B、C、D、9.一个完整的人工神经网络包括0。A 一层输入层多层分析层多层隐藏层两层输出层A、B、C、D、10前馈型神经网络常用于0 ° AD图像识别文本处理问答系统图像检测A、B、C、D、11.神经网络中各个隐藏层能提取岀和人类看到的一样的特征。0错误12.人工神经网络训练的目的就是使得损失函数最小化。0正确13.误差的反向传播,即从第一个隐

8、藏层到输出层,逐层修改神经元的连接权值参数,使得损失 函数值最小。Oo错误14隐藏层中的全连接层主要作用是将所有特征融合到一起。0正确15.梯度下降算法是最常用也是最有效的神经网络的优化办法,完全可以满足不同类型的需求。 0错误第六章1.典型的“鸡尾酒会”问题中,提取出不同人说话的声音是属于0。B 监督学习非监督学习强化学习线性回归A、B、C、D、2. 0有跟环境进行交互,从反馈当中进行不断的学习的过程。C 监督学习非监督学习强化学习线性回归A、B、C、D、3.在Q-Learning中,所谓的Q函数是指0。A 状态动作函数 状态值函数 动作值函数 策略函数A、B、C、D、4. Q函数Q(s2)

9、是指在一个给定状态S下,采取某一个动作a之后,后续的各个状态所能得到的 回报的0。A期望值最大值最小值总和A、B、C、D、5在强化学习的过程中,学习率a越大,表示釆用新的尝试得到的结果比例越(),保持旧的结果的比例越0。A 大 大A、B、C、D、6在e -greedy策略当中,£的值越大,表示采用随机的一个动作的概率越(),采用当前Q函数值 最大的动作的概率越0。A大大A、B、C、D、小 大 小 大7在强化学习过程中,0表示随机地采取某个动作,以便于尝试各种结果;()表示釆取当前认为 最优的动作,以便于进一步优化评估当前认为最优的动作的值。A探索;开发开发;探索探索;输出开发;输出A

10、、B、C、D、&强化学习中,0主要探索未知的动作会产生的效果,有利于更新Q值,获得更好的策略。AA、B、C、D、探索开发输入输出9.马尔可夫性质强调在每一个动作状态序列中,下一个状态与0有关。D 外部影响主体内因历史状态当前状态在一个给定状态S下A、B、C、D、10强化学习的回报值一个重要特点是具有0。D客观性主体性超前性滞后性A、B、C、D、11 用于监督分类的算法有0。ABCA、支持向量机WOIRD格式10强化学习的回报值一个重要特点是具有0。D客观性主体性超前性滞后性11 用于监督分类的算法有0。ABCA、支持向量机专业资料整理的比例越0。A 大 大A、B、C、D、6在e -gr

11、eedy策略当中,£的值越大,表示采用随机的一个动作的概率越0,采用当前Q函数值 最大的动作的概率越0。A大大A、B、C、D、小 大 小 大7在强化学习过程中,0表示随机地采取某个动作,以便于尝试各种结果;()表示采取当前认为 最优的动作,以便于进一步优化评估当前认为最优的动作的值。A探索;开发开发;探索探索;输出开发;输出A、B、C、D、&强化学习中,0主要探索未知的动作会产生的效果,有利于更新Q值,获得更好的策略。AA、B、C、D、探索开发输入输出9.马尔可夫性质强调在每一个动作状态序列中,下一个状态与0有关。D 外部影响主体内因历史状态当前状态在一个给定状态S下A、B、

12、C、D、A、B、C、D、的比例越0。A 大 大A、B、C、D、6在e -greedy策略当中,£的值越大,表示采用随机的一个动作的概率越0,采用当前Q函数值 最大的动作的概率越0。A大大A、B、C、D、小 大 小 大7在强化学习过程中,0表示随机地采取某个动作,以便于尝试各种结果;()表示采取当前认为 最优的动作,以便于进一步优化评估当前认为最优的动作的值。A探索;开发开发;探索探索;输出开发;输出A、B、C、D、&强化学习中,0主要探索未知的动作会产生的效果,有利于更新Q值,获得更好的策略。AA、B、C、D、探索开发输入输出9.马尔可夫性质强调在每一个动作状态序列中,下一个

13、状态与0有关。D 外部影响主体内因历史状态当前状态在一个给定状态S下A、B、C、D、A、B、C、D、的比例越0。A 大 大A、B、C、D、6在e -greedy策略当中,£的值越大,表示采用随机的一个动作的概率越0,采用当前Q函数值 最大的动作的概率越0。A大大A、B、C、D、小 大 小 大7在强化学习过程中,0表示随机地采取某个动作,以便于尝试各种结果;()表示采取当前认为 最优的动作,以便于进一步优化评估当前认为最优的动作的值。A探索;开发开发;探索探索;输出开发;输出A、B、C、D、&强化学习中,0主要探索未知的动作会产生的效果,有利于更新Q值,获得更好的策略。AA、B、C、D、探索开发输入输出9.马尔可夫性质强调在每一个动作状态序列中,下一个状态与0有关。D 外部影响主体内因历史状态当前状态在一个给定状态S下A、B、C、D、A、B、C、D、的比例越0。A 大 大A、B、C、D、6在e -greedy策略当中,£的值越大,表示采用随机的一个动作的概率越0,采用当前Q函数值 最大的动作的概率越0。A大大A、B、C、D、小 大 小 大7在强化学习过程中,0表示随机地采取某个动

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论