人工智能智慧树知到课后章节答案2023年下复旦大学_第1页
人工智能智慧树知到课后章节答案2023年下复旦大学_第2页
人工智能智慧树知到课后章节答案2023年下复旦大学_第3页
人工智能智慧树知到课后章节答案2023年下复旦大学_第4页
人工智能智慧树知到课后章节答案2023年下复旦大学_第5页
已阅读5页,还剩9页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能智慧树知到课后章节答案2023年下复旦大学复旦大学

绪论单元测试

针对智能体的思考是否合理,所引入的指标叫做()

A:严密B:智慧C:严谨D:理性

答案:理性

第一章测试

在下图八数码问题中,需要通过移动将杂乱的8个方块按照右侧的顺序进行排列,那么该问题的状态空间的大小是()?

A:9B:8C:9*9D:9!

答案:9!

以下无信息搜索算法中,同时具有完备性和最优性的有()。

A:迭代加深搜索B:广度优先搜索C:深度优先搜索D:一致代价搜索

答案:迭代加深搜索;广度优先搜索;一致代价搜索

对于有限状态图上的搜索问题,以下说法正确的有()。

A:存在广度优先树搜索有解而深度优先树搜索无解的案例B:一致代价搜索(UCS)不一定总能找到最优解C:深度优先图搜索(BFS)可以保证找到解(如果存在至少一解)D:存在深度优先树搜索有解而广度优先树搜索无解的案例

答案:存在广度优先树搜索有解而深度优先树搜索无解的案例;一致代价搜索(UCS)不一定总能找到最优解;深度优先图搜索(BFS)可以保证找到解(如果存在至少一解)

对于一个边损耗非负的有限图,采用广度优先树搜索可以得到最优解,并且对每条边加上一个相同的非负损耗c>0之后,最优路径保持不变。()

A:对B:错

答案:对

在下图搜索问题中,S为起始节点,G1、G2、G3均为目标节点,则采用一致代价找到的解是()

A:G2B:G3C:均不可能D:G1

答案:G2

第二章测试

假如一个搜索问题(有限状态)至少有一个解,则当A*图搜索算法配备任意可采纳的启发式函数时,一定能保证找到一解。()

A:对B:错

答案:对

当路径损耗非负时,一致代价搜索是A*算法的一种特例,其启发式函数既是可采纳的,又是一致的。()

A:对B:错

答案:对

在如图所示的八数码问题中,

如果A格与B格相邻且B为空,则A可以移动至B。以下可以作为八数码问题的一致启发式函数的有()。

A:都不正确B:数码1、2、3、4移动到正确位置的步数C:不在目标位置的数码总数D:各数码到目标位置的曼哈顿距离总和

答案:数码1、2、3、4移动到正确位置的步数;不在目标位置的数码总数;各数码到目标位置的曼哈顿距离总和

在上述八数码问题中,有两种启发式函数,其中h1(n)为不在目标位置的数码总数,h2(n)为各数码到目标位置的曼哈顿距离总和,则h3(n)=max(h1(n),h2(n)),具有以下什么性质()。

A:其余两项都满足B:一致的C:其余两项都不满足D:可采纳的

答案:其余两项都满足

第三章测试

对抗博弈是一种零和游戏。()

A:错B:对

答案:对

极大极小值搜索算法相比于深度优先,更接近广度优先搜索算法。()

A:对B:错

答案:错

alpha-beta剪枝中,儿子节点的扩展顺序遵循效用值递减对MIN节点的值计算更高效。()

A:对B:错

答案:错

在期望最大搜索中,可能涉及什么类型的节点?()。

A:随机节点。B:MAX节点。C:两种都有。D:两种都无。

答案:两种都有。

alpha-beta剪枝中,哪些说法是正确的()。

A:对于MAX节点来说,当前效用值大于beta时可以进行剪枝。B:alpha在MIN节点上更新。C:中间节点的极大极小值在执行完剪枝算法后可能是错误的。D:alpha在MAX节点上更新。

答案:对于MAX节点来说,当前效用值大于beta时可以进行剪枝。;中间节点的极大极小值在执行完剪枝算法后可能是错误的。;alpha在MAX节点上更新。

第四章测试

约束满足问题关注动作路径。()

A:错B:对

答案:错

约束满足问题的解是满足所有约束的一组变量赋值。()

A:错B:对

答案:对

任何N元约束满足问题都可以转化为二元约束满足问题。()

A:对B:错

答案:对

关于约束满足问题,说法错误的是()。

A:对于任何类型的变量都可以通过枚举的方式展现所有变量赋值情况。B:变量赋值往往伴随与倾向性相关的评价。C:一元约束仅涉及一个变量。D:交通排班可以构建成一个约束满足问题。

答案:对于任何类型的变量都可以通过枚举的方式展现所有变量赋值情况。

关于约束满足问题的回溯搜索算法,以下说法正确的是()。

A:赋值时,应选择最少限制的取值。B:应选择剩余赋值选择最少的变量进行赋值。C:应选择剩余赋值选择最多的变量进行赋值。D:赋值时,应选择最多限制的取值。

答案:赋值时,应选择最少限制的取值。;应选择剩余赋值选择最少的变量进行赋值。

第五章测试

假设马尔可夫决策问题(MDP)的状态是有限的,则对于,如果我们只改变奖励函数R,最优策略会保持不变。()

A:错B:对

答案:错

假设马尔可夫决策问题(MDP)的状态是有限的,若衰减因子满足,则值迭代一定会收敛。()

A:对B:错

答案:对

假设马尔可夫决策问题(MDP)的状态是有限的,通过值迭代找到的策略优于通过策略迭代找到的策略。()

A:对B:错

答案:错

如果两个MDP之间的唯一差异是衰减因子的值,那么它们一定拥有相同的最优策略。()

A:对B:错

答案:错

当在一个MDP中只执行有限数量的步骤时,最优策略是平稳的。平稳的策略是指在给定状态下采取相同操作的策略,与智能体处于该状态的时间无关。()

A:错B:对

答案:错

第六章测试

时序差分算法是一种在线学习的方法。()

A:错B:对

答案:对

F-learning可以看作Q-learning的一种健忘选择,,也即Q-learning中的学习率。则F-learning在以下那种情况下收敛于固定的值:()

A:从不B:相应的Q-learning收敛时F-learning也会收敛C:具有随机性的状态转移时D:具有确定性的状态转移时

答案:具有确定性的状态转移时

F-learning可以看作Q-learning的一种健忘选择,,也即Q-learning中的学习率。则F-learning在以下那种情况下收敛于最优q值:()

A:具有确定性的状态转移时B:从不C:相应的Q-learning收敛时F-learning也会收敛D:具有随机性的状态转移时

答案:具有确定性的状态转移时

F-learning可以看作Q-learning的一种健忘选择,,也即Q-learning中的学习率。则F-learning在以下那种情况下收敛于随机策略的q值:()

A:具有随机性的状态转移时B:具有确定性的状态转移时C:从不D:相应的Q-learning收敛时F-learning也会收敛

答案:从不

第七章测试

使用强化学习状态的泛化表示的好处有()。

A:复杂的计算获得更精确的表示B:可以减少采样C:减少内存的消耗D:可以采样更多的样本

答案:可以减少采样;减少内存的消耗

在强化学习值函数近似中,蒙特卡洛方法对梯度计算是()。

A:B:C:D:

答案:

在强化学习值函数近似中,时间差分方法对梯度计算是()。

A:B:C:D:

答案:

在强化学习值函数近似中,蒙特卡洛方法中可以使用SARSA和Q-learning进行真值的学习()

A:对B:错

答案:错

强化学习中有有模型的方法和无模型的方法()

A:错B:对

答案:对

第八章测试

随机变量X的概率分布如下图,则x等于()。

A:0.5B:0.4C:0.1D:0.2

答案:0.5

贝叶斯网络中,节点的含义是什么()。

A:变量关系B:独立性C:概率值D:随机变量

答案:随机变量

在下面的贝叶斯网络中,正确的选项有()。

A:P(-cavity,catch,-toothache)=P(-cavity)P(catch)P(-toothache)B:P(cavity,catch,-toothache)=P(cavity)P(catch|-cavity)P(toothache)|cavity)C:P(-cavity,catch,-toothache)=P(-cavity)P(catch|(-cavity)P(-toothache)|-cavity)D:P(cavity,-catch,-toothache)=P(cavity)P(-catch|(cavity)P(-toothache)|cavity)

答案:P(-cavity,catch,-toothache)=P(-cavity)P(catch|(-cavity)P(-toothache)|-cavity);P(cavity,-catch,-toothache)=P(cavity)P(-catch|(cavity)P(-toothache)|cavity)

在下面的贝叶斯网络中,不给定Cavity和给定Cavity的情况下,Toothache和Catch的独立性分别是()。

A:不独立,不独立B:独立,独立C:不独立,独立D:独立,不独立

答案:不独立,独立

第九章测试

下面属于精确推理的方法是():

A:变量消元法B:拒绝采样法C:枚举推理法D:似然加权法

答案:变量消元法;枚举推理法

特征因子包括哪几种():

A:选定联合分布B:联合分布C:单条件分布D:多条件分布

答案:选定联合分布;联合分布;单条件分布;多条件分布

似然加权法是重要性采样的特殊情况,可能会生成不符合证据变量的样本()。

A:对B:错

答案:错

贝叶斯网络中精确推理的复杂度依赖于网络结构和网络规模()。

A:错B:对

答案:对

第十章测试

对于隐马尔可夫模型(HMM),设其观察值空间为O={o1,o2,…,oN},状态空间为:

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论