人工智能智慧树知到答案章节测试2023年复旦大学_第1页
人工智能智慧树知到答案章节测试2023年复旦大学_第2页
人工智能智慧树知到答案章节测试2023年复旦大学_第3页
人工智能智慧树知到答案章节测试2023年复旦大学_第4页
免费预览已结束,剩余6页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

绪论单元测试针对智能体的思考是否合理,所引入的指标叫做()

A:智慧

B:理性

C:严密

D:严谨

答案:B第一章测试在下图八数码问题中,需要通过移动将杂乱的8个方块按照右侧的顺序进行排列,那么该问题的状态空间的大小是()?

A:9!

B:9*9

C:8

D:9

答案:A以下无信息搜索算法中,同时具有完备性和最优性的有()。

A:深度优先搜索

B:一致代价搜索

C:广度优先搜索

D:迭代加深搜索

答案:BCD对于有限状态图上的搜索问题,以下说法正确的有()。

A:深度优先图搜索(BFS)可以保证找到解(如果存在至少一解)

B:一致代价搜索(UCS)不一定总能找到最优解

C:存在深度优先树搜索有解而广度优先树搜索无解的案例

D:存在广度优先树搜索有解而深度优先树搜索无解的案例

答案:ABD对于一个边损耗非负的有限图,采用广度优先树搜索可以得到最优解,并且对每条边加上一个相同的非负损耗c>0之后,最优路径保持不变。()

A:错

B:对

答案:B在下图搜索问题中,S为起始节点,G1、G2、G3均为目标节点,则采用一致代价找到的解是()

A:G3

B:G1

C:G2

D:均不可能

答案:C第二章测试假如一个搜索问题(有限状态)至少有一个解,则当A*图搜索算法配备任意可采纳的启发式函数时,一定能保证找到一解。()

A:对

B:错

答案:A当路径损耗非负时,一致代价搜索是A*算法的一种特例,其启发式函数既是可采纳的,又是一致的。()

A:对

B:错

答案:A在下图所示的图搜索问题中,哪些节点的启发式函数值是不可采纳的___

答案:在如图所示的八数码问题中,如果A格与B格相邻且B为空,则A可以移动至B。以下可以作为八数码问题的一致启发式函数的有()。

A:不在目标位置的数码总数

B:各数码到目标位置的曼哈顿距离总和

C:数码1、2、3、4移动到正确位置的步数

D:都不正确

答案:ABC在上述八数码问题中,有两种启发式函数,其中h1(n)为不在目标位置的数码总数,h2(n)为各数码到目标位置的曼哈顿距离总和,则h3(n)=max(h1(n),h2(n)),具有以下什么性质()。

A:其余两项都不满足

B:可采纳的

C:其余两项都满足

D:一致的

答案:C第三章测试对抗博弈是一种零和游戏。()

A:对

B:错

答案:A极大极小值搜索算法相比于深度优先,更接近广度优先搜索算法。()

A:对

B:错

答案:Balpha-beta剪枝中,儿子节点的扩展顺序遵循效用值递减对MIN节点的值计算更高效。()

A:对

B:错

答案:B在期望最大搜索中,可能涉及什么类型的节点?()。

A:MAX节点。

B:随机节点。

C:两种都无。

D:两种都有。

答案:Dalpha-beta剪枝中,哪些说法是正确的()。

A:对于MAX节点来说,当前效用值大于beta时可以进行剪枝。

B:alpha在MIN节点上更新。

C:中间节点的极大极小值在执行完剪枝算法后可能是错误的。

D:alpha在MAX节点上更新。

答案:ACD第四章测试约束满足问题关注动作路径。()

A:错

B:对

答案:A约束满足问题的解是满足所有约束的一组变量赋值。()

A:对

B:错

答案:A任何N元约束满足问题都可以转化为二元约束满足问题。()

A:错

B:对

答案:B关于约束满足问题,说法错误的是()。

A:交通排班可以构建成一个约束满足问题。

B:对于任何类型的变量都可以通过枚举的方式展现所有变量赋值情况。

C:一元约束仅涉及一个变量。

D:变量赋值往往伴随与倾向性相关的评价。

答案:B关于约束满足问题的回溯搜索算法,以下说法正确的是()。

A:应选择剩余赋值选择最少的变量进行赋值。

B:赋值时,应选择最少限制的取值。

C:赋值时,应选择最多限制的取值。

D:应选择剩余赋值选择最多的变量进行赋值。

答案:AB第五章测试假设马尔可夫决策问题(MDP)的状态是有限的,则对于,如果我们只改变奖励函数R,最优策略会保持不变。()

A:错

B:对

答案:A假设马尔可夫决策问题(MDP)的状态是有限的,若衰减因子满足,则值迭代一定会收敛。()

A:对

B:错

答案:A假设马尔可夫决策问题(MDP)的状态是有限的,通过值迭代找到的策略优于通过策略迭代找到的策略。()

A:对

B:错

答案:B如果两个MDP之间的唯一差异是衰减因子的值,那么它们一定拥有相同的最优策略。()

A:对

B:错

答案:B当在一个MDP中只执行有限数量的步骤时,最优策略是平稳的。平稳的策略是指在给定状态下采取相同操作的策略,与智能体处于该状态的时间无关。()

A:对

B:错

答案:B写出贝尔曼方程的数学表达式。

答案:处于奖励水平的吃豆人游戏。吃豆人正处在一个5*1的格子世界中,如下图所示:这些单元格从左到右分别编号为1,2,3,4,5。在格子1-4中,吃豆人可以采取的动作是向右移动(R)或飞出(F)奖励水平。其中,执行动作R会确定性地移动到右边的格子中并吃掉其中的豆子,而执行动作F会确定性地移动到终止状态并结束游戏。在格子5中,吃豆人只能执行动作F。吃豆人吃一个豆子奖励为10,飞出奖励水平的奖励为20。吃豆人的初始状态为最左边的格子1。我们把它看成一个MDP,其中的状态是吃豆人所在的格子。衰减因子为。考虑以下三种策略:(1)假设衰减因子,计算:(2)现考虑可取任意值。a)是否存在一个使得严格优于和?若存在,计算的值;若不存在则写None。b)是否存在一个使得严格优于和?若存在,计算的值;若不存在则写None。c)是否存在一个使得严格优于和?若存在,计算的值;若不存在则写None。

答案:第六章测试时序差分算法是一种在线学习的方法。()

A:对

B:错

答案:AF-learning可以看作Q-learning的一种健忘选择,,也即Q-learning中的学习率。则F-learning在以下那种情况下收敛于固定的值:()

A:从不

B:具有确定性的状态转移时

C:具有随机性的状态转移时

D:相应的Q-learning收敛时F-learning也会收敛

答案:BF-learning可以看作Q-learning的一种健忘选择,,也即Q-learning中的学习率。则F-learning在以下那种情况下收敛于最优q值:()

A:相应的Q-learning收敛时F-learning也会收敛

B:具有随机性的状态转移时

C:具有确定性的状态转移时

D:从不

答案:CF-learning可以看作Q-learning的一种健忘选择,,也即Q-learning中的学习率。则F-learning在以下那种情况下收敛于随机策略的q值:()

A:从不

B:具有随机性的状态转移时

C:相应的Q-learning收敛时F-learning也会收敛

D:具有确定性的状态转移时

答案:A写出Q-learning中Q(s,a)的更新公式。

答案:智能体根据五元组更新值或Q函数。智能体每次有0.5的概率按照策略(不必要是最优策略)的动作执行,0.5的概率随机选择一个动作。假设在这两种情况下,更新都被无限频繁地应用,状态-动作对都被无限频繁地访问,衰减因子,学习率均以适当速率下降。(1)Q-learning执行以下更新:这个过程会收敛到最优的q值函数吗?如果是,请写“是”。如果没有则给出一个解释(根据价值的种类、最优性等),如它将收敛到什么地方,或说明它不会收敛。(2)SARSA执行以下更新:这个过程会收敛到最优的q值函数吗?如果是,请写“是”。如果没有则给出一个解释(根据价值的种类、最优性等),如它将收敛到什么地方,或说明它不会收敛。

答案:第七章测试使用强化学习状态的泛化表示的好处有()。

A:可以减少采样

B:可以采样更多的样本

C:复杂的计算获得更精确的表示

D:减少内存的消耗

答案:AD在强化学习值函数近似中,蒙特卡洛方法对梯度计算是()。

A:

B:

C:

D:

答案:A在强化学习值函数近似中,时间差分方法对梯度计算是()。

A:

B:

C:

D:

答案:B在强化学习值函数近似中,蒙特卡洛方法中可以使用SARSA和Q-learning进行真值的学习()

A:对

B:错

答案:B强化学习中有有模型的方法和无模型的方法()

A:对

B:错

答案:A第八章测试随机变量X的概率分布如下图,则x等于()。

A:0.1

B:0.4

C:0.5

D:0.2

答案:C已知随机变量T和W的联合概率分布表,则P(T=hot)=,P(W=sun)=。

答案:已知男女比例可以看成各占一半,男子中由5%患色盲症,女子中0.25%患色盲症,随机抽取一患有色盲症的人,其是男子的概率是=___。

答案:如果x,y在z的条件下相互独立,则P(x,y|z)=P(x|z)*___。

答案:贝叶斯网络中,节点的含义是什么()。

A:概率值

B:随机变量

C:独立性

D:变量关系

答案:B在下面的贝叶斯网络中,正确的选项有()。

A:P(-cavity,catch,-toothache)=P(-cavity)P(catch)P(-toothache)

B:P(cavity,-catch,-toothache)=P(cavity)P(-catch|(cavity)P(-toothache)|cavity)

C:P(cavity,catch,-toothache)=P(cavity)P(catch|-cavity)P(toothache)|cavity)

D:P(-cavity,catch,-toothache)=P(-cavity)P(catch|(-cavity)P(-toothache)|-cavity)

答案:BD在下面的贝叶斯网络中,不给定Cavity和给定Cavity的情况下,Toothache和Catch的独立性分别是()。

A:独立,独立

B:独立,不独立

C:不独立,独立

D:不独立,不独立

答案:C某衣帽厂有甲、乙、丙三个工作间生产同一种衣服,已知各个工作间的产量分别占全厂产量的25%、35%、40%,甲、乙、丙工作间的次品率为5%、4%、2%,现在从衣帽厂中检查出一个次品,是由甲工作间生产的概率是多少。

答案:Pacman的操作数据集中,分为训练数据集、验证数据集和测试数据集。下面是数据集的训练集:请回答下面的问题:(1)使用标准朴素贝叶斯算法,计算下面三个概率的结果:P(sp=C|a=left)P(sp=A|a=right)P(a=left)(2)使用标准朴素贝叶斯算法,在接下来的场景中应该选择left还是right?sp=A,sg=Csp=C,sg=B

答案:第九章测试下面属于精确推理的方法是():

A:拒绝采样法

B:似然加权法

C:变量消元法

D:枚举推理法

答案:CD特征因子包括哪几种():

A:单条件分布

B:联合分布

C:多条件分布

D:选定联合分布

答案:ABCD似然加权法是重要性采样的特殊情况,可能会生成不符合证据变量的样本()。

A:错

B:对

答案:A贝叶斯网络中精确推理的复杂度依赖于网络结构和网络规模()。

A:错

B:对

答案:B如下所示贝叶斯网络。N表示某个区域内的恒星数目。M1,M2分别表示两个望远镜的观测结果。假设观测结果有e的概率多数1颗恒星,也有w的概率少数1颗恒星。且每台望眼镜可能有f的概率出现对焦问题(f<e),分别记为F1,F2。对焦问题会导致观测结果至少减少三颗恒星(如果N<=3,则一颗恒星都观测不到)。(1)N∈{1,2,3},M1∈{0,1,2,3,4}。请画出P(M1|N)的条件概率表(2)假设两个望远镜完全相同,N∈{1,2,3},M1,M2∈{0,1,2,3,4}。设pi=P(N=i)。计算概率分布P(N|M1=2,M2=2)。

答案:A,B,C,D是四个随机变量,A的值域是_,B的值域是_,C的值域是_,D的值域是_(1)给定因子P(A|C)和P(B!A,C),在逐点相乘后,产生因子的维度是_,元素个数为_。(2)给定因子P(A|B),P(B!C),和P(C),对C变量消元,产生新的因子维度是_,元素个数为_。(3)给定因子P(A|C)和P(B!A,C),对A进行变量消元,产生新的因子维度是_,元素个数为_。(4)给定因子P(C|A),P(D!A,B,C)和P(B|A,C),对C进行变量消元,产生新的因子维度是_,元素个数为_。

答案:第十章测试对于隐马尔可夫模型(HMM),设其观察值空间为O={o1,o2,…,oN},状态空间为:S={s1,s2,…,sK},观测值序列为Y={y1,y2,…,yT}。如果用维特比算法(Viterbialgorithm)进行解码,时间复杂为()。

A:O(NK2)

B:O(T

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论