苏州科技大学-机器学习复习JU-JI自整_第1页
苏州科技大学-机器学习复习JU-JI自整_第2页
苏州科技大学-机器学习复习JU-JI自整_第3页
苏州科技大学-机器学习复习JU-JI自整_第4页
苏州科技大学-机器学习复习JU-JI自整_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

考试题型选择题 20题 共40分名词解释题 10题 共10分简答题 3题 共30分计算题 1题 共20分(4小问)考试知识点整理人工智能ArtificialIntelligence,简记为AI,是当前科学技术迅速发展及新思想、新理论、新技术不断涌现的形势下产生的一个学科,也是一门涉及数学、计算机科学、哲学、认知心理学和心理学、信息论、控制论等学科的交叉和边缘学科。智能的定义智能是知识和智力的总和,知识是一切智能行为的基础,智力是获取知识并运用知识求解问题的能力。智能特征感知能力记忆和思维能力学习和自适应能力行为能力机器学习机器学习(MachineLearning,ML)是机器获取知识的根本途径,也是机器具有智能的重要标志,是人工智能研究的核心问题之一。机器学习是使计算机无需明确编程就能学习的研究领域。人工智能的主要学派符号主义连接主义行为主义人工智能的主要研究内容知识表示:实际上是对知识的一种描述,或者是一组约定,是机器可以接受的用于描述知识的数据结构。推理:指按照某种策略,从已知事实出发,利用知识推出所需结论的过程。搜索与规划:搜索是指为了达到某个目标,不断寻找推理路线,以引导和控制推理,使问题得以解决的过程。规划是一种重要的问题求解技术,是从某个特定问题状态出发,寻找并建立一个操作序列,直到求得目标状态为止的一个行动过程的描述。机器学习:是机器获取知识的根本途径,也是机器具有智能的重要标志,是人工智能研究的核心问题之一。机器学习分类监督式学习无监督学习强化学习监督学习与非监督学习区别原理不同:监督学习是指利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程。无监督学习指根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题的过程。算法不同:监督学习的算法是通过分析已知类别的训练数据产生的。无监督学习的算法主要有主成分分析方法、等距映射方法、局部线性嵌入方法、拉普拉斯特征映射方法、黑塞局部线性嵌入方法和局部切空间排列方法等。适用条件不同:监督学习适用于样本数据已知的情况。非监督学习适用于无类别信息的情况。监督学习与强化学习区别监督学习有两个主要任务,即回归和分类,而强化学习则具有不同的任务,例如开发或探索,马尔可夫的决策过程,政策学习,深度学习和价值学习。在监督学习中,存在各种数量的算法,它们的优缺点适合于系统要求。在强化学习中,马尔可夫的决策过程为建模和决策情况提供了数学框架。监督学习意味着名称本身就表示它是高度监督的,而强化学习则受到较少的监督,并且依赖学习代理来通过确定不同的可能方式来确定输出解决方案,以实现最佳解决方案。过拟合与欠拟合过拟合:当学习器把训练样本学得太好了的时候,很可能已经把训练样本自身的一些特点当作了所有潜在样本都会具有的一般性质,这样就会导致泛化性能下降。欠拟合:指对训练样本的一般性质尚未学好。模型评估的关键在于如何获得测试集,且测试集应该与训练集互斥。常见的模型评估方法留出法保持数据分布一致性(举例:分层采样)多次重复划分(举例:100次随机划分)测试集不能太大也不能太小(举例:1/5~1/3)交叉验证法自助法调参与最终模型算法参数由人工设定,模型参数由学习确定调参过程相似:先产生若干模型,然后基于某种评估方法进行选择算法参数选定后,要用“训练集+验证集”重新训练最终模型

性能度量是衡量模型泛化能力的评价标准,反映了任务需求,使用不同的性能度量往往会导致不同的评判结果,回归任务最常用的性能度量是均方误差。常用的性能度量错误率与精度查准率、查全率与F1ROC与AUC代价敏感错误率与代价曲线比较检验(在某种度量下取得评估结果后,是否可以直接比较以评判优劣?)在某种度量下取得评估结果后,不可以直接比较以评判优劣,因为测试性能不等于泛化性能,测试性能会随着测试集的变化而变化,并且很多机器学习算法本身有一定的随机性。比较检验的常用方法假设检验交叉验证t检验McNemar检验Friedman检验与Nemenyi后续检验偏差-方差分解泛化性能是由学习算法的能力、数据的充分性以及学习任务本身的难度共同决定,偏差-方差分解是解释学习算法泛化性能的一种重要工具。偏差-方差窘境训练不足时,学习器拟合能力不强,偏差主导随着训练程度加深,学习器拟合能力逐渐增强,方差逐渐主导训练充足后,学习器的拟合能力很强,方差主导参数与超参数参数:从模型中学习得到的变量。超参数:在开始学习过程之前设置其值的参数,而不是通过训练获得的参数数据。参数与超参数区别获取信息的方式不同通过模型训练获得参数。超参数是手动设置的。不同的影响因素超参数来自人类经验,并将受到硬件的限制。参数主要受模型的影响。不同模型的训练效果不同。不同的影响因素超参数是人工设定的,具有很高的可控性。参数与模型相关,结果有时达不到预期,可控性差。

强化学习强化学习问题可以描述为一个智能体从与环境的交互中不断学习以完成特定目标(比如取得最大奖励值)。强化学习就是智能体不断与环境进行交互,并根据经验调整其策略来最大化其长远的所有奖励的累积值。智能体(Agent):感知外界环境的状态(State)和奖励反馈(Reward),并进行学习和决策。智能体的决策功能是指根据外界环境的状态来做出不同的动作(Action),而学习功能是指根据外界环境的奖励来调整策略。环境(Environment):智能体外部的所有事物,并受智能体动作的影响而改变其状态,并反馈给智能体相应的奖励。强化学习和监督学习的区别强化学习是试错学习,由于没有直接的指导信息,智能体要以不断与环境进行交互,通过试错的方式来获得最佳策略。延迟回报,强化学习的指导信息很少,而且往往是在事后才给出的,这就导致了一个问题,就是获得正回报或者负回报以后,如何将回报分配给前面的状态。马尔科夫决策过程(MDP)MDP组成一组状态s动作a一个过渡分布期待下一次奖励r决策许多随机过程可以在MDP框架内建模。这个过程是通过在每个状态下选择行动来控制的,试图获得最大的长期回报。如何找到最优策略

示例(回收机器人)

强化学习基本方法动态规划:发展良好,但需要完整准确的环境模型;蒙特卡罗方法:不需要模型,概念上非常简单,但不适合逐步增量计算;时差学习:时差法不需要模型,而且是完全增量的,但分析起来更复杂;Q-Learning动态规划(DP)可以用来计算最优策略的一组算法给出了一个完美的环境模型。(例如MDP)动态规划是理解其他方法的必要基础。其他方法试图实现与DP几乎相同的效果,只是计算量较少,并且没有假设环境的完美模型。动态规划方法政策评估政策改进策略迭代价值迭代异步DP异步DP不使用扫描,它是重复此步骤,直到满足收敛条件然后随机选择一个状态并应用适当的备份异步DP仍然需要大量计算,但不会陷入无望的长扫描蒙特卡罗方法(随机搜索法)蒙特卡罗方法是求解基于平均样本收益的强化学习问题的方法。为了确保定义良好的返回是可用的,我们只对情景任务定义蒙特卡罗方法。蒙特卡罗(MC)方法与动态规划(DP)之间的区别和联系MC可以直接从与环境的交互中学习;MC不需要完整的模型;MC违规造成的伤害较小;MC方法提供了另一种策略评估过程;与DP相反,MC没有引导。时差学习(TD)结合了MC和DP的思想。与MC一样,TD方法可以直接从原始经验中学习,而无需环境动力学模型。与DP一样,TD方法在一定程度上基于其他学习到的估计值来更新估计值,而无需等待最终结果。

为什么TD更擅长在批量更新中推广MC易受不良状态采样和怪异事件的影响;TD较少受到怪异事件和抽样的影响,因为与其他状态相关的估计可能会得到更好的抽样;对于环境的最大似然模型,TD收敛于修正值函数。SarsaQ-Learning

公式策略的状态值函数V的贝尔曼方程s:状态a:行为r:奖励γ:折扣因子贝尔曼最优方程Q蒙特卡罗方法(MC)动态规划(DP)时差学习(TD)

计算题1考虑以下带有折扣因子的马尔可夫决策过程(MDP),大写字母A、B、C代表状态,弧代表状态转换,小写字母ab,ba,bc,ca,cb代表动作,有符号整数代表奖励,分数代表转移概率。定义折扣MDP的状态值函数Vπ(s)【回答】写出状态值函数的贝尔曼期望方程【答案】考虑统一随机策略π1(s,a),它以相等的概率从状态s采取所有行动。从初始值函数V1(A)

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论