周志华教授发表首届国际学习与推理联合大会IJCLR开场_第1页
周志华教授发表首届国际学习与推理联合大会IJCLR开场_第2页
周志华教授发表首届国际学习与推理联合大会IJCLR开场_第3页
周志华教授发表首届国际学习与推理联合大会IJCLR开场_第4页
周志华教授发表首届国际学习与推理联合大会IJCLR开场_第5页
已阅读5页,还剩5页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2021/11/4下午2021/11/4下午3:12周志华教授发表首届国际学习与推理联合大会IJCLR开场Keynote:探索从纯学习到学习+推理的AI/s/pkCIr092Oet3PJJ9jcDvJgPAGE/s/pkCIr092Oet3PJJ9jcDvJgPAGE10/15周志华教授发表首届国际学习与推理联合大会IJCLR开场Keynote:探索从纯学习到学习+推理的AI首届国际学习与推理联合大会(IJCLR)已于10月25-27日在线上举行,该会议代表了国际推理与学习相融合方面的重大趋势,多位国内外领域学者发表演讲,其中,周志华教授作了大会的开场主旨报告,分享了题为《利用无标签数据:从「纯学习」到「学习+推理」》的主旨演讲。学习和推理一直是人工智能中的核心研究内容,诸多学者都认为,两者的结合将具有解决当代人工智能方法缺点的潜力,包括深度学习的黑箱性质等,然而这方面的工作极为困难,需要将人工智能中逻辑推理、知识表示、机器学习等多个领域打通。周志华教授演讲内容概要自训练方法(Self-training)机器学习通常依赖大量的有标签数据,而现实中很容易获得大量无标签数据,如何利用无标签数据辅助少量有标签数据进行学习,是一个重大挑战问题。很容易想到的办法有自训练/自学习,用有标签数据训练一个模型,然后用模型来对无标签数据提供伪标签,然后基于伪标签数据来更新模型。但这样做不太“靠谱”,因为当初始有标签数据很少时,训练出的初始模型性能差,伪标签中会有大量错误,导致学习性能越来越差。这样的做法在很久以前就有所改进,例如对伪标签数据进行数据编辑,对数据净化之后再用于学习。编辑过程可以采用一些统计假设检验方法。然而总体上这样的方法仍然是启发式的,人们希望有一些有理论支撑的方法。主动学习(Activelearning)主动学习(Activelearning)是机器学习的一个分支,其主要思路是,从大量无标签样本中挑选少量样本给人类专家进行标注,从而让人类专家的力气用在「最有价值」的地方。其目标是通过尽量少地选择样本给人类专家标注,能够大幅度提升学习性能。典型的两大类代表性方法是有选择最informative的示例进行标注,和选择最有代表性的示例进行标注。新的发展是同时兼顾informative和代表性。然而,主动学习假设了「人在环中」(human-in-the-loop),如果没有人类专家的帮助,则必须考虑其他的办法来利用无标签数据,例如半监督学习。半监督学习半监督学习具有代表性的方法包括生成式方法、半监督SVM、基于图的方法、基于分歧的方法。基于分歧的半监督学习是该领域的主流范型之一,通过训练多个学习器,利用它们之间的分歧来对无标签数据进行利用。协同训练(Co-training)是基于分歧方法的代表,它最初是针对「多视图」数据提出,多视图数据是指一个样本同时由多个属性集合描述,每个属性集合称为一个「视图」。协同训练首先基于两个视图分别训练一个分类器,然后每个分类器挑选一些可信度高的无标签样本,标注后提供给另一个分类器作为有标签数据进行使用。由于这些分类器从不同角度训练出来,可以形成一种互补,从而提高分类精度;就如同从不同角度可以更好地理解事物一样。这个简单的算法被广泛应用,在应用中有令人惊讶的优越性能。研究者们努力理解它为什么有效、在什么时候有效。机器学习领域奠基人、CMU的Mitchell教授等人证明,如果数据具有两个满足条件独立性的视图、且每个视图都包含足够产生最优学习器的信息,则协同训练能够通过利用无标签数据任意提升弱学习器的性能。然而这个理论条件在现实中并不成立,因为关联到同一个样本的两个视图通常并不满足条件独立性。此后有许多著名学者,如计算学习理论大会主席Balcan等人做了重要工作,最后周志华教授课题组在理论上最终给出了协同训练能够奏效的充分条件和充分必要条件。其理论揭示出只要两个学习器有较大差异,就能通过协同训练利用无标签数据提升性能。该理论说明,「两个视图」并非必须,只要想办法让学习器之间具有较大差异即可。该理论结果导致了一系列「单视图方法」,例如tri-training方法等,最近在深度学习领域也有基于tri-training的半监督深度神经网络模型。然而,半监督学习仍然需要一批有标签数据,例如在半监督SVM或基于分歧的方法中训练初始分类器。如果既没有「人在环中」的人类专家帮助、也没有充分的有标签数据,还有没有办法利用无标签数据呢?周志华课题组提出,如果有「领域知识」,那么可以通过机器学习和逻辑推理的结合来做。机器学习和逻辑推理逻辑推理容易利用规则知识,机器学习容易利用数据事实,从人类决策来看,通常需要结合知识和事实以解决问题。研究一个能够融合机器学习和逻辑推理并使其协同工作的统一框架,被视为人工智能界的圣杯挑战。在人工智能研究的历史中,机器学习和逻辑推理两者基本是独立发展起来的,1956~1990年是逻辑推理+知识工程作为人工智能主流的发展时期,但此时关心机器学习的人很少;1990年之后是机器学习作为人工智能主流的发展时期,但此时逻辑推理已经相对冷门。目前流行的逻辑推理技术通常基于一阶逻辑表示,而流行的机器学习一般基于特征表示。这两者几乎是基于完全不同的表示方式,难以相互转化,使得两者的结合极为困难。为了融合机器学习和逻辑推理,历史上已经有很多研究者在做努力。他们通常采用扩展其中一种技术来适应另一种技术的方法。例如,概率逻辑程序(PLP)尝试扩展一阶逻辑以引入概率推理。而统计关系学习(SRL)基于领域知识构建、初始化概率模型。前者「重推理、轻学习」,开头引进了一点机器学习的成分,然后几乎完全依赖逻辑推理解决问题;后者「重学习、轻推理」,开头引进了一点逻辑推理的成分,然后几乎完全依赖机器学习解决问题。总是「一头重、一头轻」,意味着总有一端的能力没有完全发挥出来。这就面临一个问题,能不能有一个新的机制帮助我们把这两大类技术的优势都充分地发挥起来、相对均衡地「互利式地」结合逻辑推理和机器学习呢?反绎学习的提出就是为了解决这个问题。反绎学习(abductivelearning)反绎学习,是一种将机器学习和逻辑推理联系起来的新框架。在理解反绎学习之前,我们先来理解这个反绎的含义。在人类对现实问题的分析抽象上,通常有两种典型方法论:演绎,从一个普遍的规则开始,到一个有保证的特定结论,这就是一个从一般到特殊的过程;归纳,从一些特定事实开始,然后我们从特定的事实中总结出一般的规律,这就是从特殊到一般。定理证明可以说是演绎的典型代表,而机器学习是归纳的典型代表。反绎则与两者有所区别,其标准定义是首先从一个不完备的观察出发,然后希望得到一个关于某一个我们特别关心的集合的最可能的解释。周志华说他提出的反绎学习可大致理解为将演绎过程反过来嵌入到归纳过程中去,所以他提出「反绎」这个中文名字,而不是直接翻译为「诱导」或「溯因」。现在返回来看传统的监督学习。监督学习首先需要有很多示例以及标签,将它们结合起来进行监督学习,训练出一个分类器。反绎学习的设置不太一样,反绎学习中假设有一个知识库,以及一个初始分类器。在这个学习中,我们先把所有的数据提供给这个初始分类器,初始分类器猜测一个结果,得到结果之后就会把它转化成一个知识推理系统能够接受的符号表示。那么接下来这一步,我们就要根据知识库里面的知识来发现有没有什么东西是不一致的?如果有不一致,我们能不能找到某一个东西,一旦修改之后它就能变成一致?或者修改之后使得不一致程度大幅度降低?这就需要我们去找最小的不一致。如下图所示:假设我们现在找到,只要把这个非C改成C,那么你得到的事实就和知识都一致了。我们就把它改过来,这就是红色的这个部分,这就是一个反绎的结果。而反绎出来的这个C,我们现在会回到原来的标签中,把标签改掉,接下来我们就用修改过的标签和原来的数据一起来训练一个新分类器。这个分类器可以代替掉旧的分类器。这个过程可以不断地迭代下去。这个过程一直到分类器不发生变化,或者我们得到的伪事实和知识库完全一致,这时候就停止了。从上图可以看到,左半部在进行机器学习,而右半部在进行逻辑推理。机器学习和逻辑推理这两者互相依赖,循环处理往复,直到分类器与知识库一致(此时相当于分类器已经「学到」了知识库中的内容)或者分类器连续数轮不再提升;如果允许对知识库进行修改,还可以使得知识库中的内容可以被精化或更新(这是利用数据经验来改善知识的过程)。反绎学习不依赖于真实标签,但如果存在有标签数据,它也可以充分利用,例如可以生成更可靠的伪标签等,从这个意义上说,反绎学习可以被视为一种更具一般性的弱监督学习,其监督信息不仅限于标签,还可以是领域知识。初始分类器可以是预训练好的深度模型或者迁移学习模型,甚至可以很简单,例如基于聚类或最近邻分类的预处理;其基本作用是让整个过程「启动」起来。在领域知识丰富可靠时,通过知识的利用可以使得整个过程并不依赖于初始分类器的强度。知识库目前仍需要人工总结

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论