已阅读5页,还剩13页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
外文译文人机对话交互学习系统摘要在本文中,我们提出一种在与导师对话中促进可视概念的持续学习的观点和机制,并展现一个完善的机器系统。我们提出机器人对世界的认识是如何通过处理视觉和语言上的信息被创建,并且展示他们如何用于规划系统行为,这些都基于满足内部驱动的目的拓展自己知识。这个系统满足不同的对话主导方式认为主导或机器人主导。我们通过学习物体颜色和基本形状的事例来论证这些原则。第一章简介认知系统的特点往往是他们具有自主学习、沟通和行动的能力。结合这些能力,本系统可以增量式学习,通过和人类导师进行混合主导式对话。在这片论文中我们主要集中在一种陈述和机制,它能够进行这种交互学习,并且提出一个能通过与人类交互获取视觉概念的系统。这种连续和互动的学习是很重要的,原因主要是以下几个方面。一个在实际生活中运行的系统,能够持续不断地接触到新的观测(场景、物体、行为,等等),它们是不能够提前预期到的。因此,它应该具有基于新获得的视上的和导师提供的信息持续更新其知识库的能力。假设这些由人提供的信息是正确的,这种交互学习能够大大提高学习过程的鲁棒性,其实,在学习过程中,很容易出现由于机器人的感知能力不可靠产生的错误。通过评估系统的知识,人们能够调整他们自己教授知识的方式并且更有效地促进学习过程。同样地,机器人可以获得主动权,向人索求能最大限度增加知识的信息,这种轮流引导能获得更多的知识。这篇论文,我们描述了我们的机器人乔治,见图片1,如何学习提取上的视觉概念模型(颜色和两种基本形状),要么通过关注由导师故意提供的信息,要么自己主动向导师询问场景中物体更详细的信息(情境相关有监督学习,例如“这个细长的物体是黄色的么”),甚至问一些与场景无关的问题(情境无关导师辅助学习,例如“你能告诉我一些红色的东西么”)。我们的方法统一这三种情况到一个完整的方法,这种方法包括增量式视觉上的学习、选择学习目标、为了获得最好的学习效果持续规划系统行为和一个对话子系统。乔治是一个系统,一个综合性系统中的一员,这个综合系统定位于理解系统自己的知识在哪里不完备和接下来采取什么行为去拓展知识。我们的目标是证明认知系统在交互学习过程中能够有效地学习概念模型,并且该过程并不过度依赖于导师辅助,能以一种直观、友好的方式来进行。使用来自视觉和语言的信息进行交互式持续学习都是认知系统中非常重要的特性,于是很多系统被开发出来用于解决这个问题EG,1,2,3,4,5,6,7。不同的系统关注这个问题的不同方面,例如系统的架构与集成3,4,6,学习1,2,6,7,或者社会互动5。我们的工作的重点是如何通过形成对外部世界状态的认知,进而把视觉感知与语言信息集成在一起;这些认知然后被用于学习过程,结果是更新当前的信息表示。这个系统的系统行为是有一个动机框架来驱动的,这样有助于在有人类导师对话过程中进行多种类型的学习,令人兴奋是,它包括一个自我激励学习的主导方式,这种方式由自主知识缺口检测模块来触发。当然,乔治是基于分布式异步架构,从而促进其他组件加入系统中,也就是说,能够以一个连贯和有系统化的方式增加新的功能如导航和操作。本论文组织的如下。在第二部分,我们表述了本系统进行完整和持续学习的能力和表现,并且描述了我们开发了什么样的系统。在第三部分我们关注不同类型的学习机制。而实验结果我们在第四部分呈现。在第五部分我们对全篇文章进行了总结。第二章系统能力和表现一个能和人类进行对话学习的机器人需要能够具备多项能力(这些能够让它展现这种行为的能力)能够处理不同类型的表示法,它们往往源于不同的形式。图片2简明地描述了我们机器系统的能力,和各种能力间的关系。通过处理视觉信息和和人交谈,本系统形成对外部世界的认知。这些认知被行为生成模块使用,行为生成模块选择要执行的动作顺序,以便于扩展系统关于视觉属性的知识。在下面我们首先描述了系统各部分的能力和表现,然后综合来说他们如何组织在一起形成统一的机器人系统。A视觉为了独立自主地学习视觉对象的概念,系统需要识别一个新对象作为一个学习机会被提出的时机。由于最初没有这方面的模型,并且它不能依赖于基于模型的识别,因为它需要一个更一般化的识别机制。为此,系统使用一个一般化非常适合室内环境的自底向上3D属性机制,这种方式适合多种机器人任务。为了使未知对象通用分割的问题更容易解决,我们提出了一些假设,对象物体是放在一个桌子上,或者在其他支撑面上。基于在三维点云获取立体平台,本系统检测可能有多个支持的面,使用的一个变种的粒子群优化8。任何部分从支承平面向感兴趣的空间SOIS伸出,例如任何有兴趣的东西,不考虑它们的属性。通过跟踪SOIS,基于SOIS根据持久性、稳定性和大小的特点,这些SOIS能够随后被验证是否正确。由于只基于立体三维点云的分割往往是不完美的,并且可能包含背景,尤其是对弱纹理对象,稳定的SOI脱光过更精确的分割来讨论,它应用基于综合颜色和3D信息的图像分割算法9。能够被学习的对象属性,如颜色和形状,将会基于这种分割被提取出来。B视觉学习和识别为了有效地存储和归纳提取的视觉信息,视觉概念表示为生成模型。这个生成模型采用在特征空间上,特征概率密度函数(PDF)的形式,并且有新观测的对象在线构建。这个持续的学习能够进行,通过在多维度特征中抽取视觉信息,(例如多个与观察到对象形状、质地、颜色和强度相关的1D特征信息),并且在线识别核密度估计ODKDE10被用于在多维特征空间中估计PDF。ODKDE估计通过混合高斯模型概率密度函数,它能够在一个时间只是用一个数据点,对于目标的分布没有特殊的需求,并且能通过压缩模型自动调整它的复杂度。ODKDE在压缩从数据流中建立的生成模型的时候,惩罚判别损失。这样在生成模型的构建中引入一个判别准则函数。ODKDE一个特别重要的特征是,它能够适应正确例子(学习)同时也能适应错误例子(不学习)11。因此,在在线操作期间,一个多元生成模型会不断维护每个视觉感念并且维护每个呼哧概念集(例如所有颜色),最优特征子空间不断被特征选择模块生成。这种特征子空间然后被用于构建一个BAYESIAN分类器,它能用于识别个体对象属性的识别。然而,这个系统以一种在线的方式运行,这个系统可能在任何时间遭遇到以前没被观测到的概念。我们用一个“未知模型”建模发生这种情况的概率,这应该能解救一些很差的分类,这时在已学习到的模型均不能强壮的支撑观察目标。在建立知识模型和BAYESIAN分类器后,识别过程通过检测各个个体概念和未知模型的后验概率完成。这一个知识模型仍然适用检测知识的差异和不确定性。通过分析一个物体概念的后验概率,系统判别出每个概念的信息增益。信息增益估计出它的知识库应该增加多少,如果它应该从导师那里接受特别的与场景相关的对象相关的概念信息(例如,物体的颜色)。这个作为触发情景相关的导师辅助学习的基础。此外,该系统还可以检查其模型并判断出哪个模型是最弱的或者最模糊不清的。以这种估计为基础,它并不与一个特殊的对象相关并且作为进行场景无关的导师辅助学习的基础C认知每个描述一个实体的信息(例如一个对象)的单元被表示为概率分布的可选值的空间(例如不同的颜色和不同的形状)。这些值被规范地表述为命题逻辑公式。由此产生的系统通过翻译信息单元到马尔科夫逻辑12的公式,给予规范语义信息。我们叫这些认知单元为认知(BELIEFS)13。信念受时空和认识制约。他们包括一个框架,这个框架描述什么地方和什么时候一个实体存在,他们还包括一个认知状态,这个认知状态是那些代理(机器人,人类导师)在认知过程中所保持的信息。最后,认知也被寄予了一个本体论范畴的分类,它被用于排序多种多样的认知类型。一个认知对象的认知状态显示为那些代理对象保持的信息。我们定义三种认知的三种认知状态私有认知直接来自与机器人或者对环境体验的间接结果。归属认知(对人类认知的认知)机器人对人类导师认知状态的猜想。这些显然是意图识别(语言理解)的一个间接结果。公共认知表示机器人的认知,它是机器人与人共同认知。除了表示情景信息的认知,其他种类的认知对象需要情景无关的信息。例如,系统针对多个实体收集的信息,但并不与他们紧密相关。一种这种类型的认知对象,代表针对模型概念的模型(例如为视觉属性形成建模),这被称为模型状态。认知,一种高层次的抽象表示,提供了外部环境的一个共享模型,这个模型能被对话改变,并且能进一步被高层次的处理过程利用,如动机和计划。D情景相关对话在人类和机器人之间面向任务的对话中,更重要的是对话,而不是理解一些词语。机器人需要了解正在谈论什么,但它也需要明白,为什么有人告诉的一些东西。换句话说,就是在他们共同活动更大的上下文信息中人们想要机器人去做什么。因此,理解语言可以表述为意图识别问题。从人类的发言中,我们怎样才能找到它背后的意图我么拓展了THOMASON和STONE关于语言理解的溯因考虑的方法,计划和执行14,这时,代理机器人积极监控和维护共同点,为此,他们尝试诱导地识别其他人的意图作为对他们观测到(逻辑上)的行为的解释。我们对这种方法的拓展基于显式溯因,它利用交互中代理人的认知完成15。从概念上说,我们可以区分三个主要负责机器人的语言能力组件语言理解即人类的话语背后的意图识别的过程,这包括有关语言表达,如引用在位于(认知)上下文的实体。对话管理在情景对话循环中的一个协商审议组件。假定一个上下文更新(例如一个识别的意图),对话管理选择要被语言子系统执行的操作。语言生成在情景上下文中实现机器人意图的处理过程。E行为生成为了创建智能行为,一个综合各种能力的系统,例如乔治,为了追求想要的状态,需要一种机制去统帅各种能力。出于通用性和灵活性的考虑,我们已经选择AIPLANNING去生成智能行为。有三个要规划的要素必须紧密地集成在一个智能机器人目标生成和管理;计划;执行。在我们的系统中是执行相对简单(一个中间组件的集合,当计划需要某个组件时能激活相应组件),所以在这里,我们将重点放在前两个步骤的过程中。对于真正自主智能机器人,它必须能够产生自己的目标,并当需要是选择哪些执行16。乔治设有一个动机框架,它能够从传感和内部处理的结果产生目标,有能力选择一个去规划。生成目标,以满足驱动,一般的处理是为了达到未来的特殊状态。乔治有一个主要动力拓展知识。这个动力使乔治对外部世界很好奇。我们先前的研究展示了带来的好处的动机框架,它使移动机器人具有这种驱动力17,并且正在研究它在学习和对话中的用途。知识扩展驱动器有三个相关的目标生成器。第一个当导师提供关于对象信息的描述时生成学习的目标,并且一个相对应的归属认知被创建。第二个生成器监视机器人知道对象的私有认知。如果任何对象的认知表现出对相应的概念(颜色和形状)的基础表示不确定,一个目标被生成,问导师属性信息(情景相关的导师辅助学习)。最后一个目标生成器检测模型状态,模型状态是一个认知对象,它承载学习到视觉概念模型的信息。如果它认为这些属性模型并不特别有区别性,将产生请求见到具有特殊性的新对象的目标(情景无导师辅助学习)。动机框架基于其潜在的信息增益和相关成本选择目标。这些值来自系统的模型和目前观察对象识别的可靠性,并且存在认知中。所选择的目标会转发到规划子系统。规划子系统的核心是FASTDOWNWARD18,一个经典的规划者。给定初始状态、行为集和目标公式,经典的规划的目标是发现动作序列,这些动作序列能够使初始状态转移到一个能满足目标公式的状态。由于经典规划方法依赖于一个针对机器人当前情境的完整的和确定描述,这些在乔治中时不太现实的,我们拓展了规划器,使用连续规划19来处理不去定性的信息。以这种乐观的方法,规划者将所需效果分配到不确定的结果的行动中,并且监督他们的执行过程,以便当乐观分配预期被违背时,能够重新规划。结合所想要的目标生成和甄选处理,这种规划方式产生了一个鲁棒、独立并且易于拓展的机器人行为控制系统。F系统集成我们在一个机器人系统中集成了上面描述的能力。本机器人在CAS基础上构建,COSY系统架构20。这个架构本质上是一个分布式工作记忆模型,它由多个完成不同功能的子系统组成。乔治就是由很多子结构组成的,见图4(这里,组件被描绘成圆形的框和交换的数据结构是矩形,箭头表示信息流的概念)。视觉子结构处理场景信息(立体图像对组成的整体),确认潜在对象能被分割出来的兴趣区域,进行个别处理,像第二部分开始描述的那样。图3描述了一个获取到的例子场景,分割出了3D点和检测到的对象。然后提取视觉特征,并用于对象的识别(学习)和定型化视觉属性,在第二部分B中大体描绘了此过程。基于它的识别结果,对每一个对象的私有认知就被创建了。这些认知也可以通过对话处理过程被对话子系统改变。该系统采用现成的软件,用于语音识别,现成的生产和开发的技术用于人类意图识别,相关解决方案和情景上下文中实现机器人的意图,这些在第二部分D中描述。所有的认知被收集于BINDER子系统,他们是从各种子结构中收集到当前环境下对象各种信息的集中中心。它们被PLANNING子结构监督使用,PLANNING子结构生成机器人行为像第二部分E中所描述。这些认知首先用于触发动机框架产生学习目标,然后生成计划状态,最终,在执行动作期间,需求被发送到视觉和对话子结构来执行动作,这些动作组成预期行为。实际驱动这些行为的机制是在下面的章节中描述的。第三章学习机制为了最大限度地提高学习效率,一种认知系统需要利用不同种类的学习机会,这需要不同类型和层次的自主性。在我们的例子中学习的机会是由感知对象和对象可行信息表示的,而学习的主动性(除了学习行为本身)包括从导师获取有关知觉对象的新信息。在这里,我们设计从导师处获取需要信息的三种方法。所有这三种方法可以结合使用(也就是混合主动学习)。这些学习机制在以下部分描述的;他们最重要的处理流可以在图片4中看到。A导师主导学习在导师主导学习的学习机制,机器人依赖导师主动提供关于视觉对象的信息。学习行为发生在有以下条件(1)视觉系统检测到一个对象并处理视觉特征(2)由导师提供的信息是同一对象的。在BINDER系统中产生两种认知对象的私有认知,即识别对象的视觉属性信息;对象的归属认知,即导师提供的对象信息。这两个认知是动机系统为视觉学习创建规划目标的前提。只有学习行动的预期信息增益(由视觉子系统提供)足够高的时候,目标才会用于规划和执行。假设学的先决条件存在(私有认知的视觉信息和归谁认知的标签信息),规划器生成一个详细计划,即一个学习行为序列,对应导师提供的每个性质。执行子系统代替视觉系统的视觉学习者进行的动作。B情景相关的导师辅助学习在情景相关的导师辅助学习中,机器人表现出更大程度的主动性。实际上,如果导师没有提供视觉对象的信息,机器人询问关于该对象的信息,而这依赖于机器人识别具体物体的能力。在这种情况下,动机框架只考虑私有认知的信息。机器人询问信息增益最高的物体属性,因为它认为如果能获取到询问的信息,相应属性的对象模型获益最多。在缺少归属认知的情况下,规划者生成一个更加复杂的计划去询问有关缺失信息的问题。执行子系统产生相应的机器人的意图,这在更上层是由对话系统管理的,用于合成相关的对话。依赖识别结果,规划者能在极性问题间选择(例如“对象的颜色是红色”)和开放问题(这时信息少,例如“对象的颜色是什么”)。在导师提供答案后,工作流程和导师主导学习相同。C情景无关导师辅助学习在情景无关导师辅助学习在机器人的主动性有了更大的进步。这里机器人可以通过询问导师来影响它能获取到的视觉信息(如“你能给我看些红色的东西么”)。模型状态(一个类似认知的认知结构)在决定是否做出请求和做出哪种请求中是一个关键的角色。模型状态包涵视觉学习者保持的视觉模型(知识)的关键信息。最关键的信息还是用于估计一般模型可信度的信息增益,这不涉及特定状态的场景(相比之下,存储在私有认知中的信息增益表示个特定的对象承载新信息效用)。目标生成器触发这种学习机制的优先级是最低的,并且通常是在当前场景中没有对象时才触发的。因此,当机器人没有别的事做,它要求导师展示一个具有特定的视觉属性的对象,这能够最大限度地潜在增加机器人的这些属性模型。第四章实验结果A系统评估学习是一个长期现象;系统需要观察大量的训练样本建立一个被建模概念的可靠和鲁棒表示。为了获得可靠的结果,这个实验已经重复多次。为了测试学习性能,一个真正的人类的导师现场展示和描述对象信息是非常不切实际的。相反,我们抓取了图片对并人工标注它们。然后,我们从文件中读取图像代替从摄像机中读取。我们还实现了一个简单的有限自动机的仿真在导师主导学习模式下的导师行为;由于对象的视觉特性的基本真理是已知信息,仿真导师可以给系统描述每个已知图像。除了相机输入和语音识别,整个系统与现场操作以同样的方式工作,因此我们能够评估系统的整体性能。我们收集了129个对象的1120张图组成数据库;一些已经在图6中显示出来了。我们将500对作为训练集,其他作为测试集。训练图片一个接一个地传递给系统,并且仿真导师给出对象属性的描述,就像导师主导的情况(第三部分A中)。八个颜色(红,绿,蓝,黄,黑,白,橙色,粉色)和两个基本形状(紧凑的,细长的)会被教给机器人。每次更新后,我们通过在测试图像中识别图像别颜色来评估了模型。该模型的性能的评价标准是正确率。我们重复实验三次,每次我们随机分割的图片集为训练集和测试集,然后计算平均结果。实验结果显示在图7中,它显示了随着时间的推移学习性能的进化,很明显,增加观察图像数量能提高识别率。一开始,当新的模型概念被加入时候正确率增长迅速,并且在所有模型都被训练后,由于模型的精细,仍能保持正面的增长。增长不是严格单调;由于模型调整一些更新可能导致识别性能下降(更坏的原因是错误的图像分割,它到导致了错误的特征抽取)。最终,通过观察额外训练样本,模型得到了改进并且识别性能也再增长。实验开始时,系统不知道对象的属性,而最后它能够成功地识别几乎所有的对象属性。最后平均识别率为9240。这些实验结果表明,整个系统的表现达到预期;它能够成功地探测到物体属性,理解导师对这些对象的描述并建立可靠的视觉属性模型。B学习机制评估为了学习评价机制,我们将不得不实现更高级的导师仿真(事实上,我们需要建立另一个对话系统用于理解机器人的对话),因此我们在MATLAB中建立仿真学习机制。我们使用相同的数据进行试验。我们运行用于检测和分割对象的系统乔治。提取的特征被用于评估学习机制。我们测试了所有的三个学习机制性能导师主导(TD)、情景相关导师辅助(TA)、情景无关导师辅助(NS)。在导师主导的情况中,我们还想评估下,训练样本的顺序对测试结构的影响。在第一种情况中(TD),训练图片是随机选出的,在第二种情况中(TD),模型首先由每类5张图片初始化,然后每类所有对象依次提供给机器人。在这两种情况下模拟导师都会为每个训练图像提供标签。在TA的情况下,导师是随机呈现的对象,但并不标记他们,机器人会检查对象的颜色,如果它能够部分识别颜色,它会问导师以确认的颜色标签是否正确的。导师回答YES或者NO,如果是NO导师要提供正确的标签。在NS的情况下,机器人主导顺序,机器人检查其内部知识和要求导师提出特定颜色的对象。我们评估模型的性能的学习用训练集得到的识别率。然而,在这样的交互式学习环境中,成功的识别并不是唯一重要的措施,模型如何学习到也非常重要的(这评衡量师所做出的努力)。在混合主导学习框架中衡量导师做出的努力是一个很困难的挑战。在这个实验中我们采取以下简单的准则如果导师必须提供一个对象的描述,他提供3BIT的信息,如果是一个极性选择问题他提供1BIT的信息。我们最终联合考虑正确率和导师代价。图8显示出了评估结果。所有的学习策略达到96的最终识别率。此结果是高于系统中的评价实验的识别率,主要是因为我们使用不同的参数设置的特征选择算法。并且以前,我们使用径向基核函数训练SVM。它提供质量低劣结果,因此它只达到92的识别率。因此,从最后的识别性能,所有的学习策略是非常成功的。TA学习策略是最好的,有最好的识别率,以及最小的导师信息提供量。策略TD和NS在导师信息提供量上是相同的,但是学习率上有惊人的不同。我们可以看到,图片被展示的顺序扮演了一个非常重要的作用。当图片顺序被一次提供的时候TD的学习速度非常慢(可能是颜色被很晚提出),但是随机提供图片有更好的表现。NS方法与最好的TD结果很相近,但NS方法图片提供顺序由系统提供,这就减轻了导师的压力。我们可以预期综合这些策略能得到更好的结果。第五章总结本论文提供了在与导师谈话中促进视觉概念持续学习的表示方法和机制,并且演示了完成的机器人系统。由于缺少空间,我们提供了能力非常简单的系统。我们提出了,如果通过处理视觉和语言信息创建认知,和他们如何被用于行为规划,这种规划的目的是满足内部驱动拓展知识。我们专注于系统所支持三个不同的类型的学习机制。我们演示了在学习对象的颜色和基本形状的时候的原则。在我们的研究中,我们在单个组件的水平方面取得了一些成绩,同样,在系统层面也取得了些。在本文中,我们想要展示一个集成方法(它包括增量视觉学习,目标选择,持续计划选择系统行为)和一个对话系统如何能够形成一个连贯的和高效的能够混合主导学习的系统。这样一个集成机器人实现允许进行全系统的研究、开发和测试,不仅在系统级别,也能在子系统级别。机器人的实现是基于分布式异步架构,从而促进其他组件加入系统中,也就是说,能够以一个连贯和有系统化的方式增加新的功能。我们还为机器人的移动提供了支持,这将极大程度上提高机器人与环境交互的可能性。这里,检测知识缺口和规划行动帮助机器人来填补这些缺口将扮演一个更重要的角色,并将带来更自治和高效的机器人行为。本系统为将来的开发提供了一个稳固的基础。建筑在这个系统的最终目标是提供一个自主的机器人,它能够在与环境和其他认知代理的交互中,捕获和处理多模态信息,从而学习并适应一直改变的外部世界。参考文献1DKROYANDAPPENTLAND,“LEARNINGWORDSFROMSIGHTSANDSOUNDSACOMPUTATIONALMODEL,”COGNITIVESCIENCE,VOL26,NO1,PP113146,20022LSTEELSANDFKAPLAN,“AIBOSFIRSTWORDS,THESOCIALLEARNINGOFLANGUAGEANDMEANING,”EVOLUTIONOFCOMMUNICATION,VOL4,NO1,PP332,20003CBAUCKHAGE,GFINK,JFRITSCH,FKUMMMERT,FLOMKER,GSAGERER,ANDSWACHSMUTH,“ANINTEGRATEDSYSTEMFORCOOPERATIVEMANMACHINEINTERACTION,”ININIEEEINTERNATIONALSYMPOSIUMONCOMPUTATIONALINTELLIGENCEINROBOTICSANDAUTOMATION,2001,PP3203254BBOLDER,HBRANDL,MHERACLES,HJANSSEN,IMIKHAILOVA,JSCHMUDDERICH,ANDCGOERICK,“EXPECTATIONDRIVENAUTONOMOUSLEARNINGANDINTERACTIONSYSTEM,”INHUMANOIDS20088THIEEERASINTERNATIONALCONFERENCEON,DAEJEON,SOUTHKOREA,DEC2008,PP5535605ALTHOMAZANDCBREAZEAL,“EXPERIMENTSINSOCIALLYGUIDEDEXPLORATIONLESSONSLEARNEDINBUILDINGROBOTSTHATLEARNWITHANDWITHOUTHUMANTEACHERS,”CONNECTIONSCIENCE,VOL20,NO23,PP91110,JUNE20086SKIRSTEIN,ADENECKE,SHASLER,HWERSING,HMGROSS,ANDEKORNER,“AVISIONARCHITECTUREFORUNCONSTRAINEDANDINCREMENTALLEARNINGOFMULTIPLECATEGORIES,”MEMETICCOMPUTING,VOL1,PP291304,20097JDEGREEFF,FDELAUNAY,ANDTBELPAEME,“HUMANROBOTINTERACTIONINCONCEPTACQUISITIONACOMPUTATIONALMODEL,”INDEVELOPMENTANDLEARNING,2009ICDL2009IEEE8THINTERNATIONALCONFERENCEON,JUNE2009,PP168KZHOU,MZILLICH,MVINCZE,AVRECKO,ANDDSKOCAJ,“MULTIMODELFITTINGUSINGPARTICLESWARMOPTIMIZATIONFOR3DPERCEPTIONINROBOTVISION,”INIEEEINTERNATIONALCONFERENCEONROBOTICSANDBIOMIMETICSROBIO,20109YBOYKOV,OVEKSLER,ANDRZABIH,“FASTAPPROXIMATEENERGYMINIMIZATIONVIAGRAPHCUTS,”IEEETRANSACTIONSONPATTERNANALYSISANDMACHINEINTELLIGENCE,VOL23,NO11,PP12221239,200110MKRISTANANDALEONARDIS,“ONLINEDISCRIMINATIVEKERNELDENSITYESTIMATION,”ININTERNATIONALCONFERENCEONPATTERNRECOGNITION,ISTANBUL,TURKEY,2326AUGUST2010,PP58158411MKRISTAN,DSKOCAJ,ANDALEONARDIS,“ONLINEKERNELDENSITYESTIMATIONFORINTERACTIVELEARNING,”IMAGEANDVISIONCOMPUTING,VOL28,NO7,PP11061116,JULY201012MRICHARDSONANDPDOMINGOS,“MARKOV
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 资产转让合同格式
- 专业借款合同样本:工程
- 2024房屋装修合同协议书个人范本
- 标准版店铺租赁合同样式
- 2024年度网络安全服务合同标的定义与执行细则
- 水产养殖合同收购范例
- 2024卫星遥感数据服务采购合同
- 2024人工智能在医疗诊断中的应用合同
- 2024年广告发布与 media buy 合同
- 临时用工合同范文
- 高中政治部编版教材高考双向细目表
- 轮扣式模板支撑架安全专项施工方案
- 酒店装饰装修工程验收表
- 中国行业分类代码表
- 社会组织协会换届选举会议主持词
- 呼吸科(呼吸与危重症医学科)出科理论试题及答案
- 清新个人工作述职报告PPT模板
- 公路工程通用(专用)合同条款汇编.
- 工程施工现场及常用对话场景英语集锦
- 肺癌的靶向治疗法PPT课件.ppt
- 凸透镜成像规律动画演示
评论
0/150
提交评论