【基于人工智能环境下的小样本图像分类算法研究7200字(论文)】_第1页
【基于人工智能环境下的小样本图像分类算法研究7200字(论文)】_第2页
【基于人工智能环境下的小样本图像分类算法研究7200字(论文)】_第3页
【基于人工智能环境下的小样本图像分类算法研究7200字(论文)】_第4页
【基于人工智能环境下的小样本图像分类算法研究7200字(论文)】_第5页
已阅读5页,还剩7页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于人工智能环境下的小样本图像分类算法研究目录11652摘要 ITOC\o"1-3"\h\u116521.绪论 .绪论1.1研究背景从手工制造到机械化制造和智能制造,人类都朝着提高效率的目标发展。近年来,随着深度学习(DL)的迅速发展,深度学习技术得到了广泛的应用。各种智能设备和智能程序在我们日常生活中随处可见,进出学校、园林和宿舍,我们可以使用人脸识别装置快速完成身份验证;在工厂使用缺陷检测,该算法完成产品的快速扫描,准确检测缺陷产品;从线下将数据上传到购物平台,这些平台可以自动检测图片中的衣服,并向我们推荐相似的衣服;在公共汽车上安装智能摄像头可以监事四周环境,做到实时监控和提醒,有效提高公共交通安全性;这些使我们生活更轻松、更安全的深度学习技术包括物体检测、缺陷检测、自然语言处理、OCR文本识别和推荐系统。深度学习旨在利用深层神经网络模拟人脑神经网络的内部功能来处理样本数据,完成数据分类或检测任务。该模型使用大量标记样本进行训练,获得最佳的映射功能,然后所有的测试样本都输入到模型图中。ImageNet是一个现场常用的图像数据集,包含20,000多个类别和1400多万个图像,平均每个类别中有数百个图像,并且每个图像都是手动标注的。从中可以看出,受监控学习的核心是大量的标记数据,即训练样本数量足够大,样本已标记。当大数据是制约深入学习发展和应用的一个重要因素,数据收集本身费用高昂。同时涉及一些隐私、安全或道德问题,在某些特殊领域,访问大量数据更加困难[1]。随着人工智能技术的飞速发展,针对小样本图像分类算法进行深入研究,对于人工智能的发展和进步有着重要意义。1.2研究意义小样本图像分类算法作为人工智能测试平台算法之一,其可以被应用到人类容易理解的应用场合,使他们能够像人类一样充分学习。一个典型的例子是字符识别,其中只有少数几个样本,需要一个计算机程序来分类、分析和生成新的手写字符。为了处理这个任务,角色可以分成较小的部分,可以在角色之间转移,这些较小的组件可以集成到新的角色中。这是一种人类的学习方式。当然,FSL开发了复制人类行为的机器,并在某些情况下促进了能够代替人类的机器人的开发。例如单一模拟、视觉导航、连续运动控制。除了测试真实人工智能外,小样本图像分类算法还有助于减轻为工业用途收集大规模监测数据的负担。例如,ResNet将ImageNet的1000数据类归类为“人类”。但是,当每一类都有足够的旗帜图像时就是这样。相比之下,人类可以识别大约3万个类别,但在一台机器上收集足够的图像对于每个类别来说都是一项艰巨的任务,这几乎是不可能的[2]。相反,小样本图像分类算法减少了数据密集型应用程序(如图像分类、图像搜索、目标跟踪、手势识别、图像字幕和视觉问答、事件检测)的数据收集工作。1.3研究综述图像分类问题一直是人工视觉领域的根本问题,小样本图像分类问题是图像分类问题的重要分支。近年来,它吸引了许多专家学者的关注,近年来已成为热门话题。最近举行的计算机视觉高级别会议发表了关于小样本图像分类问题的文章,如CVPR、yyyy和ICCV等文刊上都有相关文章杂志刊登。元学习技术广泛应用于学习场景的小示例中,以学习通过优化快速适应学习可以快速解决新任务的模型。Metanetwork和Adaresnet都是基于外部内存的方法。网络目标中的实例级和任务级信息分别存储为快速权重值和缓慢权重值[3]。MunkhdalaiT通过模仿条件变化神经元来实现快速适应,这些神经元通过从内存模块中检索到的特定任务更改来修改激活值。文献中提出了基于LSM的分类器参数更新规则,以学习短期任务知识和长期任务知识[4]。FinnC和abbeelp利用梯度更新方法优化人工智能模型的性能,并直接在高维参数空间中运行。mt-net算法与固定模型mam算法不同,侧重于精细拟合子集[5]。RusuA等人提出了一种将基于梯度的超参数优化与元学习相结合的双层方案方法[6]。度量学习是最常见、最直接的解决方案。您可以从已知类别的大量实例中学习特征提取功能。“未知”类别中的样例使用最近的邻近线分类按距离函数进行分类。与LeeY、ChoiS相同使用了欧式距离[7],FranceschiL使用了馀弦的相似性。此外,FranceschiL使用双向LSM和匹配网络中的关注机制来模拟支持图像和查询图像之间的上下文信息。除了测量从查询到支持图像的距离外,还提出了一种新的方法,将查询与特征空间中多个支持图像(通常称为类级别代表)的中心进行比较。将计算类代表,并使用欧洲风格的距离函数对最近的相邻行进行排序。也有一种利用馀弦相似性的方法[8]。另一方面,SnellJ、SwerskyK、ZemelR等利用一个小网络预测代理,并通过预测每个卷积层的层次元素规模和位移向量,进一步改进动态任务的条件特征提取器。与简单度量不同,SnellJ、SwerskyK、ZemelR等使用神经网络作为非线性度量,直接预测查询图像和支持图像之间的相似性,并创建包含查询图像和支持图像的类似图表[9]。基于度量的学习往往基于元学习,因为基于度量的学习往往在元学习中训练模型。迁移学习中需要解决的一个重要问题是迁移的内容和方式。因为不同的方法适用于不同的源-目标领域,不同的方法适用于传递不同的所需知识。文献中有一些典型的例子。一种用于深层模型的强大过渡方法是使用以前训练过的模型(通常称为FT)来执行新任务。以前在大型数据集中训练过的模型比随机初始化的模型具有更好的推广能力[10]。另一种常见的传递方法是利用事先训练好的网络作为脊椎骨,添加高级目标检测识别和图像分割功能。近年来,人们对使用移动学习的小样本学习技术越来越感兴趣。主要的想法是训练特征提取者有效地分离出以前从未见过的新类[11]。作者OreshkinB在《Tadam:以任务为基础的自适应指标,以少量尝试改进学习》的文献中,利用自学方法共同训练用于输出特征的其他旋转分类器,样本很少。提高设定精确度。目前的许多方法都是基于特征提取器[12]。QiaoS,LiuC在论文《通过从触发量预测参数实现低射图像识别》中,实现了距离L2最近的平均类分类器。将条目与类的代表最接近的类相关联[13]。2.小样本图像分类技术概述2.1小样本图像分类的流程小样本图像分类流程如图2.1所示,包括准备数据集、构建用于图像特征提取的网络和设计分类器三个步骤。以下对建立小样本图像分类流程的三个步骤进行具体介绍。特征提取分类器数据集 特征提取分类器数据集图2.1小样本图像分类流程图一般情况下,通常有两种处理小样本图像数据集的方法。一个是数据改进,数据设定为缩放比例和模式缩放,缩放比例是指指标延伸至资料的大小,模式缩放是指在增大幅度的同时,不同样品包含更多语义特征。训练模型时,如果每一个班级包含大量的样本,这些样本包含大量的图案,同时缓解了过度拥挤的问题,模型该类型具有较好的鲁棒性和泛化能力。除了图像样本数的放大外,图像特性的改进也是一种改进数据的方法;二不是小样本数据集的处理,只有少量样本在中,根据数据建模的特征,使模型适合数据。对于小型样本数据集,设计网络体系结构以提取表示强大功能的特征通常很重要。特征提取主要是为了适应数据分布建立特征提取模型,模型可以提取图像有效特性,图像特征的有效性可以解释为,对于模型,提取的图像特征可以为了获得更好的分类效果,图像得到了有效的表示。要提高图像特性的效率,请考虑将力机构和记忆机构等技术应用于小样本图像分类算法。分类器的设计取决于图像特性的有效性以及分类器与图像特性之间的适应性。分类器与图像特征之间的适应性可解释为,在假设图像特征有效的基础下,分类器最多可以区分不同类型的图像特征。通常用于对小型样例图像进行分类。他们大部分在卷积神经网络的最后一层用Softmax构建完整的连接层,或将k-近邻算法应用于提取图像的特征和分割重新生成分类器权重,以便将模型同时应用于源域数据集和当前目标域数据集。现有的元学习方法通常不研究将源域和目标域分类在一起的问题[14]。2.2小样本图像分类算法理论基础2.2.1神经网络卷积神经网络(CNN)是一个具有深层结构和大量卷积计算的超前神经网络,广泛应用于物体检测、人脸识别、单词识别和图像超分辨率等计算机视觉领域。yannlecun认为CNN的性质是一个多层次的感知,其特点主要是局部连接和分担负担。因此,使用较少的参数优化网络更容易。另一方面,降低了模型的复杂性,从而降低了网络过度配置的风险[15]。2.2.2残差网络2015年之前,很多人认为深层学习环境网络(通常包含更多参数)往往具有较强的表达能力,因此人们一直试图增加进化神经网络的深度,但何开明等人通过实验发现,增加神经网络的深度2015年,何开明等人提出的深层残馀网络(ResNet),有效解决了深层模型误差率随网层增大而增加的“退化”问题。目前ResNet已成为CNN最常用的特征提取网络,大多数常规小样本分类算法也采用ResNet12作为特征提取网络[16]。3.基于元学习范式的小样本图像分类算法在传统的图像分类任务中,培训集和测试集包含相同的类别。但是,对于小样本图像分类任务来说,训练集和测试集所包含的类别是完全不同的,即无接触。Vinyals等人在文献中提出了小样本图像分类任务的标准c-wayk-shot配置。c-wayk-shot配置是一个小型的样品分类任务,其中支持组只包含c个样品,每个样品只包含k个标记的样品。什么支持套件可用于培训模型,类似于传统的图像分类任务[17]。很明显,仅针对支持组件,分类器原则上可以进行培训。但是,以这种方式训练的分类器往往由于支持组中缺少标有标签的样品而不能令人满意。因此,需要元学习培训集,提取可转让知识,以便在支持集中进行更好、更少的样本学习。图3-1元学习过程ErhanD、bengioy等。,在文献中提出了一种基于集/任务的训练方法,在每次训练迭代过程中,从训练集中随机选择包含构成支持集的标记样本的c类。同时,选择所选c类中的一些剩馀样本组成一个查询集。支援建立构成区段/工作的查询。然后按段/任务进行培训。以这种方式培训的模型可以从许多段/任务中学习如何通过小样本成功分类的经验。归根结底,在试验阶段,配套只允许更好地学习较小的样品[18]。元学习过程如表2-1所示。3.1原型网络原型网络是一种基于黄j、rathodv等人在文献中提出的元学习范式的小样本图像分类方法。此方法使用更简单的模型对较小的样例图像进行分类。该方法的思想是通过元学习学习与西式距离函数对应的函数提取器,对函数提取器呈现的函数进行一定的处理,最后使用西式距离函数,图像被分类为最近的行[19]。3.1.1原型网络的整体结构原型网络的总体结构如图2-2所示,但原型网络有两个条目,一个是支持集图像,另一个是查询集图像。媒体集影像使用「图征萃取器」取得相应的图征向量。在此,对每个类的支持集图像特征向量执行平均值运算,得到每个名为原型的类的支持集图像的平均特征向量。查询中建立的图像还使用要素提取器获取相应的要素矢量,然后要素矢量使用欧洲距离方程式计算每个类的原型和相应距离。以softmax函数为基础,将相应的距离转换为概率分布形式,最后得到查询集图像的相应预测类别。图3-2原型网络的整体结构3.1.2原型网络的特征提取网络原型网络中使用的特征提取器不使用深层次的卷积神经网络。原因是使用深层卷积神经网络需要更多的更新参数,如果样本规模小,可能会发生严重的过量。因此,在原型网络中,采用了包含四个卷积层的浅卷积神经网络作为特征提取器。一个卷积层使用33个卷积核心,共使用64个滤镜。每个卷积图层的后面都有一个标准批处理图层,一个打开的图层没有。3.1.3原型网络的分类策略与训练策略原型网络采用的培训策略是上述基于碎片的培训策略,即在每个培训迭代过程中,从培训集中随机选择组成s支持集的c类,从每个类中随机选择k。选取一系列标示的样本。同时选择所选c类的一些剩馀样本组成查询集q。一组支持集查询构成一个段。然后,他训练成碎片单位。支持集映像通过特征提取器获取相应的特征矢量后,需要输入每个类支持集的相应原型。计算方法是查找每个类的支持集输入的平均特征向量,该平均特征向量是每个类的支持集:Zk其中Sk当建立的查询图像通过要素提取器获取相应的要素矢量时,将使用欧洲距离函数计算每个类的原型距离。然后,在softmax函数的基础上,我们将距离转换为概率分布的形式。以方程式表示,转换为(2-2):pθy=k分别计算每个类别对应的概率后,概率最大的类别就是查询集输入对应预测类别。最后,SGD优化和反传算法通过最小化查询集条目对应真实类的负对数概率函数来训练网络。3.2关系网络关系网络(relationshipnetwork)是一种基于ChenL、papandreoug、kokcineI、MurphyK、yuillea等文献中元学习法的小样本图像分类方法[20]。这种方法的想法类似于原型网络。在每种情况下,学习距离函数的特征提取器,对提取图像的特征进行一定的处理,然后使用距离函数对特征进行分类。区别在于关系网络中使用的距离函数不是线性欧洲距离函数,而是神经网络中学习到的非线性距离函数。3.2.1关系网络的整体结构图3-3关系网络的整体结构关系网络的整体结构如图2-4所示,关系网络有两个条目:支持集图像和查询集图像。关系网络中有两个模块,一个是特征提取器,另一个是关系比较模块。支持集映像和查询集映像均通过特征提取器获得相应的特性。然后,查询集的图像特征与每个支持集的图像特征密切相关,发送到关系比较模块进行比较,得到相应的关系评分,最后按关系评分排序[21]。3.2.2关系网络的分类与训练策略关系网采用的培训策略是上述基于片段的培训策略,即在每个培训迭代过程中,从培训集中随机选择构成s支持集的c类和每个类。已选取标记的样本。同时选择的c类中的一些剩馀样本构成查询集q。一组支持集查询构成一个段。然后,他训练成碎片单位。对于1-shot设置,将查询集合图像和样例集合图像,其中模块将通过要素提取器生成相应要素图的总和。并且特征图表和算子是相连的。在本文中,作者认为它是特征图表中的深层连接,尽管有其他可能的选择。使查询集中的图像要素映射与样例集中的图像要素映射一致[22]。此连接的要素图被发送到关系比较模块,该模块最终会产生样例相似性,表明它是介于0到1之间的标量。这种相似性也称为关系分数。在c-way1-shot配置中,关系网络为输入的查询集与培训示例集的每个示例之间的关系生成分数关系。因此,在查询集中输入的关系分数总数为c:rn=对于k-shot(K>1),将采样集中每个类中所有采样的特征提取器输出相加,形成该类的特征图。然后将此聚合类级特征图与上述查询图像的特征图合并。因此,无论是在1次尝试配置中还是在k次尝试配置中,查询示例中的关系分数数始终为c。关系网是一个使用平均二次误差损失函数(MSE)训练的模型,目的是将关系评分返回到基本真理:匹配对的相似度为1,不匹配对的相似度为0。应该是吧。最后,使用Adam优化程序优化模型[23]。3.2.3关系网络的网络结构与原型网络相似,关系网络采用浅卷积神经网络,以四个卷积层为特征提取器。每个卷积图层包含64个滤镜中的3×3卷积、一个批量标准化图层和一个ReLU非线性激活图层。与原型网络不同的是,关系网络在前两个卷积层后面只有一个最大分组层2x2,之后没有两层卷积,目的是要在关系比较模块中进行更多卷积。关系比较模块由两个完全相连的卷积块和两个层组成。每个卷积图层包含64个滤镜中的3x3卷积、一个批量标准化图层、一个非线性中继激活图层和一个最大2x2分组图层。两个完全相连的层分别是八维和一维。第一个完整连接层的后面是rel非线性激活层,第二个完整连接层的后面是Sigmoid层,其中网络体系结构产生合理的分数[24]。4.总结近年来,深度学习图像分类算法发展迅速,得到了成功的应用。但是,这些受监控的深度学习模式需要大量的标签数据和多次迭代才能进行培训。它的高标签成本极大地限制了在需要一个全新的预测类别时传统方法的应用。更重要的是,在这些特殊类别中可能难以获得大量标签样本。因此,近年来,少数签名样本下的实施情景引起了学院的关注,是当今深入学习的主要研究方向之一。从小型样本图像分类算法的研究中,我们可以看出小型样本图像分类算法主要涉及关系网络和原型网络的两个方面。这两种方法均通过向要素提取器添加距离函数对小型样例图像进行分类。不同之处在于原型网络搜索每种样品类型的原型,并使用固定距离函数对小型样品图像进行分类。另一方面,关系网络使用可学习的非线性距离函数对小样本图像进行分类。这些是基于元学习范式的典型小样本图像分类方法。

参考文献:DongX,ZhuL,ZhangD,YangY,WuF.FastParameterAdaptationforFew-shotImageCaptioningandVisualQuestionAnswering[C].In:Proceedingsofthe26thACMinternationalconferenceonmultimedia.2018:54-62.]BrockA,LimT,RitchieJ,WestonM.SMASH:One-ShotModelArchitectureSearchthroughHyperNetworks[C].In:InternationalConferenceonLearningRepresentations.2018.MunkhdalaiT,YuH.Metanetworks[C].In:Internationalconferenceonmachinelearning.2017:345-355.MunkhdalaiT,YuanX,MehriS,TrischlerA.Rapidadaptationwithconditionallyshiftedneurons[C].In:InternationalConferenceonMachineLearning.2018:5898-5909.FinnC,AbbeelP,LevineS.Model-agnosticmeta-learningforfastadaptationofdeepnetworks[C].In:InternationalConferenceonMachineLearning.2017:1856-1868.RusuA,RaoD,SygnowskiJ,VinyalsO,PascanuR,OsinderoS,Hadsell,R.Meta-learningwithlatentembeddingoptimization[C].In:InternationalConferenceonLearningRepresentations.2019.LeeY,ChoiS.Gradient-basedmeta-learningwithlearnedlayerwisemetricandsubspace.[C].In:InternationalConferenceonMachineLearning.2018:4574-4586.FranceschiL,FrasconiP,SalzoS,GrazziR,PontilM.BilevelProgrammingforHyperparameterOptimizationandMeta-Learning[C].In:InternationalConferenceonMachineLearning.2018:2537-2548.SnellJ,SwerskyK,ZemelR.Prototypicalnetworksforfew-shotlearning[C].AdvancesinNeuralInformationProcessingSystems.2017:4078-4088.SungF,YangY,ZhangL,XiangT,TorrP,HospedalesT.LearningtoCompare:RelationNetworkforFew-ShotLearning[C].In:ProceedingsoftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.2018:1199-1208.LiuY,LeeJ,ParkM,KimS,YangE,HwangS,Yang,Y.Learningtopropagatelabels:Transductivepropagationnetworkforfew-shotlearning[C].In:InternationalConferenceonLearningRepresentations.2019.OreshkinB,RodríguezLópezP,LacosteA.Tadam:Taskdependentadaptivemetricforimprovedfew-shotlearning[C].In:NeuralInformationProcessingSystems.2018.QiaoS,LiuC,ShenW,YuilleA.Few-ShotImageRecognitionbyPredictingParametersfromActivations[C].In:ProceedingsoftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.2018:7229-7238.PanS,TsangI,KwokJ,YangQ.DomainAdaptationviaTransferComponentAnalysis[J].In:IEEEtransactionsonneuralnetworks.2011;22(2):199-210.YangJ,YanR,HauptmannA.AdaptingSVMClassifierstoDatawithShiftedDistributions[C].In:IEEEInternationalConferenceonDataMiningWorkshops.2007:69-76.WeiY,ZhangY,HuangJ,YangQ.Transferlearningvialearningtotransfer[C].In:InternationalC

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论