




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
基于Unet神经网络的作物叶部病害图像分割方法研究摘要病害叶片图像分割是基于图像处理和计算机视觉技术的作物病害识别研究中的关键问题。其目的是将病斑区域(感兴趣区域)从叶片图像中分离出来,以便后续在此基础上进行特征提取和病害诊断。为了提高病斑图像的正确率,图像分析和识别都需要比较高的标准。因此图像分割多年来一直得到研究人员的高度重视。目前已有多种病斑分割方法被提出,传统的方法有阈值分割法、边缘检测法、边界追踪法和区域分割法等。但是植物的病害图像均为复杂情况下的,环境的光影、病斑图像的不规则、病斑颜色的深浅都是能够直接影响检测结果的。所以传统分割方法往往效果较差,继而会影响后续的病害诊断识别,不能满足当前的作物病害识别系统的实际需要。因此,发现一种能够权衡复杂植物病斑的图像分割算法一直是研究人员想要突破的瓶颈。近年来,随着人工智能的迅猛发展,大量基于机器学习技术的图像分割方法被提出。其中,U-Net神经网络因其良好的分割性能被成功应用到了医学图像和遥感图像分割中。其采用编码-解码结构,具有可适应很小的训练集、可用于不规则影像分割和分割准确率高等优点。本课题拟将U-Net网络应用于病害作物病斑图像的分割中,以实现对复杂环境中病害叶片图像病斑的自动分割,为后续病害的诊断识别提供支撑。关键词:U-Net;图像分割;叶部病害;诊断识别目录TOC\o"1-2"\h\u12302摘要 I28226第一章绪论 1307641.1选题目的与意义 1203471.2国内外研究现状 234171.3论文主要研究内容和章节安排 324460第二章实验材料与方法 4327662.1实验材料 4271882.2基于U-Net模型的病害图像分割方法 522242第三章模型训练与实验结果分析 1294983.1U-Net模型的训练 12315193.2实验结果分析 13324353.3测试结果 14194473.4不同分割方法的效果对比 1624926第四章结论与展望 17230454.1论文工作总结 17297394.2工作展望 1819797参考文献 19绪论1.1选题目的与意义近年来伴随着我国自然资源和环境条件的不断改善,各类植物的生长环境也发生了不同的变化,生长环境变得复杂了起来。也就是说,植物发生病害的情况也多种多样,这样,对植物生长的免疫力有了更高的要求,但是植物也因此免疫系统低下,发病率也变得越来越高。而其中,植物叶部的发病率是最高的,所以,为了减少其造成的损失,无论是自然环境的损失还是农业生产者的经济损失,有效预防植物叶部发病是我们需要更为深入研究的课题。为了不影响植物大部分病害的发生和情节恶化所造成的社会稳定和健康发展,目前,大量相关领域研究专家已经发现,植物中大多数的产生的病害主要是发生在植物自己的叶片上,通过观察和检查叶片的特征便可以发现,也就是说这样观察和发现,能够观察得出并判断得出的植物病害和疾患类型。传统的植物疾病诊断和判定方法主要是依靠自然和人工的肉眼进行观察,这一方法不仅仅费时费力,而且需要大量的人力资源。并且许多植物病害在早期病斑的面积比较小,人工手段很难判断出病害的类型。所以,随着农业信息化的发展,人工智能迅猛地进步,大量基于计算机视觉识别技术的图像分割方法被提出。使用计算机视觉图像识别技术对不同种类植物病虫害防治实现了精准识别。为了实现复杂情况背景下病害图像识别逐渐地成为该领域当前所研究的热点和技术瓶颈,相关研究成果也仅仅是针对简易情况背景下的一两个特定区域的病害而进行,且其分割速度低,实际使用效果不佳,这让计算机视觉和图像识别的相关技术被制约了,所以,研究和寻求出一个可以把复杂环境影响降到最低的植物叶片病害图像分割的方法成为了目前具有科学研究意义的一件事。其中,U-Net神经网络结构因其良好的分割性能被成功应用到了医学图像和遥感图像分割中。其采用编码-解码结构,具有可适应很小的训练集、可用于不规则影像分割和分割准确率高等优点。本研究课题拟将U-Net网络应用于对病害作物叶片和病斑的图像分割中,以实现真实农业生产场景中各种病害作物叶片和病斑图像的自动分割,为其后续病害诊断识别工作提供了支撑。1.2国内外研究现状早在1989年,日本学者穗波信熊便提出基于图像分析技术和模式识别技术的植物叶片病害诊断方法,这一方法能够有效快速地诊断农作物地病害。时间到了2009年,国内专家CuiDi等人便提出使用OTSU算法分割植物叶片病害图像,并用K-Means聚合BP神经网络识别技术识别出大豆叶部锈病的病害图像[1]。2011年,袁媛等人提出一种方法,这种方法是基于先验信息的对黄瓜病害叶片的分割模型[2],这一模型也是新的研究发现。同年,王守志提出一种方法,这种方法是基于并行PCNN的玉米病叶图像分割研究方法,这一新的方法让农业领域的图像识别进入了计算机视觉识别技术的时期。传统的植物病害图像分割通常依靠人工来进行判断,这一类的方法效率低下、误差也大,而且非常依赖个人的经验,如遇到经验不足的学者,结果就天差地别。国内外学者后来都运用了计算机视觉和图像处理技术,这才开始在大量农作物上面作文章,实现了病斑分割方向的研究。国内的LiXinjiang等人在HSV颜色空间下实现红枣叶片的病斑自动分割。Ma等人利用基于条件机场的图像分割方法实现了识别黄瓜霜霉病的病害识别[3],识别率高达90%以上。Pu利用BP神经网络模型实现水稻的病斑图像分割,也取得了一定成效。以上的方法都是用于处理作物的特定的病害识别,且普适性比较差,分割的效果也不算理想,有一定的不足。1.3论文主要研究内容和章节安排针对以上不足,本课题采用改进于FCN(FullyConvolutionalNetworks)算法原理的U-Net网络结构并行运算机制拟解决植物病害图像的病斑分割问题[4]。为了实现一种具有高度可扩展性的复杂动植物病斑分割算法,对病害的正确辨认具有十分重要的指导价值。U-Net神经网络因其良好的可以分割性,U-Net神经网络因其良好的分割性,能够满足当前的作物病害识别系统的实际需要。目前该模型已运用到医疗、交通、遥感图像等领域[5]。虽然有研究人员改进该模型解决农业领域问题,但是数量上比传统方法来说较少。所以本文将基于U-Net神经网络模型,对常见的植物番茄的叶部病害进行病斑分割。本课题将基于U-Net神经网络模型的常见植物番茄的叶部病害图像实现病斑分割研究拟一个论文思路以及章节安排。即第一章提出所选题目的目的与意义,结合国内外的研究现状提出与传统方法不同的分割模型,也就是U-Net网络模型;第二章开始准备实验的材料,实验的材料选自植物健康图像存储库,然后根据U-Net模型的病斑图像分割方法进行实验;第三章实验开始,先进行简单的U-Net模型训练,以较少的训练集对不规则的图像以及带有光影遮挡的病害图像进行分割实验,接着,结合分割图像的实验结果进行分析以及测试;第四章将会对此次实验的进行结果进行简短的工作总结以及对实验工作的展望。最后,将对此次实验研究的所用到的论文、文献以及老师的帮助致谢。实验材料与方法2.1实验材料本实验图像采集自一个开放的植物健康图像存储库,可用于开发移动疾病诊断。于是,收集了有关番茄叶部的各种常见病害图像如早疫病(Earlyblight)、晚疫病(Lateblight)、花叶病(Mosaicvirus)、叶霉病(Leafmold)、细菌性斑点病(Bacterialspeak)、轮斑病(Targetspot)、黄曲叶病(Yellowleafcurlvirus)以及二斑叶螨病(Two-spottedspidermite)等各20张,总共记160张图像,每张图像的分辨率是1250×700。从160张图象中集中随机挑选80张作为图像训练集,80张作为测试训练集。在对模型的训练过程中将采集的训练集之前送入的各种网络图像模型一样需要直接进行初始自动化的测试参数分析训练;就是利用送入验证集的网络图像分析可以实现对模型在进行训练后的每个各种测试参数中的值都可以进行了自动调优;最后就是运用送入验证集的网络图像可以来进行评估该网络模型在进行训练时的测试结果。为了更好地设计加速现有网络管理模型的技术训练工作流程,提高了现有网络管理模型的图像数字化和图像分割化的效率[6],将一个数据集中的所有网络图像都统一地分割裁剪成256×256个小的像素。各类叶片疾病形成斑点的主要病斑情况如下,见图1所示。早疫病花叶病叶霉病细菌性斑点病EarlyblightMosaicvirusLeafmoldBacterialspeak晚疫病黄曲叶病轮斑病二斑叶螨病LateblightYellowleafcurlTargetspotTwo-spottedspidermiteVirus图1番茄病害图像样本Fig.1Imagesampleoftomatodisease对于真实且复杂条件下的不同情况,待检测图像的被测角度、光照、背景等情况也变得比较复杂,对于算法的鲁棒性(Robust)也提出了更高的技术要求,因此很难通过一些传统的图像分割方法,例如:边缘检测、图像纹理特征、阈值分割等等方法解决此类问题。首先,需要提高图像的分辨率也就是质量,然后对图像集进行预处理。其作用是削弱和消除和图像无关的所有信息,也就是光影还有病斑大小不规则等,这样预处理图像,增强了有关信息的检索可以及尽量减少或更多地简化数据,这样,就提升了图像质量,增强了被分割图像被分割和识别的可行性。本文主要讨论一种基于U-Net神经网络的病斑图像分割方法,以两组模型并行运算实现对图像病斑处理的语义分割任务。所以我们有了一个更加高质量的视频图像,尽量减少图片中的噪音,提高了图片中的目标和背景之间的对比度,也就是我们可以通过这种方式来强调或者是抑制视频中的一些细节[7]。目前,彩色图像预处理已经替代灰度图像成为了图像处理部分较为重要的实验方法。本课题也主要针对彩色图像进行研究,充分利用彩色图像的优点摒弃缺点[8]。2.2基于U-Net模型的病害图像分割方法2.2.1U-Net模型介绍U-Net神经网络模型是2015年提出的一种基于U-Net网络扩展的图像分割算法,基于FCN的改进结构,多用于医疗、卫星遥感等语义分割场景[9]。其网络结构如图2所示。图2U-Net算法结构图Fig.2U-Netalgorithmstructurediagram整个U-Net网络结构如上图所示,竖向的数字表示特征图(FeatureMap)大小,横向的数字表示通道数,网络结构与一个英文字母U:在网络的左半边首先需要进行卷积+池化,对于在输入图像下的采样;然后网络的右半边经deconv逆卷积方式进行上一次的采样,同时,裁剪前面对应的一个低层特征图,使得下一边和右边的特征图尺寸大小与右边的特征图相同,并对其进行了融合(这里的特征图融合指的是拼接,比如说在低层维度为280×280×128,高层维度为200×200×128,先将低层裁剪为200×200×128,然后进行融合,融合后的featuremap为200×200×256);接着再次向下上采样。重复这个步骤,直到我们获得一个输出388×388×2的特征图,最后经过Softmax获得像素级图像分割结果[10]。2.2.2基于U-Net模型的图像分割本课题研究采用了深度机器学习的神经网络模型中的U-Net网络模型结构来作为番茄病斑图像分割的一个重要基础性网络结构,该模型结构通过对多幅番茄叶部病斑图像进行训练,学习获取并识别和分析番茄叶部病斑图像中的各种病斑地点和区域特征,实现了从输入端到输出的终极路径番茄叶部病斑图像的分割[11]。具体的分割算法流程如图3所示。图3番茄叶部病害分割方法流程图Fig.3Flowchartoftomatoleafdiseasesegmentationmethodxi本文对番茄叶部病斑图像的分割算法如下所示:(1)将最初的待分割的图像输入到U-Net神经网络模型中进行卷积操作的到最开始的特征图。卷积层主要包括H个大小为H×H×G的卷积核,将原始图像与卷积核进行相关运算后,使用非线性激活函数增强t卷积层的特征提取能力,经过运算后可以得到H个大小为(K-G+1)×(K-G+1)的特征图。卷积层的具体运算公式如(2-1)所示。式(2-1)中,为表示第l-1个输入隐层的送出输入,为第l个隐层输出和输入隐层的送出输入映射图像,表示第l个输入隐层的输出映射输入权重赋值矩阵,为第l个输出隐层的输入映射偏置矩阵。为了快速激活原始线性问题函数,用来快速解决原始化的线性问题函数在编程语言中与其表达能力之间差异较大时经常存在的一种复杂问题称为函数,其中原始线性问题函数的表达式为其定义函数为fx=max(0,x)。为了有效缩短结构模型的开发培养工作时间,降低卷积和分层对于网络结构模型的开发工作量,在卷积和分层之后再额外添加一个数据池化层。池化的图层操作主要研究目标就是对通过卷积层采样输出的一个不同特征点的图和点进行下一次图层采样,xiai(l)式(2-2)中,l表示当前池化的层数,down为下一次采样的操作,ω为权值矩阵,bs在经过池化层后再进行下一次采样操作,从而降低了图像的分辨率,因此可以通过反卷积和上采样,这样可以重置被检测图像最开始的分辨率和大小。其中,上采样这一操作主要是为了放大图像,能够将放大后的图像显示在更高分辨率的显示设备上,也就是电脑屏幕上,这一操作也成为图像插值。逆卷积就是利用这一方法,重新让待分割的图像恢复到原来的分辨率。(4)U-Net神经网络主要用于执行的原始特征提取图分类是一个从从终端开始到端至终点的逐层向像素特征分类处理过程,使用卷积分类层和数据池化像素分类处理层以及其它激活的分类函数对终端输入的原始特征图像数据进行特征提取后,需要将这些被特征提取后的原始图像特征提取图分别作为一个原始输入以及逐像素分类作为输入分类层以指令作为标准的一个像素分类处理层并用来对其图像进行原始特征提取图像的分类。常见的代码分类器符号有s、softmax、svm等。分类层具体参数计算公式及其列表说明如下:Softmax(xi)=式(2-4)中,ωi为卷积在经过了分类层次对像素进行分类以后,要求我们利用损失函数来评价模的训练效果,训练集与测试集之间的损失差值越小就说明模型的训练效果也就好。分类层所需要使用的损失函数具体的计算公式列出:L(P)=1式(2-5)中,P为一个正在网络虚拟模型中我们所认为需要同时进行网络学习的一个重要计算参数,是在每一个标注训练检测集上第i张被认为用于标注训练的网络图像,N中则是每一个标注训练集的被认为用于标注病害红斑图像的像素数量,为每一个被认为用于标注训练集的一个病害红斑图像,为每一个正在网络虚拟模型中被认为用于病害检测的一个病害红斑现象图像,L(P)则认为是通过分别计算被认为用于病害标注的一个病害红斑现象图像和被认为用于标注检测集的病害红斑现象图像之间的欧氏距离而计算获得的概率损失。2.2.3基于U-Net模型的作物叶部病斑图像分割模型结构目前在应用于计算机视觉图像识别技术这一领域中针对图像分割技术问题常用的网络模型结构主要有FCN-8s、Deeplabv3、SegNet等网络模型,在这些网络模型中对所有输入的图像都是经过特征提取之后直接对所有特征图像的信号和像素数据进行了分类,通常情况下会因为其中的下一个采样层的存在而导致所有输入图像的分辨率降低,从而大大降低了像素值以及分割精度的准确性[12]。为了彻底解决目前传统的图像分割技术在植物叶片和树木上的病斑影像分割中对于图像处理效果不佳的问题,才首先提出U-Net神经网络的模型[13]。该网络模型主要由数字编码电路网络和数字解码信息网路两个大部分结构组成,编码电络网路在改变传统的数字编码电络网路结构基础上也对此进行了很多改善,其中,编码网络的结构前面的部分主要有卷积层解码层、数据激活层,还有批量的并归一化层这三部分组成。在这样几个组成部分之后又增加了最大的池化层,也就是批归池化层。就像刚才所说的,池化过程就是在全部的编码处理之后,整个处理的网络对于每一个不同编码层的每一个池化都要有池化的记录[14],通过这种操作进行池化的记录因子就会对全部的要编码要处理的数据进行上述的提取样本的操作。解码密集网络的基本结构与已在编码密集网络相互对称,解码密集网络主要工作目的之一就是在于用来对已在编码密集网络中所记录的最大稀疏池化层数据索引进行数据分析进行上传和采样,之后,将分析所得出的稀疏优化后的特征图用于在解码网络层中记录现有的卷积优化层索引数据,将这些数据集放入U-Net神经网络进行训练和计算,从而快速获取密集网络数据库的稀疏特征结构图。在解码网络层的最后一层,这一层是由上述所提到的Softmax分类器来工作组成,Softmax分类器可以将每一个待解码像素进行独立的分类,并且,能够将分类所得到的每一个解码像素分类后的结果输入解码网络层进行解码图像的分割。本课题主要提出的全卷积模型U-Net模型神经网络改进模型的基本结构,U-Net变形模型通俗来说也可以就是全卷积模型神经网络的一种基本变形,主要它的基本结构模型是由于这篇论文文章中的一位作者自己绘制设计出来的,它的外形似于拉丁字母中的U,因此这个变形模型得以命名为变形U-Net。整个搜索神经网络大致由两个主要的部分共同一起组成:一个搜索网络路径(Contractingpath)和一个拓扑搜索路径(Expandingpath)。搜索路径主要目的就是通过一个用来实现捕获和识别图片中的各种上下文信息(ContextInformation),和之前不同的拓宽搜索路线的目的就是为了能够对待分割的植物叶部病斑图像进行较为精准的定位。本文所研究的U-Net图像识别分割方法能够发现的一个重要原因就是在深度学习以及机器学习的时候,需要大量的sample以及算法资源,所以,U-Net通过基于FCN(FullyConvultionalNetwork:全卷积神经网络)做了一系列改进,并且使用了数据加速器来增强即可对一些比较少样本的信息技术数据进行培训,特别重视与医学技术方面密切相关的信息技术数据(因为医学技术中的信息比一般我们所能够观察得到的医学图片及其他信息技术数据的收集和获取费用成本更高,不管是在时间上或者资源上的消耗),所以U-Net的问题已经开始出现,这对于我们进行深度学习应该对于使用比较少样本的信息技术和医学摄像技术来说也是非常有意义和必要的。本文提到的U-Net模型网络就是这样通过改进于FCN,让待分割的图像集进行了一些改良,在另一个较为重要的方面,不仅仅是简单的把待分割的图像进行编码和解码,而是独立于U-Net自身的分割技术。这一技术,让U-Net为了能够让我们图片能够真正做到精准的精确收缩和精准定位,从这个精准收缩的处理路径上把它进行提取得整合出来的所有局部特征像素中的特征信息都会在一个阶段上升式的采样(Upsampling)这个过程中与新的局部特征结构图(FeatureMap)信息进行了互相结合(其实比较直白的一句话说就是将一些局部像素信息和一些全局像素信息进行相结合,通过这些局部信息的进行整合我们可以大大提高对局部像素各个节点不同类别的信息预测性和准确性),以最大最有限度的方式减少和重复保留前面所述下一个阶段降低的下采样(Downsampling)的这个过程一些重要的是特征图的信息。而为了尽可能多地能够让整个图像网络中的结构更高效地正常地在运行,结构中往往也总是没有完整的全动态连接层(FullyDynamicConnectionLayer),这样子就已经可以在很大的一定程度上完全降低和大大减少了那些需要长期培养和进行训练的其他各种网络参数,并且还可以得益于特别多的是这种u型网络结构使它能够很好地准确保留整个图像网络中的各种基本信息。收缩的分层路径上面也就是每两个3×3的卷积的分层在然后会跟一个2×2的最大下降池化卷积的分层(其收缩步长大小为2),并且每个卷积层后面系统都会自动采用一个Relu激活收缩函数,Relu之后是池化步骤,即U-Net会降低卷积特征的采样率(以节省处理时间),从而减少特征图的维数,同时仍保留最关键的特征信息,此过程常用的算法称为最大池化。该方法是用来对原始的压缩图片和原始视频采样进行一个最大下降池化采样的收缩操作,除此之外,每一个进行下降取样率的过程中系统都会自动添加一杯收缩通道的取样次数。在反向扩展收缩路径的逐步向上提高采样中,每一步路径都会自动设置为具有一个2×2的卷积分隔层和一个两个3×3的卷积分隔层,于此同时,每一步路径也都会提高上采样部分,这一操作让每一卷积分隔层都有了编码和解码的过程。U-Net神经网络模型在系统中还有一个非常重要的一个特点,那就是它基本上就是可以对任何一种形状或者任何尺寸的矩形图像文件进行卷积或者运算式的操作,尤其当它是任何一个大的矩形图像。第三章模型训练与实验结果分析3.1U-Net模型的训练3.1.1实验平台计算机图像处理需服务器具备较强性能的CPU和GPU支持,实验平台操作系统为Ubuntu21.04,计算机内存为32GB,使用英伟达GTX1660Ti8GBGPU显卡,它搭载Intel®Corei7处理器。表3-1试验平台配置表Table1TestplatformconfigurationtableCPU型号Intel®Corei7CPU个数1内存4×32GB硬盘1.8TB操作系统Ubuntu21GPU型号GeForeceGTX1660TiGPU个数1GPU显存8GB3.1.2训练数据预处理本文将在U-Net神经网络模型中,将采集到的这160张待检测图像输入神经网络模型中的数据,将数据进行预训练,然后通过对待检测图像的预处理,减少其被光影、病斑大小不规则、病斑不明显的影响,减少其图像中的噪音。通过这一预处理之后的图像统一尺寸,这样,便可以对训练集的图像进行标注。本文将通过PS对数据区的待检测图像进行标注,将叶片部分的背景像素区域标注为256,然后对其他除了叶片的部分像素区域标注为0。把它们区分开来。3.1.3实验参数设置本文通过尝试使用用于带动网络测量响应因子的一种小批量随机数据梯度数值下降测量算法为例来分析训练这种网络测量模型。为了有效地可以保证卷积模型的非线性,提高卷积函数层的模型学习工作效率,采用它的relu函数可以作为一个被模型激活的卷积函数。由于手机视频显存中的文字数据集太多以及由于计算机视频显存的数据局部大小限制,将数字batchsize分别大小设置成32、64和128个不同字符串的不同大小。为了有效率地保证电脑网络的学习训练工作效率,将初始化的学习成功率参数设置为0.01,动量变化因子数值设置参数为0.9,batchsize参数设置为128。在数据经过1200次迭级换代以后,网络学习模型的数据训练学习速度将可能会逐渐由大变慢,因此把数据学习的效率从0.001。3.2实验结果分析利用本文所述作者提出的两种新型网络测试模型分别与dafcn、deeplabv3和ersegnet3对模型数据进行了综合比较[15],采用的两种网络测试集均为经过大量的网络数据分析拓展以及扩充后的120幅度番茄叶片的部位性疾病症状斑点的全景影像,分别等于是它们利用了一个目标完整性精度(com)、全局观测精度(globalacc)和iniou(intersection-overunion)3个重要的测量指标并也可以用来作为一个用来衡量如何划分研究结果的既可重要性和不可评价性的指标。全局高和低精度准确地分别表示了分割番茄叶子根部叶片病理花斑病理影像中整个番茄叶子根部正常目标像素部位区域和其他病理叶斑影斑的像素部位区域被正确地进行分类的直观结果;正常目标完整高精度分别代表了被分割后整个番茄叶子根部的正常病理影斑像素区域与其所标记的病斑图像中正常目标像素区域之间的一定像素比例;iou分别代表分割番茄根部叶片上的不同病理叶斑病理影像像素图象在其中的不同病理影斑像素部位被错误地进行划分而形成了不同的正常像素部位。3个企业评估评价指标的一个数学基本表达式分别可以是:COM=TPTP+FN(3-1)GlobalAcc=TP+TNTP+TN+FN+FP(3-2)IOU=TPTP+FP+FN(3-3)表3-2U-Net框架参数表Table3-2U-NetframeworkparametertableInput_size(256,256)Batch_size8Epoch100Learning_rate0.001Gamma0.1Learning_rate_decay(epoch)20GPU_num1GPU_memory8GTrianingtime25h18m*式(3-1)中,TP(TruePositive)用来代表一个目标正确图像的每个像素量和一个数目;式(3-2)中,TN(TrueNegative)代表对于背景进行正确划分的像素个体数量;FN(falsenegative)表示一个目标被错误地划分为一个背景像素的数量;式(3-3)中,FP(FalsePositive)是指表示将一个背景错误地划分成一个目标像素的数量[16]。为保证算法执行效率,使CPU运算时间上不超过1.3s,经过反复验证后,我们尝试采用256×256和128×128作为缩放后的输入尺寸。对比了输入不同尺寸,以及是否增加光照等因素变换后对精度的影响。最后两组U-Net模型的测试结果如表3-1、表3-2所示。由表3-1、3-2可知当输入尺寸为256×256IOU值分别达到了91.23%和92.03%。3.3测试结果为保证算法执行效率,尽量让运算时间上不超过1.3s,经过反复验证后,我们尝试采用256×256和128×128作为缩放后的输入尺寸。对比了输入不同尺寸,以及是否增加光照等因素变换后对精度的影响[17]。最后两组U-Net模型的测试结果如表3-1、表3-2所示:由表3-1、3-2可知当输入尺寸为256×256,IOU值分别达到了91.23%和92.03%,且两组测试数据运算时间都在1.3秒内[18]。由于病斑模型的特征过小可能会造成一定的漏检,从两个模型的IOU指标上也能发现叶片的分割效果略优于病症的分割效果[19]。表3-3U-Netdisease测试结果表Table3-3U-NetdiseasetestresultstableInput_size(n)ChangebrightnessMeanIOUGPUtimeCPUtime128N0.916030ms60ms128Y0.907430ms60ms256N0.918480ms125ms256Y0.925280ms125ms表3-4U-Netofleaf测试结果表Table3-4U-NetofleafdiseasetestresultstableInput_size(n)ChangebrightnessMeanIOUGPUtimeCPUtime128N0.932130ms60ms128Y0.926330ms60ms256N0.942080ms125ms256Y0.952280ms125ms近年来,以深度学习为基础展开的农作物病害识别研究已较为成熟[20]。国内外研究人员利用U-Net神经网络对农作物病斑分割研究也取得了一定成效[21]。如国内的任守纲[22]等采用了19120张番茄病害图片,通过反卷积引导的网络模型实现病斑分割IOU值达到74.63%,国内的王振[24]采用黄瓜病害图片共计1530张,利用改进卷积神经网络实现番茄病斑分割IOU值为71.34%。与之相比,本文研究采集的原始病害图片每种为20张,总计160张,数据集少于上述两类方法。在U-Net神经网络模型结构中若训练数据特征过于复杂、训练数量少,会导致模型过拟合[23]。若是直接增加原始图像采集数量又会大量增加的人力和时间成本。在本研究中将ImageNet数据集作为U-Net算法模型的神经网络前的网络参数并进行初始化,而其他网络层参数则使用随机初始化的方式进行训练。通过模型迁移技术提高训练度,实现在有限的原始数据集中提高语义分割的准确性,本研究模型经测试叶片和病斑的分割IOU值分别达到了91.23%和92.03%,分割效果优于上述两类方法。研究算法模型目的在于更好的为用户提供服务。并且,有个别相关的研究专家开发出一个手机的APP,APP里面的内容由病害识别系统组成,这一组成的框架式采用了较好的后台服务,这样的实现方式可实现在手机APP中快速识别目标,但使用范围比较局限。本研究算法服务系统通过开放API提供对各种算法元数据的访问以及算法调用。算法服务系统提供标准可扩展的算法调用接口,可同时为手机移动端、PC、高清枪机等设备提供了非常有效的图像识别手段[26]。本研究模型对番茄病害图像的分级测试取得了一定成效,但依然存在以下可改进的空间。(1)本模型无法对同一植株上同时存在两种以上病害的番茄叶片分级。若将同时存在两种以上病害的叶片放入模型测试,模型会统计所有病斑所占面积,从而导致结果不准确。未来考虑根据病斑特征的不同,在分割叶片与病斑的基础上,同时分割不同病害的病斑,再对多种病斑分别加以测算。(2)本研究目前只能针对叶部病害分级鉴定。本研究中的模型加以参数调试可运用到其他作物上,但在农业中还有很多病害特征不是呈现在叶片上,也存在于根部、茎部、果实部位。以番茄为例,早疫病的病征主要呈现在番茄叶部上,而叶部不同于叶片是平面图像的问题,叶部三维图像为病害区域面积测算增加了难度,目前国内外研究中仅有医学领域将FCN图像分割技术运用到三维图形领域。对三维空间中农作物的病级判定同样重要,这也将是这次论文未来研究的重点。3.4不同分割方法的效果对比为了测试本课题所提到的U-Net神经网络模型分割叶片病害图像的效果,本文将采用以往的传统分割技术方法进行番茄叶部病害图像的分割和实验。在此次实验中,依次选择了五个不同的传统图像分割网络的结构:U-Net,FCN-8s,Deeplabv3,SegNet和JointNet,还有一种区别于传统的图像分割方法的另一种选择:SVM。图7所示为各种图像分割方式的显示。从图中我们可以清楚地看到,fcn-8s具有明显的错误分类现象。deeplabv3的分割处理效果比fcn更佳,但它们都只能够分割比较大的病害,导致了对于较小型病害的分割处理精度不高。全卷积,SegNet和JointNet与本研究方法中的模型架构相同,然而这三种方法都分割了西红柿的详细特点。病变疗法效果低,附着的病变区域不能被完全分割,正常区域的一部分被错误地划分为病变区域。SVM这种与传统分割方法具有着与疾病基本相同的图像分割效果,这两种分割方法都是可以更精确地对疾病进行分割,但是如果使用数学形态学的处理,结果在图像中局部边缘的信息可能会发生丢失甚至很小。病害区域似乎过度分割;本文强调病害的完整性。小病变的完全分割。对于各种度量分割技术,在测试集的图像中均比较出了度量分割的效果,度量标准如表3-4所示。原始图像FCN-8sDeepLabV3U-NetSegNetJoinNetSVM图7各种分割方法的分割结果Fig.7Segmentationresultsofvarioussegmentationmethods表3-5不同分割方法对评价指标的影响Table3-5Theimpactofdifferentsegmentationmethodsonevaluationindicators分割方法训练时间/h单张图像分割时间/sCOM/%GlobelAcc/%IOU/%FCN-8s3.231.4386.4187.5683.45DeepLabV32.891.5688.5288.3285.63SegNet2.541.3691.8792.7987.95JoinNet2.381.2992.5293.0888.73SVM1.142.3894.1494.8389.86U-Net2.311.2496.3495.8791.23与其他各类的分割方法相比较,本文用到的基于U-Net网络模型结构的病斑图像分割方法在每张图像的分割时间上更短,实现在有限的待测试训练集中提高语义分割的准确性,本研究模型经测试叶片和病斑的分割IOU值分别达到了91.23%和92.03%,分割效果优于上述5类方法。本研究模型对番茄叶部病害病斑图像分割的实验取得了一定的成效,由于本研究模型目的在于更好地、高效地实现病斑图像分割,所以在研究期望上是基本上达到并且实现了。第四章结论与展望4.1论文工作总结本文所提出的基于U-Net神经网络结构模型的植物叶部病害图像分割方法区别于传统的分割方法,其通过并行运算实现对植物病斑分割的任务完成得比较成功,U-Net算法是比较早的一种利用多尺度特征对番茄进行语义分割任务的算法之一,其U形结构也激活了后面许多算法。但其也存在几个不同的缺点:有效的U-Net大大增加了该模型的设计难度和通用性;目前许多算法直接选择采用U-Net,这样也就能够避免特征图在合并前的裁边运动,其通过裁边的形式和特征图并不是对称的,个人感觉采用双线性插值的效果应该会更好。经测试图像分割试验中病斑分割IOU值达到91.23%,叶片分割IOU值达到91.23%,且运算速度均在1.3s内完成。针对当前番茄树叶部病害的识别和分割模型所遭受到的阴影、掩盖物以及相关光线强度的影响,特征提取方法存在着盲目以及不确定性等诸多问题,使用数据集中10种番茄病害图像,构建了基于U-Net网络模型图像分割研究法。与SegNet相比,本模型分割精度较高,只标注少量的病斑样本训练模型,也节省大量标注成本,达到了比较好的分割精度。并且,U-Net网络模型能够较为准确地对番茄树叶片的病斑和动脉瘤图像进行分割,避免了传统的分割技术需要人工设计的特征提取技术,而且模型的结构相比之前现有的卷积式神经网络在模型构造上的结构更加简单。本文这种方法对番茄叶部图像中不同患者的背景都具有良好的适应性,能够克服各种复杂情况下对图像分割效果的干扰,准确实现了番茄叶部图像中各个患者的病斑区域。在分割的速度上也是具有很多优势,它们可以直接实现真正的番茄图像分割,为我们后续实现番茄各种病害和类型的准确识别打下坚实的基础。4.2工作展望通过上述综述可以进一步总结U-Net模型在作物病害图像分割中的应用具有几个方面的优势:该研究以手机拍照等方式采集数据源,不依赖专业仪器设备即可实现番茄病害快速分级,可取代以往以人工目测方式进行的病害识别,提高了病害分级的准确性和客观性。该模型与手机、AI摄像头等设备结合运用,可实现番茄病害预警、降低病害影响、增产增收科技惠农的目标。有效得提取出图像得特点,对于目标的识别具有较高得抗干扰度和鲁棒性。此外,虽然它较之于传统的方法所采用的训练集相对较少,但是识别的时间相当短,最后,可以考虑通过扩充数据集的方式来进行训练模型,以节约复杂的环境下搜索和获得图像信息所花费的工作量。并且随着计算机视觉识别以及自动化检测地崛起,智慧农业在全国范围内地普适性,现代农业在我国迅速地兴起以及快速地发展,相关的领域研究能够推进农业生产技术领域的高新化、智能化还有管理领域的差异化、全方位信息化,在这样的发展趋势之下,产生除了许许多多不同种类的资料图片以及数据,这样,如何融合并综合利用这些数据还面临着较大挑战,新型得图像分割技术在这方面还得深入研究。参考文献[1]武鹏鸣.我国番茄育种问题及对策分析[J].粮食科技与经济,2019,44(6):90-92.[2]沈冰冰.番茄茎腐病和大斑病生防菌的筛选及其促生作用的研究[D].哈尔滨:东北农业大学,2019.[3]李新疆,王赏贵,王丹,等.基于HSV色彩空间的红枣叶片病斑分割方法[J].安徽农学通报,2020,26(4):85-87.[4]马浚诚,温皓杰,李鑫星,等.基于图像处理的温室黄瓜霜霉病诊断系统[J].农业机械学报,2017,48(2):195-202.[5]蒲一鸣.基于机器学习的水稻病害识别和叶龄检测算法研究[D].哈尔滨:哈尔滨工业大学,2019.[6]吴韵清,吴鹏,陈北京,等.基于残差U-Net网络的图像拼接定位算法[J].应用科学学报,2019,37(5):651-662.[7]段杰,崔志明,沈艺,等.一种改进FCN的肝脏肿瘤CT
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年建筑制图与识图知识考试题库及答案(完整版)
- 集体土地出租合同资料8篇
- 软件开发及技术服务合同协议(2025版)
- 劳务派遣安全管理协议2025年
- 全新保密协议中英文对照2025年
- 离婚房产分割协议书范文2025年
- 煤矸石订购合同2025年
- 摄影棚居间合同(2025版)
- 央视《开学第一课》2025观后感与感悟
- 公路检测试题及答案
- 2025年公开招聘事业编制教师公共基础知识考试题库及答案
- 2025版房屋买卖居间合同协议书(含房产证过户)
- 2025防灾减灾知识竞赛题库及参考答案力
- 心肺复苏家长课堂课件
- 军人理性消费教育
- 2025年摄影师职业技能考核试题及答案
- DG-TJ08-2120-2025 集体土地所有权调查技术标准
- 美团2024年社会责任报告 -esg
- 中国PET再生料市场供需格局及未来发展趋势报告
- 消化内科重点专科申报
- 2025年低空经济试题及答案
评论
0/150
提交评论