版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
[46]。OpenCV是一个开源的跨平台计算机视觉库,由英特尔公司发起并维护。它包含了大量的图像处理和计算机视觉相关的函数和工具,可以用于实现各种各样的计算机视觉应用。OpenCV支持多种编程语言,包括C++、Python、Java等,且可以在Windows、Linux、macOS等操作系统上运行。它提供了丰富的功能和工具,包括图像处理、图像分割、目标检测、人脸识别、运动跟踪、相机标定、三维重建等,涵盖了从基础图像处理到高级计算机视觉领域的各个方面。OpenCV的优点在于其简单易用、高效可靠、跨平台性强等特点。通过使用OpenCV,我们可以快速地实现各种计算机视觉应用,比如图像处理、物体识别、视频跟踪等。OpenCV是计算机视觉领域的重要工具和框架,有着广泛的应用和较高的实用价值。因此在软件开发方面具有重要影响。这个库的广泛应用,使得它成为了计算机视觉研究和开发中不可或缺的工具之一。图像处理方法:在OpenCV库中,有多种方法可用于图像或视频的采集,比如从摄像头、视频文件或网络视频流中读取图像或视频数据等。对于采集到的图像或视频可以通过OpenCV提供的各种函数进行预处理,例如改变图像亮度、对比度、裁剪、缩放、旋转、翻转等操作,以便更好地进行后续分析。特征匹配:例如FLANN匹配器、暴力匹配器等,这一步可以帮助我们找到不同图像或视频中相同物体的位置。目标检测和识别:在目标检测和识别领域,OpenCV提供了多种机器学习算法,如Haar特征分类器、HOG+SVM、卷积神经网络等,可用于人脸检测、车牌识别、物体识别等任务。可以大大提升对图像复杂信息的分析和理解,实现更加复杂的计算机视觉应用。可视化和输出:OpenCV提供了各种函数,例如imshow、imwrite等,可以将处理结果可视化,并输出到文件或网络。3.2行人检测流程与难点3.2.1行人检测流程简述行人检测是一种常见的计算机视觉任务,其本质是在输入图像中检测和定位出图像中的行人区域。首先需要采集并准备用于行人检测的训练数据,包括大量的正样本和负样本。正样本是指包含行人的图像样本,负样本则反之。这些数据需要被标注和预处理,以便后续训练和测试使用。使用特征提取方法从输入图像中提取特征,然后从中选取出最有区分性和代表性的特征。对待检测图像进行行人检测。采用滑动窗口的方法来搜索图像,并使用行人检测器对每个窗口进行分类,判断该窗口是否包含行人。若存在行人,则记录下行人的位置和大小。在检测完成后,由于可能会出现多个框重叠的情况,需要采用非极大值抑制算法进行优化。该算法在不降低正确率的前提下,能够去除冗余的重复框,得到最终的行人检测结果。最后,需要对检测的结果进行后处理,例如去掉一些噪声点或小于一定面积的框等。然后输出最终的行人检测结果,包括对应的行人区域、位置和大小信息等。图3.1行人检测流程3.2.2评价指标经过多次实践验证,平均精度均值和图片的识别速率已被证明是目标检测评估的最常用、最有效的指标。这些指标能够对目标检测算法的准确性和效率进行全面的评估,并帮助我们更好地比较和选择不同的算法,提高计算机视觉应用的性能。检测大于阈值的叫做(TruePositive,TP),低于阈值的也就是错误的叫做(FalsePositive,FP),如果一个目标被重复检测,取置信度最高值选为正样本。对于使用YOLOv3进行行人检测任务的评价,一般会采用精度(Precision)和召回率(Recall)这两个指标。这两个指标能够全面评估算法的性能,并客观地反映算法的实际效果。精度:用于衡量检测出的行人中真正为行人的比例。它的计算公式为: (3.1)其中,表示可以将行人目标正确地检测出来的检测框数量,表示将非行人目标错误地检测成行人的检测框数量。召回率:是指对于一个二分类问题中正例样本而言,分类器所能正确检测到的正例样本的比例。它的计算公式为: (3.2)其中,(FalseNegative,FN)表示未能将行人正确地检测出来的行人数量。除了这两个指标之外,还有一个综合考虑两者关系的指标,是精度和召回率的调和平均数,其计算方法为: (3.3)在YOLOv3行人检测领域中,常使用PascalVOC和COCO数据集对算法进行评价。评价方法是通过比较算法的检测结果和真实目标之间的匹配程度,并计算相应的精度、召回率和F1-score指标。同时,也可以通过绘制PR曲线(Precision-RecallCurve)来直观地展示模型的性能表现。3.2.3行人检测难点作为计算机视觉领域的一个重要应用,行人检测是一项具有挑战性的任务。在不同的场景下,行人可能会被其他物体遮挡,这会导致某些部位无法被准确检测,或者检测误差较大。这些问题对于行人的全局检测和姿态估计等进一步处理也会产生负面影响。行人的姿态对行人检测的影响很大,行人的姿态越复杂,行人检测的难度就越大。当行人的姿态较为复杂时,往往会有一些遮挡问题发生,例如身体某一部分被其他物体或者行人本身遮挡,这样就会导致行人检测器无法完全识别出行人区域。行人的姿态不同,拍摄和观察视角也会有所不同。在不同的视角下,行人的形态和外貌特征也会发生变化,这会给行人姿态检测带来挑战。在不同的姿态下,行人的身体形状也会发生形变,例如躬着身子、弯曲双膝等,这也会对行人检测造成干扰。如果特征不够显著,就容易出现漏检的情况,也会影响行人检测算法的准确性和效率。行人检测需要考虑不同视角下的处理,因此行人的大小、形状和外观等可能会发生变化。例如,行人在不同的距离和尺度下可能有不同大小的特征,这就需要行人检测算法考虑多尺度的情况。此外,由于在不同的光线条件下,图像的对比度和亮度可能会发生变化,这也会对行人检测算法产生影响。从图3.2可以看出,在图像拍摄过程中会有大量的景观和复杂的周围环境,因此大多数行人目标都会呈现出由近及远的分布模式。如果他们在远处,那么行人目标就会相对较小。图像中通常有大量的背景内容,小目标行人会有相对模糊的特征。由于特征不太突出,网络也将很难捕获,并且漏检的可能性相对较高。背景特征和周围环境特征的存在容易对小目标的特征造成干扰,从而增加了误检的可能性。图3.2小目标行人检测在现实生活中,即便是同一个行人,由于拍摄角度、距离或时间等因素的不同,其图像可能呈现出不同的样子。画面缩放对行人检测的影响是比较显著的,当输入图像进行缩放操作时,图像中的目标在图像上的像素大小也会发生变化,这会影响到行人检测器的检测效果。特别是当目标在图像中所占像素数量较小时,缩放操作可能会进一步降低搜寻行人目标的精确度,以及对比度、清晰度和前景/背景比例等检测指标。当输入图像进行缩放操作时,由于图像的分辨率发生变化,会导致行人检测器需要处理更多或更少的像素点。如果缩放比例太大,那么行人检测器需要处理过多的像素,检测速度会明显变慢;反之,如果缩放比例太小,可能会把原来的行人目标缩小,导致行人检测器在处理该图像时无法识别行人目标,检测效果也会随之下降。例如,如图3.3所示。因此,需要对这些因素进行充分考虑,以获得更准确的行人目标检测结果。图3.3画面缩放示例行人检测任务在复杂背景下具有很大的难度,主要由于背景中存在很多与行人类似的物体,例如树木、汽车和建筑物等。这些物体与行人在图片中所占位置大小、形状等方面都存在一定的相似性,很容易对行人检测算法产生干扰。同时,在相同场景下,由于外界因素的变化,行人的外观也会存在差异。如图3.4所示,当在晚上、灯光和游乐设施等背景影响下进行行人检测时,深度神经网络模型很容易将部分矩形物体误判为行人。在复杂的背景环境下,行人检测任务还存在其它一些挑战。这也导致了行人目标的形状多样性,进一步增加了检测难度。另外,目标的尺寸和比例变化也会使得检测更加困难。比如,在较远的距离拍摄行人图像时,行人目标的尺寸相对于整幅图像来说会变得非常小,这对于一些传统的检测算法来说会出现更高的挑战性。此外,由于复杂背景下的噪声干扰较大,还会导致遮挡和部分遮挡等问题,使得行人的检测更加困难。图3.4复杂背景下行人在现实生活中,行人总是会聚集在一起,以图3.5为例,密集行人对行人检测的影响是非常显著的,当存在密集行人时,往往会存在行人之间的遮挡问题。这会使得行人检测器难以准确地识别出所有行人的区域,并且可能会导致误检,也就是把不是行人的区域误判为行人。由于行人之间的相似性较高,行人检测器的判别器很容易产生歧义。例如,当两个行人非常靠近时,行人检测器可能会将他们当作同一个目标进行处理,或者无法分辨哪一个是前景行人。密集的行人意味着需要更高的计算资源来处理,这会影响到检测器的运行速度和准确性。当图像中行人数量过多时,行人检测需要的计算量和存储资源将会急剧增加,这会降低系统的实时性能。图3.4密集行人3.3行人检测实验与结果3.3.1行人检测环境配置在Windows11操作系统下的Pycharm2022.3.2版本的运行环境,基于深度学习的Python语言进行程序编写。安装了Python的第三方库和深度学习的应用程序编程接口(ApplicationProgrammingInterface,API),比如Matplotlib,Numpy等。处理器CPU型号为i7-8565UCPU,显存环境GPU配置CUDA11.1环境进行GPU并行加速计算,应用OpenCV4.4作图像数据处理。3.3.2行人检测实验结果总体来说,传统行人检测方法主要包括基于特征匹配的方法、基于背景建模的方法、基于统计模型的方法等。在行人检测方法中最早、最简单,但是效率比较低,且容易受到图像尺度、旋转等因素的影响;基于特征点的检测方法相对较为稳健,但对光照、阴影等场景变化较为敏感;基于复杂背景建模的检测方法可以适应各种场景,但建模困难,而且对于复杂场景的适应性不够强。基于模板匹配的检测方法虽然简单易实现,但缺乏对目标形变、旋转等变化的鲁棒性。总体而言,传统的行人检测方法受限于算法的局限性,很难满足各种复杂场景和变化情况下的实时需求。对于图像质量差的情况下,传统的行人检测方法会受到更多的干扰和误差,导致检测准确率降低。传统的行人检测方法往往需要手动设置一些参数,例如检测窗口大小、分类器的阈值等,因此需要较多的人工干预和调整,增加了算法开发和调试的难度和复杂性。在复杂的场景中,如人群拥挤、遮挡等情况下,传统的行人检测方法往往会受到严重的干扰和误判,因此无法保证检测结果的稳定性。传统行人检测方法仅针对单个目标进行检测,并且难以处理高密度行人流等多目标检测和跟踪任务,因此无法满足实际需求。为了解决这些问题,对该领域进行降重同义改写是非常必要的。图3.5传统行人检测图3.6YOLOv3算法行人检测正如图3.5所示,在简单的环境下,例如静态背景、明亮光照、无遮挡等情况下,传统的行人检测方法往往能够取得较好的效果。尽管传统的行人检测算法可以实现定位行人位置,但是它们的定位精度和识别效果常常不理想,这表明这些传统方法受到了很多限制和缺陷的影响。因此,相较于传统的行人检测方法,如图3.6,YOLOv3提供了一种更加快速、准确、方便的检测方法,可以更好地克服这些限制和缺陷。YOLOv3相比于传统的行人检测方法有以下几个优点:速度快:YOLOv3可以实现实时行人检测,通常能够达到几十帧的检测速度,比传统的检测方法更为高效。检测准确率高:YOLOv3通过引入多尺度训练、数据增强等技术,提高了模型的泛化能力和稳定性,在不同尺寸、角度、照度等情况下都能够保持较高的检测准确率。多目标检测:YOLOv3可以同时检测多个行人目标,并且在重叠和遮挡情况下也能够有效地处理。通过将整个图像输入神经网络中并在网络中前向传递来实现多目标检测。与其他目标检测算法不同,YOLOv3对图像进行了多尺度处理,并在不同的层次上进行检测,以适应不同尺寸和形状的目标对象。在简单背景下,行人的大小、形状、姿势等变化较少,这使得YOLOv3的多尺度检测能够更好地发挥作用,从而提高检测效率和准确率。此外,YOLOv3还使用了许多技术来改善检测效率和准确性,例如卷积层、LeakyReLU激活函数等。结合了所有这些技术的YOLOv3成为一个强大的目标检测算法,在许多行人检测任务中表现出色。图3.7YOLOv3简单场景行人检测在轻微遮挡下,YOLOv3所使用的多尺度检测技术能够有效地适应不同尺寸和形状的目标,并且能够通过特征图间的信息交互来完成整个目标的检测。同时,YOLOv3的AnchorBox预测技术和目标框回归技术能够提高目标框的精度,并且在遮挡情况下能够预测目标框的位置和尺寸从而更好地解决遮挡问题。图3.8轻微遮挡下行人检测YOLOv3能够同时检测多个行人目标,并且在重叠和遮挡情况下也能够有效地处理。这种多目标检测技术可以在轻微遮挡下更好地发挥作用,因为即使行人目标被部分遮挡也可以通过检测其他部分来完成整个目标的检测。在轻微遮挡下,行人的一部分可能会被遮挡,但是YOLOv3可以利用其感知广的特点,识别出未被遮挡的行人部分,并且通过目标框回归技术来预测整个目标的位置和尺寸。图3.9遮挡面积较大环境下行人检测YOLOv3在运动状态下进行行人检测的实验结果表明,与静态情况下的行人检测相比,检测精度有所下降,但在实际应用中仍能够达到较高的准确率。此外,YOLOv3还针对移动物体的特点进行优化,采用了一些特殊的技术,如多尺度特征融合、卷积重量归一化等,进一步提高了运动状态下的行人检测精度。需要注意的是,行人的速度及背景复杂度等因素也会影响行人检测的准确率。图3.10运动状态下行人检测YOLOv3在阴天环境下行人检测的结果可能会受到环境光线的影响,YOLOv3在阴天光线不足的环境下行人检测效果可能会有所降低,但是具体结果还要取决于数据集和具体的场景。但是它仍然可以进行有效的行人检测。改进后的YOLOv3算法在阴天环境下行人检测方面表现优秀,准确率较高,检测结果也非常好。图3.11阴天环境下行人检测在雨天环境下,YOLOv3的行人检测结果可能会受到较大的影响。由于雨天环境下光线较差,且行人的外形可能会被雨伞、雨衣等物品遮挡,因此会导致检测准确率下降。为了提高YOLOv3在雨天环境下的检测效果,对于被遮挡的行人,可以考虑采用多视角的检测方式,行人部位在不同视角下的特征点等来提高检测准确率。本文中所引用的算法在雨天环境中也有良好表现。图3.12雨天环境下行人检测在夜晚环境下,行人检测更具挑战性,主要原因是缺少光线和低对比度,这会影响算法对行人的识别和定位。在实验中,我们使用了YOLOv3算法对夜晚行人进行检测,并评估了其检测性能。图3.13显示,算法表现出色,在光照不足,人员相对密集的夜晚,仍然可以高效准确地检测到夜晚场景中的行人。为了更好地评估算法的性能,我们使用了几个常用的指标,包括准确率、召回率。我们的实验结果表明,YOLOv3算法在夜晚行人检测方面表现良好。总的来说,YOLOv3算法在夜晚行人检测方面表现出色,具有高效、准确和稳定的特点。然而,也需要注意到在某些特殊情况下,如夜晚道路过于繁忙、行人与背景难以区分等情况下,算法可能会存在一定的误检和漏检,需要进一步完善和提高算法的鲁棒性和适应性。图3.13夜晚环境下行人检测在复杂背景下进行行人检测是一个具有挑战性的任务,因为人与周围环境的复杂背景相互干扰。YOLOv3是一种既快速又准确的目标检测算法,非常适合于处理复杂环境下的行人检测任务。本文的实验数据集采用了MSCOCO,这是一个具有多样性和复杂度的挑战性数据集。其中包括了一些具有复杂背景的行人图片。在复杂的背景下,YOLOv3在MSCOCO数据集上表现优秀,并取得了非常出色的性能。特别是对于小物体的检测,表现出色。YOLOv3使用了Darknet-53作为主干网络,能够提取更加丰富的特征。此外,该算法采用了多个尺度的检测来适应不同大小的目标。综合来看,在复杂背景下进行行人检测时,YOLOv3表现非常出色。其采用强大的特征提取网络和多尺度检测,并通过SPP模块和FPN模块来适应不同大小的目标。图3.14复杂背景下行人检测YOLOv3是一个高效的物体检测算法,在密集行人背景下进行行人检测时也有不错的表现。在实验中,YOLOv3的检测准确率在密集行人背景检测中能够达到较高水平。YOLOv3具有很快的检测速度,可以实现实时检测。在密集行人背景下,由于行人数量较多,YOLOv3的检测速度可能会相应降低,但其优化后的模型仍能够实现较快的检测速度。综上所述,YOLOv3在密集行人环境中进行行人检测时表现优秀,具有高准确率和高召回率,并且检测速度也非常快,特别适合实时性要求较高的应用场景。图3.15密集行人情况下行人检测YOLOv3在小目标行人检测方面,YOLOv3也取得了很好的效果。对于YOLOv3算法来说,小目标的行人检测是一项巨大的挑战。在YOLOv3的算法中,为了解决这个问题,作者引入了一些新的技术,比如多尺度训练、数据增强、组合性预测等等。从总体上看,YOLOv3在小目标行人检测中表现良好,能够快速准确地识别行人目标。但是,在一些特定场景下,模型还需要进一步优化,以提升检测精度并适应更复杂的环境。图3.16小目标行人检测在夜间大面积遮挡环境下进行行人检测是一个具有挑战性的问题。YOLOv3采用了特殊的设计和技术来应对这个问题,但实验结果也表明,在实际应用中仍然存在一些限制。首先,YOLOv3在夜间大面积遮挡环境下的检测结果可能会受到光照不均匀、背景噪音等因素的影响,导致误检率较高。其次,如果行人与其他物体重叠或者遮挡,则可能无法完整地检测到行人的位置和姿态。为了减少误检率和漏检率,可以采用一些方法来改善检测效果。总的来说,虽然YOLOv3在夜间大面积遮挡环境下的行人检测结果精度和准确性有待提高,存在一些限制,但它仍然是一个非常优秀的算法。通过合理的调整参数和采用一些改进方法,可以使得其在实际应用中发挥更好的效果。图3.17夜间大面积遮挡环境下行人检测第4章结论YOLOv3是一种基于深度学习的行人检测算法,其改进可以通过修改网络结构、训练技巧和数据增强等方面进行。许多研究人员已经对YOLOv3算法进行了改进,并取得了一些令人鼓舞的结果。近年来,随着深度学习技术的不断发展,YOLOv3、逐渐成为了图像处理研究领域中的热门话题。然而,由于行人目标具有种类繁多,且图像背景复杂多变,在实际应用中精确地检测到行人目标十分困难。本文引用了改进YOLOv3算法的行人目标检测方法,从而提高其在行人目标检测中的表现。用PyCharm完成对图片中行人检测的设计,通过实验到如下结论:(1)本文使用YOLOv3中的Darknet-53网络结合COCO数据集中的Person子集对图像中的行人特征信息进行检测和提取。采用公开的行人数据集作为测试集。在这个实验中,我们将利用Darknet-53网络对行人目标特征进行提取和对比。整个实验所依托的平台和数据集都已经得到充分的准备和处理。然后介绍了本文的anchor策略,为了适配本文的训练任务,重新使用K-means聚类算法对anchorbox进行重新聚类。(2)实验显示,YOLOv3算法改进后,在行人目标定位与识别方面可以获得更好的表现,并且对于漏检率高的问题也可以得到有效改善。可在不同种类的目标检测中应用,且效果良好。具体来说,YOLOv3算法是一种单阶段目标检测方法,通常情况下,其检测准确率较高,但漏检率也相对较高。这是因为在单阶段检测中,模型需要同时完成目标位置和类别的判断,因此对于小目标或者部分遮挡的目标等特殊情况,容易出现漏检的情况。本文引入的方法虽能够完成对图片中进行行人检测,但是在方法上依旧存在着些许不足。像在小目标以及过于密集的情况下,实验结果存在着一定的误。所以,如何对复杂情况下行人检测还有待未来进一步的研究。
总结与体会经过多年的研究和发展,现有的行人检测算法已经实现了优秀的效果,但是在图像中存在大量的干扰行人检测的问题,都会对传统的目标检测方法或基于深度学习的早期目标检测方法产生影响,无法实现行人目标的精确定位。综上所述,具有高速、精度高、多尺度、内存占用少和适用性广等优势的YOLOv3算法是实现行人检测的较好选择。这也使得该算法成为了目前应用最广泛的行人检测算法之一。YOLOv3算法采用了全卷积神经网络结构,可以直接对整张图像进行处理,速度非常快,YOLOv3算法具有更高的检测精度,能够更准确地检测到同一张图片中的更多的行人目标,并且其误检率也较低。YOLOv3算法采用了多尺度检测技术,可以同时处理不同尺寸的目标物体,提高了算法的适应性和泛化性能。其通过卷积神经网络对图像进行特征提取和目标分类,实现了较好的检测效果。在使用YOLOv3进行行人检测时,我有以下几点体会:网络架构复杂度高:与传统的行人检测算法相比,YOLOv3的网络架构更为复杂,需要处理大量的图像信息和卷积操作。这要求我们具备较强的计算机硬件和编程能力,以便能够快速调试和优化算法。检测效果较好:经过多次实验和调试,我发现YOLOv3在行人检测中具有很高的准确率和召回率,并且能够快速地检测图像中的行人目标。此外,YOLOv3的检测速度也比较快,可适用于实时检测和大规模图像处理。可扩展性强:由于YOLOv3是一种基于深度学习的算法,因此其具有很强的可扩展性和迁移性。我们可以通过修改网络结构、数据集和训练参数等方法,来适配不同的场景和数据需求,实现更广泛的应用。参考文献张晓春,孙超,邵源,韩广广,徐丹.新时期中国智能交通发展战略思考[J/OL].城市交通:1-9.苏庆堂等.MATLAB原理及应用案例教程[M].清华大学出版社,2016.于泽,宁念文,郑燕柳,吕怡宁,刘富强,周毅.深度强化学习驱动的智能交通信号控制策略综述[J/OL].计算机科学:1-21.李伟.未来交通运输是综合和智慧的——以《“十三五”现代综合交通运输体系发展规划》及相关研究为参考[J].中国公路,2018(05):72-74.李海滨,刘洪,孙丽玫.全国一体化大数据中心体系构建背景下企业数据中心科学规划的思考[J].电信工程技术与标准化,2021,34(08):11-15.蒋向利.做强做优做大我国数字经济为经济社会发展提供强大动力——国务院印发《“十四五”数字经济发展规划》[J].中国科技产业,2022(02):14-19.孙奇茹.无人驾驶加速融入城市生活[N].北京日报,2023-01-29(007).金凤.智慧交通“大脑”疏通城市堵点[N].科技日报,2023-01-05(007).李学鋆,汪怡平,苏楚奇,宫新乐,黄晋,赵晓敏,张镇涛.智能车辆路径跟踪控制方法研究[J/OL].控制与决策:1-9.肖顺亮.面向无人驾驶场景中的行人检测技术研究[D].中原工学院,2022.刘畅.基于深度学习的行人检测算法研究[D].东北石油大学,2022.娄翔飞,吕文涛,叶冬,郭庆,鲁竞,陈影柔.基于计算机视觉的行人检测方法研究进展[J/OL].浙江理工大学学报(自然科学版):1-12.王丽园,赵陶,王文,肖进胜,熊闻心.具有姿态变化鲁棒性的行人检测跟踪算法[J].计算机工程与设计,2022,43(10):2877-2881.王婷婷.面向道路交通场景的行人智能检测方法研究[D].贵州大学,2022.车启谣,严运兵.基于改进YOLOv3的行人检测研究[J].智能计算机与应用,2022,12(08):8-13.汪潜.基于局部特征与空间变换的复杂场景行人再识别[D].合肥工业大学,2020.田欣.智慧城市中视频监控大数据的应用探讨[J].数字通信世界,2022(05):106-108.刘艳,张海民.面向智慧社区的视频监控异常行为识别方法的研究[J].新型工业化,2020,10(08):17-18+23.蒋龙龙.运营商开启5G智慧交通新未来[N].通信信息报,2022-11-16(003).李佳芯.让智能交通管理系统发挥更大效能[J].道路交通管理,2022(06):86-87.于宵.综合客运交通枢纽交通信息服务需求分析[J].交通与运输,2020,33(S1):209-212.魏文强.人工智能在汽车自动驾驶中的应用[J].时代汽车,2022(24):196-198.张涛.落实《国家综合立体交通网规划纲要》精神加快建设交通强国[J].中国水运,2021(04):10-13.罗艳,张重阳,田永鸿,郭捷,孙军.深度学习行人检测方法综述[J].中国图象图形学报,2022,27(07):2094-2111.王钊,解文彬,文江.基于YOLO的多模态特征差分注意融合行人检测[J/OL].计算机系统应用:1-10.N.P.G.D.Navoda,M.D.W.Samaranayake,S.L.Liyanage,H.M.T.Herath,J.M.J.K.Jayasinghe.DeterminationofFunctionalPropertiesofSriLankanAmbarella(SpondiasdulcisForst.syn.SpondiascythereaSonn.)FruitandDevelopmentofVacuumDriedAmbarellaFruitPowderandIncorporatedSoupMix[J].AsianFoodScienceJournal,2021.ZhangFei,ZhenPeining,JingDishan,TangXiaotang,CHENHaiBao,YANJie.SVMBasedIntrusionDetectionMethodwithNonlinearScalingandFeatureSelection[J].IEICETransactionsonInformationandSystems,2022,E105.D(5).JiaZiguang,SuXin,MaGuangda,DaiTongtong,SunJiabin.CrackidentificationformarineengineeringequipmentbasedonimprovedSSDandYOLOv5[J].OceanEngineering,2023,268.YangYao,HuangCong,WangHuajun,WanJun,WangZhenheng,MaYu.ResearchonYOLOv3targetdetectionmodelinthefieldofremotesensing[J].JournalofPhysics:ConferenceSeries,2021,2029(1).GajeraHimanshuK.,NayakDeepakRanjan,ZaveriMukeshA..AcomprehensiveanalysisofdermoscopyimagesformelanomadetectionviadeepCNNfeatures[J].BiomedicalSignalProcessingandControl,2023,79(P2).LUTongWei,JIAShiHai,ZHANGHao.MemFRCN:FewShotObjectDetectionwithMemorableFaster-RCNN[J].IEICETransactionsonFundamentalsofElectronics,CommunicationsandComputerSciences,2022,E105.A(12).T-JCheng,BYang,CHolloway,NTyler.Effectofenvironmentalfactorsonhowolderpedestriansdetectanupcomingstep[J].LightingResearch&Technology,2018,50(3).ValarmathiB.,KshitijJain,DimpleRajpurohit,SrinivasaGuptaN.,HaroldRobinsonY.,ArulkumaranG.,MuluTadesse.HumanDetectionandActionRecognitionforSearchandRescueinDisastersUsingYOLOv3Algorithm[J].JournalofElectricalandComputerEngineering,2023,2023.ShenLingzhi,TaoHongfeng,NiYuanzhi,WangYue,StojanovicVladimir.ImprovedYOLOv3modelwithfeaturemapcroppingformulti-scaleroadobjectdetection[J].MeasurementScienceandTechnology,2023,34(4).KarKohitij,KornblithSimon,FedorenkoEvelina.Interpretabilityofartificialneuralnetworkmodelsinartificialintelligenceversusneuroscience[J].NatureMachineIntelligence,2022,4(12).YuanBH,LiuGH.Imageretrievalbasedongradient-structureshistogram[J].NeuralComputingandApplications,2020:1-11.张友海.浅谈人工神经网络的学习算法[J].电脑知识与技术,2018,14(19):218+220.QasimAbboodMahdi,AndriiShyshatskyi,OleksandrSymonenko,NadiiaProtas,OleksandrTrotsko,VolodymyrKyvliuk,ArtemShulhin,PetroSteshenko,EduardOstapchuk,TetianaHolenkovska.Developmentofamethodfortrainingartificialneuralnetworksforintelligentdecisionsupportsystems[J].Eastern-EuropeanJournalofEnterpriseTechnologies,2022,1(9).YuenBrosnan,HoangMinhTu,DongXiaodai,LuTao.Universalactivationfunction
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
评论
0/150
提交评论