基于并行卷积核交叉模块的卷积神经网络设计_第1页
基于并行卷积核交叉模块的卷积神经网络设计_第2页
基于并行卷积核交叉模块的卷积神经网络设计_第3页
基于并行卷积核交叉模块的卷积神经网络设计_第4页
基于并行卷积核交叉模块的卷积神经网络设计_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、    基于并行卷积核交叉模块的卷积神经网络设计    王新娇曾上游魏书伟摘  要: 针对卷积神经网络结构单一,模块中卷积核使用单一,网络特征提取不充分导致图片分类准确度不够,以及模型大的问题,提出卷积核交叉模块的网络设计。此模块先将输出特征图分成两组,每一组采用不同数量、不同大小的卷积核进行特征提取,然后将分组得到的特征图进行级联操作后再通过1×1的卷积核进行整合。该文设计的卷积神经网络与传统的网络相比,在食物101_food数据集上将识别精度由56.7%提升至72.63%;在交通gtsrb数据集上将识别精度由96.3%提升至98.

2、41%。实验结果表明,该文设计的网络结构性能优越,且网络模型较小。关键词: 卷积神经网络; 网络改进; 卷积核; 图像分类; 特征提取; 结果分析中图分类号: tn926?34; tp391.4                  文献标识码: a                    文章编号: 1004?373x(2020)24?0182?05design of convolution neural ne

3、twork based on parallel convolution kernel cross modulewang xinjiao, zeng shangyou, wei shuwei(school of electronic engineering, guangxi normal university, guilin 541004, china)abstract: in allusion to the problems of insufficient accuracy of image classification caused by the single structure of co

4、nvolution neural network, single use of convolution kernel in the module and insufficient extraction of network features, as well as large model problem, a network design of convolution kernel cross module is proposed. in this module, the output feature map is divided into two groups, each group use

5、s convolution kernels with different number and size for the feature extraction, and then the grouped feature map is cascaded and integrated through 1×1 convolution kernels. in comparison with the traditional network, the recognition accuracy by the convolution neural network designed in this p

6、aper can be improved from 56.7% to 72.63% in the food 101_food dataset, and from 96.3% to 98.41% in the traffic gtsrb dataset. the experimental results show that the network structure designed in this paper has superior performance and smaller network model.keywords: convolution neural network; netw

7、ork improvement; convolution kernel; image classification; feature extraction; result analysis0  引  言随着互联网的快速发展和大数据时代的到来,深度学习已经成为当前人工智能领域研究的热点1。人工智能的发展是当今世界研究的主流,国家也在强调“互联网”时代,而深度学习在图像识别、语音处理、数据挖掘、自然语言处理以及其他相关领域都取得了很多成果。深度学习是一个复杂的机器学习算法,解决了很多复杂的难题,使得人工智能技术取得了很大进步。卷积神经网络(convolutional neura

8、l network,cnn)是深度學习算法中一种重要的算法。在2006年深度学习理论被提出后,卷积神经的表征学习能力开始被大家关注,随着数值计算的更新得到发展。2012年imagenet大规模视觉挑战赛(ilsvrc),alexnet开始得到gpu计算集群支持并多次成为imagenet视觉识别竞赛的优胜算法2,使得之后各类深度网络结构相继诞生,包括2014年的vggnet3、googlenet和2015年的resnet。alexnet相比于之前的lenet网络具有更深的网络结构,使用层叠的卷积层来学习更丰富更高维的图像特征,通过数据增强的方式来扩增数据集。alexnet中重要的一点是使用rel

9、u4函数代替sigmoid函数,很好地解决了梯度饱和导致训练收敛慢的问题,大大提高了训练效率。但同时网络结构的加深使得参数量加大,使网络训练强度增大并且模型增大。针对这个问题,本文卷积神经网络结构使用cross input?net,利用min lin等提出的network in network中1×1的卷积核,将模块中分组获得的图像特征实现整合然后进行降维,模块中采用不平等分组,1×1,3×3和5×5卷积核的交叉使用,使得特征提取更加准确,网络中使用resnet结构,最后用全局平均池化代替全连接,可轻松训练非常深的cnn架构的同时大大提高了网络训练的准确

10、度。3  实  验3.1  实验设置实验环境:本实验所有网络都是基于caffe14深度学习框架基础上进行的,各模型实验结果在计算机i7?6700k 4核cpu、ubuntu 14.04操作系统、32 gb内存以及nvidia?gtx1070的gpu上完成的。参数设置:网络训练参数的调试对网络性能优劣至关重要,学习率是网络训练中的重要一步,学习率过高或过低都会对网络产生一定影响。本次实验2个网络均采用相同的参数设置,根据网络和数据集设置的学习率参数及变化值:在101_food数据集上训练时,学习率大小设置为0.005,学习率采用多步变化,迭代次数设置为40 000,

11、80 000和120 000,最大迭代次数为150 000;在gtsrb上训练时,学习率大小设置为0.005,学习率采用多步变化,迭代次数设置为24 000和48 000,最大迭代次数为60 000。数据集介绍:实验所用的数据集是gtsrb和101_food,gtsrb交通标志数据集总共51 831张交通图片,分为43类,其中,训练集有39 209张图片,测试集有12 432张图片,所有图片都是在复杂背景下拍摄见图5。101_food总共101 000张食物图片,分为101类,每类有1 000张图片,其中,训练集有75 750张图片,测试集有25 250张,如图6所示。预处理:对图片进行左上角

12、、右上角、左下角、右下角和中间进行不同程度的裁剪,大小裁剪为227×227,对数据集进行数据增强;然后进行归一化和去均值处理,通过水平翻转等方式增加数据集的数量。3.2  实验结果及分析本文实验在alexnet基础上将卷积层进行替换,又通过使用bn、resnet、avepool以及dropout等来优化网络,通过对比alexnet网络,网络1和网络2不管是在准确率还是模型大小上都有很大的改进,其中,网络2的性能更优越。表1和表2分别表示网络在101_food和gtsrb上的精确度和实验模型大小,图7和图8分别展示了各模型在数据集上变化的准确率曲线。由表1和表2可知,cros

13、s input?net1和cross input?net2都有较好的精确度,网络整体模型大小也减小很多。传统网络和alexnet网络结构较浅,网络整体参数较小,所以训练时间比较短,本文网络每个模块中从不同通道使用了不同的卷积核进行卷积,2条支路的使用相当于支路参数的累加,网络的加宽、加深也使得网络整体参数增加不少,导致网络训练时间相对较长。整体来说,网络的加深、加宽对bn层及激活层的计算增加了不少,使得相同时间迭代下网络训练加长,但是全局平均池化代替全连接又减少了大量的卷积层参数,同时不同通道卷积核的交叉混用使得特征提取更充分,网络训练精确度更高。cross input?net2的网络在综合对

14、比下性能也更优越。4  结  语本文通过对alexnet基础网络进行改进,提出双通道卷积交叉网络模型,使用不同卷积核进行特征提取,充分提取特征的同时也增加了网络的深度和宽度,使用bn进行归一化处理,用resnet残差消除梯度问题,用dropout来防止过拟合,用全局平均池化代替全连接减少网络参数。在101_food和gtsrb数据集上进行训练,实验结果表明,本文网络性能优越,在提高网络识别精度的同时减小了网络模型大小。虽然网络在一定程度上有很大改进,但是后续工作仍需要继续对网络结构进行改进,网络加深、加宽带来的网络模型大,训练时间长问题还需要进一步优化,同时网络需要在更多大

15、型数据集上进行训练,将其运用到更多方面,提高应用性能。注:本刊通讯作者为曾上游。参考文献1 hinton g e, salakhutdinov r r. reducing the dimensionality of data with neural networks j. science, 2006, 313: 504?507.2 krizhevsky a, sutskever i, hinton g e. imagenet classification with deep convolutional neural networks c/ international conference on

16、 neural information processing systems. boston: massachusetts institute of technology press, 2012:1097?1105.3 simonyan k, zisserman a. very deep convolutional networks for large?scale image recognition j. computer science, 2014(7): 21?34.4 周飞燕,金林鹏,董军.卷积神经网络研究综述j.计算机学报,2017,40(6):1229?1251.5 李策,陈海霞,汉

17、语,等.深度学习算法中卷积神经网络的概念综述j.电子测试,2018(23):61?62.6 ioffe s, szegedy c. batch normalization: accelerating deep network training by reducing internal covariate shift j. computer science, 2015(11): 102?110.7 杨远飞,曾上游,周悦,等.基于轻量型卷积神经网络的图像识别j.电视技术,2018,42(3):40?44.8 周悦,曾上游,杨远飞,等.基于分组模块的卷积神经网络设计j.微电子学与计算机,2019,3

18、6(2):68?72.9 szegedy c, liu w, jia y q, et al. going deeper with convolutions c/ ieee conference on computer vision and pattern recognition. boston: ieee, 2015: 1?9.10 he k m, zhang x y, ren s q, et al. deep residual learning for image recognition c/ 2016 ieee conference on computer vision and pattern recognition. las vegas:

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论