基于对抗补丁的交通标牌攻击_第1页
基于对抗补丁的交通标牌攻击_第2页
基于对抗补丁的交通标牌攻击_第3页
基于对抗补丁的交通标牌攻击_第4页
基于对抗补丁的交通标牌攻击_第5页
已阅读5页,还剩10页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

深度神经网络在许多计算机视觉任务中取得了很好的性能,有时候其表现超过了人类。基于这些良好的表现,深度神经网络开始越来越多地应用于自动驾驶、无人机以及机器人等控制系统,其中自动驾驶技术的日趋成熟引起了研究人员的广泛关注。深度神经网络具有强大的特征提取能力,在图像分类和识别中能够达到很好的精度。自动驾驶的环境感知系统依赖于激光雷达技术、图像识别以及目标检测等前沿技术,其中基于深度神经网络的交通标牌识别是自动驾驶的重要技术之一。虽然深度神经网络在图像识别上有着极好的性能,但最新的研究表明,深度神经网络在很大程度上容易受到对抗样本的攻击。这些对抗样本是攻击者精心选择的输入,会导致网络改变输出,且这些经过攻击者精心设计的对抗样本通过人眼是无法区分的。攻击者可以通过使用一些优化策略只需对图像少量像素进行修改,即可得到所需要的对抗样本。通常的优化策略有L-BFGS、FGSM、DeepFool以及PGD等。其他攻击方法如基于Jacobian的显著性映射的攻击方法是寻找图像中需要修改的像素,以达到图像中所需要修改的像素最少。有些对抗样本已经被证实可通过物理打印机打印出来并在现实世界中起作用。Kurakin等人证明了对抗样本在打印之后,即使在不同的光线和方位情况下仍然能够误导模型的输出。Sharif等人研制出了一幅带有对抗扰动的“眼镜”,戴上这副眼镜可以躲过人脸识别系统或者将佩戴者识别成另一个人。从先前的研究可以看出,对抗样本在数字领域是有着较强的攻击性。但是,在现实的物理世界中,对抗样本比较脆弱,主要存在于物理场景,面对一些挑战。例如:现实生活中的物理场景的背景是多变的,攻击者无法通过控制背景来攻击;在不同的光线、距离和角度的作用下,对抗扰动会失效;扰动太小无法使图像传感器进行捕捉。自动驾驶的图像识别系统是保证自动驾驶安全性和可靠性的关键一环。当攻击者意图在真实的交通标志牌上添加扰动时,若成功攻击图像识别系统,将会造成巨大的安全隐患甚至灾难。针对对抗样本的物理挑战和对抗样本在自动驾驶领域中的应用,本文采用一种添加对抗补丁的方法来实现对交通标志识别模型的攻击。该方法属于白盒攻击,在熟知网络模型的结构参数时生成特定的补丁加入交通标牌的周围,使得识别器对原本的交通标志做出错误分类。本文主要贡献如下:(1)将对抗补丁的方法应用到交通识别牌识别系统上;(2)对抗补丁的设计采用随机位置随机旋转的方式,使得生成的补丁不局限于图像的某个位置,忽略了背景的干扰;(3)通过实验验证对抗补丁的方法在GTSRB-VGG16的效果,为后续的研究者提供参考。本文第1节主要介绍对抗补丁的方法,主要包括使用的数据集、GTSRB-VGG16模型和对抗补丁生成的原理。第2节主要是实验的设计和分析,验证了补丁方法在GTSRB-VGG16的效果。第3节对本文做出总结,分析对抗补丁方法在自动驾驶上应用的意义,并对未来的工作和挑战进行展望。1方法1.1数据集GTSRB介绍TheGermanTrafficSignBenchmark(GTSRB)德国交通标志基准是2011年国际神经网络联合会议(InternationalJointConferenceonNeural,Networks,IJCNN)举办的多级单图像分类挑战。该数据集中包含43个交通标志类,训练集中包含超过30000多张图片,测试集中超过10000多张图片。图1为部分数据集展示。数据集中包括的各类图片考虑了距离、光照以及模糊度等因素,第一行从左到右依次是限速20、限速30、限速70、限速60、直行左转,第二行从左到右依次是STOP、禁止通行、左转、直行和限速50。图1GTSRB部分数据集展示1.2GTSRB-VGG16模型本文采用的是GTSRB-VGG16模型。GTSRB-VGG16模型与原始的VGG16模型的主要区别在于在每一层卷积层后加入了BN层来加快模型的训练和防止模型训练过拟合,且最后一层全连接层为1×1×1000的修改为1×1×43,以契合GTSRB的数据训练。GTSRB-VGG16模型结构如图2所示。将GTSRB数据集的图像使用修改过的VGG16模型进行训练得到干净的分类器,图像输入的尺寸为256×256×3,经过200epoch的训练GTSRB-VGG16在GTSRB测试集上的准确率达到98.01%。GTSRB-VGG16各层网络参数如表1所示。图2GTSRB-VGG16结构表1GTSRB-VGG16各层参数1.3对抗补丁方法原理产生对抗样本的传统策略:给定一些网络分类模型,输入,某些攻击者需要攻击的目标类别和扰动,根据限定的扰动找到一个合适的输入使得最大化,并对扰动加以约束。在得出结果的过程中,能够访问模型的攻击者通过反向传播执行梯度下降的扰动,经过多次迭代找到合适的输入。这种方法可以产生很好的对抗样本,但是需要在原图像上进行修改。一般的攻击都是在整个图像上进行像素的修改,而且大多数交通标牌的攻击只集中在标牌上,如图3所示。但是,在现实生活中放置的置不是仅在交通标牌上,在交通标牌的周围也可能出现攻击者放置的补丁。(a)在标牌上添加涂鸦(b)在标牌上添加贴条图3交通标牌的攻击举例本文采用的是由TOMB等人提出的在现实世界中创建通用的、目标性的对抗图像补丁方法。经过实验证明了该方法在ImageNet上确实有效,在添加占原图比20%大小的补丁后,在被测的数据集上能达到超过80%的攻击成功率。该方法通过设计一个掩膜使得生成的补丁具有任意的形状,在本文中只采用了方形掩膜。将掩膜提取的补丁加到原图像上训练各种图像,在训练过程中每个图像中的补丁加入随机位置随机旋转。TOMB等人采用梯度下降进行优化,本文采用的是PGD梯度下降方法进行优化。该方法的主要原理:对于一张给定的图像、补丁块和补丁变换(本文使用旋转、随机位置),定义补丁应用公式为。在向图像添加补丁之前,先将变换应用到补丁上,对补丁进行随机的旋转和随机位置的确定,然后将补丁添加到图像上。为了获得训练有素的补丁,对补丁进行训练来得到攻击效果最佳的补丁,优化目标函数为:式中,是图像的训练集,是补丁变换的分布,有随机旋转、随机位置等多种情况。这样可以使得在训练过程中网络模型只关注于补丁,从而可以忽视补丁的背景和位置,得到可以忽视图像背景和补丁自身位置的补丁,从而达到扰动的通用性(因为它适用于任何背景)。在有些情况下,图像中包含了多个目标,但是分类器得出的结果只有一个目标标签,那么这个目标被认为是真实的。在分类器看来,这张图片对象只有这一个目标,并关注到此目标。因此,在加入补丁之后,补丁必须要学会让自己在网络分类中“突出”,让分类器关注到自己。本文中期望将限速80补丁分类为限速80。2实验与分析2.1实验平台与实验数据集采用的实验平台:Ubuntu18.04.5LTS(操作系统),32GB(CPU),GeForceRTX309024GB(GPU),Python3.6,Pytorch1.6.0(深度学习框架)。在训练分类器时,采用的数据集是GTSRB数据集,其中包含训练集39209张和测试集12587张。训练对抗补丁所采用的训练数据集是从GTSRB训练集中每一类随机抽取20张,去掉要攻击成的类,训练集共包含42个类,共840张图片。测试对抗补丁的测试数据集是从GTSRB测试集中每一类随机抽取10张,去除要攻击成的类,测试集共有420张图片。实验的数据集分布主要见表2。表2实验的数据集分布2.2算法伪代码对抗补丁算法伪代码说明如下。输入:一张未加补丁的干净图片,要攻击成的类,当前迭代次数,最大迭代次数,攻击目标置信度输出:具有攻击效果的对抗样本1.2.初始化:补丁3.while和是当前目标类的置信度4.

5.

6.

7.

8.

9.Return2.3实验结果分析为了测试对抗补丁在GTSRB上的攻击效果,本文做了被攻击模型泛化性测试实验、单个模型的白盒攻击实验和多个模型集成的白盒攻击实验。泛化性测试实验,一方面为了测试GTSRB-VGG16模型的泛化能力,另一方面是想与对抗补丁实验形成对比。单个模型的攻击实验主要采用GTSRB-VGG16来训练补丁。多个模型集成的白盒攻击实验主要是在原先单个白盒攻击的基础上加入GoogleNet和ResNet34两个网络来联合训练,然后评估补丁在GTSRB-VGG16的攻击效率。在训练和测试阶段,补丁会重新随机旋转和随机放置位置。2.3.1GTSRB-VGG16泛化性测试实验泛化性是指深度学习算法对新鲜样本的适应能力。神经网络通过在原有的数据集上训练学习到隐藏在数据背后的规律,对具有同一规律的数据集以外的数据,经过训练好的分类器也能得到正确的输出。由于本文主要的目标攻击类是限速80,为了测试生成的补丁的聚焦效果,采用限速80的交通标牌作为补丁加入图片,同时将限速80的交通标牌进行尺寸占比的调整。本节主要采用的占图比(限速80占原图比例)为5%、10%、20%和50%,由限速80作为补丁加入到原图上的某一个位置作为输入数据集。衡量标准为和。其中,是将该输入数据集识别成限速80的成功率,类似于有目标的攻击成功率;是指加入限速80后分类器未能识别出原样本的成功率,类似于攻击中的无目标攻击。测试的数据集是2.1节中介绍的训练和测试补丁的训练集和测试集。加入限速80标牌后部分数据集如图4所示。图4将限速80标牌作为补丁加入原图实验效果如表3和表4所示。根据表3可以看出,直接加入限速80的标牌不能够实现有效的带目的性的攻击。在占图比达到20%时,在训练集上识别成限速80的只有2.74%。但是,从表4可以看出,当占图比为20%时,在训练集上误分类率达到了35.48%,说明在添加未经训练占图比20%的限速80补丁后,虽然不能达到目标性攻击,但能在一定程度上威胁到分类的准确度。由于加入的限速80的标牌未经过分类训练,因此猜测这与GTSRB-VGG16的泛化性能相关。表3不同图占比下结果表4不同图占比下结果2.3.2单个模型的白盒攻击实验本节主要使用2.1节中介绍的训练补丁的数据集在GTSRB-VGG16上训练补丁并进行测试。原图数据格式大小为256×256×3,训练的补丁占原图比率为5%~50%图5为部分生成补丁展示。(a)5%(b)10%(c)20%(d)50%图5不同占图比的补丁展示根据图6,在使用单个模型进行补丁训练时,通过训练生成的补丁在训练集和测试集上测试的效果并不是非常理想。在补丁的占图比达到20%时,在训练集上攻击的成功率是11.7%,在测试集的攻击成功率是14.3%;在补丁的占图比达到30%时,训练集上的攻击的成功率达到是43.56%,在测试集上的攻击成率是45.12%。随着补丁的尺寸变大,攻击的成功率逐渐上升,当补丁的占图比为40%时,攻击成功率已经超过80%,说明对抗补丁的方法在GTSRB上有一定的效果。图6不同占图比的补丁在训练集和测试的攻击成功率2.3.3多个模型集成的白盒攻击实验根据2.3.2章节给出的结果,单个模型训练的出来的补丁在GTSRB-VGG16上的攻击效果还有欠缺。因此,本节设计使用GTSRB-VGG16、GoogleNet和ResNet34这3个模型联合训练补丁,验证由多个模型集成训练的补丁的攻击效果。图7是由3个模型训练得出的补丁在GTSRB-VGG16模型上训练集和测试集的攻击成功率。图8是由3个模型联合训练得出的不同尺寸的补丁,可见由3个模型联合训练的占图比为20%的补丁在GTSRB-VGG16的训练集上的攻击成功率,相比于单个模型训练出来的补丁的提高了6.99%。在测试集上的攻击成功率为21.54%,相比于单个模型的提高了7.24%。图7集成训练的补丁在GTSRB-VGG16的攻击成率(a)5%(b)10%(c)20%(d)50%图8不同占图比的补丁展示3结语本文验证了对抗补丁方法应用在交通识别模型中存在一定的威胁。产生的补丁可以忽略图像的背景和自身的位置,对模

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论