一种融合UWB和视觉信息的行人预警方法_第1页
一种融合UWB和视觉信息的行人预警方法_第2页
一种融合UWB和视觉信息的行人预警方法_第3页
一种融合UWB和视觉信息的行人预警方法_第4页
一种融合UWB和视觉信息的行人预警方法_第5页
已阅读5页,还剩10页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

在先进驾驶辅助系统中,基于视觉的行人检测只能对摄像头视野范围内的无遮挡行人进行检测,并且易受天气的影响,在极端天气下无法工作。针对视觉检测的缺陷,提出了一种利用超宽带(UltraWideband,UWB)通信模块检测行人位置信息的方法,并对其进行卡尔曼滤波以减小误差,同时将得到的行人位置信息与基于视觉的行人检测信息融合,设定匹配规则防止多报警和误报警的情况。测试结果表明,融合方法能够增加对视野外以及被遮挡行人的危险预警,提高了行人检测预警系统的可靠性。先进驾驶辅助系统(AdvancedDriverAssistanceSystem,ADAS)

是目前汽车安全领域的研究热。在ADAS中,采用基于视觉的方法进行行人检测的缺点是只能对摄像头视野范围内的无遮挡行人进行检测,而很多行人碰撞事故的发生正是由于驾驶员或摄像机受到局部或者全部遮挡时无法及时发现前方行人造成的,同时摄像头工作环境易受天气影响,在极端天气下无法工作,导致基于视觉的主动安全设备的适应性比较差。近年来,随着无线通信技术的发展,

车用无线通信(VehicletoEverything,V-X)技术的应用可降低交通事故发生率或避免此类碰撞交通事故的发生。行人检测是计算机视觉比较有挑战性的问题,基于HOG+SVM的行人检测算法,采用了滑动窗口技术,对每一个窗口进行前景和背景的二分类,并对图像进行缩放。基于HOG特征扩展出来的HOG+AdaBoost方法进行了分类器级联,通过强分类器排除没有人的候选区域以加快检测速度。针对行人检测中的遮挡问题,DPM+latentSVM方法采用部件检测进行优化。深度卷积神经网络在目标检测算法方面取得了巨大突破,以区域卷积神经网络(RegionswithCNN,RCNN)为代表的Fast-RCNN、Faster-RCNN等系列网络,在行人检测任务上取得了较好的检测效果,但在速度方面仍有不足。REDMON等基于深度卷积神经网络提出单次检测框架(YOLO系列框架),实现了端对端实时目标检测,在保证检测效果的同时提高了检测速率。车联网在智能交通系统和车辆安全等领域的相关应用逐渐成为研究热点。王野秋等将UWB通信模块置于车身上来进行车辆间的相对定位。蒋梦琴等将UWB通信模块用于车辆跟驰距离检测,跟驰距离超过某一阈值时就对驾驶员进行报警提示。赵佳乐等通过UWB通信模块进行车对车的信息传输,从而实现了辅助车辆跟驰、车辆换道以及车辆超车等功能。澳洲智能网联汽车智能型运输系统开发商与澳洲电信合作,使用4G移动通信网络成功完成了行人防撞预警测试,而随着5G技术的发展,基于无线通信的行人安全应用将逐渐得到普及。本文将视觉技术与V-X技术相结合,实现车载式与网联式主动安全设备的信息融合。用UWB通信模块做测试,并提升基于UWB通信的行人定位精度,通过UWB和视觉分别得出行人与车辆间的相对位置信息,

根据碰撞时间模型判断危险行人,以提高ADAS系统中车辆-行人碰撞预警的可靠性。1结合运动模型的UWB行人定位UWB通过纳秒至微秒级的非正弦波窄脉冲传输数据,具有传输速率高、

抗干扰能力强、多径分辨率高、系统容量大等优点,适用于精确测距及定位,因此,选用UWB通信模块进行无线通信行人检测定位测试。行人携带UWB定位标签,将UWB定位基站布置于车身上,选取基于到达时间的双边测距算法,依据三边定位方法测得行人相对于车辆的位置坐标。为了减少误差,对行人的运动状态进行估计,以提升行人的定位精度。1.1UWB行人测距、定位原理为了计算得出目标物体的位置坐标,一般情况下首先需要测量得到未知节点与已知节点之间的距离值。基于到达时间测量法(TimeofArrival,TOA)通过计算无线电磁波的传输时间,依据电磁波飞行速度换算得出两测距模块的间距。为消除时钟偏差带来的误差,采用双边测距法,在两测距模块之间增加一次传输,记录每次信号发送及接收时间,则计算得出两测距模块间电磁波单次飞行时间,如式(1)所示。式中:为基站发送并接收信号的时间间隔;发送到接收信号的时间间隔;为标签从接收到发送信号的时间间隔;为基站从接收到发送信号的时间间隔。假设3个基站的位置坐标分别为、以及,待求的行人标签坐标为,则通过3个定位圆相交于一点,可以进一步计算出未知行人的位置坐标。在实际应用中,由于测距误差的存在,致使3个定位圆在一般情况下难以交为一点,如图1所示。3个定位圆的3个交点构成一个三角形区域,利用三角质心法令定位圆的3个交点分别为,则标签定位点坐标计算如式(2)所示。1.2行人运动状态估计卡尔曼滤波是目前在定位系统中广泛应用的方法。卡尔曼滤波器能够综合传感器输出值和依据先验知识所得出的状态估计值,从而得到更为贴近真实值的结果。依据前两个连续时刻的行人相对定位结果来计算出行人与车辆间的相对运动速度值,并根据此相对运动速度对下一时刻行人相对车辆的位置进行估计,同时结合该UWB行人定位的实时测量值来综合计算出下一时刻行人相对车辆的定位结果,其中最初两次的行人定位结果直接依照观测值给出。在恒变速条件下,卡尔曼滤波器状态矩阵状态转移矩阵

如式(3)所示。由定位系统给出的观测结果为周围行人相对车辆的相对位置坐标,观测向量为,结合上文的误差分析,在长沙近郊某路段进行定位测试,使测试行人与测试车辆共线匀速相对运动,对该行人进行滤波前后的相对定位测试,其定位结果对比如图2所示。2基于视觉的行人检测及测距深度学习目标检测模型YOLOv3在准确率和速度方面得到了很好的平衡,对小目标有很好的检测效果,适用于自动驾驶场景下的多目标快速检测。对COCO和KITTI数据集进行清洗,获得只有行人的一类目标标注数据集,在此数据集上使用YOLOv3模型训练得出以行人为检测目标的权重文件及配置文件。使用摄像头获取到车辆前方的图像信息,并利用训练的检测权重实现行人检测。使用双目实现检测目标的测距,双目测距通过两个摄像头从不同角度采集同一目标物体图像信息,经匹配计算得出目标点在两个摄像头中的成像视差测得目标物的深度信息,可计算得到行人深度值Z,如式(4)所示。式中:Z为行人与摄像头间的纵向距离;f为相机焦距;B为基线长度,即两相机间的中心距;分别为目标点在左右两个摄像头成像的像素横坐标值。结合上文中由视觉检测出的行人结果,以检测框中心点坐标作为目标点,测得行人与摄像头间的纵向距离Z,即为行人与车辆间相对纵向坐标同时通过找到相机成像中的灭点,由灭点与目标像素点间的连线通过标定得到的像素比计算得出目标像素点距离相机的横向距离,即其横向坐标3UWB及视觉信息融合预警方法3.1预警原理碰撞时间(TimetoCollision,TTC)指车辆与目标物体间的跟驰距离除以两者的相对速度,即在此时刻预计两者的碰撞剩余时间值,是常用的评价车辆行车安全的指标。根据连续两个时刻内行人相对位置的变化计算出行人与车辆间的相对速度,通过测出的距离值计算得到的TTC值来评估行人、车辆的碰撞风险。计算原理如图3所示,TTC计算公式如式(5)所示。式中:为行人与车辆间的相对速度;

为连续两时刻间的时间间隔,即检测系统更新行人位置的时间间隔;为某时刻行人与车辆相对运动速度方向与行人车辆连线方向间的夹角;为行人与车辆沿直线距离方向的相对运动速度;为该时刻检测系统测得的行人与车辆间的相对距离值。当计算得出的TTC值达到安全阈值时,判定此时行人与车辆间存在潜在的碰撞危险。3.2坐标系转换与信息融合为了将UWB无线通信系统的行人检测预警结果与视觉的行人检测预警结果相融合,首先需要建立一个世界坐标系,并将UWB检测结果与视觉检测结果分别转换到世界坐标系中。由于预警只需要进行行人平面定位,因此只考虑平行于地面的二维坐标系。空间中的世界坐标系可由用户自由定义,由于车辆行驶过程中与行人发生碰撞的部位主要是车辆前方车头突出部分,因此,将车辆与行人间的相对距离值设定为行人与车辆最前方车头中点的距离,将世界坐标系原点设置在车辆最前端中点处,世界坐标系如图4所示。UWB的3个通信基站分别安装于车身的前保险杠中间部位以及车辆左右的C柱底端部位,为了计算方便,将UWB检测定位系统的坐标系建立在车辆前向保险杠中间部位的通信模块上,UWB坐标系如图4中所示。由于车辆前方的UWB通信模块的安装位置与世界坐标系原点间的Y向安装间距为,则UWB坐标系与世界坐标系的转换关系如式(6)所示。对于视觉坐标系,使用了水平仪将摄像机布置在车内后视镜位置,保持摄像机镜头平面与地面垂直,视觉坐标系为图4中所示,令摄像头安装位置与世界坐标系原点间的Y向安装间距为则视觉行人坐标值转换至世界坐标系的关系式如式(7)所示。3.3预警融合算法3.3.1基于欧式距离的危险行人位置匹配令UWB的危险行人点集合为U,视觉危险行人点集合为V,将集合U与集合V进行匹配。首先进行坐标系转换,假设UWB危险行人坐标转换到世界坐标系中的位置坐标为,视觉危险行人坐标转换到世界坐标系中的位置坐标为,分别计算某种检测中每个危险行人位置点与另一种检测中所有危险行人位置点间的欧式距离值,求得其中的最小距离,若最小距离值在设定阈值范围内,则判定匹配成功,匹配公式如式(8)所示。式中:

为UWB定位系统的定位误差值;为双目视觉测距误差值;s为测试过程中的动态匹配调整值。3.3.2预警决策流程得到UWB危险行人位置点与视觉危险行人位置点的匹配结果后,若UWB检测的危险点无法找到对应匹配的视觉危险点,则判定该行人为被障碍物遮挡或在摄像机视野外的行人,依据UWB检测结果给予预警并标识出遮挡的危险行人相应位置。若视觉危险点无法找到对应的UWB检测危险点进行匹配,则判定为非携带UWB模块的行人,给出视觉预警结果。若匹配成功,则为视觉和UWB共同检测判定出的危险点,给出视觉预警提示。具体预警融合流程如图5所示。4测试结果分析4.1测试平台搭建本文选取某型号UWB芯片进行测试,测距芯片的主要参数见表1。选取ZED双目摄像机来进行视觉检测测试,该双目立体摄相机同步获取到空间物体的双目图像,并在计算机中通过对应的软件开发包来计算分析。双目摄相机参数见表2。4.2定位误差测试4.2.1基于UWB通信的行人定位误差测试为衡量行人运动情况下的定位误差,对UWB行人定位算法进行动态误差测试。在天气晴朗的条件下分别在车速为20km/h、30km/h、40km/h的情况下对行人在0~15m及15~30m的距离段进行定位测试,并对结果进行误差分析。UWB车辆安装及UWB行人携带如图6所示,所得到的不同车速及距离下的定位平均误差及最大误差见表3。由上述检测结果可知,UWB定位误差随着车速的增加而增加,并随着检测距离的增加而增加,在行人与车辆相距0~15m的范围内,动态测距平均误差较低,整体在不同车速下该距离范围内的误差较为稳定。一般情况下,对于车辆有碰撞危险的行人大部分处于这个距离范围。因此,可认为该定位适用于本文的碰撞危险行人检测。4.2.2基于视觉的行人定位误差测试在不同天气和光照的情况下进行多组视觉行人检测定位误差测试,将双目摄像机安装在车内后视镜位置处,其具体的安装位置如图7所示。分别针对晴天、雨天以及不同的距离段进行了多组测试,并分析定位误差,得到不同天气及距离段下的定位平均误差和最大误差,其定位误差结果见表4。从定位检测结果可以看出,晴天时,在15m以内的平均定位误差在0.74m,而15~30m的定位误差超过1m;雨天时,由于行人检测准确率受到影响,出现跳变的情况,导致15m内误差超过1m。在夜晚也进行了测试,然而由于夜晚光照度很低,能检测出行人的帧数较少,所以夜晚检测定位效果不佳。4.3UWB通信和视觉融合的行人预警测试在天气晴朗的条件下进行试验,以30km/h的车速对15m以内的行人进行UWB及视觉的融合行人预警测试,根据上文对基于UWB和视觉的行人定位动态误差的测试结果,选取为0.53m,为0.74m。首先进行被遮挡行人预警测试,测试本系统对被遮挡行人的检测效果。设定一个被遮挡的危险行人点进行测试,一共进行30组检测测试,测试得到的结果见表5。图8为综合预警测试的界面,视觉框中右前方行人被障碍物遮挡,驾驶员以及摄像头无法检测到行人,使用该综合预警的方法可以根据匹配结果获取视觉无法检测的被遮挡行人位置,并在视觉界面中标识出危险行人,给出行人坐标,给予预警。图9为测试现场的场景记录,表5为测试结果。图9中的右侧为布置UWB基站的白色车辆,左边为携带UWB标签的危险行人。根据试验结果,全程漏标或错标危险点的次数为0,说明本融合预警系统可以有效检测出被遮挡的危险行人,具有很强的可靠性。同时,全程正确标识出危险点的情况达到了96.7%,说明本系统具有较强的稳定性。有两次间断性漏标或错标危险点的情况,经分析是某时刻由于外界影响UWB定位时突然发生较大跳变所致。再进行无遮挡行人预警测试,检验本系统对不同传感器信息的融合效果。在上述同样试验条件下设定一个无遮挡行人危险点,进行30次试验,试验结果见表6。根据试验结果,预警失败的次数为0,说明本融合预警系统可以有效检测出危险行人,同时匹配成功的情况达到了93.3%,说明本系统可以有效匹配

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论