【浅析人工智能的机器视觉导航与标志定位识别系统5100字(论文)】_第1页
【浅析人工智能的机器视觉导航与标志定位识别系统5100字(论文)】_第2页
【浅析人工智能的机器视觉导航与标志定位识别系统5100字(论文)】_第3页
【浅析人工智能的机器视觉导航与标志定位识别系统5100字(论文)】_第4页
【浅析人工智能的机器视觉导航与标志定位识别系统5100字(论文)】_第5页
已阅读5页,还剩5页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能的机器视觉导航与标志定位识别系统研究目录TOC\o"1-2"\h\u26034基于人工智能的机器视觉导航与标志定位识别系统 17743一、引言 122402二、多传感器融合技术 110344三、视觉导航标志定位识别算法 33924(一)全局路径规划算法 37842(二)视觉与惯性测量单元IMU数据融合 729108参考文献 9摘要:近年来,由于机器人应用场景的不断拓展,对机器人技术的要求也在不断的提高,针对复杂大场景环境下的机器人,单一传感器已经不能满足其对环境信息的感知能力,因此机器人多传感器融合技术逐步受到众多相关领域研究者的青睐。借此本文设计了基于人工智能的机器视觉导航与标志定位识别系统。关键词:人工智能;机器视觉;标志定位一、引言随着社会和科学技术的不断发展,机器人技术也逐渐受到人们的关注。目前,机器人在医疗领域、工业领域、军事领域、家居领域中都已得到广泛应用。工业机器人可以在众多场景下代替人类完成各种工作,如组装、配送、焊接等作业任务,不但降低了人工成本,还提高了工厂的生产效率;微型医疗机器人可以代替医生完成更加复杂的手术,如血管疏通、细胞切割等,大大提高了人类的医疗水平,给人们的生命健康带来了极大的福音;救援机器人可以到达人类无法到达的恶劣环境下实施救援,极大的提高了救援效率;家庭服务机器人可以代替亲属实现对老人小孩的看护,可以实时监测老人小孩的身体健康状况,同时具有预测报警通知等功能,给人类生活带来了极大的便利。另外,在我国人口红利逐渐下降的情况下,机器人技术解决了劳动密集型企业劳动力不足的问题,不但对装备制造业的发展产生了极大的促进作用,并且还带动了人工智能,计算机视觉等相关产业的发展。因此,机器人技术的发展会随着社会的发展而更加受到人们的重视。二、多传感器融合技术多传感器融合技术能够使机器人在构建地图时获取到更加丰富的环境信息,能够得到较精确的局部定位数据,提高机器人建图质量和导航精度。近年来,针对不同的应用场景和技术要求,多种类型的传感器组合形式也相继出现,如以相机为主体的融合方案有相机与激光雷达进行数据融合、相机与惯性测量单元(IMU)进行数据融合等。多种融合方式各有优劣,如下表1所示。表1传感器组合方式组合方式优点缺点激光雷达和惯性融合可靠性高,且解决了激光SLAM过程中激光雷达垂直分辨率低、更新速度低以及由运动引起的失真等问题探测距离有限,不能识别物体,在特征不明显的地方定位效果差,难以重定位毫米波和激光雷达探测距离远,不受环境光线影响,可靠性高,且同时提高了局部定位精度和全局定位精度成本高,计算量大,且无法识别物体,在结构单一环境中定位效果差视觉和惯性融合减轻运动对相机的影响,提高了相机在快速移动时的定位和跟踪能力易受环境光线的影响,计算量大,存在累计误差激光雷达和视觉融合同时提高了局部定位能力和全局定位能力,减小了累计误差,并且提高了鲁棒性计算量较大,定位依赖于准确的联合标定,在运动过快情况下定位效果差惯性导航和声呐融合探测距离远,可靠性强,定位精度高存在累计误差,对动态目标跟踪效果差。SLAM进行多传感器融合关键在于不同的数据如何进行融合,其融合示意图如下图1所示,融合的基本要求是多个数据必须基本实时、互补、不冗余。另外,根据数据融合的层次大致可以分为决策层融合、数据层融合、特征层融合;根据融合耦合复杂度的不同有松耦合、紧耦合以及超紧耦合;根据融合的方法不同,可以分为加权平均法、贝叶斯估计法、扩展卡尔曼滤波法、模糊逻辑、D-S证据理论法、神经网络法等等。图1传感器数据融合示意图三、视觉导航标志定位识别算法机器人实现智能化和自主化,导航是必须具备的一项基础功能,导航就是机器人基于地图,实现从起始点到目标点行进的过程,这个过程中要求不发生碰撞并满足自身动力学模型,如不超过速度、加速度等的限制,导航过程示意图如下图所示.图2机器人导航示意图将导航的任务进行细分,首先机器人在未知环境中需要使用激光传感器或者是视觉传感器进行地图构建,然后根据构建的地图进行定位,有了地图和定位的基础,就可以根据目标点以及感知的障碍物信息进行路径规划了,因此可以将导航的要素归纳如下。图3机器人导航要素(一)全局路径规划算法机器人具备全局路径规划能力是机器人实现智能化和自主化的重要标志之一,目前在SLAM领域主流的全局路径规划算法是A*算法,A*是一种启发式算法。启发式搜索对状态空间中的每个搜索位置进行评估,得到最佳位置,然后从该位置搜索到目标点。这种方法可以省略很多不必要的搜索路径,提高了全局路径规划的效率。假设机器人要从某个空间的A点移动到B点,但是这两点之间被障碍物挡住了,如下图所示。图4障碍物与与目标点示意图在确定机器人全局导航的起点和目标点后,首先将搜索区域划分成方形的格子,这一步简化了搜索区域将搜索区域转换成了二维数组。其中数组的每一项就代表搜索区域中的某一个格子。它有两种状态,一种是机器人可通行的格子,另一种是机器人不可通行的格子。通过计算,找到机器人从A点到达B点所要经过的格子就找到了路径,路径一旦被找到,机器人就可以遍历这些格子到达目标点。在将搜索路径简化为一组可以量化的节点后就可以开始寻找最短路径了。在A*算法中首先从起点节点开始,搜索其相邻的方格,然后向四周扩展,直到找到目标。其主要步骤如下:(1)先建立一个由方格组成的openlist(开放列表),从起点A开始,将其加入到开放列表中,此时开放列表中只有一项,即起点A,后面会加入更多的节点。在开放列表中的格子可能是路径中的,也可能不是路径中的,其本质是一个待检查的方格列表。(2)接下来查看与点A相邻的其他方格,此时忽略障碍物所占的方格区域,将其它可走的或者可到达的方格都加入到开放列表中,把起点A设置为这些格子的父格子点。(3)将A格子从开放列表中移除并加入到封闭列表(closelist)中。如下图5所示,绿色的格子为机器人起点,即A点,外框被标注成了亮蓝色,表示该格子已经被加入到了封闭列表中,与其相邻的黑色格子都是需要被检查的,每个黑色的方格会有一个箭头指向其自身的父节点。图5开始路径搜索接下来从开放列表中选一个与起点A相邻的格子,通过计算其代价函数决定将哪个格子放入到封闭列表中作为最后路径中的格子。计算出组成路径的方格的代价函数如下:f(n)=g(n)+h(n)其中,f(n)是从初始状态经由状态n到目标状态的代价估计,g(n)是在状态空间中从初始状态到状态n的实际代价,h(n)是从状态n到目标状态的最佳路径的代价估计。h(n)的选取保证找到最短路径(最优解的)条件,关键在于估价函数f(n)的选取。以d(n)表达状态n到目标状态的距离,则h(n)的选取大致有如下三种情况:1.如果h(n)<d(n)到目标状态的实际距离,这种情况下,搜索的点数多,搜索范围大,效率低。但能得到最优解。2.如果h(n)=d(n),即距离估计h(n)等于最短距离,那么搜索将严格沿着最短路径进行,此时的搜索效率是最高的。3.如果h(n)>d(n),搜索的点数少,搜索范围小,效率高,但不能保证得到最优解。如上所述,将从起点A移动到目标格子产生的移动代价用g来表示,如下图。图6A*全局路径搜索示意图1为了避免开方和小数计算,将纵向和横向移动的代价看做10,而对角线的移动代价看做14,都取近似整数。因为g值是根据沿着到达指定方格的路径计算出来的,那么计算出该方格的g值的方法就是找出其父格子的g值,然后按照直线方向或者斜线方向加上10或者14.这里的h值通过曼哈顿方法计算,首先计算从当前方格横向移动或者纵向移动到达目标方格所经过的格子数,然后总数乘以10,在计算过程中需要忽略路径中经过的障碍物,因为这是对剩余距离的估算值,而不是实际值。F值是通过g和h相加而得到,第一步的结果如上图4-5所示,每一个方格都包含了三个值,f、g以及h,如起点右边的方格一样,左上角是f,左下角是g,右下角是h。在标有字母的方格中由于其水平方向从起点到这里只通过一个方格,因此其g值为10。与起点直接相邻的的下方、上方以及左方的格子的g值都是10,对角线上的方格的g值为14。h值通过计算起点到终点的曼哈顿距离得出,其仅仅做横向或者纵向的移动。使用这种方法可以看到,起点右边的格子距离终点格子有三个格子,所以h为30。这个格子上方的方格到终点的格子有四个格子的距离,因此此时的h为40,至于其他格子也可以用同样的方法计算出其距离终点格子的h值和g值。第一步搜索步骤完成后,从开放列表中挑出f值最小的格子节点,对此节点做如下操作:(1)将其从开放列表中取出,放入封闭列表中。(2)和第一步搜索步骤一致,在此搜索与其相邻的其他格子节点,摒弃在封闭列表中不可通行的格子,即障碍物所在的格子,如果搜索到的格子不在开放列表中,则将其放入开放列表中。在搜索过程中,若某个方格已经在开放列表中,则首先检查此条路径是否为更优,若不是,则不做任何操作,若是,则将此格子的父格子设置为当前格子,最后重先计算那个方格的f值和g值。其搜索过程如下图所示。图7A*全局路径搜索示意图2如上图所示,在最初的九个方格中,目前还有八个在开放列表中,有一个已经放入了封闭列表中,在如图所示的方格中,起点右边的格子的f值最小,因此选择此方格作为下一个要处理的方格,其外框如图8所示用蓝线标出。首先,将其从开放列表中移动到封闭列表中,然后检查与其相邻的格子,因为右边的格子是墙壁,所以忽略,左边的格子是起点所以也忽略,其它四个相邻的方格都在开放列表中,此时通过计算各个格子的g值来判定经由这个格子到达目标点是否是更优的路径,接下来不断重复这个过程,直到将终点也加入到开放列表中,此时整个过程的路径搜索示意图如下图所示。图8A*全局路径搜索示意图3如上图所示,在起点下方距离两格的格子的父结点已经与前面的不同了,这是因为在寻路过程中在某处使用新路径时g值经过计算变得更小,因此父节点被重先设定,g值和f值被重先计算。经过对可能在路径中的栅格进行筛选后,就可以确定实际的作为全局路径规划的路线了。从终点开始,按着箭头向父节点移动,这样就可以寻迹到起点,那么这个就是实际的路径了,如下图9所示,从起点A移动到终点B就是从路径上的一个方格的中心移动到另一个方格的中心,直至目标。图9A*全局路径搜索示意图4(二)视觉与惯性测量单元IMU数据融合视觉SLAM中,相机能够获取到较丰富的环境信息从而提供稳定的观测数据,但是其缺点也较为明显,随着机器人应用领域的不多拓展,对于环境纹理特征不明显的场景或者图像采集速率过快的情况下,相机的运动估计效果就会差很多,此时需要借助其它的导航系统进行修正才能达到一个比较理想的运动估计结果。惯性测量单元(IMU)通过自身的自主导航能力,在不受外界环境的干扰下,可为载体提供线加速度、角加速度等信息。惯性测量单元与视觉的结合,能够将相机和IMU两者的优点综合利用起来,能够保障机器人在室内环境下具有较高精度的定位效果。相机与IMU进行融合时的坐标转换关系如下图所示。图10视觉与惯性测量单元融合坐标转换如上图所示,相机的左摄像头是,右摄像头是,摄像头光心设定为坐标原点。IMU的位置在两个摄像头的中间并将其坐标用表示。相机与IMU进行融合的最终目的是估计出IMU所在的坐标系相对于世界坐标系的运动变换信息,即估计,为导航坐标系,其导航坐标中心在IMU所在坐标系初始时的原点处,重力加速度与G轴和Z轴的方向一致。X轴方向代表系统前方,通过右手准则确定Y轴的方向。在相机与IMU进行组合的流程中,首先利用平滑滤波技术对IMU获取到的加速度和角速度进行处理,经处理会将测量数据中的无效数据过滤掉。在获得相机采集的图像后,通过构造图像金字塔,提取前后帧的特征点并进行匹配。最后,利用剔除误匹配点的特征点对,计算出相机在某一时刻的运动变化信息,其具体流程图如下图所示。图11相机与IMU数据融合流程在获取到质量较好的特征匹配点对后,使用3D-2D常用的PNP方法解算相机的运动信息矩阵。为了解决在相机运动变化微小时估计出的相机运动信息精度下降的问题,采用关键帧技术对平移和旋转未超过某一设定阈值的图像帧进行剔除,比如某帧上提取到的特征点数量若小于30时,便将其从关键帧序列中剔除,以避免因数量过低而无法获取到丰富环境特征导致帧间误匹配率高的结果。最后,采用列文博格优化方法对位置和姿态进行

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论