[发明专利]基于距离度量的视觉词典闭环检测方法与装置有效
申请号: | 201810020343.2 | 申请日: | 2018-01-09 |
公开(公告)号: | CN108256563B | 公开(公告)日: | 2020-05-26 |
发明(设计)人: | 王声平;张立新 | 申请(专利权)人: | 深圳市无限动力发展有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/46 |
代理公司: | 深圳市明日今典知识产权代理事务所(普通合伙) 44343 | 代理人: | 王杰辉 |
地址: | 518000 广东省深圳市南山区创*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 距离 度量 视觉 词典 闭环 检测 方法 装置 | ||
本发明揭示了一种基于距离度量的视觉词典闭环检测方法与装置,其中,基于距离度量的视觉词典闭环检测方法包括:确定当前帧图片对应的第一位姿与历史帧图片对应的第二位姿之间的最短空间距离,所述历史帧图片为与所述当前帧图片的相似度达到第一预设阈值的帧图片;若所述最短空间距离小于第二预设阈值,则将所述历史帧图片纳入候选帧图片集合,所述第二预设阈值为预先获取到的所述当前帧与其邻近帧的不确定度的预设倍数;将所述候选帧图片与所述当前帧图片进行闭环检测。本发明结合最短空间距离约束视觉词典中相似图片的选择范围,以便找到合适的相似图片进行闭环检测,有效减少视觉歧义,提高闭环检测的准确性,增加机器人的定位精度。
技术领域
本发明涉及到机器人领域,特别是涉及到基于距离度量的视觉词典闭环检测方法与装置。
背景技术
同步定位与地图构建是移动机器人导航领域的基本问题与研究热点,是否具备同步定位与地图构建的能力被许多人认为是机器人是否能够实现自主导航的关键的前提条件。SLAM(Simultaneous Localization and Mapping,定位与地图构建)过程中机器人实现自定位的同时构建环境地图,由于先验知识的匮乏和环境的不确定性,机器人在行走的过程中需要判断当前位置是否处于已经访问过的环境区域,并以此作为判断是否需要环境更新的依据,即闭环检测问题。由于视觉传感器观测的范围有限,单目视觉SLAM闭环检测面临很多问题,包括机器人运动的不确定性和误差会导致数据关联错误、视觉特征如何检测、视觉场景模型如何表征等等。其中如何准确建立场景模型是视觉SLAM闭环检测的关键,目前大部分基于视觉的场景模型通过直接获得的环境外观特征来描述。BoVW(Bag of VisualWords)算法是一种有效的图像特征建模方法,被广泛用于视觉SLAM闭环检测。该方法首先用SURF(Speed-up robust features,加速健壮特征)或SIFT(Scale-invariant featuretransform,尺度不变特征转换)算子提取图像的局部特征,然后将特征进行分类构建视觉词典,基于创建的视觉词典,任何一幅图像都可以用视觉词典中的视觉单词集合进行表征。然而,由于视觉扫地机视野范围小,难免会出现不在同一地方拍摄到的两帧图像具有很相似的特征,这时单纯利用视觉词典匹配得到的闭环很可能代表错误的信息,引入错误的信息就会导致扫地机定位出现错误,进而影响整个系统的稳定性。
因此,现有技术还有待改进。
发明内容
本发明的主要目的为提供一种基于距离度量的视觉词典闭环检测方法,旨在解决单纯利用视觉词典匹配的闭环信息不准确而导致扫地机定位错误的技术问题。
本发明第一方面提出一种基于距离度量的视觉词典闭环检测方法,包括:
确定当前帧图片对应的第一位姿与历史帧图片对应的第二位姿之间的最短空间距离,所述历史帧图片为与所述当前帧图片的相似度达到第一预设阈值的帧图片;
若所述最短空间距离小于第二预设阈值,则将所述历史帧图片纳入候选帧图片集合,所述第二预设阈值为预先获取到的所述当前帧与其邻近帧的不确定度的预设倍数;
将上述候选帧图片与上述当前帧图片进行闭环检测。
优选地,上述确定当前帧图片对应的第一位姿与历史帧图片对应的第二位姿之间的最短空间距离的步骤,包括:
根据移动过程中形成的位姿空间约束关系确定上述第一位姿与上述第二位姿之间的不确定性;
根据上述不确定性通过Dijkstra最短路径算法寻找上述第一位姿与上述第二位姿之间的最短距离;
将上述最短距离设定为上述最短空间距离。
优选地,上述根据移动过程中形成的位姿空间约束关系确定上述第一位姿与上述第二位姿之间的不确定性的步骤,包括:
计算上述第一位姿与上述第二位姿之间的协方差矩阵;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市无限动力发展有限公司,未经深圳市无限动力发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810020343.2/2.html,转载请声明来源钻瓜专利网。