[发明专利]一种大场景下自主移动机器人SLAM方法有效
申请号: | 202010236546.2 | 申请日: | 2020-03-30 |
公开(公告)号: | CN111427047B | 公开(公告)日: | 2023-05-05 |
发明(设计)人: | 莫宏伟;肖恭财;田朋;许贵亮;王泽华 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G01S17/06 | 分类号: | G01S17/06;G01S17/93;G01C22/00;G06F17/11 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 场景 自主 移动 机器人 slam 方法 | ||
本发明公开了一种大场景下自主移动机器人SLAM方法,首先考虑机器人在空间平面运行所面临各种噪声的影响,由不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型;然后采用多级分辨率地图的方法进行最优位姿的搜索以及采用分枝定界法对搜索算法进行加速优化,结合位姿优化模块,得到一个精准的位姿和地图;最后将得到的位姿和地图信息传送到基于信息论方法的自主探索算法中,让机器人自主完成定位与建图任务。本发明相对其他方法计算量均很低,而且适用于结构化与非结构化环境当中,具有良好的鲁棒性,适用于更加复杂、较大的环境场合,并且能够实现机器人在未知环境下自主地大范围建图与定位。
技术领域
本发明属于机器人定位与建图(SLAM)领域,涉及到自主探索和同步定位与地图构建等机器人技术,具体涉及一种大场景下自主移动机器人SLAM方法。
背景技术
自起步发展至今,SLAM技术已经有三十多年的历史,其功能以及应用范围随着科学技术的发展以及人们对生活生产的需要而逐渐完善和推广。SLAM问题可以描述为:移动机器人在没有任何先验环境的情况下,仅凭借自身传感器构建未知环境地图的同时确定自身的位姿。SLAM已成为近年来机器人领域的热点研究问题,并被认为是实现真正自主机器人的核心环节。
随着机器人应用的不断推广,SLAM技术所面临的问题与挑战也越来越大,比如机器人由初始的小范围作业变为需要适应特殊场合的大环境,在大场景下如何保证前后帧之间的关联以及数据的准确匹配;随着场景的越来越大,SLAM系统所要维护的地图数据量也越来越大,从而加大了地图构建的难度,这如何保证系统处理数据的实时性;每一次位姿估计的微小误差,机器人经过长时间与长距离的运作必然会累积成一个较大的误差,这样的误差该如何有效地减小甚至消除等等。这些问题也都是SLAM需要解决的。
发明内容
针对上述现有技术,本发明要解决的技术问题是提供一种更加复杂、较大的环境场合下,机器人准确实现自主定位与建图的一种大场景下自主移动机器人SLAM方法。
为解决上述技术问题,本发明的一种大场景下自主移动机器人SLAM方法,包括如下步骤:
步骤1:采用不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型;
步骤2:首先对步骤1得到的观测数据建立栅格化地图,状态估计方程为:
将等式右边取对数,则:
将连乘运算转换成加法运算,通过上式将整帧观测数据的概率转换成当前帧数据每一个点的概率;
对观测数据建立栅格化地图:将环境划分为n×n数量的栅格,以空闲和占据表示栅格的两种状态,空闲表示栅格所表示的空间没有障碍物,用白色来填充,占据表示栅格所代表的空间有障碍物,用黑色来填充,还没有探测到的未知区域为灰色,最后采用多级分辨率地图的方法进行最优位姿的搜索以及采用分枝定界法对搜索算法进行加速优化,初步得到机器人的位姿信息与环境地图信息;
步骤3:由步骤2得到的初步机器人位姿信息以及环境地图信息,通过构建位姿以及路标点之间的图模型,利用它们之间的约束关系,采用非线性优化的方式将估计位姿与实际观测所得到的位姿构造一个误差函数,最小化误差函数以进一步求得精确位姿;
步骤4:将得到的精确的位姿和地图信息,传送到基于信息论方法的自主探索算法中,该算法的长期目标是减少机器人在探索未知环境时所构建的地图的信息熵,短期目标是最大化互信息,互信息高的位置相当于环境的未被探索的区域,利用贝叶斯优化的方法来确定互信息极值点位置,从而确定移动机器人在未知环境中的每一个运动目标位置,让机器人自主完成定位与建图任务。
本发明还包括:
1.步骤1中采用不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型具体为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010236546.2/2.html,转载请声明来源钻瓜专利网。