[发明专利]一种智能导航方法、装置和设备有效
| 申请号: | 202011552550.6 | 申请日: | 2020-12-24 |
| 公开(公告)号: | CN112762929B | 公开(公告)日: | 2022-08-02 |
| 发明(设计)人: | 张胜凯;王巍;江涛 | 申请(专利权)人: | 华中科技大学 |
| 主分类号: | G01C21/16 | 分类号: | G01C21/16;G06T7/73;G06T7/246 |
| 代理公司: | 华中科技大学专利中心 42201 | 代理人: | 李智 |
| 地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 智能 导航 方法 装置 设备 | ||
本发明公开了一种智能导航方法、装置和设备,属于无线定位技术与机器人技术的交叉领域,所述方法包括:S1:采集环境图像并获取环境图像中的原始视觉特征;S2:将无线测量获取的距离角度信息作为参考信息对原始视觉特征进行筛选得到目标视觉特征;S3:基于IMU测量利用目标视觉特征初始化环境中无线信号源的位置以及无线测量的偏置;S4:利用无线测量的测量结果、IMU测量的测量结果和目标视觉特征估计运动状态信息,运动状态信息包括:状态变量、视觉特征点的深度和无线测量的偏置;S5:根据运动状态信息和环境中的视觉特征对应的三维信息进行导航。本发明能够提高弱纹理环境下的视觉信息的可靠性,进而实现弱纹理环境下的准确导航。
技术领域
本发明属于无线定位技术与机器人技术的交叉领域,更具体地,涉及一种智能导航方法、装置和设备。
背景技术
近年来快速发展的机器人等智能导航设备的导航技术能代替人执行各种各样的任务,以降低人类生命危险和提高工作效率。例如:机器人能帮助消防员在危险的建筑中搜寻幸存者,能通过空中扫描提高仓储盘库效率30倍。这些应用的基础需求是智能导航设备能够在各种各样复杂的环境中安全有效的通过精准的控制来执行任务。复杂环境精准控制的能力由鲁棒的状态估计赋予。状态估计的目标是实时估计设备的运动状态,至少包括位置、速度和姿态。鲁棒性是当前状态估计系统的关键命题。
鲁棒状态估计的关键挑战之一是弱纹理环境。这类环境十分普遍,例如:四周纯白色墙壁的房间、纯色地板、墙上的镜子、大落地窗等等。微小、轻巧、低成本的单目视觉是目前准确状态估计系统的主流方案。但是,单目视觉需要光照纹理状况良好的环境才能捕捉到足够多的视觉特征,进而通过投影几何实现状态估计,如:光流为了更好的特征匹配,需要明显的视觉纹理。一种解决方法是人为的在弱纹理物体的表面增加视觉标记(二维码等),但这具有侵入性且费时费力。另一种方法是通过评估当前环境的纹理程度来决定是否绕开弱纹理区域。更多的传统方法使用回环检测作为一个补救措施来修正弱纹理区域的累积误差。尽管这可能足以应付短暂的弱纹理飞行,但无法支持设备长期在弱纹理区域的运行。此外,实际应用中,设备的运动轨迹可能没有回环用意修正累积误差。
近来,许多工作将无线信号,如LoRa、UWB以及WiFi,作为状态估计的另一种传感方式。它们不受视觉条件的限制,并且日益广泛的存在于日常生活中,例如:UWB已经集成到iPhone 11中。但是,由于无线信号较大的波长和环境干扰,它们的状态估计精度是分米级,比视觉条件良好情况下的单目视觉方案差了一个数量级。因此,当前基于无线信号的状态估计系统无法支持设备的高精度导航。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种智能导航方法、装置和设备,其目的在于解决在弱纹理环境下无法支持高精度导航问题。
为实现上述目的,按照本发明的一个方面,提供了一种智能导航方法,包括:
S1:采集环境图像并获取所述环境图像中的原始视觉特征;
S2:将无线测量获取的距离角度信息作为参考信息对所述原始视觉特征进行筛选得到目标视觉特征;
S3:基于IMU测量利用所述目标视觉特征初始化环境中无线信号源的位置以及无线测量的偏置;
S4:利用无线测量的测量结果、IMU测量的测量结果和所述目标视觉特征估计运动状态信息,所述运动状态信息包括:状态变量、视觉特征点的深度和无线测量的偏置,所述状态变量包括:三维位置、三维速度和三维姿态;
S5:根据所述运动状态信息和环境中的视觉特征对应的三维信息进行导航。
在其中一个实施例中,所述步骤S1包括:
利用单目相机、双目光学相机、孔径相机或者鱼眼相机采集环境图像并获取所述环境图像中的原始视觉特征。
在其中一个实施例中,所述步骤S2包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011552550.6/2.html,转载请声明来源钻瓜专利网。





