[发明专利]一种基于多融合传感器的机器人空间定位方法和系统在审
| 申请号: | 202110869625.1 | 申请日: | 2021-07-30 |
| 公开(公告)号: | CN113640802A | 公开(公告)日: | 2021-11-12 |
| 发明(设计)人: | 吴辰斌;王承;蒋晓娟;周韫捷;袁奇;原佳亮;王骁迪;陈艳玲;张永康;袁小慧;沈斌;王东源;张伟 | 申请(专利权)人: | 国网上海市电力公司;硕能(上海)自动化科技有限公司 |
| 主分类号: | G01S13/933 | 分类号: | G01S13/933;G01S13/86;G01S17/933;G01S17/86;G01S7/41 |
| 代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 赵继明 |
| 地址: | 200122 上海市浦*** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 融合 传感器 机器人 空间 定位 方法 系统 | ||
本发明涉及一种基于多融合传感器的机器人空间定位方法和系统,机器人搭载有毫米波雷达、激光雷达和双目视觉传感器,方法包括:由毫米波雷达对机器人四周环境发射连续的调频波,得到周围环境对象的第一距离信息和速度信息;采用双目视觉传感器采集机器人四周环境图片,进行物体分割识别,计算与分割出的物体的第二距离,并与第一距离信息进行联合校准,获得第三距离信息,进而建立三维环境模型;通过激光雷达向四周环境发射脉冲激光,计算与四周物体的第四距离,并与第三距离信息进行联合校准,根据机器人的实时位置移动量和三维环境模型,建立随机器人移动的三维环境地图。与现有技术相比,本发明具有空间定位精度高、定位范围广泛等优点。
技术领域
本发明涉及机器人定位技术领域,尤其是涉及一种基于多融合传感器的机器人空间定位方法和系统。
背景技术
目前机器人的空间定位技术中,主要采用的传感器类型有视觉传感器(单目视觉和双目视觉)、红外传感器、超声波传感器、激光传感器、毫米波雷达等;
各类型传感器进行空间定位时分别存在以下缺陷:
单目视觉:只能获取环境的二维图像信息,无法获取环境障碍物的深度信息;
双目视觉:计算复杂、实时性差;
红外传感器、超声波:探测范围有限、容易受到环境影响如温度、风速等,刷新率低,多组同时使用容易产生串扰,探测数据较少,影响避障控制的精确度等缺陷;
激光:具有较高的精度和速度,但对于黑体或透明材料效果不太行;
毫米波:毫米波的大气衰减较大,传播损耗比低频段严重(探测距离近)。
发明内容
本发明的目的就是为了克服上述现有技术采用单一传感器进行空间定位存在的缺陷而提供一种基于多融合传感器的机器人空间定位方法和系统。
本发明的目的可以通过以下技术方案来实现:
一种基于多融合传感器的机器人空间定位方法,所述机器人搭载有毫米波雷达、激光雷达和双目视觉传感器,所述方法包括以下步骤:
初步定位步骤:由毫米波雷达对机器人四周环境发射连续的调频波,并接收回波信号,通过混频器将发射的调频波与接收的回波信号混合,生成混频信号;对毫米波雷达接收的混频信号进行采样和一维FFT处理,得到周围环境对象的第一距离信息,再对所述第一距离信息进行二维FFT处理,得到速度信息;
三维环境模型建立步骤:采用双目视觉传感器采集机器人四周环境图片,根据所述环境图片进行物体分割识别,计算与分割出的物体的第二距离,并根据所述第一距离信息进行联合校准,获取对物体的第三距离信息,进而建立周围环境的三维环境模型;
最终定位步骤:通过激光雷达向四周环境发射脉冲激光,根据激光信号返回时间,计算与四周物体的第四距离,以及机器人的实时位置移动量,根据所述第四距离,对所述三维环境模型中的第三距离信息进行联合校准,并根据机器人的实时位置移动量和三维环境模型,建立随机器人移动的三维环境地图。
进一步地,所述初步定位步骤还包括:在对混频信号进行采样和一维FFT处理后,还获取机器人相对于周围环境对象的角度信息,所述三维环境模型建立步骤还包括:根据所述角度信息,对所述三维环境模型的机器人角度进行调整。
进一步地,通过不同的设备进行所述联合校准前还包括对不同设备的坐标系进行转换。
进一步地,基于SLAM技术,建立所述三维环境模型。
进一步地,三维环境模型建立步骤中,所述进行物体分割识别具体为:根据HSV颜色空间对所述双目视觉传感器采集到的四周环境图片的颜色进行预处理,基于物体的颜色特征,判断不同物体的饱和度区间和色调区间的阈值,从而划分不同的物体。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国网上海市电力公司;硕能(上海)自动化科技有限公司,未经国网上海市电力公司;硕能(上海)自动化科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110869625.1/2.html,转载请声明来源钻瓜专利网。





