[发明专利]一种利用深度相机和双目相机构建栅格地图的方法有效
申请号: | 201911145785.0 | 申请日: | 2019-11-21 |
公开(公告)号: | CN110849351B | 公开(公告)日: | 2021-07-06 |
发明(设计)人: | 仲维;陈圣伦;李豪杰;王智慧;刘日升;樊鑫;罗钟铉 | 申请(专利权)人: | 大连理工大学 |
主分类号: | G01C21/00 | 分类号: | G01C21/00;G01C21/20;G01C21/32 |
代理公司: | 大连理工大学专利中心 21200 | 代理人: | 陈玲玉 |
地址: | 116024 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 利用 深度 相机 双目 构建 栅格 地图 方法 | ||
本发明公开了一种利用深度相机和双目相机构建栅格地图的方法,属于图像处理和计算机视觉领域。利用严谨的配准策略完成传感器配准,从硬件的层次提升系统效率。利用GPU构建高性能运算平台,并构建高性能求解算法构建栅格地图。系统容易构建,程序简单,易于实现;利用多模态传感器,算法鲁棒性强精度高。
技术领域
本发明属于图像处理和计算机视觉领域。涉及一种利用深度相机和双目相机构建栅格地图的方法。
背景技术
近年伴随着人工智能的发展移动机器人和汽车自动驾驶越来越受到人们的关注,而其中一个需要解决主要的问题就是地图构建。栅格地图是在无人导航中最为常见的一种地图,因而如何构建快速精确的栅格地图成为移动机器人和和无人车中一个十分重要的问题。现阶段主流的方法大致利用三种传感器,双目相机,深度相机和雷达。三种传感器由于自身的特性存在着不可避免的缺点,双目相机受光照和纹理影响大,深度相机测距范围有限。抗干扰能力差,激光雷达或毫米波雷达价格昂贵且数据稀疏。由此可见单一传感器构建栅格地图不能完整准确的反映出场景的结构。因此传感器融合成为一种趋势,现阶段存在的融合方案有双目相机和雷达,使用双目相机的稠密数据填充雷达的稀疏数据,使用雷达的精确数据修正双目相机的粗略数据,最终构建可较好反映场景深度图,然后可利用生成的深度图构建栅格地图。但是这样的方案设备成本高,算法中数据融合消耗资源多、实时性较差,而且不适合在规模较小的环境使用。
发明内容
为解决上述问题本发明提出使用深度相机和双目相机构建栅格地图的方法,深度相机测距范围有限但是精度高可以弥补双目相机在近处的测量误差,双目相机测距范围大可以获取远处的信息。两者结合克服无纹理区域、光照影响等问题。但是数据融合依然影响算法的执行效率,本发明提出的权值状态更新方法融合数据可以提升算法效率。本发明提出一种高效的利用深度相机和双目相机构建栅格地图的方法。具体技术方案的步骤如下:
1)传感器配准
在两传感器测距范围内选取8个以上的位置,使用标定物在公共视野内拍摄8个以上图像。令深度相机深度图转换的点云为对应的双目相机的点云为迭代求解位姿T,T是满足和中最多对点的位姿关系,即在不同深度位置传感器位姿会有所不同所以在标定后得到的是传感器位姿序列,并且会记录计算位姿时点云的包围框,用于指导点云分区域配准。
2)更新测量值权重
本发明的融合策略是根据不同场景,不同范围和不同传感器精度赋予测量值权值w。由于传感器视角和场景原因会导致某一传感器在某些区域不会产生测量数据,此时将完全信赖产生测量数据的传感器。另外深度传感器普遍不适用于室外测距,在算法中存在场景判别机制,当在室外时会降低权值;
3)分区域配准
在对点云和配准时,会判断三维点存在于位姿序列的哪一个包围框中,并采用对应的位姿进行配准Tj。如果重叠则使用重叠位姿的均值如果不在任何包围框中,则判断三维点到各包围框中心的距离如果大于阈值则剔除否则使用位姿序列平均位姿进行配准,配准后的点云为Pc。
4)筛选视线
构建栅格地图时要对点云Pc进行筛选,连接三维点q与视线起点o为当前视线l,o是相机光心在世界坐标系的位置,如果q的高度比o大h则剔去视线,保留的视线会投影到栅格地图之中为l′。从O沿着投影线遍历更新栅格的状态直到到达端点Q,O和Q为o点和q点在栅格地图中的投影。
5)更新栅格状态
在遍历投影线的过程中会以权值更新投影线经过的栅格的状态。在更新栅格状态时,以贝叶斯推断方式融合更新。具体指的是在已知栅格已有的状态和本次测量的栅格状态,用贝叶斯推断的方式可得出本次测量后的栅格状态。
算法中ε和h为设定的阈值。
进一步地,上述步骤2)更新测量值权重,具体步骤如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连理工大学,未经大连理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911145785.0/2.html,转载请声明来源钻瓜专利网。