[发明专利]用于确定相对位姿参数的方法和装置在审
申请号: | 201911096795.X | 申请日: | 2019-11-11 |
公开(公告)号: | CN112785651A | 公开(公告)日: | 2021-05-11 |
发明(设计)人: | 崔伟;黄玉玺;刘懿;孙云哲 | 申请(专利权)人: | 北京京邦达贸易有限公司;北京京东乾石科技有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G01S7/497;G01S17/42 |
代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 王达佐;马晓亚 |
地址: | 100080 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 确定 相对 参数 方法 装置 | ||
本申请实施例公开了用于确定相对位姿参数的方法和装置。该用于确定相对位姿参数的方法的一个具体实施方式包括:获取多线激光雷达扫描的预设场景的激光点云数据;其中,预设场景包括预设数量的设于不同区域且规格不完全相同的棋盘格标定板;获取单目相机拍摄的预设场景的图像;获取激光点云数据中的第一平面信息集合;获取图像中的第二平面信息集合;从第一平面信息集合与第二平面信息集合中,随机抽取相对应的三组平面进行关联;基于关联后的三组平面的中心点和法向量,计算多线激光雷达与单目相机的相对位姿参数。该实施方式可以通过采集一幅图像和一帧点云数据,简洁高效的计算单目相机与激光雷达的相对位姿参数,提高了计算位姿参数的效率。
技术领域
本申请涉及计算机技术领域,具体涉及自动驾驶技术领域,尤其 涉及用于确定相对位姿参数的方法和装置。
背景技术
自动驾驶技术中一个重要的任务是对环境的有效感知。通常感知 系统包含一系列的传感器,如单目相机,立体相机,激光雷达(LIDAR), GPS等,为在各种环境下的应用提供线索。单目相机提供基于图像的 特征,如纹理、颜色等。激光雷达提供基于距离的信息,如轮廓、形 状信息等。
每个传感器都有自己的优缺点,相机提供了丰富的环境信息但是 视野(FOV)狭窄,激光雷达有着360°的视野范围,但是只能提供相对 稀疏的深度信息。为了整合两者的优点,融合传感器的数据,需要对 相机和激光雷达进行标定。
对于相机和激光雷达的标定,成熟的方法并不多见。大家所熟知 的是Matlab提供的基于棋盘格的相机和单线激光雷达标定的工具箱, 后来又增加了标定多线激光雷达的部分。
在相机和激光雷达标定过程中,需要采集多组图像和对应的点云 数据,逐个进行手动筛选,这个过程中不仅增加了标定工作量,还引 入了人为因素造成的误差,导致校准结果的准确度得不到保证。
发明内容
本申请实施例提供了用于确定相对位姿参数的方法和装置。
第一方面,本申请实施例提供了一种用于确定相对位姿参数的方 法,包括:获取多线激光雷达扫描的预设场景的激光点云数据;其中, 预设场景包括预设数量的设于不同区域且规格不完全相同的棋盘格标 定板;获取单目相机拍摄的预设场景的图像;获取激光点云数据中的 第一平面信息集合;获取图像中的第二平面信息集合;从第一平面信 息集合与第二平面信息集合中,随机抽取相对应的三组平面进行关联; 基于关联后的三组平面的中心点和法向量,计算多线激光雷达与单目 相机的相对位姿参数。
在一些实施例中,获取激光点云数据中的第一平面信息集合包括 以下任意一项:对激光点云数据中随机确定的种子点进行区域扩张, 基于扩张的结果,获取第一平面信息集合;对激光点云数据中的激光 点云进行聚类,对聚类的结果进行平面检测,得到第一平面信息集合; 基于人工在激光点云数据中选定的第一区域,拟合第一区域中的激光 点云数据,得到第一平面信息集合。
在一些实施例中,对激光点云数据中随机确定的种子点进行区域 扩张,基于扩张的结果,获取第一平面信息集合包括:基于K最近 邻算法,计算激光点云数据中各个数据点的法向量;随机选择激光点 云数据中的数据点作为种子点;基于各个数据点的法向量,对种子点 进行区域扩张,划分激光点云数据至多个平面;剔除多个平面中面积 小于棋盘格标定板的面积的平面以及平面度过低的平面,得到点云数 据中的第一平面信息集合。
在一些实施例中,获取图像中的第二平面信息集合包括以下任意 一项:对图像中的棋盘格标定板的特征进行亚像素精度优化,并对特 征进行分组,得到对应图像中各组特征的第二平面信息集合;基于人 工在图像中选定的第二区域,拟合第二区域中的像素,得到第二平面 信息集合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京京邦达贸易有限公司;北京京东乾石科技有限公司,未经北京京邦达贸易有限公司;北京京东乾石科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911096795.X/2.html,转载请声明来源钻瓜专利网。