[发明专利]一种低成本适用少量重合区域的高精度多RGB-D相机的外参标定方法在审
申请号: | 202211032496.1 | 申请日: | 2022-08-26 |
公开(公告)号: | CN115311369A | 公开(公告)日: | 2022-11-08 |
发明(设计)人: | 李昊燃;刘想 | 申请(专利权)人: | 南京起源跃动科技有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T17/20 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 215000 江苏省南京市栖*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 低成本 适用 少量 重合 区域 高精度 rgb 相机 标定 方法 | ||
本发明属于计算机视觉三维视觉领域,发明了一种一种低成本适用少量重合区域的高精度多RGB‑D相机的外参标定方法,标定物成本低,适用于RGB‑D相机间仅有少量重合区域的高精度多RGB‑D相机外参标定方法;本发明有使用了正反两面印刷有N个(N大于等于3)位置完全重合的ArUco码图像作为标定物、引入了外部特征点做了二次配准、引入了多帧优化对外部特征点进行误差检测及判断的技术特征;本发明有着标定物成本低、在多RGB‑D相机仅有少量重合区域的情况下效果良好、高精度等优点。
技术领域
本发明主要涉及计算机三维视觉领域,具体为一种低成本适用少量重合区域的高精度多RGB-D相机的外参标定方法。
背景技术
随着计算机视觉技术的发展,基于RGB-D相机的三维计算机视觉应用越来越多,与二维相机相比,RGB-D相机可以直接拍摄出图像的深度信息,尤其是激光雷达拍摄出的深度信息已经非常准确。有了这样的深度信息,现实中使用场景也越来越多,如三维重建、全息捕捉、姿态捕捉、物体识别等。
一旦涉及2个及以上的RGB-D相机联合获取图像数据并对数据进行处理的场景,就需要对RGB-D相机进行外参配准。
RGB-D相机在业界往往使用张正友棋盘格标定法进行外参配准,张正友在1999年发布的论文“Flexible Camera Calibration By Viewing a Plane From UnknownOrientations”,这种方法需要特制绝对的刚体标定物,且对尺寸有严格要求,如张正友棋盘格标定法就需要一块大小占据相机视野范围1/2的绝对刚体棋盘格才能取得较高的精度,但棋盘格尺寸越大成本也会直线上升;故张正友标定法,标定物成本高,并且不适合相机间仅有少量共同视野重合区域的场景,且在现实中由于很难得到绝对刚体的棋盘格,故精度也较低。
在发明专利CN2022104736610中提到了一种方法,可以对RGB-D相机进行外参配准,其描述的纸张制作的标定物进行外参配准的方法,即便没有刚体和视野范围的严格要求,不要求大量视野重合区域,使用方便,材料获取难度低,但由于该方法在外参配准中使用的点云配准算法只提取了3个特征点云,没有进行二次全局配准或校验精度,没有考虑到由于RGB-D相机测量的深度信息会有偶然误差,故该方法精度较低。
为了使RGB-D相机获得高精度的外参结果,往往需要定制特制的立体标定物,如申请号CN2020116264908的发明专利中记载了一种方法,其中使用的特制立体标定物获取难度极大导致的标定物成本高,使用较为繁琐。
因此,需要一种标定物成本低,适用于RGB-D相机间仅有少量重合区域的高精度多RGB-D相机外参标定方法。
发明内容
本发明针对上述现有技术存在的问题,提出了一种标定物成本低,适用于RGB-D相机间仅有少量重合区域的高精度多RGB-D相机外参标定方法。
为了解决以上技术问题,本发明的技术方案如下:
Step1:将制作好的标定物放置在n个(n大于等于2)RGB-D相机的少量重合区域内,该标定物如说明书附图1所示,其正反两面印刷有N个(N大于等于3)ArUco码图像需要使用普通打印机打印在A4纸上;
Step2:n个RGB-D相机分别提取一帧的深度图像和RGB图像,将其分别转换为点云(以下简称PCD);
Step3:获取n个RGB-D相机的RGB图像,在RGB图像中识别出所有ArUco码,根据N个ArUco的角点计算出RGB图像中的N个中点,将N个中点映射到PCD中作为特征点;
Step4:通过使用点对点 ICP 算法对所有特征点进行初步的配准,计算出相机局部配准外参矩阵 T1; 其中 ICP 算法如下:
给定n个点云的点集如(1)所示:
(1)
其中X表示源点集,P表示目标点集,N表示点集对应的数量;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京起源跃动科技有限公司,未经南京起源跃动科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211032496.1/2.html,转载请声明来源钻瓜专利网。