[发明专利]大空间环境下边扫场边标定方法、装置、设备及存储介质有效
申请号: | 202111008244.0 | 申请日: | 2020-04-02 |
公开(公告)号: | CN113744346B | 公开(公告)日: | 2023-06-23 |
发明(设计)人: | 王越;许秋子 | 申请(专利权)人: | 深圳市瑞立视多媒体科技有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T7/70 |
代理公司: | 深圳市鼎泰正和知识产权代理事务所(普通合伙) 44555 | 代理人: | 缪太清 |
地址: | 518000 广东省深圳市南山区粤海街道沙*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 空间 环境 下边 扫场边 标定 方法 装置 设备 存储 介质 | ||
本申请涉及计算机视觉技术领域,尤其涉及一种大空间环境下边扫场边标定方法、装置、设备及存储介质。该方法包括:获取多个光学相机的相机序号,采集多帧数据,每帧均得到对应的多个初始数据;在多个初始数据中,当至少有两个光学相机采集到预设帧数的坐标数据时,根据多个初始数据得到每个光学相机的目标外参和目标内参,计算每个光学相机的重投影误差并记为标定精度,在所有的光学相机的标定精度不大于精度阈值后,整体优化所有的光学相机的目标外参。本申请边扫场边标定技术,不但减少了传统标定方法的标定时间,而且实时反馈节省了大量的人力和物力,使得系统运行更加流畅方便。
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种大空间环境下边扫场边标定方法、装置、设备及存储介质。
背景技术
随着机器视觉应用日益广泛,大空间环境中的多相机视觉系统的需求越来越多了,主要方向是大空间内的高精度定位与跟踪。为实现对物体的定位与跟踪,首先要对相机进行标定,在光学动捕系统中,标定过程需要在场地中间不断挥动标定杆,从而记录所有相机采集到的数据,我们将数据采集过程称为扫场。在多相机环境下,标定过程不仅要确定每个相机的参数,也需要确定相机与相机之间的位置关系,因此标定过程需要收集大量的相机数据,并通过复杂的算法优化,才能达到高质量的标定精度。
这样的扫场标定程序给用户带来了很多不便:第一,标定过程需要大量数据和复杂的算法计算,耗时太长;第二,标定算法是在数据采集之后才开始的,为了标定算法计算的准确性,用户必须一次性采集大量的数据,这些数据中含有很多无用的冗余数据,从而又导致了算法复杂性和耗时的问题;第三,如果一次标定算法的结果不符合用户的预期,用户则必须重新扫场,浪费了大量的人力和物力。
发明内容
本申请的主要目的在于提供一种大空间环境下边扫场边标定方法、装置、设备及存储介质,旨在解决在大空间环境中多个光学相机标定时耗时耗力的技术问题。
为实现上述目的,本申请提供一种大空间环境下边扫场边标定方法,所述方法包括以下步骤:
获取多个光学相机的相机序号,采集每个所述光学相机对挥动中的标定杆捕获的多帧数据,将含有坐标数据的多帧数据按帧进行分类,每帧均得到对应的多个初始数据,每个所述初始数据均包括相机序号及对应的坐标数据;
在多个所述初始数据中,当至少有两个所述光学相机采集到预设帧数的坐标数据时,根据多个所述初始数据确定出多个所述光学相机中的主相机,根据所述主相机得到每个所述光学相机的目标外参;获取每个所述光学相机的硬件分辨率,根据所述硬件分辨率,得到每个所述光学相机的目标内参;
根据每个所述光学相机的所述目标内参、所述目标外参和采集到的所有坐标数据,计算每个所述光学相机的重投影误差,将所述重投影误差记为所述光学相机的标定精度,若任一所述光学相机的标定精度大于预设的精度阈值,则对于所述标定精度大于所述精度阈值的所述光学相机重复第一步,直至所有的所述光学相机的标定精度不大于所述精度阈值;
从所有的主相机中筛选出唯一主相机,将所述唯一主相机的旋转信息定义为单位阵,将所述主相机平移信息定义为零矩阵,根据所述唯一主相机的旋转信息和平移信息,得到每个所述主相机的旋转信息和平移信息,根据每个所述主相机的旋转信息和平移信息,得到每个所述光学相机的旋转信息和平移信息,所述旋转信息和所述平移信息为所述光学相机的目标外参。
本申请提供一种大空间环境下边扫场边标定装置,包括:
获取初始数据模块,用于获取多个光学相机的相机序号,采集每个所述光学相机对挥动中的标定杆捕获的多帧数据,将含有坐标数据的多帧数据按帧进行分类,每帧均得到对应的多个初始数据,每个所述初始数据均包括相机序号及对应的坐标数据;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市瑞立视多媒体科技有限公司,未经深圳市瑞立视多媒体科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111008244.0/2.html,转载请声明来源钻瓜专利网。