[发明专利]一种视觉传感网络的快速通用标定方法有效
申请号: | 201910917799.3 | 申请日: | 2019-09-26 |
公开(公告)号: | CN110782498B | 公开(公告)日: | 2022-03-15 |
发明(设计)人: | 全权;邓恒;杨坤;蔡开元 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T7/33;G06V10/762;G06K9/62 |
代理公司: | 北京慧泉知识产权代理有限公司 11232 | 代理人: | 李娜 |
地址: | 100191*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 视觉 传感 网络 快速 通用 标定 方法 | ||
本发明公开一种视觉传感网络的快速通用标定方法,包括如下步骤:步骤一、视觉传感网络的内参标定;步骤二、双摄像机标定;步骤三、多摄像机标定;步骤四、全局标定。本发明方法所覆盖的范围广;其次,本发明要求摄像机内参标定在整个系统布局之前完成,即将摄像机内参作为已知量,减小待优化变量个数,可以简化整个优化过程;再次,在特征点对的最优提取过程中,本发明提出了一种基于k‑means++算法来筛选出k组分散均匀的匹配点对,效率上更高;最后在多摄像机标定过程中,无向连接图的创建是以双摄像机标定的反投影误差作为权重值,提高了优化效率。因此本发明标定工具结构简单,易于设计与制作,标定过程简单便捷,标定精度高。
技术领域
本发明涉及一种视觉传感网络的快速通用标定方法,属于视觉传感网络领域。
背景技术
随着电子器件、通讯技术以及信号处理等技术的不断发展,视觉传感网络在各个方面得到广泛的应用,比如民用跟踪、视觉定位、交通流量监测、运动捕捉系统等。视觉传感网络由多个摄像机组成,每个摄像机可以对其视场范围内的局部区域进行观测并反馈数据,基于所有摄像机获取得到的图像数据,可以开发各种应用。对于某些要求大范围跟踪定位的应用,视觉传感网络的摄像机参数标定是至关重要的环节,其标定结果的精度以及算法的稳定性直接影响着摄像机工作产生结果的准确性,直接决定了后续基于图像来测量环境特征的结果好坏。现有的标定方法大多依赖于高精度的标准件(比如电子经纬仪,红外扫描仪),该方法虽然精度高,但是这些标准件的加工精度要求高,增加成本,而且在标定过程中安装复杂。而且目前大多标定方法仅仅针对于某些特定的摄像机,比如普通针孔摄像机或者广角摄像机,适应范围受限。因此,本申请提出了一种视觉传感网络的快速通用标定方法,该方法广泛适用于普通、广角和鱼眼摄像机,而且不需要依赖高精度的标准件,仅需要结构简单的一维标定杆和二维三角板,操作快速简便,标定结果精确。
中国发明专利ZL201310303466.4(以下称“在先专利”),提出了一种基于一维标定杆的普通、广角、鱼眼立体摄像机的通用标定方法,该方法利用简化的摄像机模型,内参数目少,在镜头有大畸变的时候不适合,而且内参数作为优化变化,增加优化难度;多摄像机标定算法简单,扩展性差,不适宜大范围标定。
发明内容
本发明提供了一种视觉传感网络的快速通用标定方法,它解决了在大视场范围内多摄像机系统全局标定困难的问题,而且该方法适用于大部分摄像机模型,比如常用的针孔摄像机以及广角摄像机,标定工具结构简单,易于设计与制作,标定过程简单便捷,标定精度高,实用性好。
本发明一种视觉传感网络的快速通用标定方法,具体步骤如下:
步骤一、视觉传感网络的内参标定
本部分的主要目的是利用标准棋盘格,对视觉传感网络中用的摄像机进行内参数标定,即估计每个摄像机的内参数其中,mu,mv分别为水平方向和垂直方向上单位长度的像素数目,u0,v0为主点坐标。k1,k2,k3,k4,k5是公式(3)中的参数,这九个参数表征摄像机的内参数。其中上标i表示摄像机序号,即总共有M个摄像机。内参数标定完成后,在整个标定过程中其值保持不变;即提前对每个摄像机进行内参数标定,在后续多相机系统的标定当中,这些标定的内参数直接作为已知量,减小待优化变量个数,大大简化整个优化过程。
步骤二、双摄像机标定
S21、特征点的检测与提取
首先,利用OpenCV自带的函数对图像数据预处理,依次包括阈值化处理cv::threshold函数、高斯平滑处理cv::GaussianBlur函数、轮廓获取cv::findContours函数;然后提取每个轮廓的中心点作为特征点坐标;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910917799.3/2.html,转载请声明来源钻瓜专利网。