[发明专利]Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法有效
申请号: | 201910295827.2 | 申请日: | 2019-04-12 |
公开(公告)号: | CN110021035B | 公开(公告)日: | 2020-12-11 |
发明(设计)人: | 苏一贤;高文朋;付宜利 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/277;G06T7/50;G06T7/136;G06T7/73;G06T19/00 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 于歌 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | kinect 深度 相机 标记 基于 虚拟 跟踪 方法 | ||
Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法,涉及计算机视觉测量技术领域。本发明是为了解决传统深度相机的分辨率较低,难以获取精细的图像特征;而与RGB相机使用时,标定还容易引入误差的问题。本发明在Kinectt深度相机输出的红外图像上,识别和提取粘贴区域,并求其质心像素坐标;利用对应的深度图,根据相机透视投影模型和平面性质插补出粘贴质心相对Kinect深度相机的深度值;采用基于深度图的像素插值算法求得虚拟标记物的图像坐标;在深度图中对虚拟标记物的深度值进行索引并滤波;对虚拟标记物的图像坐标和深度进行滤波,再通过透视投影逆过程得到虚拟标记物的三维坐标,完成对虚拟标记物的跟踪。
技术领域
本发明属于计算机视觉测量技术领域,尤其涉及利用标记物进行视觉跟踪的方法。
背景技术
在图像工程的应用中,经常利用目标物体的特征点来表示目标物体的本身。一个完整的特征点能够为目标物体提供足够的约束,而且表示这些特征仅仅需要很少的数据量。描述目标物体的特征点一般指的是目标区域的拐角点、封闭轮廓线的中心、纹理特征或者其他的突出点。另外,人为设计的特征,也称之为标记物,用以将特定物体和其他物体区别出来,这样可以提高目标物体识别和定位的实时性和稳定性。因此,基于标记物的跟踪算法在单目、双目相机中都有广泛应用。但是,传统深度相机的分辨率较低,难以获取精细的图像特征,所以通常将其与RGB相机一起使用。但是RGB相机对环境光的变化敏感,其与深度相机的标定也易引入误差。
发明内容
本发明是为了解决传统深度相机的分辨率较低,难以获取精细的图像特征;而与RGB相机使用时,标定还容易引入误差的问题,现提供Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法。
Kinect深度相机的标记物,所述标记物包括表面均匀覆盖有近红外反光粉末的基质,所述标记物厚度小于等于0.2mm。所述基质为圆片或球形结构。
基于上述标记物的虚拟标记物跟踪方法,包括以下步骤:
S1:利用Kinect深度相机对粘贴有n个标记物的平面进行拍摄、并获得近红外图像和深度数据帧,n为大于等于2的正整数,所述平面法向量与Kinect深度相机的光轴夹角小于等于40度,所述平面为白色哑光平面、且反射率大于0.8;
S2:在近红外图像中分别提取每个标记物的几何中心坐标;
S3:在深度数据帧中,根据透视投影过程和平面性质获取每个标记物几何中心坐标对应的深度值;
S4:将相邻的两个标记物作为一组,每组中在两个标记物几何中心连线上取深度值有效的一点作为一个虚拟标记物,取m个虚拟标记物,当n=2时,m=1,当n≥3时,m≥3且任意3个虚拟标记物不共线,然后利用每个标记物的几何中心坐标和深度值分别获得m个虚拟标记物的图像坐标;
S5:利用m个虚拟标记物的图像坐标分别获取m个虚拟标记物的深度值;
S6:对m个虚拟标记物的图像坐标及深度值进行降噪;
S7:将S6中降噪后的m个虚拟标记物的图像坐标及其对应的深度值、通过透视投影逆过程变换至Kinect深度相机局部坐标系下的三维空间中,获得m个虚拟标记物的实时三维坐标,完成虚拟标记物的跟踪。
上述S2中在近红外图像中分别提取每个标记物的几何中心坐标的具体步骤为:
S21:对近红外图像进行阈值分割获得二值图像,所述阈值能够将标记物和背景区分开;
S22:遍历二值图像中的每个像素,利用区域增长算法提取每个标记物的像素集合;
S23:对每个标记物的像素集合进行平均,获得每个标记物的几何中心坐标。
上述S3中获取每个标记物几何中心坐标对应的深度值的具体步骤为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910295827.2/2.html,转载请声明来源钻瓜专利网。