[发明专利]事件相机、深度事件点图获取方法、装置、设备及介质在审
申请号: | 202210047705.3 | 申请日: | 2022-01-17 |
公开(公告)号: | CN114071114A | 公开(公告)日: | 2022-02-18 |
发明(设计)人: | 何昊名;霍震;古家威;陈海龙;邓涛;李志建;蔡维嘉;王济宇;黄秀韦;董志岩 | 申请(专利权)人: | 季华实验室 |
主分类号: | H04N13/204 | 分类号: | H04N13/204;H04N5/33 |
代理公司: | 佛山市海融科创知识产权代理事务所(普通合伙) 44377 | 代理人: | 陈志超 |
地址: | 528200 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 事件 相机 深度 获取 方法 装置 设备 介质 | ||
本发明涉及计算机视觉技术领域,具体公开了一种事件相机、深度事件点图获取方法、装置、设备及介质,其中,所述获取方法包括以下步骤:获取事件信息和红外点云信息,所述红外点云信息基于TOF模组采集生成;获取所述事件信息的第一时间戳信息和获取所述红外点云信息的第二时间戳信息,所述第一时间戳信息和所述第二时间戳信息均基于所述TOF模组的采集帧率进行标记;根据所述第一时间戳信息和所述第二时间戳信息整合所述事件信息和所述红外点云信息,以获取所述具有深度信息的事件点图;该获取方法具有运算逻辑简单、响应速度快的特点。
技术领域
本申请涉及计算机视觉技术领域,具体而言,涉及一种事件相机、深度事件点图获取方法、装置、设备及介质。
背景技术
传统的相机由于采样时受限于帧率和光照强度,在识别高速运动物体或者暗光环境下的运动物体时存在着较大的困难,事件相机能很好地解决这些问题,其主要是通过设置光照阈值并检测各点光强变化以被动触发输出事件信息,然后通过FPGA加速事件信息输出,从而获取暗光或强光环境下近似连续的高速运动物体的位移信息。
然而,目前的事件相机只有单目输出,在进行深度信息获取时需要进行双目搭建,双目事件相机需要对双目分别获取的事件信息进行联合标定划分以计算获取深度信息,其运行逻辑复杂需要耗费大量时间,尤其是其中包含的一些循环和冗余检测的算法会导致延迟进一步增大,影响响应速度。
针对上述问题,目前尚未有有效的技术解决方案。
发明内容
本申请的目的在于提供一种事件相机、深度事件点图获取方法、装置、设备及介质,降低事件相机对于深度信息的获取复杂度并提高对应的响应速度。
第一方面,本申请提供了一种深度事件点图获取方法,用于获取具有深度信息的事件点图,所述获取方法包括以下步骤:
获取事件信息和红外点云信息,所述红外点云信息基于TOF模组采集生成;
获取所述事件信息的第一时间戳信息和获取所述红外点云信息的第二时间戳信息,所述第一时间戳信息和所述第二时间戳信息均基于所述TOF模组的采集帧率进行标记;
根据所述第一时间戳信息和所述第二时间戳信息整合所述事件信息和所述红外点云信息,以获取所述具有深度信息的事件点图。
本申请的一种深度事件点图获取方法,利用根据TOF模组的采集帧率标记的第一时间戳信息和第二时间戳信息便能保证事件信息和红外点云信息对齐关联,具有运算逻辑简单的特点;红外点云信息基于TOF模组采集,高帧率的红外点云信息能匹配事件信息进行整合,以保证最终获取的具有深度信息的事件点图在相邻事件间具有足够低的延时。
所述的一种深度事件点图获取方法,其中,所述事件信息为基于所述TOF模组的采集帧率设定的调制脉冲信号进行触发采集。
该示例的获取方法获取的事件信息均有与之对应的红外点云信息,即第一时间戳信息必有对应的第二时间戳信息,以使最终获取的事件点云在每个时刻均具有对应的深度信息,从而使得事件信息和红外点云信息的采样具有一致性。
所述的一种深度事件点图获取方法,其中,所述根据所述第一时间戳信息和所述第二时间戳信息整合所述事件信息和所述红外点云信息,以获取所述具有深度信息的事件点图的步骤包括:
在所述事件信息的所述第一时间戳信息和所述红外点云信息的所述第二时间戳信息对应时,利用预设的变换矩阵将所述红外点云信息转换为坐标信息;
根据所述第一时间戳信息和/或所述第二时间戳信息将所述坐标信息添加在所述事件信息中,以形成所述具有深度信息的事件点图。
该示例的获取方法将每一帧中关于深度点的坐标信息添加在对应事件信息中的像素点中,即能使得事件信息具有深度信息,从而形成具有深度信息的事件点图。
所述的一种深度事件点图获取方法,其中,所述获取方法还包括步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于季华实验室,未经季华实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210047705.3/2.html,转载请声明来源钻瓜专利网。