[发明专利]一种基于视觉特征点的自动跟踪方法及装置有效
申请号: | 201610065669.8 | 申请日: | 2016-01-29 |
公开(公告)号: | CN105761245B | 公开(公告)日: | 2018-03-06 |
发明(设计)人: | 蒋申璐;朱骋;张一茗;王皓悦;李经纬;陈震;贾小龙 | 申请(专利权)人: | 速感科技(北京)有限公司 |
主分类号: | G06T7/33 | 分类号: | G06T7/33;G06T7/246 |
代理公司: | 北京酷爱智慧知识产权代理有限公司11514 | 代理人: | 李娜 |
地址: | 100191 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视觉 特征 自动 跟踪 方法 装置 | ||
技术领域
本发明属于图像处理技术领域,尤其涉及一种基于视觉特征点的自动跟踪方法及装置。
背景技术
目前,随着科学技术的发展,跟踪技术越来越受人们的重视,也是当下热门研究的技术之一。各个领域都竞相提出应用需求,例如,军事上协助导弹跟踪目标,无人机实时跟踪指定目标,公共安全场所可以通过摄像头,对目标人物进行跟踪,交通干线跟踪车辆、行人以及掌握交通流量和动向。
基于视觉特征点的跟踪技术是一种通过图像处理与分析的方法,从图像信号中实时自动识别目标,再获取目标的位置信息,然后精确跟踪运动目标的技术。通常采用传感器传回图像,再采用图像特征点或者图像表面的方法,获得目标在图像中的位置,从而实现用户对指定跟随目标的跟踪工作。
但是,现有技术需要对图像进行大规模处理,数据较大,难以保证实时性以及准确度。尤其,在进行目标追踪时,若跟踪目标的形变较大,容易产生目标跟踪丢失,跟踪方式不便捷,用户无法准确获得目标的具体位置。
发明内容
本发明旨在提供一种基于视觉特征点的自动跟踪方法及装置,能够实现在大形变时跟踪目标不丢失,及时回馈跟踪目标的位置。
第一方面,本发明提供一种基于视觉特征点的自动跟踪方法,具体步骤如下:
步骤S1:分别采集图像信息和深度信息,图像信息和深度信息的采集时刻是一一对应的;
步骤S2:锐化处理图像信息,得到图像的特征点;
步骤S3:加权平均化处理深度信息,得到物体的深度距离分布;
步骤S4:扫描第一帧图像的特征点,从第一帧图像的特征点中提取跟踪目标的特征点,确定为前景特征点;根据第一帧图像的特征点,估算前景特征点在第二帧时刻可能出现的估计位置;
步骤S5:扫描第二帧图像的特征点,匹配融合第二帧图像的特征点与估计位置的前景特征点,以得到确定位置的前景特征点;根据确定位置的前景特征点,估算第二帧图像的特征点放大和/或旋转系数,并进行阈值判断,得到有效特征点;
步骤S6:将有效特征点更新至前景特征点,以进行下一轮图像匹配融合;检测深度距离分布,得到有效特征点的具体位置信息。
进一步地,在步骤S1之后,步骤S2之前,该方法还包括:加权处理图像信息,得到对比度增强的图像信息。步骤S2具体包括:锐化处理对比度增强的图像信息,得到图像的特征点。
进一步地,在步骤S4中,提取跟踪目标的特征点之前,该方法还包括:接收用户输入的指定的跟踪目标信息,从第一帧图像的特征点中提取跟踪目标的特征点的具体步骤包括:根据跟踪目标信息,从第一帧图像的特征点中提取跟踪目标的特征点。
进一步地,在步骤S5中,根据确定位置的前景特征点,估算第二帧图像的特征点放大和/或旋转系数,具体方法包括:对比确定位置的前景特征点和第二帧图像的特征点,得到第二帧图像的特征点的变化量,再对变化量进行加权处理,得到第二帧图像的特征点放大和/或旋转系数。
进一步地,在步骤S6中,检测深度距离分布的具体方法包括:根据深度距离分布,设置最大范围,在最大范围内,根据有效特征点在图像信息中的位置,检测深度距离分布。
本发明提供的基于视觉特征点的自动跟踪方法,通过锐化处理图像信息,以增加图像的特征点稳定性和数量。对深度部分进行加权平均化,得到物体分布的合理距离。采用估算位置的前景特征点和第二帧图像的特征点进行匹配融合,再通过估算的放大和/或旋转系数,进行阈值判断,获得第二帧图像的有效特征点,实时更新前景特征点,缩减了跟踪计算量,提高了运行速度及准确度,最终从深度距离分布中检测出有效特征点的具体位置信息。
第二方面,本发明提供一种基于视觉特征点的自动跟踪装置,该装置具体说明如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于速感科技(北京)有限公司,未经速感科技(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610065669.8/2.html,转载请声明来源钻瓜专利网。