[发明专利]面向时序目标检测的优化方法和评估系统在审
申请号: | 201911360400.2 | 申请日: | 2019-12-25 |
公开(公告)号: | CN111126299A | 公开(公告)日: | 2020-05-08 |
发明(设计)人: | 喻俊志;吴正兴;鲁岳;陈星宇 | 申请(专利权)人: | 中国科学院自动化研究所 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T7/20 |
代理公司: | 北京市恒有知识产权代理事务所(普通合伙) 11576 | 代理人: | 郭文浩;尹文会 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 面向 时序 目标 检测 优化 方法 评估 系统 | ||
本发明属于计算机视觉领域,具体涉及一种面向时序目标检测的优化方法和评估系统,旨在解决现有评价体系无法全面描述时序目标检测的性能,及目标检测时序连续性与稳定性低的问题。本系统方法包括获取输入视频中各帧的目标检测结果;基于目标检测结果,通过多目标跟踪器获取各目标在整个输入视频中对应的目标轨迹,得到初始时序目标检测结果;基于预设的第一策略和/或第二策略和/或第三策略对初始时序目标检测结果进行处理,得到优化后的时序目标检测结果。本发明基于召回连续性与定位稳定性两方面对时序目标检测的性能进行量化,提高了评估的准确度,并根据评估结果进行优化,提高了时序目标检测的连续性、稳定性。
技术领域
本发明属于计算机视觉领域,具体涉及一种面向时序目标检测的优化方法和评估系统。
背景技术
2012年至今,基于深度学习的计算机视觉技术快速发展,包括其基础领域目标检测,现已有大量的目标检测方法被提出。例如Ren等人提出了Faster RCNN,将目标检测分为区域建议和基于区域的分类回归两个阶段;Liu等人提出了SSD,采用多尺度特征和卷积预测方式进行一次回归和分类。由于大部分目标检测针对的是静态图像,于是便形成了基于精度的评价体系,即mean Average Precision(mAP)。
近几年来,越来越多的目标检测方法关注视频中的信息,并有大量视频检测方法被提出。例如Han等人提出了SeqNMS来丢弃时序上不连续的预测框;Feichtenhofer等人利用基于相关滤波的跟踪方法来提升时序定位能力;Chen等人采用长短期记忆和注意力机制来在时序上传播视觉特征;Kang等人设计了一种离线检测方法来同时处理多帧视频,以提高预测的时序一致性。大部分视频检测方法均利用时序信息来提升检测性能,但评价体系依然基于静态精度。mAP虽然可以描述目标的丢失、错误召回、基于intersection-over-union(IoU)的定位偏差等检测问题,但时序目标检测所包含的信息和问题远多于召回率、定位精度等静态问题。因此,mAP并不能充分地描述检测器的时序性能。
另外,在目标跟踪领域,已形成了multi-object tracking accuracy(MOTA)andprecision(MOTP)和expect average overlap rate(EAO)等评价体系,但他们依然使用基于IoU的方法来评价定位问题,这种方式的无法描述多次定位之间的关系。并且,这些评价体系仅考虑了目标身份切换,并未全面描述时序目标轨迹的一致性。
由于目标评价体系的不完善,无法分析目标检测器的时序性能,导致目标检测的连续性与稳定性较低。因此,为弥补现有评价体系的空缺,本发明公开一种面向时序目标检测的评估系统,并基于评估结果提出了优化方法,将有效促进面向真实场景的目标检测技术的发展。
发明内容
为了解决现有技术中的上述问题,即为了解决现有评价体系无法全面描述时序目标检测的性能,及目标检测时序连续性与稳定性低的问题,本发明第一方面,提出了一种面向时序目标检测的优化方法,该方法包括:
步骤S100,获取输入视频中各帧的目标检测结果;
步骤S200,基于所述目标检测结果,通过多目标跟踪器获取各目标在整个输入视频中对应的目标轨迹,得到初始时序目标检测结果;所述目标轨迹包括目标id及其对应的所有预测框、目标轨迹被对应目标匹配的次数Smatch、目标跟踪丢失帧的时长Slost;
步骤S300,基于预设的第一策略和/或第二策略和/或第三策略对初始时序目标检测结果进行处理,得到优化后的时序目标检测结果;
所述第一策略为:若Smatch少于设定的匹配次数,则将各目标对应的目标轨迹删除;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911360400.2/2.html,转载请声明来源钻瓜专利网。