[发明专利]对象检测方法、装置和系统及存储介质有效
申请号: | 201711372437.8 | 申请日: | 2017-12-19 |
公开(公告)号: | CN108875519B | 公开(公告)日: | 2023-05-26 |
发明(设计)人: | 梁喆 | 申请(专利权)人: | 北京旷视科技有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40 |
代理公司: | 北京睿邦知识产权代理事务所(普通合伙) 11481 | 代理人: | 徐丁峰;戴亚南 |
地址: | 100190 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 对象 检测 方法 装置 系统 存储 介质 | ||
本发明实施例提供一种对象检测方法、装置和系统以及存储介质。该方法包括:获取视频;根据至少一个先前视频帧的对象检测结果,从至少两种对象检测模型中选择对应的对象检测模型,并利用所选择的对象检测模型对当前视频帧进行对象检测。根据本发明实施例的对象检测方法、装置和系统以及存储介质,可以根据先前的对象检测结果不断优化选择当前最合适的对象检测模型,有利于达到检测精度和硬件功耗的较佳平衡。
技术领域
本发明涉及图像处理领域,更具体地涉及一种对象检测方法、装置和系统以及存储介质。
背景技术
采用神经网络深度学习算法进行对象检测的设备,例如人脸抓拍相机,要实现高精度的对象检测需要运行计算量极大的神经网络模型,这会导致相机的功耗增大很多。如果采用计算量较小的神经网络模型,虽然功耗可以降低,但检测精度也会相应降低。总之,检测精度与硬件功耗两者间存在着矛盾,需要找到让两者达到较佳平衡的方案。
发明内容
考虑到上述问题而提出了本发明。本发明提供了一种对象检测方法、装置和系统以及存储介质。
根据本发明一方面,提供了一种对象检测方法。该方法包括:获取视频;根据至少一个先前视频帧的对象检测结果,从至少两种对象检测模型中选择对应的对象检测模型,并利用所选择的对象检测模型对当前视频帧进行对象检测。
示例性地,至少一个先前视频帧的对象检测结果指示检测难度级别越高,对应的对象检测模型的预算检测精度越高。
示例性地,至少两种对象检测模型彼此之间具有不同的网络结构和/或不同的计算精度。
示例性地,根据至少一个先前视频帧的对象检测结果,从至少两种对象检测模型中选择对应的对象检测模型包括:根据至少一个先前视频帧的对象检测结果确定对象状况,其中,对象状况包括对象数目、对象大小和对象密集度中的一项或多项;以及根据对象状况选择对应的对象检测模型。
示例性地,至少两种对象检测模型分别对应于至少两种预设条件,至少两种预设条件分别对应于至少两种检测难度级别,根据对象状况选择对应的对象检测模型包括:判断对象状况是否符合至少两种预设条件之一,如果对象状况符合至少两种预设条件中的特定预设条件,则选择与特定预设条件相对应的对象检测模型,其中,至少一个先前视频帧的对象检测结果所指示的检测难度级别为与特定预设条件相对应的检测难度级别。
示例性地,至少一个先前视频帧的数目是多个,根据至少一个先前视频帧的对象检测结果确定对象状况包括以下项中的一项或多项:计算至少一个先前视频帧的对象数目的中值或平均值作为对象状况中的对象数目;计算在至少一个先前视频帧中同一对象的对象大小的中值或平均值作为对象状况中与同一对象相对应的对象大小;计算至少一个先前视频帧中的对象的平均距离作为对象状况中的对象密集度。
示例性地,计算至少一个先前视频帧中的对象的平均距离包括:对于至少一个先前视频帧中的每两个对象,计算在至少一个先前视频帧中的、包含该两个对象的每个先前视频帧中该两个对象之间的距离;对于至少一个先前视频帧中的每两个对象,计算在至少一个先前视频帧中的、包含该两个对象的所有先前视频帧中该两个对象之间的距离的中值或平均值,以获得与该两个对象相关的对象距离值;计算获得的所有对象距离值的中值或平均值,以获得平均距离。
示例性地,至少两种对象检测模型包括第一对象检测模型和第二对象检测模型,第一对象检测模型的网络层数少于第二对象检测模型和/或第一对象检测模型的计算精度低于第二对象检测模型,初始对象检测模型为第一对象检测模型,其中,根据对象状况选择对应的对象检测模型包括:如果在对象状况中,对象数目大于预设数目,或者存在第一数目的对象的对象大小均小于预设大小,或者对象密集度处于预设密集度范围内,则选择第二对象检测模型,否则选择第一对象检测模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京旷视科技有限公司,未经北京旷视科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711372437.8/2.html,转载请声明来源钻瓜专利网。