[发明专利]室内行人检测的方法、装置、设备及计算机存储介质在审
申请号: | 202110207900.3 | 申请日: | 2021-02-24 |
公开(公告)号: | CN112883876A | 公开(公告)日: | 2021-06-01 |
发明(设计)人: | 窦浩轩;李搏;甘伟豪 | 申请(专利权)人: | 北京市商汤科技开发有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06N3/04;G06N3/08 |
代理公司: | 北京派特恩知识产权代理有限公司 11270 | 代理人: | 刘鹤;张颖玲 |
地址: | 100080 北京市海淀区北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 室内 行人 检测 方法 装置 设备 计算机 存储 介质 | ||
1.一种室内行人检测的方法,所述方法包括:
获取待检测的室内图像;
将所述室内图像输入已训练的室内行人检测模型进行行人识别,得到识别结果;
其中,所述室内行人检测模型是利用第二数据集进行训练的;所述第二数据集是利用标注后的至少一张目标图像作为训练样本合并到第一数据集得到的;所述第一数据集为至少部分样本图像具有标注信息的数据集;所述目标图像是将从监控视频流中截取的待检测图像输入至目标检测神经网络,根据所述目标检测神经网络输出的检测结果确定的;所述目标检测神经网络是采用所述第一数据集进行训练的。
2.如权利要求1所述的方法,所述室内行人检测模型是采用下面的步骤训练的:
将至少一张待检测图像输入至所述目标检测神经网络,得到所述待检测图像的检测结果;所述至少一张待检测图像是从监控视频流中截取的包括有不同环境、光照和行人姿态的图像;
根据每一所述待检测图像的检测结果确定对应待检测图像的类型,其中,所述待检测图像的类型包括识别的正样例、识别的负样例和识别的困难样例;
根据所述待检测图像的类型和对所述待检测图像的人工标注结果,将标注后的所述至少一张目标图像作为训练样本合并到所述第一数据集,得到第二数据集;
利用所述第二数据集对所述目标检测神经网络进行训练,得到所述室内行人检测模型。
3.如权利要求2所述的方法,其特征在于,所述方法还包括:
根据所述监控视频流的属性参数,确定截取时间间隔;所述监控视频流为对室内行人进行监控的视频流;
根据所述截取时间间隔,从所述监控视频流中截取至少一张所述待检测图像。
4.如权利要求2或3所述的方法,其特征在于,在所述室内行人检测模型用于识别在同一室内环境中的行人的情况下,所述至少一张待检测图像为第三数据集和/或第四数据集;其中,所述第三数据集是在不同光照条件下,同一室内环境中的室内行人图像集;所述第四数据集是包括不同行人姿态,同一室内环境中的室内行人图像集;
在所述室内行人检测模型用于识别在不同室内环境中的行人的情况下,所述至少一张待检测图像为第五数据集;其中,所述第五数据集是不同环境下,包括不同光照条件下和/或不同行人姿态的图像集。
5.如权利要求2至4任一项所述的方法,所述待检测图像的检测结果,包括:所述待检测图像的后验概率;
对应地,所述根据每一所述待检测图像的检测结果确定对应待检测图像的类型,包括:
在确定所述待检测图像的后验概率满足第一准则的情况下,将与所述后验概率对应的待检测图像确定为识别的正样例;其中,所述第一准则为所述后验概率大于第一后验概率阈值;
在确定所述待检测图像的后验概率满足第二准则的情况下,将与所述后验概率对应的待检测图像确定为识别的负样例;其中,所述第二准则为所述后验概率小于第二后验概率阈值;
在确定所述待检测图像的后验概率满足第三准则的情况下,将与所述后验概率对应的待检测图像确定为识别的困难样例;其中,所述第三准则为所述后验概率大于第三后验概率阈值且小于第四后验概率阈值;
其中,所述第二、第三、第四和第一后验概率阈值依次增大。
6.如权利要求2至5任一项所述的方法,其特征在于,所述根据所述待检测图像的类型和对所述待检测图像的人工标注结果,将标注后的所述至少一张目标图像作为训练样本合并到所述第一数据集,得到第二数据集,包括:
获取对多张所述识别的正/负样例的人工标注结果;
根据对多张所述识别的正/负样例的人工标注结果,确定所述目标检测神经网络对识别为所述正/负样例的误判率;
在所述对所述识别的正/负样例的误判率大于误判概率阈值的情况下,将所述人工标注结果为负样例且识别为正样例的图像作为训练样本,或所述人工标注结果为正样例且识别为负样例的图像作为训练样本,合并到所述第一数据集,得到第二数据集。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京市商汤科技开发有限公司,未经北京市商汤科技开发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110207900.3/1.html,转载请声明来源钻瓜专利网。