[发明专利]行人检测、训练检测器的方法、装置及设备在审
申请号: | 201811477859.6 | 申请日: | 2018-12-05 |
公开(公告)号: | CN110008803A | 公开(公告)日: | 2019-07-12 |
发明(设计)人: | 赵威 | 申请(专利权)人: | 阿里巴巴集团控股有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京博思佳知识产权代理有限公司 11415 | 代理人: | 林祥 |
地址: | 英属开曼群岛大开*** | 国省代码: | 开曼群岛;KY |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 检测器 行人检测 装置及设备 预设 检测器集合 背景模型 实时变化 实时调整 行人识别 视频帧 匹配 视频 场景 检测 | ||
1.一种行人检测方法,包括:
接收待检测的当前视频帧序列,获取所述当前视频帧序列的背景模型;
确定所述当前视频帧序列的背景模型与上一视频帧序列的背景模型的匹配程度;所述上一视频帧序列由目标检测器进行行人检测;
若匹配,则利用所述目标检测器对当前视频帧序列进行行人检测;
若不匹配,则基于预设检测器的背景模型与所述当前视频帧序列的背景模型的匹配程度,从预设检测器集合中选取出预设检测器,利用选取的预设检测器对所述当前视频帧序列进行行人检测;其中,所述预设检测器对应有背景模型,所述预设检测器集合中每个预设检测器对应一种场景。
2.根据权利要求1所述的方法,所述预设检测器集合中预设检测器预先利用对应场景的视频帧集合对样本检测器训练得到,所述预设检测器对应的背景模型利用所述对应场景的视频帧集合获取得到。
3.根据权利要求2所述的方法,所述预设检测器集合中预设检测器的训练方式包括:
利用对应场景的视频帧集合,循环执行以下步骤,直到视频帧集合中所有视频帧的标签与上一次检测的标签相同,获得训练完成的预设检测器:
利用当前样本检测器对视频帧集合中每个视频帧进行行人检测,根据检测结果确定每个视频帧的标签,所述标签指示所述视频帧中是否包含有行人;将确定标签后的视频帧集合添加至源样本集后训练样本检测器,将训练得到的样本检测器确定为当前样本检测器。
4.根据权利要求3所述的方法,所述当前样本检测器对视频帧集合中每个视频帧进行行人检测的方式包括:上下文线索算法和/或聚类算法。
5.根据权利要求1所述的方法,所述匹配程度基于背景模型的灰度直方图的相似度确定。
6.根据权利要求4所述的方法,所述相似度通过如下方式计算得到:
其中,所述Sim(G,S)表示灰度直方图G与灰度直方图S的相似度,N表示标准片段背景模型的灰度直方图的灰度空间样点数,gi表示灰度直方图中第i个样点的灰度值,si表示灰度直方图中第i个样点的灰度值,Max(gi,si)表示gi与si两者中的较大值。
7.根据权利要求1或2所述的方法,所述背景模型采用基于码本的建模方法获取得到。
8.一种训练检测器的方法,所述方法包括:
获取多个视频帧集合,利用每个所述视频帧集合确定每个场景的背景模型;其中,每个视频帧集合预先对对应场景拍摄得到;
利用每个场景的视频帧集合,循环执行以下步骤,直到视频帧集合中所有视频帧的标签与上一次检测的标签相同,获得训练完成的该场景的检测器:利用当前样本检测器对视频帧集合中每个视频帧进行行人检测,根据检测结果确定每个视频帧的标签,所述标签指示所述视频帧中是否包含有行人;将确定标签后的视频帧集合添加至源样本集后训练样本检测器,将训练得到的样本检测器确定为当前样本检测器;
将训练完成的所述场景的检测器与该场景的背景模型关联,得到检测器集合。
9.一种行人检测装置,所述装置包括:
获取模块,用于:接收待检测的当前视频帧序列,获取所述当前视频帧序列的背景模型;
确定模块,用于:确定所述当前视频帧序列的背景模型与上一视频帧序列的背景模型的匹配程度;所述上一视频帧序列由目标检测器进行行人检测;
检测模块,用于:在匹配的情况下,则利用所述目标检测器对当前视频帧序列进行行人检测;在不匹配的情况下,则基于预设检测器的背景模型与所述当前视频帧序列的背景模型的匹配程度,从预设检测器集合中选取出预设检测器,利用选取的预设检测器对所述当前视频帧序列进行行人检测;其中,所述预设检测器对应有背景模型,所述预设检测器集合中每个预设检测器对应一种场景。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于阿里巴巴集团控股有限公司,未经阿里巴巴集团控股有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811477859.6/1.html,转载请声明来源钻瓜专利网。