[发明专利]滞留物检测中的静止物体类型判断与物主分析方法及系统有效
申请号: | 201310239290.0 | 申请日: | 2013-06-17 |
公开(公告)号: | CN103310454A | 公开(公告)日: | 2013-09-18 |
发明(设计)人: | 刘宏;赵红梅 | 申请(专利权)人: | 北京大学深圳研究生院 |
主分类号: | G06T7/00 | 分类号: | G06T7/00 |
代理公司: | 北京君尚知识产权代理事务所(普通合伙) 11200 | 代理人: | 余长江 |
地址: | 518055 广东省深*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 滞留 检测 中的 静止 物体 类型 判断 物主 分析 方法 系统 | ||
技术领域
本发明属于计算机视觉领域和智能视频监控领域,具体涉及一种基于在线学习的滞留物体类型分析方法。
背景技术
随着社会经济的发展,社会安全问题成为了人们关注的焦点,传统的视频监控方式无法满足人们的需求,于是开始寻求智能的视频监控方式。滞留物检测是智能视频监控领域重要的研究内容之一,可以解决机场、车站、商场中的滞留物品事件。
目前的滞留物检测算法大多只检测静止的物体,将之作为滞留物,而不区分该静止物体是静止的人还是静止的物品。如果将人当做是滞留物检测出来,并产生报警,这是在实际生活中所不能理解的,会造成误警率的提高。本发明主要是解决如何区分静止的人和静止的物品,并分析静止物品的携带者信息。
目前滞留物检测方法中,静止物体类型判断方法,主要是事先训练人体检测器或者物品检测器,用于区分人与物。区分静止的人的方法可以分为两类:训练物品检测器、训练人体目标检测器。目前人体目标检测方法多是基于离线训练的,对于有遮挡的多人体检测,仍是视觉领域的研究难点。退而求其次,考虑物体检测器的训练,首先需要提取所有非人的物体的共性特征,如果受限于一定的物品范围内,还较好提取,但是应用范围确实有限,可扩展性也较差。
发明内容
本发明的目的在于提供了一种滞留物检测中的静止物体类型判断与物主分析方法。该方法建立在一个假设条件下,假设场景中的运动物体都是人。基于此假设,我们为场景中检测到的前景物体在线建立物体分类器,每当新的前景物体检测出来,将送入物体分类器进行分类器的分类与更新。而当静止物体检测出来的时候,将该静止物体送入已经建立的物体分类器进行分类,最后由这些分类器的综合结果来判定该静止物体是否是静止的人,如果是静止的人则放弃,否则,判定该静止物体是滞留物,并且利用这些分类器找到携带者的信息。对于前景检测和静止物体检测不属于本发明的范畴,本发明主要是解决如何区分静止的人和静止的物品,并分析静止物品的携带者信息。
为了实现上述目的,本发明的技术方案为:一种滞留物检测中的静止物体类型判断与物主分析方法,其步骤包括:
1)建立背景模型并检测出每帧图像前景物体,根据所述前景物体生成物体分类器;
2)将静止的前景物体输入到所述物体分类器,根据分类器返回的置信值的平均值判断得到静止前景物体类型为物品或者人体;
3)对所述静止前景类型为物品的物体进行物主分析,得到物品的携带者所对应的分类器序号从而得到物主的图片信息。
更进一步,所述物体分类器提取的特征是类Haar特征(提取方法可参见P.Viola and M.Jones.“Robust real-time face detection.International Journal of Computer Vision,Vol.57,No.2,pp.137-154,2004.)和HOG特征,采用在线的Adaboost方法为每个前景物体建立分类器。
更进一步,物体分类器的估计与更新方法如下:
首先,算法的初始化,物体分类器(N表示当前分类器的个数,初始化为0,每增加一个新的分类器,N加1,每删除一个分类器,N减1);
然后,当第一个前景物体p1被检测出来的时候,建立一个新的物体分类器O1;
当又来一个前景物体pi的时候,该前景图像将被送入已经建立好的物体分类器中对每个分类器进行估计。
更进一步,所述分类器中若所述前景图像为正样本,且分类器得到的置信值介于0和0.5之间,则该样本将用于该分类器的更新,若为负样本,则不用于更新该分类器,若所有分类器将该前景图像判为负样本,则为此前景图像建立新的物体分类器。
更进一步,若分类器长期无正样本更新,则将进入等待状态,等待状态持续一定时间后,则删除该分类器。
更进一步,每个新的前景物体都要遍历所有的分类器,静止前景物体和所有分类器的整体相似程度:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学深圳研究生院,未经北京大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310239290.0/2.html,转载请声明来源钻瓜专利网。