[发明专利]基于深度学习目标检测的监狱双人离岗违规评估方法有效
申请号: | 201910639147.8 | 申请日: | 2019-07-16 |
公开(公告)号: | CN110516538B | 公开(公告)日: | 2022-10-11 |
发明(设计)人: | 李家兴;吴军;涂小芳 | 申请(专利权)人: | 广州中科凯泽科技有限公司 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V40/10;G06V10/778;G06V10/82;G06N3/04;G06N3/08;G08B13/196 |
代理公司: | 广州容大知识产权代理事务所(普通合伙) 44326 | 代理人: | 刘新年 |
地址: | 510000 广东省广州市南沙区*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 目标 检测 监狱 双人 离岗 违规 评估 方法 | ||
本发明涉及一种基于深度学习目标检测的监狱双人离岗违规评估方法,包括:采集监狱应用场景下的原始图像,并对原始图像进行预处理;对经过预处理的图像,利用深度卷积神经网络提取特征图像,并基于预备的数据集进行行人目标的检测;确定图像中所要进行双人离岗违规评估的监控区域;持续统计所述监控区域中的行人目标的数目,并结合时间参数判断是否有违规事件发生,若发生违规事件,则进行报警。本发明降低了人工成本投入,避免了由人工疲劳而造成的监管遗失,并且相比传统的图像或视频识别技术,提高了检测准确度,避免漏检和误报。
技术领域
本发明涉及目标检测技术领域,尤其是涉及一种基于深度学习目标检测的监狱双人离岗违规评估方法。
背景技术
随着摄像头的发明和普及应用,众多场所的相关工作都可以在人类的监控下有序进行。监狱,作为国家机器的一种,也是需要重点关注之地。摄像头的有效布点和全范围监控有利于国家对监狱有效掌控。因摄像头能及时反应情况,对罪犯进行有效制止和必要时取证都发挥了重要的作用。
在监狱的应用场景中,需要对多种情况进行监视或预防,双人离岗违规检测就是其中一种。双人离岗违规检测,简单可以理解为:在规定的值守区域,对守岗的行人人数进行检测,少于两人则判定为违规。
发明人在研究中发现,传统的监狱监控,包括双人离岗违规检测,都是依靠人工来进行,人工检测最大的问题就是容易造成疲劳,如果摄像头数目过多,人工监管可能会造成遗失监管,不利于监管工作的开展。随着技术的发展,现有技术中,也出现了利用传统视频或图像识别技术进行监控,传统的视频或图像识别技术在一定程度上解决了人工问题,但其算法会由于遮挡、光线或重叠的限制,造成漏检或误报的情况。
发明内容
有鉴于此,有必要针对上述的问题,提供一种基于深度学习目标检测的监狱双人离岗违规评估方法,降低了人工成本投入,避免了由人工疲劳而造成的监管遗失,并且相比传统的图像或视频识别技术,提高了检测准确度,避免漏检和误报。
一种基于深度学习目标检测的监狱双人离岗违规评估方法,所述方法包括:
采集监狱应用场景下的原始图像,并对原始图像进行预处理;
对经过预处理的图像,利用深度卷积神经网络提取特征图像,并基于预备的数据集进行行人目标的检测;
确定图像中所要进行双人离岗违规评估的监控区域;
持续统计所述监控区域中的行人目标的数目,并结合时间参数判断是否有违规事件发生,若发生违规事件,则进行报警。
所述对原始图像进行预处理的步骤,包括:采用缩放因子1/255对原始图像进行归一化处理,同时采用数据增强处理,所述数据增强处理包括镜像化、模糊化、灰度化和加噪声。
所述深度卷积神经网络包括前端网络和后端网络;所述前端网络提取3种不同尺度的特征图,所述后端网络进行目标和背景的分类,以及行人目标边框的准确回归。
所述深度卷积神经网络采用预训练模型进行微调。
所述确定图像中所要进行双人离岗违规评估的监控区域的步骤,包括:
规定用于限制双人巡视范围的警示线,所述警示线以内作为监控区域,对所述警示线以外的图像进行全黑或全白处理。
利用深度卷积神经网络检测的行人目标边框在所述监控区域中至少含有两个角点,则对应于在所述监控区域检测到一个行人目标,行人目标数目Size(Person)加1处理。
当检测监控区域的行人目标数目Size(Person)=2,则计算两个行人目标边框的重叠区域比例IOU,若IOU小于预设IOU阀值,则认为无违规事件,不进行报警;若IOU逐渐变大,超过预设IOU阀值,且检测的行人目标数目Size(Person)由2变为1,则认为无违规事件,不进行报警。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州中科凯泽科技有限公司,未经广州中科凯泽科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910639147.8/2.html,转载请声明来源钻瓜专利网。