[发明专利]一种基于深度学习的安全帽佩戴检测方法及系统在审
| 申请号: | 202011064308.4 | 申请日: | 2020-09-30 |
| 公开(公告)号: | CN112184773A | 公开(公告)日: | 2021-01-05 |
| 发明(设计)人: | 袁烨;许典;董云龙 | 申请(专利权)人: | 华中科技大学 |
| 主分类号: | G06T7/246 | 分类号: | G06T7/246;G06N3/04;G06N3/08;G06T7/13;G06T7/194 |
| 代理公司: | 华中科技大学专利中心 42201 | 代理人: | 李智 |
| 地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 学习 安全帽 佩戴 检测 方法 系统 | ||
本发明公开了一种基于深度学习的安全帽佩戴检测方法及系统,属于安防监控领域,包括以下步骤:S1、在服务器端,对现场所有摄像头视频进行运动物体检测,并将摄像头视频中的各运动目标提取出来,得到运动目标图像;S2、将运动目标图像输入到预训练好的安全帽检测模型中,对安全帽的佩戴情况进行检测;其中,安全帽检测模型为深度学习模型;用于训练所述安全帽检测模型的数据集包括标注有工人是否佩戴安全帽的图像。本发明充分利用了现场工人的人体信息和大量摄像头的视频数据,通过提取摄像头视频中的运动目标,对摄像头视频中的无效信息进行过滤,然后基于深度学习模型对运动目标图像进行检测,得到安全帽的佩戴情况,精确度较高,速度较快。
技术领域
本发明属于安防监控领域,更具体地,涉及一种基于深度学习的安全帽佩戴检测方法及系统。
背景技术
建筑施工作业过程中,存在着较多安全隐患,使得事故的发生率高居不下。在实践过程中,我们发现,在开展施工作业之前,对建筑工人的行为能力和安全设施的佩戴进行检查,能够有效的减少事故发生的几率。因此,在日常施工作业工程中,监督工人的安全帽等安全设施是否佩戴显得尤为重要。但是目前大部分工地上,采用的都是人为监测,很依赖于现场经验丰富的管理人员,需要他们实时的进行观察和检查,又费时又费力,存在着自动化水平较低,工作量较大,检查项目有限的情况,极容易出现漏检等情况,造成安全隐患。
为了解决以上问题,在现有技术中,一种方法是通过采用Viola-Jones检测器对安全帽的佩戴情况进行检测,采用边缘特征中的两矩形特征来表述安全帽,当在背景较为复杂或者存在遮挡的场景下,检测结果不是很稳健,准确度较低。还有一种方法是将安全帽与传感芯片、定位标识芯片和语音芯片连为一体,且在施工工地场所中架设Zigbee网络,安全帽与中心控制室间采用Zigbee无线网络传输信号,安全帽内的传感芯片可以即时检测监控生产现场的环境情况,并将检测到的信息转化成信号通过Zigbee无线网络传输给中心控制室并处理分析。该方法依赖硬件芯片,成本较高,且对场景下的要求较高。而且在部署中使用RGB颜色空间表示,对于光照的变化极度敏感,并不能通过相对稳定的阈值反映出安全帽的颜色,使得准确率降低。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于深度学习的安全帽佩戴检测方法及系统,其目的在于解决现有技术精确度不高的技术问题。
为实现上述目的,第一方面,本发明提供了一种基于深度学习的安全帽佩戴检测方法,包括以下步骤:
S1、在服务器端,对现场所有摄像头视频进行运动物体检测,并将摄像头视频中的各运动目标提取出来,得到运动目标图像;
S2、将运动目标图像输入到预训练好的安全帽检测模型中,对安全帽的佩戴情况进行检测;
其中,安全帽检测模型为深度学习模型;用于训练安全帽检测模型的数据集包括标注有工人是否佩戴安全帽的图像。
进一步优选地,上述S1包括以下步骤:
S11、采用背景差分法获取摄像头视频中当前帧的前景目标图;
S12、分别对当前帧、当前帧的前一帧和后一帧进行边缘检测;将当前帧及其前一帧的边缘检测图像进行差分操作,得到差分图;将当前帧及其后一帧的边缘检测图像进行异或操作,得到异或图;
S13、将所得异或图与当前帧的前景目标图进行或操作后,将所得结果与所得差分图进行与运算;
S14、将所得与运算结果进行形态学处理和连续性分析后,得到运动目标的二值模板,基于所得二值模板将当前帧中的各运动目标提取出来,得到运动目标图像;
S15、重复步骤S11-S14进行迭代,直至完成摄像头视频中所有图像的运动目标提取。
进一步优选地,安全帽检测模型为Yolov5模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011064308.4/2.html,转载请声明来源钻瓜专利网。





