[发明专利]基于Slim-YOLOv3的口罩佩戴情况检测方法有效
申请号: | 202110330611.2 | 申请日: | 2021-03-26 |
公开(公告)号: | CN112949572B | 公开(公告)日: | 2022-11-25 |
发明(设计)人: | 姜小明;向富贵;张中华;吕明鸿;王添;赖春红;王伟;李章勇 | 申请(专利权)人: | 重庆邮电大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 重庆辉腾律师事务所 50215 | 代理人: | 卢胜斌 |
地址: | 400065 重*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 slim yolov3 口罩 佩戴 情况 检测 方法 | ||
1.一种基于Slim-YOLOv3的口罩佩戴情况检测方法,其特征在于,包括:实时获取人脸视频数据,对人脸视频数据进行预处理;将预处理后的人脸图像输入到训练好的改进Slim-YOLOv3模型中,判断用户是否正确佩戴口罩;所述改进的Slim-YOLOv3模型包括骨干网络ECADarknet-53、特征增强及预测网络以及解码网络;
训练改进的Slim-YOLOv3模型的过程包括:
S1:获取原始数据集,对原始数据集进行预处理,得到训练样本集和测试样本集;
S2:对训练样本集和测试样本集中的数据进行分类和重新标注处理;
S3:将分类后的训练样本集输入到骨干网络Darknet-53中进行多尺度变换,提取多个尺度特征;
S4:将多个尺度特征输入到特征增强及预测网络中,得到分类预测结果;
S5:将分类预测结果输入到解码网络中进行解码;
S51:将每个网格点加上对应的x_offset和y_offset,得到预测框的中心;其中x_offset和y_offset分别表示网格左上角坐标(x,y)和实际预测的点x和y方向上的偏移量;
S52:将先验框和h、w结合,并计算出预测框的长和宽;其中h,w分别表示预测框的尺度缩放值;
S53:通过位置信息与实际标注信息计算定位损失,通过预测类别信息和实际标注类别信息计算分类损失;
S54:判断真实框在图片中的位置,判断其属于哪一个网格点去检测;
S55:计算真实框与先验框重合程度,并选取重合度最高的先验框进行验证;
S56:获得网络应该有的预测结果,将其与实际的标注结果对比;
S6:根据解码结果计算模型的损失函数;
其中,λcoord和λnoobj为对应项的权重,S2表示网格个数,B表示每个网格产生候选框的个数,表示第i个网格的第j个深度学习目标检查算法的锚框anchor box是否负责预测这个对象,表示第i个网格的第j个anchor box不负责预测这个对象,xi表示第i个网格实际中心点的横坐标,yi表示第i个网格实际中心点的纵坐标,第i个网格的第j个anchorbox预测并解码后的中心点横坐标,表示第i个网格的第j个anchor box预测并解码后的中心点纵坐标,ω、h分别表示目标的宽和高,分别表示解码后目标的宽和高,C表示目标预测框内含有目标物体的置信度,表示解码后目标预测框内含有目标物体的置信度,classes表示数据集的所有类别,P表示目标属于类别c的概率,表示解释目标属于类别c的概率;
S7:将测试集中的数据输入到模型进行预测,根据预测结果对模型的损失函数进行优化,当损失函数变化较小或达到迭代次数时,完成模型的训练。
2.根据权利要求1所述的一种基于Slim-YOLOv3的口罩佩戴情况检测方法,其特征在于,对原始数据集进行预处理包括:将原始数据集中的数据进行压缩、翻转以及改变图像的明暗程度,得到增强的图像数据;对增强后的图像数据进行分割,得到训练样本集和测试样本集。
3.根据权利要求1所述的一种基于Slim-YOLOv3的口罩佩戴情况检测方法,其特征在于,对训练样本集和测试样本集中的数据进行分类的过程包括:根据原始数据集的图像人脸佩戴口罩情况划分为三类,包括规范佩戴口罩图、不规范佩戴口罩图以及不佩戴口罩图;采用改进的图像无监督自分类方法SCAN对不规范佩戴口罩图进行再次分类,得到了多个子类。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110330611.2/1.html,转载请声明来源钻瓜专利网。