[发明专利]一种衣着识别方法、系统、介质及设备在审
| 申请号: | 202210721153.X | 申请日: | 2022-06-24 |
| 公开(公告)号: | CN115100681A | 公开(公告)日: | 2022-09-23 |
| 发明(设计)人: | 黄斐然;李志颖;陈唯彬;赵容;吴永东;陈志彬 | 申请(专利权)人: | 暨南大学 |
| 主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/80;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 郑秋松 |
| 地址: | 510632 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 衣着 识别 方法 系统 介质 设备 | ||
本发明公开了一种衣着识别方法、系统、介质及设备,该方法包括下述步骤:获取多场景下的摄像头视频,将其中的黑白视频着色,整合得到全彩色的图像数据库,对图像数据库进行解帧和标注,构建衣着数据集,基于YOLOv5模型构建衣着识别网络,在主干网络层尾部增加坐标注意力模块,在Neck网络层将YOLOv5模型中的拼接模块替换为Concat_bifpn模块;基于衣着数据集训练衣着识别网络;进行复合检测,基于YOLOv5模型对测试集中的人物进行识别,裁剪提取得到人像结果集,输入衣着识别网络得到衣着识别结果图像集。本发明解决了摄像头环境下目标检测难的问题,实现了精度与速度平衡的高效目标检测效果。
技术领域
本发明涉及计算机视觉的图像分析技术领域,具体涉及衣着识别方法、系统、介质及设备。
背景技术
近年来,城市的各条街道以及小区,乃至各大商场、超市都装上了视频监控,每天全国每条街道、小区、商场、超市里的视频监控产生的数据都是以TB为单位的海量数据流,随着未来信息技术的迅猛发展,可能会达到更高的数量级。人们接收的信息越来越多,也越来越复杂,而在这海量的数据里,并不都是人们需要的,于是开始思考如何利用图像处理技术去解决这一难题一从海量视频数据中挖掘有价值的信息。
在视频监控中,行人作为主要目标么一,对其有效识别问题的研究尤为重要。对人物识别一般指面部识别,但由于监控图像的清晰度不高,希望通过面部识别来识别不同行人是非常困难的,所以不少研究者将视频图像中行人外观识别问题作为研究重点。若能进行有效的外观识别,如对视频中行人衣着颜色或者衣着类型进行有效识别,配合视频检索技术,可以提高视频监控人员的工作效率。因此,研究如何提升衣着识别算法的准确性和高效性以满足实际需求,具有重要的实际意义。
发明内容
为了克服现有技术存在的缺陷与不足,本发明提供一种衣着识别方法,通过收集摄像头视频,进行预处理,将视频通过着色网络,得到着色后的视频图像,解帧后进行标注,形成数据集,用于训练该衣着识别模型,使之能用于该场景下的衣着识别任务,最后采用复合检测的方式,来提升识别的准确性。
本发明的第二目的在于提供一种衣着识别系统。
本发明的第三目的在于提供一种存储介质。
本发明的第四目的在于提供一种计算设备。
为了达到上述目的,本发明采用以下技术方案:
本发明提供一种衣着识别方法,包括下述步骤:
获取多场景下的摄像头视频,划分为黑白视频以及非黑白视频,将黑白视频通过着色网络进行颜色的填充,将着色后的视频与非黑白视频整合得到全彩色的图像数据库;
对全彩色的图像数据库进行解帧,对有效数据图片进行标注,构建衣着数据集;
基于YOLOv5模型构建衣着识别网络,设有依次连接的主干网络层、Neck网络层和输出层;
在主干网络层尾部增加坐标注意力模块,坐标注意力模块采用坐标注意力机制获取特征信息;
在Neck网络层将YOLOv5模型中的拼接模块替换为融合多尺度特征融合算法的Concat_bifpn模块,用于融合浅层网络跟深层网络的特征,通过预设可学习的权重学习不同输入特征的重要性;
Neck网络层设有多个Concat_bifpn模块,包括第一融合模块、第二融合模块、第三融合模块、第四融合模块、第五融合模块和第六融合模块;输出层设有多个预测头,包括第一预测头、第二预测头、第三预测头和第四预测头;
第一融合模块将自身上一层输出与主干网络层输出进行融合,融合后经过下一层输出至第五融合模块;
第二融合模块将自身上一层输出与主干网络层输出进行融合,融合后经过下一层输出至第四融合模块;
第三融合模块将自身上一层输出与主干网络层输出进行融合,融合后经过下一层输出至输出层的第一预测头,输出第一尺度特征;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于暨南大学,未经暨南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210721153.X/2.html,转载请声明来源钻瓜专利网。





