[发明专利]基于权重多样性正则化的行人重识别方法及其应用有效
申请号: | 202010790733.5 | 申请日: | 2020-08-07 |
公开(公告)号: | CN111931641B | 公开(公告)日: | 2023-08-22 |
发明(设计)人: | 邓圣衡;王鹏飞;丁长兴;李弘洋;黄家荣;陈柏伶;郭思聪 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/44;G06V10/82;G06N3/0464;G06N3/08;G06V20/52 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李斌 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 权重 多样性 正则 行人 识别 方法 及其 应用 | ||
本发明公开了一种基于权重多样性正则化的行人重识别方法及其应用,该方法步骤包括:构建卷积神经网络并初始化卷积神经网络参数;图像预处理得到卷积神经网络的输入张量;采用交叉熵损失函数和三元组损失函数的同时采用权重多样性损失函数控制卷积神经网络中卷积层的权重互不相同,完成权重多样性正则化;卷积神经网络训练,提取图像中行人不同的局部特征,对每一个行人的局部特征级联成为卷积神经网络输出的特征向量,将提取到的所有行人特征向量进行距离度量,完成行人重识别。本发明提取得到的局部特征更加细致且具有更加丰富的特征数量,具有区分性更大的行人图像语义信息,实现了权重多样性正则化效果,提高了行人重识别任务的准确率。
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于权重多样性正则化的行人重识别方法及其应用。
背景技术
随着大数据时代的到来,算力资源得到不断提升,基于深度神经网络的计算机视觉技术的飞速发展与进步,行人视频监控因其可以提高公共安全水平和保障人民的人身财产安全,显得尤为重要。由于传统行人视频监控需要用到大量人力资源且效率低下,基于计算机视觉技术的行人重识别技术成为了非常有挑战性和研究价值的研究领域。与传统基于手工设计特征的行人重识别技术不同,基于深度神经网络的行人重识别技术基于梯度下降原理对网络参数进行优化,可以比传统方法提取出泛化能力更强的行人图像特征,大幅增加了行人重识别的准确率。
现有的行人重识别方法通常基于深度学习,利用了卷积神经网络提取输入网络的行人图像特征,使用交叉熵损失函数和三元组损失函数训练网络,将训练好的网络用于提取图像特征,将提取的特征进行距离度量,即特征之间的匹配,从而达到行人重识别的目的。但使用这些方法训练的网络并不能十分有效地提取行人图像特征,网络依然将注意力集中在整体的全局特征上而未考虑局部特征,而局部特征与全局特征相比,不仅具有区分性更大的行人图像语义信息,且局部特征更能满足细粒度程度大的行人重识别任务对网络提取的特征要求,故网络提取的全局特征鲁棒性不如局部特征,在进行行人之间特征匹配时性能较差。
发明内容
为了克服现有技术存在的缺陷与不足,针对现有基于深度学习的行人重识别方法无法很好利用行人局部特征,容易出现过拟合现象的缺陷,本发明提出一种基于权重多样性正则化的行人重识别方法,采用权重多样性正则化方法实现网络权重多样性,使得网络深层中存在若干权重多样的卷积层,迫使网络提取不同的局部人体特征,对网络起到正则化的效果,避免过拟合现象的发生,从而达到提高行人重识别准确率的效果。
本发明的第二目的在提供一种基于权重多样性正则化的行人重识别系统。
本发明的第三目的在于提供一种存储介质。
本发明的第四目的在于提供一种计算设备。
为了达到上述目的,本发明采用以下技术方案:
本发明提供一种基于权重多样性正则化的行人重识别方法,包括下述步骤:
构建卷积神经网络,包括Resnet50网络、卷积层以及全连接神经网络,并初始化卷积神经网络参数;
图像预处理,得到卷积神经网络的输入张量;
采用交叉熵损失函数和三元组损失函数的同时采用权重多样性损失函数控制卷积神经网络中卷积层的权重互不相同,完成权重多样性正则化;
卷积神经网络训练,提取图像中行人不同的局部特征,对每一个行人的局部特征级联成为卷积神经网络输出的特征向量,将提取到的所有行人特征向量进行距离度量,完成行人重识别。
作为优选的技术方案,所述卷积神经网络包括:Resnet50网络、6个卷积层以及6个全连接神经网络,将Resnet50网络移除下采样。
作为优选的技术方案,所述图像预处理具体步骤包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010790733.5/2.html,转载请声明来源钻瓜专利网。