[发明专利]一种基于多任务深度学习的行人再识别方法有效
| 申请号: | 201911102809.4 | 申请日: | 2019-11-12 |
| 公开(公告)号: | CN110852276B | 公开(公告)日: | 2022-07-01 |
| 发明(设计)人: | 刘静;徐晓刚;李冠华;管慧艳 | 申请(专利权)人: | 杭州云栖智慧视通科技有限公司 |
| 主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/26;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 杭州信与义专利代理有限公司 33450 | 代理人: | 丁浩 |
| 地址: | 310000 浙江省杭州市*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 任务 深度 学习 行人 识别 方法 | ||
本发明公开了一种基于多任务深度学习的行人再识别方法,包括以下步骤:构建多任务深度学习网络,包括骨干网络和三个子任务网络,所述子任务网络包括全局特征网络、人体部件分割网络和行人属性网络;分别构建三个子任务网络的损失函数,加权求和得到多任务深度学习网络的损失函数;准备每个子任务网络的训练数据集,并进行训练;将多任务深度学习网络中的子任务网络输出的特征向量拼接,作为多任务深度学习网络最终的输出特征。本发明提高了行人再识别的准确率和模型的泛化能力。
技术领域
本发明涉及行人再识别技术领域,尤其涉及一种基于多任务深度学习的行人再识别方法。
背景技术
行人再识别旨在通过计算查询图像和图库图像之间的相似性来发现同一个人是否再次出现在视频视野范围内。目前关于行人再识别的研究大多采用深度学习网络提取行人图片特征的方法,这些特征包括全局和局部特征,多通道特征等。尽管行人再识别研究在过去几年取得了重大进展,但在实际应用中仍然面临着一系列困难。其中最突出的一个难点就是,深度学习训练的模型泛化能力差,在实际场景的应用中难以在图库图像中识别出查询图像。其原因是深度学习网络学习到的图片特征受训练图片风格影响较大,实际场景中行人图片质量会受行人姿势,观察视点,遮挡,照明变化和背景影响,识别难度较大。
发明内容
本发明的目的在于提供一种基于多任务深度学习的行人再识别方法,提高了行人再识别的准确率和模型的泛化能力。
为实现上述目的,本发明提供如下技术方案:
一种基于多任务深度学习的行人再识别方法,其特征在于,包括以下步骤:
S1,构建多任务深度学习网络,包括骨干网络和三个子任务网络,所述子任务网络包括全局特征网络、人体部件分割网络和行人属性网络;
S2,分别构建三个子任务网络的损失函数,加权求和得到多任务深度学习网络的损失函数;
S3,准备每个子任务网络的训练数据集,并进行训练;
S4,将多任务深度学习网络中的子任务网络输出的特征向量拼接,作为多任务深度学习网络最终的输出特征。
进一步的,所述全局特征网络包括依次连接的池化层、向量拼接层、BN层、全连接层和softmax层;所述池化层,对输入进行全局平均池化和全局最大池化;所述向量拼接层,对全局平均池化结果和全局最大池化进行拼接。
进一步的,所述人体部件分割网络包括依次连接的3×3逆卷积层、BN层、relu层和1×1卷积层。
进一步的,所述行人属性网络包括依次连接的分割层、全局平均池化层、第一向量拼接层、全连接层、softmax层和第二向量拼接层;所述分割层,将输入水平分割成6块;所述全局平均池化层,将分割后的块分别进行平均池化;所述第一向量拼接层,将平均池化得到的向量拼接成1个向量;所述全连接层,数量与行人属性的数量相同,将拼接后的向量转化为行人属性结果向量;所述softmax层,将多个行人属性结果向量进行归一化;所述第二向量拼接层,将归一化后的多个行人属性结果向量拼接成一个向量作为属性输出向量。
进一步的,所述行人属性包括性别,年龄,头发长度,袖子长度,下身衣服长度,下身衣服类型,是否佩戴帽子,是否背包,是否拎包,是否手拿包,上身衣服颜色以及下身衣服颜色。
进一步的,所述全局特征网络的损失函数为:
L(g)=L(id)+L(tri)+βL(C)
其中,L(g)为全局特征网络的损失;L(id)为全局特征网络输出的ID结果向量与训练图片真实ID标签的交叉熵,L(tri)为全局特征网络输出的两种池化结果拼接成的向量的三元损失函数;L(C)为全局特征网络输出的两种池化结果拼接成的向量的中心损失函数;β为L(C)的权重系数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州云栖智慧视通科技有限公司,未经杭州云栖智慧视通科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911102809.4/2.html,转载请声明来源钻瓜专利网。





