[发明专利]多任务分类网络的训练方法、行人重识别方法有效
| 申请号: | 202110724711.3 | 申请日: | 2021-06-29 |
| 公开(公告)号: | CN113343909B | 公开(公告)日: | 2023-09-26 |
| 发明(设计)人: | 王止观;顾扬;杨渼仪;程进兴 | 申请(专利权)人: | 南京星云数字技术有限公司 |
| 主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V10/44;G06V10/774;G06V10/82;G06N3/0464;G06N3/08 |
| 代理公司: | 北京市万慧达律师事务所 11111 | 代理人: | 刘艳丽 |
| 地址: | 211800 江苏省南京市江*** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 任务 分类 网络 训练 方法 行人 识别 | ||
本申请涉及行人重识别领域,具体涉及一种多任务分类网络的训练方法、行人重识别方法和行人属性识别方法。该训练方法包括:在训练时,利用各身体部位的掩膜来引导各注意力图提取网络的训练,能够使其准确提取到行人的各身体部位对应的注意力图,从而缓解因没有准确切割人身体矩形框而导致的特征图无法对准的问题。另一方面,在训练时,引入属性三元组损失来进行训练,能够使该分类网络对同一个人的属性变化和具有相似外貌的不同人的情况有更高的鲁棒性,可以有效去除光线视角等环境因素对衣着的影响,并有效区分穿着相似的不同人。
技术领域
本申请涉及行人重识别领域,特别是涉及一种多任务分类网络的训练方法、行人重识别方法和行人属性识别方法。
背景技术
以下陈述仅提供与本发明有关的背景信息,而不必然地构成现有技术。
行人重新识别(Person re-identification)旨在在不同位置的多个不重叠的一系列摄像机识别同一个人。在过去的几年中,为提高行人重新识别的准确性,人们已经进行了大量的努力和研究。然而,由于拍摄背景混乱,行人存在遮挡,拍摄光线会变化以及不同人会穿类似的衣服等因素的存在,行人重识别仍然是一项艰巨的任务。随着计算机视觉中深度神经网络(DNN)的快速发展,最近的研究表明,通过DNN学习的人体特征大大优于手工特征,人们已经证明深度学习提取的行人特征在进行行人重新识别时对于提高性能及准确率方面更为有效。
目前,在进行行人重识别时,已有技术通过利用人的衣服颜色,头发,帽子,鞋子等人的穿着属性来提高识别的准确率,因为这些起决定性因素的属性可以从更高层次来区分不同的人。但是,发明人发现目前的技术仍存在一些不足,导致最终的识别效果不够理想,例如,目前在提取行人图像的属性特征时是将特征图水平切割成多块对应不同身体部位的特征图,然后从各块中提取身体部位的属性信息,但水平切割时,可能无法准确切割人身体矩形框,而如果切割不准则会导致特征图水平切条后无法对准的问题;又例如,采集人的穿着属性有利于提高行人重识别的准确率,但是过于强调行人的属性则可能使模型对属性的更改过于敏感,使得模型将同一个人误识别为不同人。
发明内容
本发明针对上述不足或缺点,提供了一种多任务分类网络的训练方法、行人重识别方法和行人属性识别方法,本发明实施例能够缓解因切割不准而导致的特征图无法对准的问题、以及使该分类网络对同一个人的属性变化和具有相似外貌的不同人的情况有更高的鲁棒性。
本发明根据第一方面提供了一种多任务分类网络的训练方法,在一个实施例中,该训练方法包括:
构建初始的多任务分类网络;该多任务分类网络包括骨干网络、第一分支和包括多个注意力图提取网络的第二分支;
对该多任务分类网络进行迭代训练;
对该多任务分类网络进行任一次训练的过程包括:
获取训练样本集中的一张行人图像;
通过骨干网络将行人图像处理为特征图;
通过第二分支中的各注意力图提取网络从特征图中提取得到多张注意力图,对该多张注意力图进行卷积池化操作以提取得到行人图像对应的行人属性特征,根据行人属性特征计算出行人图像对应的行人属性预测损失;
提取行人图像中多个行人身体部位对应的掩膜,提取到的多个掩膜与该多张注意力图一一对应,根据该多个掩膜和该多张注意力图计算出行人图像对应的注意力损失;
通过第一分支提取出特征图的行人身体特征,根据行人身体特征计算出行人图像对应的行人身份预测损失;
获取用于与行人图像组成三元组的正负例样本,通过骨干网络和第一分支对正负例样本进行处理,根据处理结果计算出行人图像对应的身份三元组损失和属性三元组损失;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京星云数字技术有限公司,未经南京星云数字技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110724711.3/2.html,转载请声明来源钻瓜专利网。





