[发明专利]基于行人分割的跨域行人重识别方法有效
申请号: | 201910525062.7 | 申请日: | 2019-06-18 |
公开(公告)号: | CN110321813B | 公开(公告)日: | 2023-06-20 |
发明(设计)人: | 孙伟;张旭;张小瑞;张国策;葛男男 | 申请(专利权)人: | 南京信息工程大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/26;G06V10/74;G06V10/774;G06V10/82 |
代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 姜慧勤 |
地址: | 210032 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 行人 分割 识别 方法 | ||
本发明公开了基于行人分割的跨域行人重识别方法,该方法分为三个阶段,第一阶段:将源域图片和目标域图片输入到行人分割模型中,通过GAN网络生成具有源域内容和目标域风格的图片;第二阶段:将生成的新图片输入到CNN网络,提取图片间的特征距离,使用TriHard loss训练模型;第三阶段:加载训练好的行人重识别模型,提取目标域的行人图片特征。给定待检索的行人图片,检索最匹配的行人图片并输出。本发明设计训练得到一个新的行人重识别模型,训练源域内容图片,并在目标域数据集测试,有效减小不同数据集之间风格差异对跨域行人重识别模型性能的影响,网络性能好,模型泛化能力强。
技术领域
本发明涉及基于行人分割的跨域行人重识别方法,属于智能安防领域的行人重识别技术领域。
背景技术
近几年,行人重识别是计算机视觉领域非常火热的一个研究方向,其目标为给定一张待检索行人图片,并通过计算机视觉方法检索是否存在相同ID信息的行人图片或视频帧。传统的方法依赖人的手工特征,不仅费时费力,不能适应大量的数据,而且准确度一直很低。直到近几年深度学习的发展,行人重识别领域发生了突飞猛进的进展。与传统手工标注的方法不同,深度学习方法重点在于能够自动提取行人特征,判断两个行人相似度,并经过多次迭代,使得模型性能愈加突出。起初研究者主要关注图片的全局特征,根据损失函数的不同定义,可以分为基于ID loss(分类损失)的表征学习方法和基于Triplet loss(三元组损失)等的度量学习方法。然而再好的方法也有遇到瓶颈的时候,于是研究者提出提取局部特征的方法,将人体垂直分为几个区域,分别提取特征。最近,利用生成式对抗网络(GAN)生成和扩充数据集的方法得到了关注。虽然基于深度学习的行人重识别方法性能优异,但在不同时间、不同天气、不同摄像头下拍摄的图片,其明显的背景风格差异会导致行人重识别系统精度大幅下降,这在学术界对应着两个不同数据集之间的风格差异。
目前使用GAN网络生成图片来解决不同数据集之间的风格偏差是一种比较普遍的思路,主要思想为尽可能保持生成图片的行人前景不变,而生成图片的背景尽量为目标域的风格。但仅仅使用GAN网络生成图片易造成行人前景的改变。近期,有研究者采用人体姿态估计模型去划分行人前景,但人体姿态估计大多是根据人体关键点检测,并不能精确划分出行人前景。
发明内容
本发明所要解决的技术问题是:提供基于行人分割的跨域行人重识别方法,有效减小不同数据集之间风格差异对跨域的行人重识别模型性能的影响,网络性能好,模型泛化能力强。
本发明为解决上述技术问题采用以下技术方案:
基于行人分割的跨域行人重识别方法,包括如下步骤:
步骤1,将源域图片和目标域图片分别输入到行人分割模型进行分割,得到各自对应的行人前景和图片背景;
步骤2,根据步骤1,将源域图片得到的行人前景和目标域图片得到的图片背景输入到GAN网络,生成新图片;
步骤3,定义GAN网络的损失函数,采用源域图片、目标域图片以及新图片对GAN网络进行训练,得到新生成的图片;
步骤4,对于源域图片、目标域图片和新生成的图片,根据行人属性对行人重识别模型的影响,将图片分成5个感兴趣区域,对每个区域设置不同的擦除概率,并在每个区域中采用随机擦除的数据增广方法随机擦除限定范围的矩形块;
步骤5,将经过步骤4后的图片输入卷积神经网络得到特征图,对特征图进行全局池化得到全局特征,对特征图进行水平池化得到局部特征,则每张图片都对应1个全局特征和5个局部特征;
步骤6,根据全局特征和局部特征计算源域图片和新生成的图片之间的相似度,以及目标域图片和新生成的图片之间的相似度;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京信息工程大学,未经南京信息工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910525062.7/2.html,转载请声明来源钻瓜专利网。