[发明专利]行人重识别方法、装置及计算机设备在审
| 申请号: | 201911007704.0 | 申请日: | 2019-10-22 |
| 公开(公告)号: | CN110796057A | 公开(公告)日: | 2020-02-14 |
| 发明(设计)人: | 付宇卓;刘婷;许荣森;吉学刚;曹德明;申子正 | 申请(专利权)人: | 上海交通大学;中通客车控股股份有限公司 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/08 |
| 代理公司: | 31237 上海思微知识产权代理事务所(普通合伙) | 代理人: | 曹廷廷 |
| 地址: | 200240 *** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 摄像头 深度特征 残差 对抗 网络 图像 计算机设备 训练数据量 背景噪声 候选图像 精度损失 欧式距离 识别训练 数据规模 数据样本 损失函数 网络提取 训练模型 三元组 数据集 相似度 训练集 跨域 图片 检索 场景 转换 风格 | ||
1.一种行人重识别方法,其特征在于,包括如下步骤:
S100:利用生成对抗网络,对原始训练数据集中的原始样本图片进行风格转换,扩增所述原始训练数据集,得到扩增后的训练数据集;
S200:初始化残差网络,并利用所述扩增后的训练数据集训练所述残差网络,基于三元组损失优化所述残差网络的参数,得到行人重识别模型;
S300:利用所述行人重识别模型,提取待识别测试集中每一张待识别行人图像的深度特征得到特征向量,计算所述特征向量之间的相似度,得到每一张所述待识别行人图像的候选行人图像列表;
其中,所述风格转换包括,将原始样本图片转换为若干个目标域摄像装置风格下的目标域样本图片,所述目标域摄像装置均为所述原始训练数据集使用的摄像装置的个数。
2.根据权利要求1所述的行人重识别方法,其特征在于,在对原始训练数据集中的原始样本图片进行风格转换之前,先对每一张所述原始样本图片预处理,所述预处理包括以下步骤,
将所述原始样本图片进行图像归一化得到大小统一的图片;
将所述原始样本图片的所属摄像装置序号作为其源域标签;
给所述原始样本图片随机生成一个目标域标签,其中,所述目标域标签为所述原始样本图片被转换为目标域摄像装置的序号。
3.根据权利要求2所述的行人重识别方法,其特征在于,在对每一张所述原始样本图片预处理之后,还包括训练所述生成对抗网络,然后再对原始训练数据集中的原始样本图片进行风格转换,其中,训练所述生成对抗网络的步骤如下,
初始化生成单元G、生成单元F、判别单元DX和判别单元DY的权值;
使用对抗损失函数,分别训练所述判别单元DX和所述判别单元DY的权值;
根据对抗损失函数和一致性稳定损失函数,分别训练所述生成单元G和所述生成单元F的权值,其中,所述一致性稳定损失函数的公式为:
其中,G,F表示生成单元操作。
4.根据权利要求3所述的行人重识别方法,其特征在于,所述风格转换的步骤如下,
将所述原始训练数据集中的每一张原始样本图片,分别经过所述生成对抗网络训练得到的所述生成单元G,产生各自所述目标域摄像装置风格下的目标域样本图片;
重复上述操作,直至将每一张所述原始样本图片都转换为其它N-1个目标域摄像装置风格下的目标域样本图片,得到所述扩增后的训练数据集;
其中,N为所述原始训练数据集的摄像装置的个数。
5.根据权利要求1所述的行人重识别方法,其特征在于,步骤S200中所述初始化残差网络,并利用所述扩增后的训练数据集训练所述残差网络,基于三元组损失优化所述残差网络的参数,得到行人重识别模型,包括以下步骤,
S210:将所述扩增后的训练数据集中的训练样本图片随机划分为若干个训练数据子集,每一个训练数据子集均包含M个行人ID的所述训练样本图片;
S220:利用ImageNet数据集作为训练数据,训练一个ResNet-50参差网络作为所述行人重识别模型的初始权值,去掉所述ResNet-50残差网络最后的第一维数全连接层,在最后一个均值池化层之后连接一个第二维数全连接层和一个第三维数全连接层,得到初始化的ResNet-50残差网络;
S230:将其中一个所述训练数据子集中的所述训练样本图片输入到所述初始化的ResNet-50残差网络,经过所述初始化的ResNet-50残差网络的前向推理得到一维特征向量;
S240:基于难样本挖掘,构建三元组;
S250:计算所述三元组损失;
S260:根据所述三元组损失,反向传播优化所述ResNet-50残差网络的参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学;中通客车控股股份有限公司,未经上海交通大学;中通客车控股股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911007704.0/1.html,转载请声明来源钻瓜专利网。





