[发明专利]基于增广网络的无监督行人重识别方法有效
申请号: | 201911310016.1 | 申请日: | 2019-12-18 |
公开(公告)号: | CN111062329B | 公开(公告)日: | 2023-05-30 |
发明(设计)人: | 郑伟诗;袁子逸 | 申请(专利权)人: | 中山大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/40;G06V10/82;G06N3/0464;G06N3/048;G06N3/084;G06T3/40 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李斌 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 增广 网络 监督 行人 识别 方法 | ||
1.一种基于增广网络的无监督行人重识别方法,其特征在于,包括以下步骤:
S1:对无标签的原始行人图像数据集D0进行增广操作,所述增广操作包括图像缩放、随机裁剪、随机擦除、加噪和高斯模糊的一种或多种,得到M个新的增广数据集D1~DM,M为正整数;
S2:将原始行人图像数据集D0中的原始图像数据通入一个卷积神经网络作为主网络N0进行前向传播提取得到特征F0;
S3:将M个增广数据集D1~DN中对应的增广图像数据分别输入M个参数不共享的卷积神经网络作为增广网络N1~NM进行前向传播提取得到特征F1~FM;
S4:从原始行人图像数据集D0中随机选取一张图像Inegative作为负样本,通入主网络N0前向传播提取得到特征Fnegative;
S5:用输出特征F0分别与输出特征F1~FM计算欧式距离,得到M个损失值L1~LM;
S6:用输出特征Fnegative分别与输出特征F0~FM计算欧氏距离,得到M+1个损失值L0nagetive~LMnegative;
S7:将S5中得到的M个损失值L1~LM分别与S6中得到的M个损失值L1negative~LMnegative相减后得到的结果作为损失对增广网络N1~NM进行后向传播计算梯度更新增广网络参数;
S8:将S5中得到的M个损失值L1~LM进行求和与S6中得到的损失值L0negative~LMnegative求和的结果相减,得到总损失值L0;
S9:将S8中得到的总损失值L0作为损失对主网络N0进行后向传播计算梯度更新主网络参数;
S10:重复S2~S9的操作,直到主网络与增广网络收敛;
S11:将主网络模型作为输出。
2.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S1中,当增广操作中包括图像缩放处理时,使用双线性插值的方法对图像进行缩放,从而模拟自然数据集中可能出现的各种不同分辨率的图像,具体计算方式如下:
其中Q11=(x1,y1),Q12=(x1,y2),Q21=(x2,y1),Q22=(x2,y2)为点(x,y)最为接近的四个像素点。
3.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S1中,当增广操作中包括随机剪裁处理时,使用随机裁剪方法进行增广,从而模拟自然数据集中可能出现的各种局部行人图像,具体方法为:
先随机在图像中选取一个像素点,再以该像素点作为左上角随机以一定的长与宽构成一个矩形,将这整个矩形中的像素点作为裁剪的结果进行输出。
4.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S1中,当增广操作中包括随机擦除处理时,使用随机擦除方法进行增广,从而模拟自然数据集中可能出现的各种缺失或不完整行人图像,具体方法为:
先随机在图像中选取一个像素点,再以该像素点作为左上角随机以一定的长与宽构成一个矩形,将这整个矩形中的像素点的像素值全部置为黑,即像素值(0,0,0),然后将操作后的整张图像作为随机擦除的结果进行输出。
5.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S1中,当增广操作中包括加噪方法处理时,使用加噪方法进行增广,从而模拟自然数据集中可能出现的图像噪声,具体操作为:
对每个像素点都有一定的概率值变为白点,即像素值(255,255,255))或黑点,即像素值(0,0,0),然后将操作后的整张图像作为加噪结果进行输出。
6.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S1中,当增广操作中包括高斯模糊处理时,使用高斯模糊方法进行增广,从而模拟自然数据集中可能出现的图像模糊的情况,根据以下公式:
设定好σ值后即可计算出权重矩阵,从而以图像中的每一个像素为中心进行矩阵运算,就能达到对图像进行模糊的目的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911310016.1/1.html,转载请声明来源钻瓜专利网。