[发明专利]行人重识别方法及装置在审
申请号: | 202210948009.X | 申请日: | 2022-08-09 |
公开(公告)号: | CN115661733A | 公开(公告)日: | 2023-01-31 |
发明(设计)人: | 蒋召;黄泽元;杨战波;祁晓婷 | 申请(专利权)人: | 北京龙智数科科技服务有限公司 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06N3/0464;G06N3/08;G06V10/44;G06V10/774;G06V10/82 |
代理公司: | 北京嘉科知识产权代理事务所(特殊普通合伙) 11687 | 代理人: | 陈美君 |
地址: | 100020 北京市朝*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 行人 识别 方法 装置 | ||
本公开涉及计算机技术领域,提供了一种行人重识别方法及装置。该方法包括:获取待识别的行人图像数据;将行人图像数据输入预置的行人重识别模型,得到行人重识别模型输出的行人图像数据的第一描述特征,其中,训练行人重识别模型所采用的训练数据集中的样本图像数据的描述特征经由归一化风格移除处理和上下文内容恢复处理得到;根据第一描述特征与图像数据库中的在库描述特征确定行人重识别结果。
技术领域
本公开涉及计算机技术领域,尤其涉及一种行人重识别方法及装置。
背景技术
现有的行人重识别(Person Re-identification,简称ReID)算法中,行人重识别模型的训练和测试一般都采用相同的数据集。但是,行人重识别技术大都具有姿态和视角多变的特点,因此在更换测试集后,缺少域自适应能力的行人重识别模型的识别性能会大幅度下降。
无监督域适应方法可以帮助行人重识别模型从源域适应到目标域,这类方法使用未标注的目标域数据进行模型更新,但仍然需要进行数据收集和模型更新,增加了行人重识别的成本。
如何提高行人重识别模型的域自适应能力是当前亟需解决的技术问题。
发明内容
有鉴于此,本公开实施例提供了一种行人重识别方法、装置、电子设备及计算机可读存储介质,以解决现有技术中行人重识别模型缺少域自适应能力的问题。
本公开实施例的第一方面,提供了一种行人重识别方法,方法包括:获取待识别的行人图像数据;将所述行人图像数据输入预置的行人重识别模型,得到所述行人重识别模型输出的所述行人图像数据的第一描述特征,其中,训练所述行人重识别模型所采用的训练数据集中的样本图像数据的描述特征经由归一化风格移除处理和上下文内容恢复处理得到;根据所述第一描述特征与图像数据库中的在库描述特征确定行人重识别结果。
本公开实施例的第二方面,提供了一种行人重识别装置,装置包括:获取模块,用于获取待识别的行人图像数据;识别模块,用于将所述行人图像数据输入预置的行人重识别模型,得到所述行人重识别模型输出的所述行人图像数据的第一描述特征,其中,训练所述行人重识别模型所采用的训练数据集中的样本图像数据的描述特征经由归一化风格移除处理和上下文内容恢复处理得到;确定模块,用于根据所述第一描述特征与图像数据库中的在库描述特征确定行人重识别结果。
本公开实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:通过对样本图像数据的描述特征进行归一化风格移除处理和上下文内容恢复处理,消除训练数据集中的训练数据在不同域之间的风格差异,使得训练得到的行人重识别模型具有域自适应能力,进而使得应用该行人重识别模型进行行人重识别得到的行人重识别结果的准确度更高。
具体地,本公开实施例提出了一种基于风格移除处理和上下文恢复处理的行人重识别算法,可以先对原有的图像的不同域的风格特征进行移除,再恢复因为风格移除而损失的信息,同时可以从这部分信息中学习出有用的信息和无用的信息,进而解决行人重识别领域中的域适应问题。进一步地,本公开实施例的技术方案采用对偶损失对网络学习输入图片中对行人重识别任务有用的特征信息进行约束,其使得相同ID的图像对经过特征增强后距离更小,而不同ID的图像对则距离增大,相同ID的图像对经过特征削弱后距离更大,而不同ID的图像对则距离更小,从而使得行人重识别模型的域自适应能力增强
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京龙智数科科技服务有限公司,未经北京龙智数科科技服务有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210948009.X/2.html,转载请声明来源钻瓜专利网。