[发明专利]一种高效率的无监督行人重识别方法和装置在审
申请号: | 202110661203.5 | 申请日: | 2021-06-15 |
公开(公告)号: | CN113536928A | 公开(公告)日: | 2021-10-22 |
发明(设计)人: | 丁贵广;沈乐琦;何涛 | 申请(专利权)人: | 清华大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 王萌 |
地址: | 10008*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 高效率 监督 行人 识别 方法 装置 | ||
本发明提出一种高效率的无监督行人重识别方法,包括:获取摄像网络采集的行人图片;对行人图片进行预处理并生成训练图片集;对训练图片集中的训练图片进行随机分组以得到多个小批次的数据,由每个批次的数据中的训练图片得到训练图片对应的图片特征;计算图片特征中两两图片特征之间的相似度并由此生成相似度矩阵;根据相似度矩阵,使用关系蒸馏的方式计算损失函数,根据损失函数以权重滑动平均的方法更新模型,得到高精度的复杂模型;从高精度复杂模型,进一步知识蒸馏得到高精度轻量模型;根据最终得到的高精度轻量模型提取识别图片样本的特征,进行行人检索。本申请提出的方法使用无标注的数据,减少了人工标注的成本,提高了识别精度。
技术领域
本发明涉及无监督学习和行人重识别领域技术领域,尤其涉及一种高效率的无监督行人重识别方法。
背景技术
行人重识别是指在多个摄像头下行人匹配的技术。通过输入一张查询的行人图片,在行人底库中检索出相同的目标行人。其中底库,是由多个不同的摄像头所采集的行人图片构成的。每张图片通过模型提取其向量表示的多维特征。目标行人和底库行人的特征之间计算相似度,检索出目标行人。
目前的研究工作已经在有监督的场景下有非常好的性能,有监督学习指在有标签的数据集上训练。而有监督训练的模型,在新的场景中不能正常工作。因为其中存在着场景的差异,在旧场景训练的模型很难应用在新的场景上。新旧的场景间存在着非常大的差异,地点是不同的,摄像设备不同和设备安装的位置也不同,数据采集的时间导致的季节不同等等。在实际应用里出现上述差异,都需要技术人员在新的场景重新收集数据并进行标注。
但是人工标注需要大量的资源。行人重识别的标注不同于分类任务,在分类任务中,类别是已知的,每张图片在其中选择对应的类别。但是在行人重识别任务里,行人的数量是未知的,这让标注更加困难。在实际应用中,通常是收集现场的数据,使用无监督或者迁移学习的方式,在该无标注的数据上训练模型。使用通用的无监督或迁移学习的方式,拉近新旧场景的数据分布,无法得到有效的模型。目前行人重识别主流的无监督或迁移学习方案,都采用了聚类算法,给无标注的数据赋予伪标签,然后仍然采用有监督的方式训练。但是聚类算法获得的伪标签和真实的标注有一定的误差,其伪标签的质量低并且存在噪声,影响最终的精度。
随着摄像网络的普及,每时每刻都在收集数据。行人重识别技术可以分析该数据,用于建设智慧城市。该技术可以实现智能视频监控,用于通缉犯的追踪,失踪人口查找,行人轨迹分析等。并且该技术非常容易迁移到车辆重识别等其他应用,比如,在车牌被遮挡时,准确的查出目标车辆。在工业界和学术界中,行人重识别都是非常值得关注的领域。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种无监督行人重识别方法,以实现使用无标注的数据训练模型,减少了人工标注的成本。
本发明的第二个目的在于提出一种无监督行人重识别装置。
本发明的第三个目的在于提出一种非临时性计算机可读存储介质。
为达上述目的,本发明第一方面实施例提出了一种无监督行人重识别方法,包括以下步骤:
获取摄像网络采集的行人图片;
对所述行人图片进行预处理,根据预处理后的所述行人图片生成训练图片集;
对所述训练图片集中的训练图片进行分组以得多个随机组成小批次的数据,将每个随机组成小批次的数据中的训练图片分别输入到预先训练的权重滑动平均模型,以得到所述训练图片对应的图片特征;
计算所述图片特征中两两图片特征之间的相似度,根据所述两两图片特征之间的相似度生成相似度矩阵;
根据所述相似度矩阵,使用关系蒸馏的方式计算损失函数,根据所述损失函数以权重滑动平均的方法更新模型,得到高精度复杂模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110661203.5/2.html,转载请声明来源钻瓜专利网。