[发明专利]基于姿势指导特征学习的行人再识别方法在审
申请号: | 201910677983.5 | 申请日: | 2019-07-25 |
公开(公告)号: | CN110543817A | 公开(公告)日: | 2019-12-06 |
发明(设计)人: | 张史梁;李佳宁;高文 | 申请(专利权)人: | 北京大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 11619 北京辰权知识产权代理有限公司 | 代理人: | 刘广达<国际申请>=<国际公布>=<进入 |
地址: | 100871*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 姿势 描述特征 原始图像 身体区域 姿势指导 归一化图像 鲁棒性 池化 图像 归一化处理 错位误差 特征提取 特征学习 姿势变化 共享 全局 | ||
本发明公开了一种基于姿势指导特征学习的行人再识别方法,包括:将原始图像进行姿势归一化处理,得到姿势归一化图像;将原始图像与姿势归一化图像进行权值共享处理后再分别进行全局平均池化,得到姿势不变特征;对原始图像进行身体区域划分得到若干身体区域图像,将原始图像与若干身体区域图像进行权值共享处理后再分别进行全局平均池化,得到局部描述特征;将姿势不变特征和局部描述特征连接为姿势指导特征。本发明提供的方法,获取对姿势变化具有鲁棒性的姿势不变特征和对错位误差具有鲁棒性的局部描述特征,利用姿势不变特征和局部描述特征组合成姿势指导特征进行行人再识别,提高了再识别精度和特征提取效率。
技术领域
本发明涉及图像识别技术领域,具体涉及一种基于姿势指导特征学习的行 人再识别方法。
背景技术
近年来,监控摄像头的覆盖范围显著增加,产生了大量的视频数据,导致 无法实现手动定位和跟踪感兴趣的特定目标。为了解决这一问题,将行人再识 别(ReID)作为智能视频监控系统的一个重要组成部分。行人再识别是指通过匹 配摄像头网络中探测者的图像或视频序列来识别探测者的过程。
尽管经过了几十年的研究,行人再识别问题仍然远未得到解决。这主要是 因为行人图像在无约束环境下拍摄,容易受到检测误差、遮挡、姿势变化等因 素的影响。姿势变化极大地改变了人的形象,降低了视觉特征的鲁棒性。该误 差使得直接从全局图像或局部区域提取的匹配特征对行人再识别来说不是最优 的操作。现有技术中已有一些针对姿势变化和错位误差的特征鲁棒性的研究。 例如,首先通过预测人体关键点来推断人体姿势,然后从标准化的姿势图像中 提取特征。这些工作虽然提高了ReID的性能,但也为ReID系统引入了额外的 操作,如关键点检测、身体部分分割、姿势归一化等。这些操作引入了大量的计算开销,使得深度模型难以调优。
人体图像所表现出的较大姿势变化和错位误差显著增加了人体再识别 (ReID)的难度。现有技术通常采用额外的操作,如姿势估计,部分分割等,以 减轻这些问题的影响,提高行人表示的鲁棒性。在提高再识别精度的同时,这 些操作导致了大量的计算负担,并使深层模型变得复杂和难以调优。
发明内容
本发明的一个目的是提供一种基于姿势指导特征学习的行人再识别的新 的技术方案。为了对披露的实施例的一些方面有一个基本的理解,下面给出了 简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或 描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此 作为后面的详细说明的序言。
一种基于姿势指导特征学习的行人再识别方法,包括:
将原始图像进行姿势归一化处理,得到姿势归一化图像;
将所述原始图像与所述姿势归一化图像输入卷积神经网络,进行权值共 享处理后再分别进行全局平均池化处理,将得到的对应于所述原始图像的特 征图作为姿势不变特征;
对所述原始图像进行身体区域划分得到若干身体区域图像,将所述原始 图像与所述若干身体区域图像输入卷积神经网络,进行权值共享处理后再分 别进行全局平均池化处理,将得到的对应于所述原始图像的特征图作为局部 描述特征;
分别训练所述姿势不变特征和所述局部描述特征;
将训练好的姿势不变特征和局部描述特征连接为姿势指导特征;
利用所述姿势指导特征对图库图像进行排序。
进一步地,所述将原始图像进行姿势归一化处理,得到姿势归一化图像, 包括:
提取所述原始图像中的若干刚性身体部位;
对每个所述刚性身体部位进行仿射变换,利用仿射变换后的所有刚性身 体部位构成姿势归一化图像。
进一步地,所述对每个所述刚性身体部位进行仿射变换包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910677983.5/2.html,转载请声明来源钻瓜专利网。