[发明专利]一种基于注意力机制与多任务学习的人体属性识别方法有效
申请号: | 202010225601.8 | 申请日: | 2020-03-26 |
公开(公告)号: | CN111597870B | 公开(公告)日: | 2022-05-03 |
发明(设计)人: | 邹良钰;程球;毛泉涌;文凌艳;张永晋 | 申请(专利权)人: | 中国电子科技集团公司第五十二研究所 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/26;G06V10/46;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 杨天娇 |
地址: | 310012*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 注意力 机制 任务 学习 人体 属性 识别 方法 | ||
本发明公开了一种基于注意力机制与多任务学习的人体属性识别方法,包括获取行人图像进行处理得到人体框;构建共享卷积网络,对人体框进行共享特征提取;针对人体各属性构建独立的分支卷积网络,以共享特征作为各分支卷积网络的输入,得到各分支卷积网络的输出作为对应属性的个性特征;将得到的各属性的个性特征分别输入至各属性分支对应的注意力机制网络,生成各属性的注意力图,将注意力图叠加至对应的个性特征上,得到定位有对应属性的所属区域的特征图;将特征图分别输入至各属性分支对应的全连接层,输出人体各属性的预测识别结果。本发明可学习各属性之间的内在联系,并且得到各属性的关键信息区域,提供属性识别的准确率。
技术领域
本申请属于计算机视觉领域,具体涉及一种基于注意力机制与多任务学习的人体属性识别方法。
背景技术
随着人工智能的发展和高清视频监控设备的大范围部署,行人属性识别在视频监控、智能零售业、行人重识别等领域有着良好的应用前景,受到了越来越多的研究者的关注,并且已成为视频监控系统领域的新型研究主题。视频监控分布在城市的各个角落,如果从海量的监控视频信息中提取有效信息,必然会耗费大量的人力物力,效率低下。行人属性识别是对检测到的行人结构化属性进行提取,一般包括性别、年龄段、上衣类型、上衣颜色等,这种有效的结构化信息,会给监控视频的检索工作带来极大的便利。
最早的行人属性识别通过人工提取特征,并针对每个不同的属性分别训练分类器。随着CNN的发展,人们开始把所有属性置于同一个网络进行多任务训练,并发现多任务训练能够带来更好的效果。目前行人属性识别的基本方法是将整个图片扔进同一个CNN网络,并输出多个代表属性的标签进行分类。行人属性识别属于多标签分类问题,但因为其各个属性粗细粒度不同、收敛速度不同,以及容易受到遮挡、光照等因素的影响,当前监控环境下对行人属性的识别效果一直不甚理想,目前最前沿的算法也只能在mAP(平均准确率)上达到 80%左右。
目前,行人属性识别主要存在以下几个问题:
1)针对细粒度属性,如眼镜、首饰,经过多层的卷积层和池化层处理,该特征减弱或消失,传统的直接提取整张图像的特征无法很好的识别这些属性;另外,行人属性各不相同,有的属性需要浅层特征,而有的属性需要高层特征,有的属性需要局部特征,有的属性需要全局特征才能识别,如何提取一个能够包含所有以上针对不同属性的特征就成了至关重要的问题。
2)每个属性的收敛速度不同,会导致不同属性在训练过程中影响到其他属性的识别效果。
3)同一个属性在不同的样本中的相对位置可能不同,如人们背包的位置可能在后背,也可能在腰间附近。
4)模型训练样本均为人工标注,行人均在框中心位置,而实际应用中,属性识别的输入为检测输出,行人有可能不在行人框的中心或者人体框不全,从而影响到属性识别的效果。
因此解决上述问题,提取准确的人体属性信息,对视频监控领域的检索工作具有重要意义。
发明内容
本申请的目的在于提供一种基于注意力机制与多任务学习的人体属性识别方法,可学习各属性之间的内在联系,并且得到各属性的关键信息区域,提供属性识别的准确率。
为实现上述目的,本申请所采取的技术方案为:
一种基于注意力机制与多任务学习的人体属性识别方法,所述基于注意力机制与多任务学习的人体属性识别方法,包括:
获取行人图像,采用行人检测算法对行人图像进行处理,得到人体框;
构建共享卷积网络,对所述人体框进行共享特征提取;
针对人体各属性构建独立的分支卷积网络,以所述共享特征作为各分支卷积网络的输入,得到各分支卷积网络的输出作为对应属性的个性特征;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国电子科技集团公司第五十二研究所,未经中国电子科技集团公司第五十二研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010225601.8/2.html,转载请声明来源钻瓜专利网。