[发明专利]一种基于视角关联与深度网络学习的行人再识别方法有效
| 申请号: | 201710686243.9 | 申请日: | 2017-08-11 |
| 公开(公告)号: | CN107480631B | 公开(公告)日: | 2020-06-05 |
| 发明(设计)人: | 赖剑煌;冯展祥 | 申请(专利权)人: | 中山大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06K9/46;G06F16/583 |
| 代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
| 地址: | 510275 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 视角 关联 深度 网络 学习 行人 识别 方法 | ||
1.一种基于视角关联与深度网络学习的行人再识别方法,其特征在于:包括以下步骤:
S1.通过行人图像预训练一个深度网络,并将该深度网络作为深度网络的初始化模型;
S2.为摄像头的各个监控视角分别以步骤S1的初始化模型为基础构建一个深度网络,然后分别使用各个监控视角下的行人图像对相应监控视角的深度网络进行训练,训练过程中,利用迭代的跨视角欧氏距离约束和跨视角中心度量约束方法对不同视角的深度网络进行联合训练,减少来自不同视角的行人图像间的特征差距,直至深度网络的参数收敛;
其中所述的跨视角欧氏距离约束的作用是减少不同的深度网络最后一层特征输出之间的欧氏距离,来自两个视角的行人图像的深度特征为其中上标{1,2}表示对应的视角,下标{i,j}表示对应的行人身份,{ki,kj}对应每个行人在对应视角下的某个训练样本,令{Ki,Kj}表示每个行人的训练样本数目,则跨视角欧氏距离约束为:
所述的跨视角中心度量约束用于保证同类训练样本特征与不同视角下类中心的特征接近,从而保证特征的跨视角鲁棒性;来自两个视角的行人图像深度特征为计算出对应每一类以及所有样本的类中心为下标{i,j}表示对应的行人身份,{ki,kj}对应每个行人在对应视角下的某个训练样本,令{Ki,Kj}表示每个行人的训练样本数目,{M}表示行人类别总数,则跨视角中心度量约束为:
S3.对于某个监控视角下的目标行人图像及行人图像库,首先使用相应监控视角的深度网络对目标行人图像及行人图像库中的行人图像分别进行特征的提取,然后将从目标行人图像中提取的特征依次与从图像库中的行人图像中提取的特征进行匹配,基于匹配的结果确定目标行人图像的身份。
2.根据权利要求1所述的基于视角关联与深度网络学习的行人再识别方法,其特征在于:所述深度网络为Alexnet深度网络。
3.根据权利要求1所述的基于视角关联与深度网络学习的行人再识别方法,其特征在于:所述步骤S2中,1)首先使深度网络通过跨视角欧氏距离约束进行参数的更新,直至参数优化收敛;2)然后使深度网络通过跨视角中心度量约束进行参数更新和优化,直至参数优化收敛;3)然后再次使深度网络通过跨视角中心度量约束进行优化;重复迭代1)、2)、3),直至深度网络彻底收敛。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710686243.9/1.html,转载请声明来源钻瓜专利网。





