[发明专利]一种基于视角关联与深度网络学习的行人再识别方法有效
| 申请号: | 201710686243.9 | 申请日: | 2017-08-11 |
| 公开(公告)号: | CN107480631B | 公开(公告)日: | 2020-06-05 |
| 发明(设计)人: | 赖剑煌;冯展祥 | 申请(专利权)人: | 中山大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06K9/46;G06F16/583 |
| 代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
| 地址: | 510275 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明提供了一种基于视角关联与深度网络学习的行人再识别方法,其通过对每个视角建立视角关联的深度网络从而提取视角相关的底层视角特征,通过迭代的跨视角欧氏距离约束和跨视角中心度量约束(ICV‑ECCL)约束不同网络之间的特征以减少不同视角之间行人特征的差异。实验表明,本发明能较大幅度地提高现有的深度网络在行人再识别上的性能,具有广泛的应用价值。 | ||
| 搜索关键词: | 一种 基于 视角 关联 深度 网络 学习 行人 识别 方法 | ||
【主权项】:
一种基于视角关联与深度网络学习的行人再识别方法,其特征在于:包括以下步骤:S1.通过行人图像预训练一个深度网络,并将该深度网络作为深度网络的初始化模型;S2.为摄像头的各个监控视角分别以步骤S1的初始化模型为基础构建一个深度网络,然后分别使用各个监控视角下的行人图像对相应监控视角的深度网络进行训练,训练过程中,利用迭代的跨视角欧氏距离约束和跨视角中心度量约束方法对不同视角的深度网络进行联合训练,减少来自不同视角的行人图像间的特征差距,直至深度网络的参数收敛;S3.对于某个监控视角下的目标行人图像及行人图像库,首先使用相应监控视角的深度网络对目标行人图像及行人图像库中的行人图像分别进行特征的提取,然后将从目标行人图像中提取的特征依次与从图像库中的行人图像中提取的特征进行匹配,基于匹配的结果确定目标行人图像的身份。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710686243.9/,转载请声明来源钻瓜专利网。





