[发明专利]一种基于视角关联与深度网络学习的行人再识别方法有效

专利信息
申请号: 201710686243.9 申请日: 2017-08-11
公开(公告)号: CN107480631B 公开(公告)日: 2020-06-05
发明(设计)人: 赖剑煌;冯展祥 申请(专利权)人: 中山大学
主分类号: G06K9/00 分类号: G06K9/00;G06K9/62;G06K9/46;G06F16/583
代理公司: 广州粤高专利商标代理有限公司 44102 代理人: 林丽明
地址: 510275 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 视角 关联 深度 网络 学习 行人 识别 方法
【权利要求书】:

1.一种基于视角关联与深度网络学习的行人再识别方法,其特征在于:包括以下步骤:

S1.通过行人图像预训练一个深度网络,并将该深度网络作为深度网络的初始化模型;

S2.为摄像头的各个监控视角分别以步骤S1的初始化模型为基础构建一个深度网络,然后分别使用各个监控视角下的行人图像对相应监控视角的深度网络进行训练,训练过程中,利用迭代的跨视角欧氏距离约束和跨视角中心度量约束方法对不同视角的深度网络进行联合训练,减少来自不同视角的行人图像间的特征差距,直至深度网络的参数收敛;

其中所述的跨视角欧氏距离约束的作用是减少不同的深度网络最后一层特征输出之间的欧氏距离,来自两个视角的行人图像的深度特征为其中上标{1,2}表示对应的视角,下标{i,j}表示对应的行人身份,{ki,kj}对应每个行人在对应视角下的某个训练样本,令{Ki,Kj}表示每个行人的训练样本数目,则跨视角欧氏距离约束为:

所述的跨视角中心度量约束用于保证同类训练样本特征与不同视角下类中心的特征接近,从而保证特征的跨视角鲁棒性;来自两个视角的行人图像深度特征为计算出对应每一类以及所有样本的类中心为下标{i,j}表示对应的行人身份,{ki,kj}对应每个行人在对应视角下的某个训练样本,令{Ki,Kj}表示每个行人的训练样本数目,{M}表示行人类别总数,则跨视角中心度量约束为:

S3.对于某个监控视角下的目标行人图像及行人图像库,首先使用相应监控视角的深度网络对目标行人图像及行人图像库中的行人图像分别进行特征的提取,然后将从目标行人图像中提取的特征依次与从图像库中的行人图像中提取的特征进行匹配,基于匹配的结果确定目标行人图像的身份。

2.根据权利要求1所述的基于视角关联与深度网络学习的行人再识别方法,其特征在于:所述深度网络为Alexnet深度网络。

3.根据权利要求1所述的基于视角关联与深度网络学习的行人再识别方法,其特征在于:所述步骤S2中,1)首先使深度网络通过跨视角欧氏距离约束进行参数的更新,直至参数优化收敛;2)然后使深度网络通过跨视角中心度量约束进行参数更新和优化,直至参数优化收敛;3)然后再次使深度网络通过跨视角中心度量约束进行优化;重复迭代1)、2)、3),直至深度网络彻底收敛。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201710686243.9/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top