[发明专利]跨摄像头场景下指定行人在线跟踪方法有效
申请号: | 201810076414.0 | 申请日: | 2018-01-26 |
公开(公告)号: | CN108198200B | 公开(公告)日: | 2022-03-08 |
发明(设计)人: | 余春艳;钟诗俊 | 申请(专利权)人: | 福州大学 |
主分类号: | G06T7/20 | 分类号: | G06T7/20 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 蔡学俊 |
地址: | 350108 福建省福*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 摄像头 场景 指定 行人 在线 跟踪 方法 | ||
1.一种跨摄像头场景下指定行人在线跟踪方法,其特征在于,按照如下步骤实现:
步骤S1:记N个视野区域非重叠的摄像头为C1,C2,...,CN;在第k帧,记摄像头Ci捕捉到m个行人,为Oi={Oi1,...,Oim};其中,Oia表示捕捉到的目标行人的信息;在第k帧标定为感兴趣目标行人,创建并初始化一跟踪器,保存该目标行人的信息作为后期数据关联的模板;
步骤S2:将单摄像头视野区域划分为外围区域和内围区域;当目标行人从当前单摄像头视野外围区域离开时,将该目标行人设置为挂起状态,并等待进行下一步的数据关联操作;
步骤S3:通过采用深度卷积孪生网络在线提取新进入的目标行人的特征,对新进入的行人与等待关联的目标行人进行相似性度量;将相似性值作为权值,建立带权值匹配图;对带权值匹配图求解最大权值匹配的解,获取新进入的行人与等待关联的目标行人间的数据关联的解,进而实现对目标行人在线追踪;
在所述步骤S3中,还包括如下步骤:
步骤S31:通过采用深度卷积孪生网络在线提取新目标行人的特征,构建深度卷积孪生神经基础网络模块R-ResNet;
步骤S32:将两个完全相同的R-ResNet通过权重共享的方式,作为深度卷积孪生网络的基础网络;在两个R-ResNet的最后层分别添加一层卷积层,使用2个卷积核,尺寸大小为(1,1,4096),并将该卷积层获得的特征分别标记为f1和f2;将要计算输入的一对行人的相似性值,转化成对f1和f2特征的相似性比较;
步骤S33:引入一个无参数层Square层来对f1和f2特征求解平方差,作为f1和f2相似性比较层,并记该Square层为:fs=(f1-f2)2;将fs作为两个核大小为1×1×4096的卷积层的输入值,将softmax作为输出函数,输出一个二维向量(q1,q2),表示输入两个对象属于现实世界中同一个人的概率值;
步骤S34:根据所述步骤S33中获得的一对行人间的相似性概率值作为图的权值,将新进入的行人和待关联的目标行人分别作为两个不同的顶点集合,建立所述带权值匹配图;通过求解最大权值匹配图问题的解,获得新进入的行人与等待关联的目标行人间的数据关联的解;
步骤S341:记:
为目标行人离开摄像头Ci后进入到摄像头Cj中,且与摄像头Cj中目标行人是现实世界中同一个行人的概率值;
其中,表示目标行人和的外观相似度;
当且仅当目标行人和离开或者进入的位置都是位于外围区域时,否则,
当且仅当目标行人和的离开和出现的时间差不超过提前设定的等待时间阈值时,否则,
将Aij作为图的权值,和作为顶点建立带权匹配图;
步骤S342:通过匈牙利算法获得最大权值匹配问题的解,将最大权值匹配边对应着新进入的行人和等待关联的目标行人间的一组最优关联。
2.根据权利要求1所述的跨摄像头场景下指定行人在线跟踪方法,其特征在于,在所述步骤S1中,所述捕捉到的目标行人的信息包括:行人特征fia、所处位置和时间信息且表示为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810076414.0/1.html,转载请声明来源钻瓜专利网。