[发明专利]基于多视角特征融合的行人重识别方法在审
申请号: | 202110314091.6 | 申请日: | 2021-03-24 |
公开(公告)号: | CN113688856A | 公开(公告)日: | 2021-11-23 |
发明(设计)人: | 姜竹青;徐崟淞;裴江波;门爱东;王海婴 | 申请(专利权)人: | 北京邮电大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/00;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100876 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 视角 特征 融合 行人 识别 方法 | ||
1.基于多图像特征融合的行人重识别方法,其特征包括以下步骤:
步骤1、将测试集全部图像输入深度卷积网络,经过全局池化,对行人图像进行初步的特征提取,输出原始视觉特征;
步骤2、计算全部特征之间的余弦距离,获得邻接矩阵。将每一个图像的特征当作节点,将属于k互近邻的点进行连接,边长设置为1,由此得到一张无向的邻接图。
步骤3、在每一次迭代中沿着邻接图进行消息传递,将传递的消息与原始消息相结合,经过多次迭代后,得到融合了周围节点信息的最终特征表示。
步骤4、计算图像间的余弦距离作为相似度,排序得到重识别结果。
2.根据权利要求1所述的基于多图像特征融合的行人重识别方法,其特征在于,所述步骤1的特征提取的具体方法包括以下步骤:
(1)将行人图像缩放为256×128,经过随机擦除,随机裁剪对数据进行增强。
(2)使用的主干网络为Resnet50,将最后一个残差模块的步长设置为1,使生成的特征图的尺寸变为原来的两倍,获取更多的语义信息。分Batch向网络中输入训练图像,根据预测值计算与真实值的交叉熵作为损失函数,使用Adam优化器,初始学习率为3.5×10-4,共训练70代。
(3)将图片输入到训练好的网络中,对于每一个图像得到2048维的特征向量。
3.根据权利要求2所述的基于多图像特征融合的行人重识别方法,其特征在于,所述步骤2的特征提取的具体方法包括以下步骤:
(1)图像数量为N,计算图像间的余弦距离。
(2)将每个图像视为顶点,计算每个顶点的K近邻,若两顶点互为K近邻,则将其连接。得到一个无向图G(V,E),其中V为顶点集合,顶点数为N,E为边集合,每条边长度均为1。
4.根据权利要求3所述的基于多图像特征融合的行人重识别方法,其特征在于,所述步骤3的特征提取的具体方法包括以下步骤:
(1)顶点v的输入特征为其领域为N(v)。
(2)计算N(v)中所有顶点的特征的均值
(3)将与加权相加。
(4)更新顶点v的特征作为输出,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110314091.6/1.html,转载请声明来源钻瓜专利网。