[发明专利]一种基于视觉词袋模型的行人重识别方法有效
| 申请号: | 201810307805.9 | 申请日: | 2018-04-08 |
| 公开(公告)号: | CN108509925B | 公开(公告)日: | 2020-04-14 |
| 发明(设计)人: | 张云洲;刘一秀;李瑞龙;王松;史维东;孙立波;刘双伟 | 申请(专利权)人: | 东北大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62 |
| 代理公司: | 北京易捷胜知识产权代理事务所(普通合伙) 11613 | 代理人: | 韩国胜 |
| 地址: | 110169 辽*** | 国省代码: | 辽宁;21 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 视觉 模型 行人 识别 方法 | ||
1.一种基于视觉词袋模型的行人重识别方法,其特征在于,包括:
步骤101、提取每张图像的局部区域的行人特征;
步骤102、获取每一个行人特征的字典和稀疏表示向量;
步骤103、依据所有行人特征的所述字典、稀疏表示向量,构建每张图像的视觉词袋模型;
步骤104、采用每张图像的视觉词袋模型,获取该图像的视觉词袋直方图;
步骤105、将任意两张图像的每一个行人特征的稀疏表示向量和视觉词袋模型进行匹配,获取匹配结果,所述任意两张图像中的一张图像为一个摄像机中的图像,另一张图像为另一个摄像机中的图像;
所述步骤101包括:采用SIFT特征提取算法和/或LOMO特征提取算法提取每张图像的局部区域的视觉特征描述子;
所述步骤102包括:针对每张图像的所有视觉特征描述子,采用跨视角字典学习算法对视觉特征描述子进行处理,获取每一个视觉特征描述子的字典和稀疏表示向量;
所述步骤103包括:利用K均值聚类算法,将字典中的特征向量进行聚类,得到了一组相关性小于预设阈值的特征向量;基于聚类后的特征向量构成视觉词袋模型;
所述步骤105包括:
利用余弦距离和/或XQDA度量学习算法对图像中提取的特征描述子进行距离的度量;
余弦距离定义如下:
其中,Xi、Yi为两张图像的特征向量在第i个维度的值,n为自然数;
在第一次的度量里,选取局部SIFT特征所构建的视觉词袋直方图;把所有图像按相似度排序,取前10%的图像再次进行度量;
前10%的图像的局部LOMO特征,利用XQDA算法进行度量;
XQDA算法利用少量样本学习得到投影子空间矩阵W;
投影子空间矩阵W公式如下:
利用投影子空间矩阵将特征投影到低维子空间,利用KISSME算法得到马氏距离度量矩阵,并采用马氏距离的算法对前10%的图像的距离度量,并再次按相似度排序,得到与输入行人最相似的图像;
XQDA距离度量公式如下:
其中,x和z表示特征向量,W为度量矩阵,∑I与∑E分别表示类内与类间特征协方差矩阵。
2.根据权利要求1所述的方法,其特征在于,所述步骤102包括:
跨视角字典学习公式:
X(1)=D(1)P(1)X(1)
X(2)=D(2)P(2)X(2)
D(1)和D(2)表示不同视角下对应的字典模型,P(1)和P(2)对应不同的投影矩阵;X(1)、X(2)为两张图像的特征向量;
在特征提取之后,获得局部SIFT特征与局部LOMO特征,将局部SIFT特征在某一摄像机视角下的特征表达定义为X(1,1),对应的字典与投影矩阵为D(1,1)与P(1,1);
则LOMO特征在该视角下的特征表达定义为X(1,2),对应的字典与投影矩阵为D(1,2)与P(2,1);X(2,1),D(2,1),P(2,1),X(2,2),D(2,2),P(2,2)分别为在另一个视角下对应的变量;
获取跨视图字典模型的目标函数:
s.t.||d1l(:,i)||≤1,||d2l(:,i)||≤1,i=1,...,m,l=1,2
通过最小化这个目标函数,得到各视角下的字典模型矩阵以及稀疏表示向量构成的投影矩阵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810307805.9/1.html,转载请声明来源钻瓜专利网。
- 上一篇:人体姿态的评分方法和装置
- 下一篇:一种基于双向颜色空间变换的建筑物提取方法





