[发明专利]一种基于行人重识别的度量损失框架改进方法及相关设备在审
| 申请号: | 202210905618.7 | 申请日: | 2022-07-29 |
| 公开(公告)号: | CN115170835A | 公开(公告)日: | 2022-10-11 |
| 发明(设计)人: | 徐颖;庾名星;蔡大森;汤俊杰;陈明伟 | 申请(专利权)人: | 深圳大学 |
| 主分类号: | G06V10/62 | 分类号: | G06V10/62;G06V40/10;G06V10/82;G06V10/764;G06V10/774;G06V10/776 |
| 代理公司: | 深圳市君胜知识产权代理事务所(普通合伙) 44268 | 代理人: | 陈专 |
| 地址: | 518060 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 行人 识别 度量 损失 框架 改进 方法 相关 设备 | ||
本发明公开了一种基于行人重识别的度量损失框架改进方法及相关设备,所述方法包括:利用对角化方法对拟合不同类别样本总体分布的协方差矩阵进行降维处理;利用代理矩阵存储不同类别的协方差矩阵的对角元素,并通过代理矩阵将样本的不确定性范围映射到特征空间中;利用SVD分解网络对特征提取网络的输出层参数矩阵进行奇异值分解;利用左奇异矩阵代替原参数矩阵,不改变特征向量欧氏距离相关性,将特征向量投影到正交的特征解空间中,完成对特征向量纬度的相关性解耦;根据提取得到的维度相关性解耦的特征向量,完成对度量损失框架的改进。本发明降低了损失函数的计算复杂度和模型复杂度,提升了训练效率和模型性能。
技术领域
本发明涉及机器视觉技术领域,尤其涉及一种基于行人重识别的度量损失框架改进方法、系统、终端及计算机可读存储介质。
背景技术
近些年来,随着安防需求激增,视频监控设备安装总量呈持续高速增长态势。面对海量监控数据,即海量图像、视频,如何对这些数据进行主动分析,从而挖掘出有用信息成为了社会治安防控工作中的重点内容。
行人重识别技术因为可以通过对行人衣着、姿态、轮廓等高层外型特征对目标图像在跨摄像头域的图像中进行检索,而成为了智能监控系统中的重要一环,其相关理论与研究具有重要的科研价值与应用价值。而基于度量学习的行人重识别研究随着深度学习的发展已经取得了相当的成果,例如了三元组损失函数(triplet loss),即通过每次输入给模型一个包含两个同类样本、一个异类样本的三元组,而其优化目标是使同类样本对的距离相对于异类样本对的距离之差始终小于某个特定阈值;例如在图像检索任务中使用三元组损失,挖掘样本相似性;然后,将三元组损失应用到人脸识别任务,并设计了一个多尺度的网络结构提取图像特征。例如在行人重识别任务中,利用三元组损失构建了不同身份的行人在特征空间中的关系。例如还有提出了在三元组损失函数中对样本的分布进行高斯不确定建模算法,但改进后的损失函数存在着计算复杂度高的问题,同时现存的度量学习方法都未在输入的特征向量层面对特征纬度进行解耦,导致了模型复杂度高的问题。
因此,现有技术还有待于改进和发展。
发明内容
本发明的主要目的在于提供一种基于行人重识别的度量损失框架改进方法、系统、终端及计算机可读存储介质,旨在解决现有技术中现存的度量学习方法都未在输入的特征向量层面对特征纬度进行解耦,导致了模型复杂度高的问题。
为实现上述目的,本发明提供一种基于行人重识别的度量损失框架改进方法,所述基于行人重识别的度量损失框架改进方法包括如下步骤:
利用对角化方法对拟合不同类别样本总体分布的协方差矩阵进行降维处理;
利用代理矩阵存储不同类别的协方差矩阵的对角元素,并通过代理矩阵将样本的不确定性范围映射到特征空间中;
利用SVD分解网络对特征提取网络的输出层参数矩阵进行奇异值分解;
利用左奇异矩阵代替原参数矩阵,不改变特征向量欧氏距离相关性,将特征向量投影到正交的特征解空间中,完成对特征向量纬度的相关性解耦;
根据提取得到的维度相关性解耦的特征向量,完成对度量损失框架的改进。
此外,为实现上述目的,本发明还提供一种基于行人重识别的度量损失框架改进系统,其中,所述基于行人重识别的度量损失框架改进系统包括:
矩阵降维模块,用于利用对角化方法对拟合不同类别样本总体分布的协方差矩阵进行降维处理;
样本映射模块,用于利用代理矩阵存储不同类别的协方差矩阵的对角元素,并通过代理矩阵将样本的不确定性范围映射到特征空间中;
奇异值分解模块,用于利用SVD分解网络对特征提取网络的输出层参数矩阵进行奇异值分解;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳大学,未经深圳大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210905618.7/2.html,转载请声明来源钻瓜专利网。





