[发明专利]一种基于人工特征与深度特征融合的行人重识别方法在审
| 申请号: | 202010020432.4 | 申请日: | 2020-01-09 |
| 公开(公告)号: | CN111274873A | 公开(公告)日: | 2020-06-12 |
| 发明(设计)人: | 李雪;李锐;金长新 | 申请(专利权)人: | 济南浪潮高新科技投资发展有限公司 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/34;G06K9/46;G06K9/62 |
| 代理公司: | 济南信达专利事务所有限公司 37100 | 代理人: | 姜明 |
| 地址: | 250100 山东省济南市*** | 国省代码: | 山东;37 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 人工 特征 深度 融合 行人 识别 方法 | ||
本发明涉及视觉追踪与目标检测领域,具体提供了一种基于人工特征与深度特征融合的行人重识别方法。与现有技术相比,本发明的基于人工特征与深度特征融合的行人重识别方法,分为以下步骤,S101、行人检测:选用半监督的学习方法;S102、特征提取与特征融合:选用人工特征和深度特征融合的方法对图像进行特征表示;S103、特征距离度量:选用标准特征度量方法‑欧式距离度量特征之间的距离,判读是否为同一个人;S104、离线建模和S105、在线检索。利用人工特征和深度特征的融合,获得有效的具有区分性的行人特征;通过距离学习方法,有效区分特征的重要性,提高度量准确度;采用离线训练模型和在线图像检索的方式,有效避免长时间的训练过程,效果大幅度提高,具有良好的推广价值。
技术领域
本发明涉及视觉追踪与目标检测领域,具体提供一种基于人工特征与深度特征融合的行人重识别方法。
背景技术
行人重识别技术是帮助建立智慧城市、智能安防,解放人力检索的重要技术手段,也是解决多摄像头监控视频中的特定行人检测问题。例如在公共安全领域,行人重识别可以帮助快速筛查可疑人员,在新零售领域意义重大,可以获取顾客的行动轨迹,帮助建立顾客行为数据库,提供定制化服务等应用。
在传统的监控中,完成上述行为需要耗费大量的人力、物力和时间。人脸是有效的区分行人的重要特征,而在监控视频中,由于摄像头放置角度问题,视频质量问题以及其他影响因素,并不能直截了当的获取人脸特征信息,需要根据行人着装等外貌特征进行判断。其次,视频质量会受到摄像头安放角度、光照条件等因素影响,同一行人在不同的视频中特征差别较大,给识别带来困难,因此,寻找更为有效的特征表示成为行人重识别技术的关键问题之一。
行人重识别的另一个关键问题是距离度量方式,由于多个视频中样本分布的差异性,需要设计合理的度量方法计算目标行人与候选目标的匹配度。
发明内容
本发明是针对上述现有技术的不足,提供一种实用性强的基于人工特征与深度特征融合的行人重识别方法。
本发明解决其技术问题所采用的技术方案是:
一种基于人工特征与深度特征融合的行人重识别方法,分为以下步骤,
S101、行人检测:选用半监督的学习方法,用深度学习目标的方法定位行人的位置信息得到坐标值,学习位置区域的图像特征信息,简化数据标记;
S102、特征提取与特征融合:选用人工特征和深度特征融合的方法对图像进行特征表示,人工特征选用Dense-SIFT特征,深度特征选用卷积神经网络;
S103、特征距离度量:选用标准特征度量方法-欧式距离度量特征之间的距离,判读是否为同一个人。
S104、离线建模:利用步骤S103中提取的特征训练离线模型;
S105、在线检索:对视频帧图像进行候选目标行人检索,对其进行行人检测和特征提取,选择距离最短的特征作为选定目标。
进一步的,在步骤S101中,训练行人检测模型,对视频逐帧进行检测,选取不同时段内作为背景帧图像,提取背景帧后,采用基于LBP纹理的减背景方法,对背景进行建模,背景建模后,逐帧图像与背景图像进行匹配,分离背景与前景图像,分离图像背景以及前景行人信息。
进一步的,进行分离背景与前景图像时,统计一个区域内的纹理构建纹理直方图,对图像进行表示,当获取新的视频图像后,计算其纹理直方图与背景图比较,设置阈值,判断前景信息,逐一比较当前帧的像素点LBP纹理直方图与背景图对应位置像素的纹理直方图,若大于阈值则为前景。
进一步的,在步骤S102中,人工特征选用Dense-SIFT特征,所述特征多用于特征匹配技术,Dense-SIFT特征可以完成不同摄像头中同一个目标的特征匹配,用于在同一行人不同的监控视频中,避免出现较大的差别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于济南浪潮高新科技投资发展有限公司,未经济南浪潮高新科技投资发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010020432.4/2.html,转载请声明来源钻瓜专利网。





