[发明专利]一种基于多尺度快速场景检索的目标检测方法和装置有效
申请号: | 201910786124.X | 申请日: | 2019-08-23 |
公开(公告)号: | CN110503643B | 公开(公告)日: | 2021-10-01 |
发明(设计)人: | 汪涛;蔡远征;王炅;张华 | 申请(专利权)人: | 闽江学院 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06N3/04;G06F16/583;G06F16/532 |
代理公司: | 福州市景弘专利代理事务所(普通合伙) 35219 | 代理人: | 林祥翔;徐剑兵 |
地址: | 350108 福建省*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 尺度 快速 场景 检索 目标 检测 方法 装置 | ||
发明人提出了一种基于多尺度快速场景检索的目标检测方法,包括步骤:获取输入图像;基于输入图像获取输入正样本图像块;使用区域提名网络对所述输入正样本图像块进行训练和提名,获得上下文区域提名网络,并获得经特征降维处理的特征向量;对输入图像本身以及每个输入正样本图像块,通过其特征向量以及式B=sgn(fW)获取其二值哈希编码B;对符合预设条件的训练数据正样本图像块,将其包含的地真标注边界盒进行尺度变换后,迁移到输入图像中,获得迁移后边界盒;将所述迁移后边界盒与目标检测算法的边界盒进行后融合。本技术方案将训练数据中蕴含的此类先验信息融合到目标检测方法中,可提高目标检测的准确率和召回率。
技术领域
本发明涉及计算机软件领域,特别涉及一种基于多尺度快速场景检索的目标检测方法和装置。
背景技术
伴随着手机摄像头、监控摄像头、行车记录仪、无人机等视频图像捕捉设备的大量普及,这些设备采集了大量包含各类日常生活中常见物体的图像和视频数据。对此类视频和图像进行实时分析,特别是对感兴趣的物体目标(如室外的行人、汽车以及室内的桌子、椅子等)进行检测,是目前工业界和学术界都高度关注的问题。
目标检测(Object Detection)作为一种视频和图像分析中的基础技术,是目标跟踪、行为分析等更高级的场景理解方法中不可或缺的模块。目前,包含目标检测在内的技术所采用的主流解决方案是神经网络,大致上分为以Faster RCNN、R-FCN等为代表的基于目标题名(Object Proposals)的方法,以及以YOLO、SSD、DSOD等为代表的单次(One-shot)方法。此外,还有基于角点、中心点等关键点检测的方法。上述各类方法都没有直接考虑场景的布局,即根据场景的类型和背景物体的方位和布局来推断感兴趣物体大体上可能出现的位置。例如,在室外场景中,汽车、行人等往往出现在地面上,室内场景中桌子和椅子的摆放往往遵循一定规律。设计一种针对目标检测的场景检索方法,将训练数据中蕴含的此类先验信息融合到目标检测方法中,可提高目标检测的准确率和召回率。
场景在空间中没有固定的范围,并且还将随着摄像机的视野大小变化而变化。例如,对于一个学校的教室场景,在某些特定角度可以看到整个教室的全貌,而在某些其它的角度观察时只能看到教室的某一部分。此外,目标检测算法所关注的一个重要问题是算法的实时性。在设计场景建模方法时,需要考虑场景模型的检索效率,不能使得其检索效率影响到算法的整体实时性。
发明内容
基于此,有必要发明一种用于目标检测的、带有多尺度自适应性的场景建模技术方案,以克服上述局限性。
发明人提出了一种基于多尺度快速场景检索的目标检测方法,包括如下步骤:
获取输入图像;
基于输入图像获取输入正样本图像块,所述输入正样本图像块包括特征:具有边界盒;以边界盒为中心;与边界盒的长宽比一致;面积为边界盒的2倍;
使用区域提名网络对所述输入正样本图像块进行训练和提名,获得上下文区域提名网络,并获得经特征降维处理的特征向量;
对输入图像本身以及每个输入正样本图像块,通过其特征向量以及式B=sgn(fW)获取其二值哈希编码B;
若一输入正样本图像块的哈希编码与训练数据集中的任一训练数据正样本图像块的哈希编码的差别小于预设阈值,将训练数据正样本图像块内包含的地真标注边界盒进行尺度变换后,迁移到输入图像中,获得迁移后边界盒;其中,所述训练数据正样本图像块为基于训练数据集且具有如下特征的图像块:具有地真边界盒;以边界盒为中心;与边界盒的长宽比一致;面积为边界盒的2倍;
将所述迁移后边界盒与目标检测算法的边界盒进行后融合。
进一步地,所述的基于多尺度快速场景检索的目标检测方法中,步骤“获得经特征降维处理的特征向量”具体包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于闽江学院,未经闽江学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910786124.X/2.html,转载请声明来源钻瓜专利网。