[发明专利]一种利用先验知识的大场景内运动目标检测方法在审
申请号: | 202010017125.0 | 申请日: | 2020-01-08 |
公开(公告)号: | CN111210459A | 公开(公告)日: | 2020-05-29 |
发明(设计)人: | 郑文涛;林姝含;梁振山 | 申请(专利权)人: | 北京天睿空间科技股份有限公司 |
主分类号: | G06T7/207 | 分类号: | G06T7/207;G06T3/40;G06T7/80 |
代理公司: | 北京市卓华知识产权代理有限公司 11299 | 代理人: | 陈子英 |
地址: | 100102 北京市朝*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 利用 先验 知识 场景 运动 目标 检测 方法 | ||
本发明涉及一种利用先验知识的大场景内运动目标检测方法,依据运动目标的定位信息和先验的目标外形信息,确定运动目标在真实场景下的立体检测区域,将大场景图像中的检测区域缩放到规定的图像尺寸,形成符合检测尺寸要求的检测图像块,在检测图像块中进行相应的目标检测,获得检测目标框,将检测图像块中的目标检测框还原或映射到大场景图像中,以此作为大场景图像中相应运动目标的检测目标框。本发明能够提高检测速度,提高准确性,并适应于不能忽略运动目标高度的场合。
技术领域
本发明涉及一种结合定位信息的大场景内运动目标检测识别方法,属计算机视觉技术领域。
背景技术
近年来,在诸如大型广场安防、机场场面活动引导与控制、港口生产作业区运行状态监控、工业园区管控等大型场景管控中,增强现实 (Augmented Reality,AR)技术得到了越来越多的应用。比如,在机场飞行区的航空器、车辆、人员管控中,为了便于管理人员理解和指挥,往往需要对这些运动目标进行增强显示,即在视频画面中运动目标的对应位置显示目标的相关信息,如飞机航班号、车辆类型、作业人员个人信息等。为了保证信息增强显示的准确性,需要对运动目标进行高精度的定位。
目前,实现信息增强显示的通常的方法是利用通过GPS、北斗等卫星定位系统获得运动目标的空间坐标,把空间坐标映射到视频画面上的像素点坐标。但是由于GPS、北斗等系统获取的数据一般都有较大误差,再加上数据获取频率低(如每秒发送一次),并且与视频之间不同步,导致通过坐标映射得到的像素点坐标和运动目标的实际坐标之间有较大的差异,不但影响使用体验,而且会出现较多的错误显示。
针对上述问题,一种可能的技术架构是采用先在视频画面中检测出运动目标,之后再与GPS等定位数据融合的方法。在大场景视频中,为了保证目标检测达到可实用的准确度,要求运动目标具有一定的像素分辨率,也就是要求整个大场景画面具有超高的分辨率,比如为了在机场飞行区画面中检测到远处的车辆,整个飞行区画面的像素数会达到一个或多个4K超高清(分辨率为3840×2160)。目前目标检测性能最好的是基于深度学习的检测方法。基于区域的卷积神经网络(Region Based Convolutional Neural Network,RCNN)成功连接目标检测与深度卷积网络,将目标检测的准确率提升到一个新的层次。RCNN由3个独立的步骤组成:产生候选窗口、特征提取、SVM分类及窗口回归。由于RCNN分为3个独立的过程,所以检测效率很低,无法用在大场景视频中。
为了提高目标检测的实时性,一种可能的技术架构是单阶段的目标检测算法,这种方法的特点是端到端(endtoend),从输入图像到检测结果一步到位,中间的过程全部由神经网络学习得到。典型的方法是YOLO(You Only Look Once)与SSD(Single ShotMultibox Detector)。这类方法用轻量级的网络实现输入端到输出端的直接相连,极大提高了图像检测的速度。当输入图像的尺寸是416×416时,处理速度可达50FPS(Frame PerSecond),能够实现实时检测,但对于大场景视频,分辨率通常可达一个或多个4K,其像素点数是上述图像尺寸的数十倍甚至数百倍,采用上述方法远远达不到实时。
大场景中运动目标检测的另一个困难是,根据运动目标距离摄像机的位置不同,运动目标在画面上的尺度大小差异极大。如在近处时可能占有半个画面,而在远处是可能只有几个像素。这会导致深度学习算法中模型训练难度增加和最终检测精度的下降。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京天睿空间科技股份有限公司,未经北京天睿空间科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010017125.0/2.html,转载请声明来源钻瓜专利网。