[发明专利]基于双流法的复杂背景运动小目标检测方法有效
申请号: | 201911424737.5 | 申请日: | 2019-12-31 |
公开(公告)号: | CN111179318B | 公开(公告)日: | 2022-07-12 |
发明(设计)人: | 于晋;吴曼佳;吴均峰;史治国;陈积明 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06T7/269 | 分类号: | G06T7/269;G06T7/254;G06T5/00 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 刘静 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 双流 复杂 背景 运动 目标 检测 方法 | ||
本发明公开了一种基于双流法的复杂背景运动小目标检测方法,该方法包括:1.使用基于深度学习的方法,对单独视频帧图像进行处理,获取空间上的外观特征流,并在此基础上进行目标检测;2.使用帧间差分法,对连续视频帧图像进行处理,获取时间上的运动特征流,并在此基础上进行运动目标检测;3.对1和2在整幅画面中的若干检测结果进行双流融合,获取时空融合置信度;4.结合1中深度学习目标检测器的外观检测置信度,与3中双流融合置信度,给出最终的检测结果。本发明方法在保证检测实时性的同时,有效降低目标漏检率,并抑制了背景对检测的干扰,以实现高召回率、低误检率的复杂背景小目标检测。
技术领域
本发明属于计算机视觉领域,具体而言,涉及一种基于双流法的复杂背景运动小目标检测方法。
背景技术
近年来,随着相关技术的发展,以及低空空域的逐步开放,小型无人机、航模、滑翔机、三角翼等空域目标逐渐增加。虽然这类小型飞行器在航拍、植保、救援、物流等方面带来许多便利,但由于使用这类飞行器的人数越来越多,相关部门监管也尚不到位,因此这类飞行器的“黑飞”“滥飞”现象频发,对公共安全、人身安全、个人隐私带来各种各样的隐患。为应对这类隐患,有必要对侵入特定区域的无人机进行反制。当前,反无人机技术主要分为三类。一是干扰阻断类,主要通过信号干扰、声波干扰等技术来实现。二是直接摧毁类,包括使用激光武器、用无人机反制无人机等,主要应用于军事领域。三是监测控制类,主要通过劫持无线电控制等方式实现。但是实现上述反无人机技术的前提是对入侵的无人机进行有效的检测、识别、跟踪和定位。视觉探测技术的主要优点包括直观,成本低,速度快,精度高。这些优点决定了视觉探测技术是反无人机系统不可或缺的一部分。对目标进行高准确、低误检的检测是反制重要前提。为了给反制留出足够多的时间,应尽可能在较远距离时发现目标。对于使用视觉探测技术来检测复杂背景小目标的场景来说,由于目标距离监控摄像机很远且监测环境复杂,获取的观测目标存在信号弱、成像面积小、形状或纹理特征弱、无固定运动规律等特点,实现这类目标的高准确、低误检、少漏检的检测存在着诸多挑战。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于双流法的复杂背景运动小目标检测方法,在保证检测实时性的同时,有效降低目标漏检率,并抑制背景对检测的干扰,实现高召回率、低误检率的复杂背景小目标检测。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
本发明为了实现上述发明目的,提供了一种基于双流法的复杂背景运动小目标检测方法,包括五个步骤,分别是:
步骤一:使用基于深度学习的方法,对单独视频帧图像进行处理,获取空间上的外观特征流,并在此基础上进行目标检测;步骤二:使用帧间差分法,对连续视频帧图像进行处理,获取时间上的运动特征流,并在此基础上进行运动目标检测;步骤三:对步骤一和步骤二在整幅画面中的若干检测结果进行双流融合,通过计算交并比的方法,获取时空融合置信度;步骤四:结合步骤一中深度学习的外观检测置信度,与步骤三中时空融合置信度,根据选取的阈值,给出最终的检测结果。
进一步地,在步骤一中,使用背景鲁棒性强、检测精度较高、实时性能好的深度学习目标检测方法,基于空间上的外观特征流进行目标的检测。对于单一目标的检测,检测过程由公式(1)表示:
A-Locs,A-Confs=A-Detector(Image) (1)
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911424737.5/2.html,转载请声明来源钻瓜专利网。