[发明专利]一种基于ExtremeNet融合双阶段的图像目标检测方法在审
| 申请号: | 202011208097.7 | 申请日: | 2020-11-03 |
| 公开(公告)号: | CN112364906A | 公开(公告)日: | 2021-02-12 |
| 发明(设计)人: | 高翠;蔡强;明少锋 | 申请(专利权)人: | 北京工商大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/46;G06N3/08 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 100048*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 extremenet 融合 阶段 图像 目标 检测 方法 | ||
本发明公开了一种基于ExtremeNet融合双阶段的图像目标检测方法,目的是提高图像目标检测的准确度和实时性。所述方法包括三个方面:(1)将获取的图像像素矩阵,输入到堆叠的沙漏网络HourglassNet104中,通过该网络提取到图像中目标的关键点,并将所有的关键点排列组合形成候选框;(2)将所有的候选框输入到一个单独的二分类器中,对所有的候选框进行正负样本框分类,从而得到感兴趣区域;(3)根据边界框回归算法以及构建的多分类器得到图像目标检测的结果。本发明将双阶段特有的二分类器融入到单阶段的基于关键点检测的ExtremeNet中,不仅保证了该方法检测的实时性,同时还提高了图像目标检测的准确度。
技术领域
本发明涉及计算机视觉领域,特别是涉及目标检测中的图像目标检测领域,具体是设计一种基于ExtremeNet融合双阶段的图像目标检测方法。
背景技术
随着多媒体和计算机技术的飞速发展,推动人们开始利用计算机的学习行为和能力来替代人类执行许多具有重复性且耗时费力的工作,目标检测技术就是一个典型实例。现实世界中很多图像通常包含不只一个物体,若只使用图像分类模型为图像分配单一标签过于非常粗糙且不准确。在这种情况下,目标检测技术表现出了极大的优势,不仅能够识别出一张图像中包含的多个物体,还能同时定位出不同物体并给出边界框。
目标检测技术是通过计算机视觉原理,利用计算机图像处理技术对目标进行分类和检测,能够从数量庞大的图像数据信息中迅速检测出目标物体。由于目标检测技术在医学图像检测、无人驾驶和安防系统等很多场景中的广泛应用,一直都是计算机视觉中非常受关注的领域,它在非受控自然场景中快速准确地定位和识别特定目标能力,是许多人工智能应用场景的重要功能基础。
基于深度学习的图像目标检测算法有两个主要难点:检测精度和速度,两者存在着此消彼长的关系,要兼顾这两项性能尚需突破许多技术瓶颈。如何在保证检测准确度的同时训练出一个准确率更高和检测速度更快的目标检测模型是一个非常有意义且亟待解决的技术问题。为了解决目标检测算法的这两个难点,我们尝试将检测精度高和检测速度快的目标检测方法融合。因此,本发明提出了一种基于ExtremeNet融合双阶段的图像目标检测方法。
目前,图像目标检测主要的方法包含有以下几类:
(1)双阶段的目标检测方法,此种方法作为一种经典结构,其特点是包含了一个单独的二分类器。RCNN和Faster RCNN算法即为此类算法的典型,RCNN是最早利用卷积神经网络实现目标检测任务的方法,其通过Selective Search(SS)方法选出一些目标候选框,将这些候选框使用一个二分类器区分为正负样本,再利用非极大抑制(NMS)方法进行筛选,然后对目标进行多分类和边界框回归即可。Faster RCNN首先利用卷积神经网络获取图像的对应特征图,然后使用RPN网络在特征图上放置3种不同比例和3种不同尺寸的anchor box,并用RPN对anchor进行正负样本二分类来获取感兴趣区域,再对感兴趣区域进行池化、分类和回归操作。以上方法需要在图像中放置大量的anchor,然而在对这些anchor进行分类的过程中,耗费了大量的计算资源,使得检测速度变慢。
(2)单阶段的目标检测方法,与双阶段的相比检测速度快,因为其舍弃了二分类器的区分正负样本的步骤,直接对图像中各个位置的目标候选框进行分类和定位。此种方法不需要对候选框再进行筛选,从而提高了对图像中目标的检测速度,但也正是因为对所有的候选框都进行检测,从而降低了对图像中所含目标的检测精度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工商大学,未经北京工商大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011208097.7/2.html,转载请声明来源钻瓜专利网。





