[发明专利]针对少类别场景的目标检测模型优化与加速的方法有效
| 申请号: | 201911350732.2 | 申请日: | 2019-12-24 |
| 公开(公告)号: | CN111126278B | 公开(公告)日: | 2023-06-20 |
| 发明(设计)人: | 王洪波;陈岩 | 申请(专利权)人: | 北京邮电大学 |
| 主分类号: | G06V20/60 | 分类号: | G06V20/60;G06V10/46;G06V10/82;G06N3/0464;G06N3/08 |
| 代理公司: | 北京远创理想知识产权代理事务所(普通合伙) 11513 | 代理人: | 卫安乐 |
| 地址: | 100876 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 针对 类别 场景 目标 检测 模型 优化 加速 方法 | ||
本发明涉及计算机视觉技术领域,尤其涉及一种针对少类别场景的目标检测模型优化与加速的方法,包括以下步骤:获取并标注待检测图片;将标注好的图片加入到特征提取装置进行特征提取,得到三组固定大小的特征图;将三组固定大小的特征图送入到带有FocalLoss损失函数的预测装置进行结果预测;对预测结果进行检测框的过滤,使得对于同一待检测物体,只有一个检测框输出,所述的进行特征提取过程包括:对DarkNet,AlexNet,ResNet,VGG,GoogLeNet,SENet,DenseNet等网络进行压缩,将图片大小调整至分辨率为N×N,N的可选取值为320‑1280之间的32的倍数,采用压缩后的特征提取网络进行图片的特征提取。本发明可以同时具有较高的检测速度和较高的准确率。
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种少类别场景的目标检测模型优化与加速的方法。
背景技术
目标检测任务作为计算机视觉领域中的一项重要应用,其主要目标是从图像中找到所有的目标物体,并且给出其分类信息与位置信息。
基于传统的模式识别方法通常需要数十秒的时间来处理一张图片,而基于卷积神经网络的目标检测算法已经可以在几百甚至是几十毫秒完成对一张高分辨率图片的目标检测工作,而且在精度方面也有了很大的提升。
神经网络的迅速发展,使得人们脱离了手工设计特征的方法,转向了通过使用大量的数据集训练深度卷积神经网络的方法,让网络自适应学习特征。
现有基于卷积神经网络的目标检测技术方案主要分为以下三类:
第一类:双阶段检测器,其主要特点是分两个步骤来确定物体的位置信息和分类信息。首先挑选出感兴趣区域,在早期的RCNN和Fast-RCNN网络中,通过选择性搜索来确定感兴趣区域,而发展到Faster-RCNN的时候,发明了区域生成网络以确定感兴趣区域,使得整个目标检测网络成为了端到端的结构。在第二个阶段,卷积神经网络对第一阶段提取出的感兴趣区域的坐标位置进行进一步的纠正,将所有预测结果通过非极大值抑制算法后,输出最终结果,得到图片中物体的精确位置和坐标,可以看出此类方法的特点是结果更加准确,但是其相应的时间开销也比较大。
第二类:单阶段检测器,如YOLO,SSD,其主要特点只需要一个步骤就可以直接得到物体的位置信息和分类信息,区别于双阶段检测器,网络直接在最后一层的特征图中输出最终的预测结果,对于最后一层特征图的每个点,输出相对于预先设置好的锚点的位置偏移,直接得出每个物体的位置信息,同样的,最后的结果也需要通过非极大值抑制算法,由于此类方法只有一个阶段,所以速度要比双阶段检测器快很多,但是准确率相对较低。
第三类:无锚点的方法,此类方法的特点是不需要预先设置锚点,直接对每个物体的四个边界进行回归,目前在精度上可以达到和双阶段检测器相当的水平,但是速度普遍较慢,实用性较差。
发明内容
本发明就是针对现有技术要么检测速度快但准确率低、要么准确率高但检测速度慢的缺陷,提供一种针对少类别场景的目标检测模型优化与加速的方法,同时具有较高的检测速度和较高的准确率。
本发明是采用以下技术方案实现的:
一种针对少类别场景的目标检测模型优化与加速的方法,包括以下步骤:
获取并标注待检测图片;
将标注好的图片,加入到特征提取装置进行特征提取,得到的三组固定大小的特征图;
将三组固定大小的特征图送入到带有FocalLoss损失函数的预测装置进行结果预测;
对预测结果进行检测框的过滤,使得对于同一待检测物体,只有一个检测框输出;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911350732.2/2.html,转载请声明来源钻瓜专利网。





