[发明专利]一种基于EVP_YOLO的室内物品检测方法在审
申请号: | 202011632422.2 | 申请日: | 2020-12-31 |
公开(公告)号: | CN112784694A | 公开(公告)日: | 2021-05-11 |
发明(设计)人: | 沈雷;王方杰;李东辉 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 朱月芬 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 evp_yolo 室内 物品 检测 方法 | ||
本发明公开了一种基于EVP_YOLO的室内物品检测方法。本发明包括以下步骤:S1、构建EVP_YOLO的主体网络,主体网络拥有五个特征层和一个池化层,每个特征层都采用回流残差结构;S2、对完成卷积的结果标准化处理后送入激活函数中;S3、对激活函数输出值进行标签平滑处理:S4、训练网络模型;S5、对训练好的网络模型输入测试数据,进行自动目标检测。本发明以神经网络为基础搭建出层数更多结构更加完善的目标识别算法EVP_YOLO。经测试证明此模型对室内的小件物品识别度明显增高,检测结果的准确率也较为理想。
技术领域
本发明属于计算机视觉领域,具体涉及一种基于EVP_YOLO的深度学习模型在室内物体检测场景的具体应用。
背景技术
随着社会的发展人们的安全意识也在不断的提高,视频监控在百姓家中的普及率也迅速增加。视频数据爆发式增加,如何将相对有效的信息从中提取出来成为了一个亟待解决的问题。要想充分发挥视频监控的作用,室内目标自动检测系统就显得尤为重要。
当前基于深度学习的目标检测算法可以大致分为两类,一类是将目标检测分为两步(two stage)进行的算法(R-CNN,Fast R-CNN, Faster R-CNN,SPP-net),此类算法依赖区域特征提取,需要先使用启发式方法(selective search)或者CNN网络(RPN)在候选框中提取目的信息,然后再对目的信息进行分类和回归处理。另一种则是一步 (one stage)进行的,如YOLO、SSD等,此类模型不依赖于区域特征提取,仅使用一个框架网络直接预测不同目标的类别与位置。两类模型各有好坏,第一类准确度高一些,但是速度较慢;第二类速度快,但是准确性要低一些,随着硬件设施的不断进步以及算法的逐渐优化此类算法开始占据主流。在保持高检测速率的前提下提高模型目标检测的精度一直是人们研究的主要方向。
发明内容
本发明的目的是对于现有的室内物品检测算法检测不准确的问题,提供一种基于EVP_YOLO的室内物品检测方法。
本发明所采用的技术方案包括以下步骤:
S1、构建EVP_YOLO的主体网络,主体网络拥有五个特征层和一个池化层,每个特征层都采用回流残差结构。前两个特征层为公共特征层,后三个特征层位于主干网络的不同位置,后三个特征层经过多次卷积所提取的特征数据被分为两部分,一部分用于该特征层的结果预测,另一部分采用回流结构,进行卷积后再重新输入到前一个特征层。池化层负责将卷积后的数据进行池化处理,池化处理后的数据也分为两部分,一部分用于直接输出,另一部分同样采用回流结构,回传至前一个特征层用以增加边界框视野,从而分离出更加显著的上下文特征。数据进行再次回流后边界框的感受视野将会增加。其整体架构的优越性使得整体很容易被优化,并且能够通过增加相当的深度来提高预测的准确率。不同的残差块之间使用了阶跃式连接,也较大程度地缓解了在深度神经网络中增加深度带来的梯度消失问题。并且其每一个卷积部分都使用了特有的正则化卷积结构(Darknet Conv2D),每一次卷积的时都会进行正则化处理。
S2、对完成卷积的结果标准化(Batch Normaliz ation)处理后送入激活函数(Mish)之中。普通的激活函数(LeakyReLu)是给所有负值赋予一个非零斜率,而Mish函数则更加的平滑,具有更好的泛化能力,并且Mish函数并不是一个单调函数此性质对于整体数据中的小的负值更加友好,从而使网络中的梯度流也更加的稳定。以数学的方式表示为:
式中,Mish(*)为激活函数,x为输入数据,该数据是完成卷积后标准化数据。
S3、对激活函数输出值进行标签平滑处理:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011632422.2/2.html,转载请声明来源钻瓜专利网。