[发明专利]一种实时的视频目标检测方法在审
申请号: | 201811588266.7 | 申请日: | 2018-12-25 |
公开(公告)号: | CN109685008A | 公开(公告)日: | 2019-04-26 |
发明(设计)人: | 柏正尧;蒋冬 | 申请(专利权)人: | 云南大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 昆明大百科专利事务所 53106 | 代理人: | 何健 |
地址: | 650500 云南省昆*** | 国省代码: | 云南;53 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 检测 视频目标 上采样 特征层 低层 卷积 预测 目标分类 目标位置 情况检测 视频监控 通道连接 图像特征 第一层 算法 高层 应用 交通 网络 | ||
一种实时的视频目标检测方法,首先,通过低层卷积层与高层卷积层的连接提高对图像特征的利用;然后,通过对第一层预测层进行上采样操作,得到尺寸更大的特征层。最后,将得到的上采样特征层与低层网络进行通道连接,增加第二层预测,使得算法对目标的检测更为精确。本方法在目标分类准确性、目标位置预测、检测速度方面优于YOLO‑Tiny方法,在实时的视频监控、交通情况检测等领域中有很大的应用前景。
技术领域
本发明是实时的视频目标检测方法,适用于机器学习、模式识别和视频监控领域。
背景技术
目标检测的目的是确定目标所属的类别并对目标的位置进行精确定位,这在实时的视频监控、交通情况检测等领域中起着非常重要的作用,因此,目标检测一直是计算机视觉领域要解决的问题。目标检测任务可分为两个关键的子任务:目标分类和目标定位。目标分类任务负责判断输入图像中是否有感兴趣类别的物体出现,输出一系列带分数的标签表明感兴趣类别的物体出现在输入图像的可能性。目标定位任务负责确定输入图像中感兴趣类别的物体的位置和范围。随着深度学习的发展,引入了卷积神经网络对图像特征进行提取,使算法检测精度及速度有所提升。但是高精度的算法往往需要高计算消耗,检测速度并不能满足实时检测的要求,且深度学习算法对硬件的要求也远高于传统的方法。现有的检测算法对于遮挡物体及小目标的识别效果并不好。设计一种能达到实时要求,拥有高精度,对不同场景都有良好检测效果的的算法是计算机视觉领域的一个研究热点。
发明内容
本发明的目的就是针对实时视频目标检测存在检测精度低、检测速度慢等缺点,现有的检测方法无法达到高精度的同时满足实时要求。提出一种采用密集连接的卷积神经网络检测方法。
本发明采用的技术方案是:
一种实时的视频目标检测方法,本发明特征在于:通过低层卷积层与高层卷积层的连接提高对图像特征的利用;然后,通过对第一层预测层进行上采样操作,得到尺寸更大的特征层;最后,将得到的上采样特征层与低层网络进行通道连接,增加第二层预测,使得算法对目标的检测更为精确;方法包括:
1)数据集采用PASCAL VOC公共数据库,该数据库为图像识别和分类提供有一整套标准化的数据集;
2)用层数更多的卷积神经网络替代层数少的网络,通过对特征的重复利用,使训练的模型对物体的分类以及位置的预测更为精确;
3)通过卷积层的跨层连接,再通过上采样操作增加预测层得到目标的分类及位置;
4)通过连接上采样层和低层卷积层的特征得到了更为精确的目标分类和定位结果。
本发明所述的目标为实时的视频目标,将该实时的视频目标检测视为一个模式的转化问题,即目标的分类为第一模式,目标的定位为第二模式;采用一个改进的卷积神经网络模拟第一模式和第二模式之间的映射关系。
本发明所述用层数更多的卷积神经网络替代层数少的网络是:采用一个改进的卷积神经网络模拟第一模式和第二模式之间的映射关系;用损失函数表示当前神经网络分类及定位结果图与标准图之间的误差;在训练过程中反复迭代误差损失函数,当损失函数尽可能小时,训练得到模型已能够有效提取对视频目标的分类与定位的映射规律,通过所学到的规律准确检测所述实时的视频目标;整个实时的视频目标检测过程由目标分类和目标定位两部分组成。
本发明基于密集连接的所述卷积神经网络架构设计了一个能够有效提取图像特征的神经网络;该网络包含特征的提取和特征连接两部分;该网络的思想是连接低层的卷积层,提高对特征的重复利用,并在第一层预测层之后增加上采样操作,连接低层特征,提高对特征的利用,在大尺度上进行目标的分类及定位使目标的检测更为精确。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于云南大学,未经云南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811588266.7/2.html,转载请声明来源钻瓜专利网。