[发明专利]基于深度学习的目标检测方法在审
| 申请号: | 201811644255.6 | 申请日: | 2018-12-29 |
| 公开(公告)号: | CN110889425A | 公开(公告)日: | 2020-03-17 |
| 发明(设计)人: | 邓远志;林淼;刘志永;陈志列 | 申请(专利权)人: | 研祥智能科技股份有限公司 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62 |
| 代理公司: | 北京兰亭信通知识产权代理有限公司 11667 | 代理人: | 赵永刚 |
| 地址: | 518107 广东省深圳市*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 深度 学习 目标 检测 方法 | ||
本发明提供一种基于深度学习的目标检测方法。本发明直接选用整图训练模型,通过将候选区域提取和特征检测两个阶段整合为一体,即直接在图像的多个位置上回归出真实目标的分类类别和矩形包围框,同时利用显存对存储的特征进行读写,并结合使用softmax函数代替了svm对特征的分类,这样不仅能够提高目标检测的速度,而且利用整图直接训练能够更好地区分目标和背景区域,从而能够提高目标检测的精度。
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于深度学习的目标检测方法。
背景技术
目标检测是实现目标检索、目标追踪、异常行为检测和场景理解等复杂视觉任务的基础,通过算法对图像或者视频中的目标进行检测可以为高级决策提供更多的依据,因此良好的目标检测模型是非常重要的环节。
目前,在目标检测领域中处于主导地位的是基于区域卷积神经网络R-CNN(Region-convolutional neural network)的目标检测方法,该方法的目标检测流程包括:首先生成一个候选区域集合,其中,候选区域是利用图像中的纹理、边缘和颜色等信息预先找出图中目标可能出现的位置,然后将所有候选区域作为训练样本输入到卷积神经网络CNN中进行训练,之后再将每个候选区域提取到的CNN特征输入到分类器SVM中进行训练,最后再分类器SVM分好类的候选区域进行边框回归以修正候选区域,以满足候选区域提取到的窗口与目标真实窗口更加吻合。
在实现本发明的过程中,发明人发现现有技术中至少存在如下技术问题:
在基于R-CNN的目标检测算法中,训练必须分成两个部分进行,即候选区域训练和CNN特征训练,而且该算法需要通过硬盘对存储的特征进行频繁地读写,因此,现有的目标检测方法在同样的硬件平台上检测同分辨率的图像相对比较耗时。
发明内容
本发明提供的基于深度学习的目标检测方法,通过将候选区域提取和特征检测两个阶段整合为一体,利用显存对存储的特征进行读写,并结合使用softmax函数代替了svm对特征的分类,能够提高目标检测的速度和精度。
本发明提供一种基于深度学习的目标检测方法,包括:
(1)加载图像和对应的标注信息文件至计算机显存中,并随机初始化权值矩阵;
其中,所述标注信息文件包括所述图像中各个真实目标的类别和包含所述真实目标的矩形包围框坐标;
(2)对所述图像进行网格划分得到多个网格子图像,并预测各个网格子图像的候选区域;
(3)将各个网格子图像的多个候选区域矩阵向量进行卷积操作得到所述网格子图像的特征图,利用不同尺度的卷积核在不同的卷积层上对所述特征图进行卷积操作,将各个网格子图像对应的不同尺度的特征图进行积分融合;
(4)对融合后的特征图执行池化操作,将池化操作后的特征图与一个固定尺度的卷积核进行卷积操作以进一步优化特征图;
(5)对步骤(4)的输出特征图运用滤波器进行池化操作;
(6)将步骤(5)的输出作为全连接层的输入采用固定步幅进行卷积操作;
(7)将步骤(6)的输出作为分类函数Softmax的输入,先计算出所述图像目标类别的置信度以及预测的坐标信息,再计算与真实标注信息的误差,通过所述误差计算对应梯度值以更新各个层的权值矩阵;
(8)如果训练次数达到设置次数则停止训练,否则返回步骤(3);
(9)达到设置的训练次数,得到训练完成的模型,将待检测图像与模型权值矩阵进行乘积计算,得到图像中目标检测的结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于研祥智能科技股份有限公司,未经研祥智能科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811644255.6/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种可兼作挡土墙的环框支撑围护系统及其施工方法
- 下一篇:一种气悬浮推力轴承





