[发明专利]基于自适应感受野深度学习的目标检测方法有效
| 申请号: | 201811154088.7 | 申请日: | 2018-09-30 |
| 公开(公告)号: | CN109492636B | 公开(公告)日: | 2021-08-03 |
| 发明(设计)人: | 汪晓妍;钟幸宇;黄晓洁;刘震杰;顾政;祝骋路;毛立朝 | 申请(专利权)人: | 浙江工业大学 |
| 主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/46;G06K9/62 |
| 代理公司: | 杭州斯可睿专利事务所有限公司 33241 | 代理人: | 王利强 |
| 地址: | 310014 浙江省*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 自适应 感受 深度 学习 目标 检测 方法 | ||
一种基于自适应感受野深度学习的目标检测方法,包括以下步骤:步骤1:在网上采集图片作为数据集;步骤2:对采集到的图片进行预处理;步骤3:对采集到的图片按照设定的比例进行划分;步骤4:将训练集输入到网络中,进行训练;步骤5:在基底网络提取特征的基础上,用一个浅层的网络进行预测;步骤6:在基底网络提取特征的基础上,使用RPN网络提取ROIs;步骤7:将步骤5预测到结果作用到步骤6提取到的ROIs上;步骤8:将步骤7面积调整后的ROIs进行区域归一化操作;步骤9:将步骤8的结果分别输入到两个全连接层中,分别进行ROIs位置的回归训练以及ROIs的分类训练。本发明提高深度神经网络的性能。
技术领域
本发明涉及计算机人工智能技术领域,特别涉及一种基于自适应感受野深度学习的目标检测方法。
技术背景
随着人工智能领域深度学习的快速发展,计算机视觉越来越多的领域受到了巨大的机遇和挑战。很多计算机视觉任务如分割,分类,识别检测等在性能上取得了巨大的进步和提高,如在分类任务中,神经网络的分类准确率已经超过人类。在目标检测领域,深度学习的算法性能也远超传统的目标检测方法。
在卷积神经网络中,感受野起着非常重要的作用。感受野是指卷积神经网络结构中,某个特征映射到输入空间的区域大小。对于某一特征的感受野,可以通过它的中心位置和它的尺寸大小来描述。感受野越大,那么其对应的全局文本信息和语义信息越丰富,这有助神经网络对物体之间的关系进行推断;但是感受野越大,那么其对应的计算量就越大。反之,感受野越小,则其对应的特征就比较局部,图像的细节特征比较丰富。
无论是在基于深度学习的语义分割任务中,还是在目标检测任务中,感受野大小的选取直接影响着深度神经网络的性能。科研人员们对感受野的重视程度越来越高,因此如何对感受野大小的进行选择也是一个热门的研究课题。
发明内容
为了克服如何选择感受野的大小使网络性能最优化这个问题,本发明提出一种基于自适应感受野深度学习的目标检测方法,在目标检测任务中可以根据具体的物体对象自适应的调整感受野的大小,从而提高深度神经网络的性能。
本发明解决其技术问题所采用的技术方案是:
一种基于自适应感受野深度学习的目标检测方法,所述的方法包括以下步骤:
步骤1:在网上采集图片作为数据集;
步骤2:对采集到的图片进行预处理,包括随机的裁剪、翻转以及尺寸的归一化;
步骤3:对采集到的图片按照设定的比例进行划分,分为训练集和验证集;
步骤4:将训练集输入到网络中,进行训练,选取ResNet,DenseNet作为基底网络进行特征的提取;
步骤5:在基底网络提取特征的基础上,用一个浅层的网络进行预测,预测的结果维数为二维(N*5)其中N为ROIS的数量,5是指1个比率r,以及左上和右下的偏移信息,比率r的作用是计算众数的区间;
步骤6:在基底网络提取特征的基础上,使用RPN网络提取ROIs;
步骤7:将步骤5预测到结果作用到步骤6提取到的ROIs上,即将步骤5预测的左上角偏移和右下角偏移作用在ROIs的左上角和右下角的的坐标上,通过调整ROIs的面积,从而调整Proposals所对应的感受野的面积;
步骤8:将步骤7面积调整后的ROIs进行区域归一化操作,选取每个区域内落在某个像素值区内像素值的平均值作为输出,区间的选取是根据区间内像素的数量,选取像素数量最多的区间作为最优的区间;
步骤9:将步骤8的结果分别输入到两个全连接层中,分别进行ROIs位置的回归训练以及ROIs的分类训练。
本发明的有益效果表现在:在目标检测任务中可以根据具体的物体对象自适应的调整感受野的大小,从而提高深度神经网络的性能。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811154088.7/2.html,转载请声明来源钻瓜专利网。





