[发明专利]一种基于双阶段卷积神经网络的数字类交通标志检测识别方法有效
申请号: | 202111180410.5 | 申请日: | 2021-10-11 |
公开(公告)号: | CN113963329B | 公开(公告)日: | 2022-07-05 |
发明(设计)人: | 谢磊;李至善 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06V20/58 | 分类号: | G06V20/58;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州天勤知识产权代理有限公司 33224 | 代理人: | 彭剑 |
地址: | 310013 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 阶段 卷积 神经网络 数字 交通标志 检测 识别 方法 | ||
本发明公开了一种基于双阶段卷积神经网络的数字类交通标志检测识别方法,包括:(1)采集图像数据并标注;(2)设计第一阶段目标检测模型,用于定位和识别大类别;(3)将图像输入到第一阶段目标检测模型中进行训练;(4)将图像输入到第一阶段目标检测模型中,通过框的融合后处理算法获得预测框的坐标以及大类别,并将预测框对应的区域扣除出来,标注扣除图像中的各个数字的位置、类别以及对应的大类别;(5)设计第二阶段网络,用于扣除图像中数字的识别以及大类别的重分类;(6)将扣除出来的图像输入到第二阶段网络中进行训练;(7)训练好的两个阶段的模型用于整体的预测和推理。本发明的模型结构简单、易于部署,识别精确度高。
技术领域
本发明属于目标检测领域,尤其是涉及一种基于双阶段卷积神经网络的数字类交通标志检测识别方法。
背景技术
自动的数字类交通标志的检测与识别对于无人驾驶以及辅助驾驶系统是非常重要的。随着深度学习的发展,基于卷积神经网络的目标检测网络例如SSD,YoloV3等已经在各个目标检测场景中取得了非常好的效果。
如公开号为CN111444847A的中国专利文献公开了一种交通标志检测识别方法,包括获取交通标志图像;对YOLOv3卷积神经网络模型的残差组件进行处理得到DFF-YOLOv3卷积神经网络模型;利用DFF-YOLOv3卷积神经网络模型对获取的交通标志图像进行检测识别。该方法通过对现有的基于YOLOv3的卷积神经网络模型的残差组件进行改进处理得到改进的DFF-YOLOv3卷积神经网络模型,利用改进的DFF-YOLOv3卷积神经网络模型对获取的小目标交通标志图像进行检测识别。但是,精确的交通标志识别依旧是一件非常具有挑战性的工作。
首先,尽管交通标志的形态都是规则的长方形,但是由于背景的多样化以及环境因素例如光照天气等因素是复杂的,其识别难度会加大。
另外,与交通场景中的行人车辆等相比,交通标志的大小都是很小的,这就增大了精确定位的难度。
最重要的是,由于数字类交通标志的类别数是非常多的,所以我们很难保证训练样本中每一类的数据都足够充分。例如,在实际场景中,最低限速为10这一交通标志随处可见,但是最低限速为100这一交通标志是极少的。若直接按照目标检测的方法,则最低限速为100这一类样本都无法进行精确的识别。
发明内容
本发明提供了一种基于双阶段卷积神经网络的数字类交通标志检测识别方法,模型极其轻量、推理速度快、易于部署,对于数字类交通标志具有更加准确有效的效果,且鲁棒性更强。
一种基于双阶段卷积神经网络的数字类交通标志检测识别方法,包括以下步骤:
(1)采集交通场景下的图像数据,并在图像数据中标注出数字类交通标志的类别以及位置;
(2)设计第一阶段目标检测模型,用于交通标志的定位和识别交通标志属于哪一个大类别;
(3)将标注后的图像数据输入到第一阶段目标检测模型中,进行不少于100个Epoch的迭代训练,同时在随着训练的深入依次减少学习率;监视模型的损失函数,直到模型收敛;
(4)将原始图像数据输入到训练好的第一阶段目标检测模型中,通过框的融合后处理算法获得预测框的坐标以及大类别的预测结果,并将预测框对应的区域从原始图像中扣除出来,同时标注扣除图像中的各个数字的位置、类别以及其对应的大类别;
(5)设计第二阶段网络,用于扣除图像中数字的识别以及大类别的重分类;
(6)将步骤(4)扣除出来的图像输入到第二阶段网络中,进行不少于100个Epoch的迭代训练,同时在随着训练的深入依次减少学习率;监视模型的损失函数,直到模型收敛;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111180410.5/2.html,转载请声明来源钻瓜专利网。