[发明专利]一种基于非对称IOU的深度学习车牌框定位方法有效
| 申请号: | 202110686336.8 | 申请日: | 2021-06-21 |
| 公开(公告)号: | CN113537211B | 公开(公告)日: | 2023-06-02 |
| 发明(设计)人: | 康波;秦传鉴;占越;李云霞;王冰峰 | 申请(专利权)人: | 电子科技大学 |
| 主分类号: | G06V20/62 | 分类号: | G06V20/62;G06V30/18;G06V30/19;G06V10/82;G06N3/0464;G06N3/08 |
| 代理公司: | 四川鼎韬律师事务所 51332 | 代理人: | 温利平 |
| 地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 对称 iou 深度 学习 车牌 框定 方法 | ||
本发明公开了一种基于非对称IOU的深度学习车牌框定位方法,首先对相关车辆车牌数据集图片进行预处理,得到训练样本;接着构建基于FOCS的深度学习网络并训练,在训练过程中,通过采用非对称的IOU算法来计算损失函数值,得到优化训练后的车牌框检测模型;最后利用训练后模型,输入实际场景中获取的车辆场景图像,定位其车牌检测框;这样在保证车牌框检测定位算法的实时性的同时,又对车牌框定位检出的完整性有较大提升。
技术领域
本发明属于车牌检测技术领域,更为具体地讲,涉及一种基于非对称IOU的深度学习车牌框定位方法。
背景技术
传统车牌框定位方法有基于边缘检测、色彩分割、小波变换等,在深度学习方向大部分的车牌检测定位的方法基于卷积神经网络(Convolutional Neural Networks,CNN)进行处理。Silva与Jung注意到Fast-YOLO模型在没有车辆检测得到的prior时,召回率会很低。因此,他们使用级联排列的Fast-YOLO模型,首先检测汽车的正面,然后再定位车牌框,这样在巴西车牌数据集上得到了较高的准确率和召回率。Hsu等人对车牌检测定位修改YOLO和YOLOv2模型,能够在高端GPU上达到54FPS。Kurpiel等人对输入车辆车牌图片划分子区域,形成重叠的网格,再通过CNN模型对每个区域进行评分,最后分析相邻子区域的输出来定位车牌框,其在GT-740M的GPU上,检测多个车辆图像中的巴西车牌耗时230ms,并在他们引入的公开数据集上达到83%的召回率。Li等人训练了一个基于常规文本字符裁剪的CNN模型,来执行基于字符的车牌框定位,该网络对整个图像进行滑动窗口(sliding-window),生成文本显著性特征图,以提取近似文本的区域,再用连通域分析CCA(ConnectedComponent Analysis)方法生成初始候选框,最后,单独训练一个区分车牌与非车牌的CNN模型来去除错误正样本。
以上方法对于一般性场景的车牌定位可以满足需求,但是对于有其他车辆车牌干扰,车牌图像尺度变化的情境下检测定位效果不佳。特别对于目标检测任务中,一般使用IOU为检测效果和定位好坏的重要评判标准,然而传统的IOU计算将预测框与检测框一视同仁,二者为对称关系。而在车牌框定位任务中,预测框未覆盖全目标会直接导致之后的识别失败,即车牌框定位要求较高的完整性,传统IOU评判不能很好满足。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于非对称IOU的深度学习车牌框定位方法,能够通过非对称IOU算法实现车牌框的定位检全,同时又保证速度与准确度。
为实现上述发明目的,本发明为一种基于非对称IOU的深度学习车牌框定位方法,其特征在于,包括以下步骤:
(1)、数据集建立与图像预处理;
通过pytorch中的torchvision导入标定车牌框的车辆场景图像,构成数据集;然后对数据集中的每一张车辆场景图像依次进行尺度缩放、随机水平翻转、编码格式转换和数据标准化处理,得到标准的样本集;
(2)、构建基于FCOS的深度学习网络;
深度学习网络的结构包括三个部分:第一部分为ResNet模块化的骨干网络,其为resnet-18的backbone网络;第二部分是特征层金字塔;第三部分为损失计算模块;
(3)、训练深度学习网络;
(3.1)、从标准的样本集任意选取一张标定车牌框的车辆场景图像输入至深度学习网络;
(3.2)、在深度学习网络的第一部分中,在backbone网络中对输入的车辆场景图像分别进行步长为8、16、32的3*3卷积操作,从而提取出三层的特征图,记为C1、C2、C3;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110686336.8/2.html,转载请声明来源钻瓜专利网。





