[发明专利]一种基于深度学习的车牌定位和识别方法有效
申请号: | 201811281994.3 | 申请日: | 2018-10-30 |
公开(公告)号: | CN109508715B | 公开(公告)日: | 2022-11-08 |
发明(设计)人: | 闵卫东;李祥鹏;赵浩宇;黄杰;韩清;刘瑞康 | 申请(专利权)人: | 南昌大学 |
主分类号: | G06V10/25 | 分类号: | G06V10/25;G06V10/778;G06V10/82;G06V20/62;G06V30/10;G06T7/60;G06N3/04 |
代理公司: | 北京众合诚成知识产权代理有限公司 11246 | 代理人: | 胡群 |
地址: | 330000 江西省*** | 国省代码: | 江西;36 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 车牌 定位 识别 方法 | ||
1.一种基于深度学习的车牌定位和识别方法,其特征在于:包括两个方面:基于FasterR-CNN模型的车牌定位和基于AlexNet-L网络模型的端对端的车牌字符识别;
步骤1,对训练集的车牌区域尺寸应用k-means++算法处理,选择最佳的候选尺寸,结合到Faster R-CNN;
步骤2,利用Faster R-CNN训练图片,得到模型;
步骤3,输入一张包含车牌的图片,经过卷积处理之后,得到特征图;
步骤4,将所得的特征图经过全卷积神经网络RPN处理后,得到候选框,将获取的特征图和候选框一起经过ROI pooling处理后进行分类,输出车牌位置和分数;
步骤5,将车牌区域从原图中截取下来;
步骤6,截取的车牌区域通过AlexNet-L网络模型的端对端的卷积神经网络,最终输出车牌上的各个字符;
所述AlexNet-L网络模型是在AlexNet网络模型基础上的一个改进,AlexNet-L网络模型有九层结构,第一、二层均包含了卷积,池化层和归一化;与AlexNet网络模型不同的是,AlexNet-L网络模型的第一层中池化层和归一化操作的顺序不一样;AlexNet-L网络模型的第三层到第五层用了三个相同的卷积操作;第六层使用了卷积层和池化层,第七层是一个全连接层,第八和第九层采用并列的七个全连接层,分别用来对车牌的各个字符进行识别;
所述AlexNet-L网络模型在AlexNet网络模型基础上进行如下几个方面的改进:
①第一层和第二层的改进:
将AlexNet中第一层和第二层中归一化和池化层相互调换顺序,即将AlexNet中归一化1,池化层1以及归一化2,池化层2调换顺序;
②增加卷积层来提高分类效果:
在AlexNet的卷积层3,卷积层4的后面增加一个同样的卷积层;
③全连接层的改进:
车牌的端对端的字符识别为7个字符,将AlexNet的第七层全连接层更改为7个并列的全连接层,分别获取7个字符的特征向量;
④输出层的改进:
由于中国的车牌字符有7个字符,最终的输出应该是7个标签,将AlexNet网络的第八个全连接层更改为并列的7个全连接层,并与前一层7个并列的全连接层分别相连,对于最后一个全连接层,每个类别对应的标签数并不唯一。
2.根据权利要求1所述的一种基于深度学习的车牌定位和识别方法,其特征在于:由于中国的车牌区域比例为440cm*140cm,近似为3:1,为了确切地反映各种图片中车牌区域的大小,采用k-means++算法来选定3个比例的长宽比;
k-means++算法需要采用模型预测的候选框和标记的候选框的交叠率IoU为指标,IoU的计算方式为:
其中,SgroundTruth表示真实的候选框,SanchorBox表示预测的候选框;
k-means++算法得到初始候选框的算法包括以下步骤:
S1:k-means++算法的输入为车牌的长度和宽度C={d1(x1,y1),d2(x2,y2),…,dn(xn,yn)},以及k个候选框的长宽比;
S2:从C中随机选取一个样本为c1(c1∈C);
S3:对于C中每一个样本,计算每个样本到c1的距离:
d(bi,c1)=1-IoU(bi,c1) (2)
其中i∈(1,2,3,…,n);
S4:计算每个样本选为下一个质心的概率:
S5:定义Si:
S6:生成一个0到1之间的随机数r,判断r属于区域{si-1,si},则bi(xi,yi)是第二个质心;
S7:重复步骤S3~S6,直到得到k个质心。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南昌大学,未经南昌大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811281994.3/1.html,转载请声明来源钻瓜专利网。