[发明专利]一种基于场景分类和超分辨率的场景文字识别方法有效
| 申请号: | 201910107750.1 | 申请日: | 2019-02-02 |
| 公开(公告)号: | CN109977942B | 公开(公告)日: | 2021-07-23 |
| 发明(设计)人: | 郑雅羽;梁圣浩;寇喜超;林斯霞 | 申请(专利权)人: | 浙江工业大学 |
| 主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/62 |
| 代理公司: | 杭州赛科专利代理事务所(普通合伙) 33230 | 代理人: | 郭薇 |
| 地址: | 310014 浙*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 场景 分类 分辨率 文字 识别 方法 | ||
1.一种基于场景分类和超分辨率的场景文字识别方法,其特征在于:所述方法包括以下步骤:
步骤1:结合分类网络和ssd的共同点,得到c-ssd;融合超分辨率和卷积循环神经网络,基于crnn网络增加上采样层,得到sr-crnn网络;
所述步骤1包括以下步骤:
步骤1.1:在ssd的骨干网络末尾层设置全连接层得到c-ssd网络,以ssd实现对场景中的物体进行目标检测,以全连接层实现对场景的直接分类;
步骤1.2:将全连接层的输出和ssd的所有分支卷积层输出以concat层联结,整合得到一个输出,将所述输出输入到改进过的检测层中,得到最终的场景信息和手势位置;
步骤1.3:基于crnn网络,在crnn网络前端增加卷积层和上采样层,构建新的网络sr-crnn;
步骤2:以已知的ssd模型和crnn模型分别初始化c-ssd网络和sr-crnn网络的对应卷积层参数;
步骤3:以数据增强的方法扩张数据集;用扩张后的数据集对c-ssd网络和sr-crnn网络进行训练,得到相应的c-ssd模型和sr-crnn模型;
步骤4:用评估数据集对训练得到的模型进行评估,若效果未达标,则增加数据集,返回步骤3重新训练评估,否则进行下一步;
步骤5:将带手势的图片输入训练好的c-ssd模型中进行处理,返回手势的坐标位置与场景信息;
步骤6:以文字特征设计检错器,对步骤5返回的场景信息进行检查,结合c-ssd网络输出的置信度和检错器的检查结果,返回最终的场景信息;
步骤7:由步骤6的场景信息决定选择将图片直接输入ocr文字识别模型进行文字识别,或是将图片输入TextBoxes++模型进行文字位置检测并进行下一步;
步骤8:将TextBoxes++模型检测得到的文字位置结果同步骤5的手势的坐标位置比较,得到需要的文本区域,将所述文本区域输入sr-crnn模型,得到最后的识别结果。
2.根据权利要求1所述的一种基于场景分类和超分辨率的场景文字识别方法,其特征在于:所述步骤3包括以下步骤:
步骤3.1:网络权重初始化;
步骤3.2:对数据集进行裁剪并翻转后以PCA jittering进行数据增强;
步骤3.3:将经数据增强的数据集输入到深度学习框架构建的网络,输出得到网络的结果;
步骤3.4:将网络的结果和标签作为损失函数模型的两个输入,计算得到损失;
步骤3.5:若损失值大于等于设定的阈值K,则根据损失反向调整网络权重,返回步骤3.3,否则,以当前模型为最终模型。
3.根据权利要求2所述的一种基于场景分类和超分辨率的场景文字识别方法,其特征在于:所述步骤3.4中,c-ssd网络以CTC Loss函数作为损失函数模型,其中p(z|x)代表给定输入x、输出序列z的概率,S为训练集。
4.根据权利要求2所述的一种基于场景分类和超分辨率的场景文字识别方法,其特征在于:所述步骤3.4中,sr-crnn的损失函数模型为其中x为网络输出,c为置信度,l为预设的框,g为真实的框,r为真实的场景类别,α、β和γ分别为权重比例,α>0,β+γ=1。
5.根据权利要求1所述的一种基于场景分类和超分辨率的场景文字识别方法,其特征在于:所述步骤4中,以网络预测值与实际值的比较对网络进行评估,得到评估值其中,TP表示预测成功的数量,FP表示预测错误的数量,N表示图片的总数量,T表示所有类别,计算当IOU0.5时,预测成功,TP加1,否则预测失败,FP加1,其中,area1和area2分别为网络预测值与实际值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910107750.1/1.html,转载请声明来源钻瓜专利网。





