[发明专利]一种基于场景分类和超分辨率的场景文字识别方法有效
| 申请号: | 201910107750.1 | 申请日: | 2019-02-02 |
| 公开(公告)号: | CN109977942B | 公开(公告)日: | 2021-07-23 |
| 发明(设计)人: | 郑雅羽;梁圣浩;寇喜超;林斯霞 | 申请(专利权)人: | 浙江工业大学 |
| 主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/62 |
| 代理公司: | 杭州赛科专利代理事务所(普通合伙) 33230 | 代理人: | 郭薇 |
| 地址: | 310014 浙*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: |
本发明涉及一种基于场景分类和超分辨率的场景文字识别方法,通过构建 |
||
| 搜索关键词: | 一种 基于 场景 分类 分辨率 文字 识别 方法 | ||
【主权项】:
1.一种基于场景分类和超分辨率的场景文字识别方法,其特征在于:所述方法包括以下步骤:步骤1:结合分类网络和ssd的共同点,得到c‑ssd;融合超分辨率和卷积循环神经网络,基于crnn网络增加上采样层,得到sr‑rcnn网络;步骤2:以已知的ssd模型和crnn模型分别初始化c‑ssd网络和sr‑crnn网络的对应卷积层参数;步骤3:以数据增强的方法扩张数据集;用扩张后的数据集对c‑ssd网络和sr‑crnn网络进行训练,得到相应的c‑ssd模型和sr‑crnn模型;步骤4:用评估数据集对训练得到的模型进行评估,若效果未达标,则增加数据集,返回步骤3重新训练评估,否则进行下一步;步骤5:将带手势的图片输入训练好的c‑ssd模型中进行处理,返回手势的坐标位置与场景信息;步骤6:以文字特征设计检错器,对步骤5返回的场景信息进行检查,结合c‑ssd网络输出的置信度和检错器的检查结果,返回最终的场景信息;步骤7:由步骤6的场景信息决定选择将图片直接输入ocr文字识别模型进行文字识别,或是将图片输入TextBoxes++模型进行文字位置检测并进行下一步;步骤8:将TextBoxes++模型检测得到的文字位置结果同步骤5的手势的坐标位置比较,得到需要的文本区域,将所述文本区域输入sr‑rcnn模型,得到最后的识别结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910107750.1/,转载请声明来源钻瓜专利网。





