[发明专利]一种基于深度学习的场景文字检测方法和系统有效
| 申请号: | 201910426384.6 | 申请日: | 2019-05-22 |
| 公开(公告)号: | CN110163208B | 公开(公告)日: | 2021-06-29 |
| 发明(设计)人: | 彭小兵;刘新华;李方敏;旷海兰;张韬;杨志邦 | 申请(专利权)人: | 长沙学院 |
| 主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/34;G06K9/62 |
| 代理公司: | 武汉臻诚专利代理事务所(普通合伙) 42233 | 代理人: | 宋业斌 |
| 地址: | 410003 湖南省长*** | 国省代码: | 湖南;43 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明公开了一种基于深度学习的场景文字检测方法,包括:获取主要数据集和补充数据集,并为主要数据集和补充数据集中的每幅图像生成训练标签,从补充数据集中选择N张图像,并将N张图像输入卷积神经网络模型,利用卷积神经网络中的卷积块对N张图像进行逐层特征融合,以得到N张图像中每个像素点的融合特征,计算N张图像中每个像素点的融合特征的分割损失值和回归损失值,使用Adam优化算法更新卷积神经网络的权重,并重复达到预定迭代次数,从而生成预训练好的卷积神经网络。本发明能解决现有场景文字检测方法中存在的无法检测倾斜文字、以及容易受到底层错误特征的干扰而导致检测准确率低的技术问题。 | ||
| 搜索关键词: | 一种 基于 深度 学习 场景 文字 检测 方法 系统 | ||
【主权项】:
1.一种基于深度学习的场景文字检测方法,其特征在于,包括以下步骤:(1)获取主要数据集和补充数据集,并为主要数据集和补充数据集中的每幅图像生成训练标签,训练标签包括像素类型标签、以及包围框坐标偏移标签;(2)从步骤(1)中获取的补充数据集中选择N张图像,并将N张图像输入卷积神经网络模型,利用卷积神经网络中的卷积块ResStage4、ResStage3、ResStage2、ResStage1对N张图像进行逐层特征融合,以得到N张图像中每个像素点的融合特征;(3)根据以下公式计算步骤(2)得到的N张图像中每个像素点的融合特征的分割损失值和回归损失值:(4)使用Adam优化算法更新步骤(2)中卷积神经网络的权重,并重复上述步骤(2)和(3)达到预定迭代次数,从而生成预训练好的卷积神经网络。(5)从步骤(1)中获取的主要数据集中选择N张图像,并将N张图像输入步骤(4)预训练好的卷积神经网络模型,利用该卷积神经网络中的卷积块ResStage4、ResStage3、ResStage2、ResStage1对N张图像进行特征融合,以得到N张图像中每个像素点的融合特征;(6)计算步骤(5)得到的N张图像中每个像素点的融合特征的分割损失值和回归损失值:(7)使用Adam优化算法更新步骤(4)中预训练好的卷积神经网络的权重,并重复上述步骤(5)和(6)达到预定迭代次数,从而生成训练好的卷积神经网络。(8)获取场景文字图像,将获取的该场景文字图像输入步骤(7)中训练好的卷积神经网络中,从而得到该场景文字图像中每个像素点的类型(即文字像素和非文字像素)、以及属于文字类型的每个像素点与其所处包围框4个顶点坐标中每一个顶点坐标之间的偏移值。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长沙学院,未经长沙学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910426384.6/,转载请声明来源钻瓜专利网。





