[发明专利]一种深度学习场景文本序列识别方法有效
申请号: | 201811569122.7 | 申请日: | 2018-12-21 |
公开(公告)号: | CN109726657B | 公开(公告)日: | 2023-06-09 |
发明(设计)人: | 江威明;李光亚;陈诚 | 申请(专利权)人: | 万达信息股份有限公司 |
主分类号: | G06V20/62 | 分类号: | G06V20/62;G06V30/40;G06V30/14;G06V30/19;G06V10/82;G06N3/0464;G06N3/048;G06N3/084 |
代理公司: | 上海申汇专利代理有限公司 31001 | 代理人: | 翁若莹;柏子雵 |
地址: | 200233 上海市*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 深度 学习 场景 文本 序列 识别 方法 | ||
1.一种深度学习场景文本序列识别方法,其特征在于,包括以下步骤:
步骤1、对联合线性插值上采样的稠密卷积神经网络进行训练,该联合线性插值上采样的稠密卷积神经网络包括三层稠密模块层加卷积模块层、对第三层稠密模块层加卷积模块层的输出结果进行双线性插值以增大特征图尺寸的线性插值模块、接收线性插值模块的输出并进行序列特征提取的一层稠密模块层、对稠密模块层的输出进行卷积操作从而产生最终的特征序列的一层卷积层,其中,稠密模块层为平均池化操作被替换为卷积核为2*2、步长为2的卷积操作的稠密卷积神经网络;
步骤2、实时输入包含文本序列的图像;
步骤3、包含文本序列的图像输入训练后的联合线性插值上采样的稠密卷积神经网络得到与步骤2输入的包含文本序列的图像相对应的特征序列;
步骤4、将特征序列输入转录层中的Softmax函数,得到特征序列中每一帧的预测标签,进而将预测标签输入转录层中的联接时间分类模块,去除冗余字符得到最终文本识别结果。
2.如权利要求1所述的一种深度学习场景文本序列识别方法,其特征在于,所述步骤1包括:
步骤101、将训练数据输入联合线性插值上采样的稠密卷积神经网络,训练数据包括包含文本序列的图像和序列标签;
步骤102、包含文本序列的图像在联合线性插值上采样的稠密卷积神经网络中前向传播,计算联合线性插值上采样的稠密卷积神经网络每层的权重;
步骤103、联合线性插值上采样的稠密卷积神经网络输出至转录层的Softmax函数中,计算得到步骤102输出的特征序列的每一帧的类别概率,然后将每帧的类别概率输入联合时间分类损失函数得到最终的输出结果,将输出结果与序列标签做最佳拟合,进而反向传播更新联合线性插值上采样的稠密卷积神经网络每层的权重;
步骤104、重复步骤102及步骤103直至收敛。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于万达信息股份有限公司,未经万达信息股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811569122.7/1.html,转载请声明来源钻瓜专利网。