[发明专利]一种票据文本定位方法和装置在审
申请号: | 202110532551.2 | 申请日: | 2021-05-17 |
公开(公告)号: | CN113128492A | 公开(公告)日: | 2021-07-16 |
发明(设计)人: | 南晓停;朱敬业;王帆;达举东;孙明晨;郭媛;赵倩茹;陈茜蓉;韩尚直;龚本玲 | 申请(专利权)人: | 中国银行股份有限公司 |
主分类号: | G06K9/20 | 分类号: | G06K9/20;G06K9/32;G06K9/34;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京三友知识产权代理有限公司 11127 | 代理人: | 王天尧;谷敬丽 |
地址: | 100818 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 票据 文本 定位 方法 装置 | ||
1.一种票据文本定位方法,其特征在于,包括:
获取票据图像及其标注信息;
搭建深度卷积神经网络;
将票据图像和标注信息输入深度卷积神经网络,通过总体损失函数对深度卷积神经网络进行迭代训练,确定票据文本定位网络模型和权重参数;
从渠道端采集待检测票据图片,通过票据文本定位网络模型和权重参数进行票据文本定位,输出定位文本的倾斜文本框;
根据定位文本的倾斜文本框,对待检测票据图片进行裁剪,存入图片数据库。
2.如权利要求1所述的方法,其特征在于,获取票据图像和标注信息,包括:
从历史数据库中获取票据图像及其标注信息;其中,标注信息,包括票据图像中文本的中心坐标、尺寸、倾斜角度和置信度。
3.如权利要求1所述的方法,其特征在于,搭建深度卷积神经网络,包括:
采用深度残差网络ResNet50作为特征提取网络,去除网络的全连接层,仅保留多个卷积块通过上采样进行特征融合,设计不同大小的卷积核作为输出层提取特征,搭建深度卷积神经网络。
4.如权利要求2所述的方法,其特征在于,将票据图像及其标注信息输入深度卷积神经网络,通过总体损失函数对深度卷积神经网络进行迭代训练,确定票据文本定位网络模型和权重参数,包括:
将票据图像输入深度卷积神经网络,进行票据文本定位训练,输出预测文本框坐标信息、角度信息和置信度;
判断深度卷积神经网络是否达到预设迭代次数;
若未达到预设迭代次数,则根据票据图像的标注信息与预测文本框坐标信息、尺寸信息、角度信息和置信度之间的误差,计算总体损失函数;
利用反向传播算法将总体损失函数反向传播至深度卷积神经网络,反复迭代训练优化权重参数;
在达到预设迭代次数时,停止迭代训练,将此时的训练的深度卷积神经网络输出为票据文本定位网络模型,输出此时优化的权重参数。
5.如权利要求4所述的方法,其特征在于,根据票据图像的标注信息与预测文本框坐标信息、尺寸信息、角度信息和置信度信息之间的误差,计算总体损失函数,包括:
根据票据图像的中心坐标与预测文本框坐标信息,确定中心坐标损失;
根据票据图像的尺寸与预测文本框尺寸信息,确定尺寸损失;
根据票据图像的倾斜角度与预测文本框角度信息,确定角度损失;
根据票据图像的置信度与预测文本框置信度信息,确定置信度损失;
根据中心坐标损失、尺寸损失、角度损失和置信度损失,确定总体损失函数。
6.如权利要求5所述的方法,其特征在于,按照如下方式,确定中心坐标损失:
Lcenter=∑(x-x*)2+(y-y*)2
其中,Lcenter表示中心坐标损失;x表示预测文本框中心坐标的横坐标预测值;x*表示票据图像中心坐标的横坐标真实值;y表示预测文本框中心坐标的纵坐标预测值;y*表示票据图像中心坐标的纵坐标真实值。
7.如权利要求5所述的方法,其特征在于,按照如下方式,确定尺寸损失:
其中,Lsize表示尺寸损失;w表示预测文本框宽度预测值;w*表示票据图像宽度真实值;h表示预测文本框高度预测值;h*表示票据图像高度真实值。
8.如权利要求5所述的方法,其特征在于,按照如下方式,确定角度损失:
Lθ=∑1-cos(θ-θ*)
其中,Lθ表示角度损失;θ表示预测文本框角度预测值;θ*表示票据图像的倾斜角度真实值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国银行股份有限公司,未经中国银行股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110532551.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:计步作弊检测方法及装置
- 下一篇:基于区块链的信用贷产品申请方法及装置