[发明专利]字符识别方法及装置有效
申请号: | 201811184618.2 | 申请日: | 2018-10-11 |
公开(公告)号: | CN111046859B | 公开(公告)日: | 2023-09-29 |
发明(设计)人: | 朱尧 | 申请(专利权)人: | 杭州海康威视数字技术股份有限公司 |
主分类号: | G06V30/14 | 分类号: | G06V30/14;G06V30/146;G06V30/19;G06V10/82 |
代理公司: | 北京博思佳知识产权代理有限公司 11415 | 代理人: | 林祥 |
地址: | 310051 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 字符 识别 方法 装置 | ||
本申请提供一种字符识别方法及装置,方法包括:将待识别图像输入到字符识别模型,由本字符识别模型通过字符定位网络在待识别图像中定位字符关键点,输出到本字符识别模型中的字符矫正网络,由字符矫正网络在待识别图像中利用字符关键点和预设位置点的对应关系确定待识别图像中的字符区域对应的矫正图像,并输出矫正图像给本字符识别模型中的字符识别网络识别矫正图像中的字符。由于字符矫正网络可对存在倾斜、旋转、形变等问题的图像矫正,因此识别结果稳定性好且识别准确率高,且本字符识别模型通过字符定位网络定位字符关键点并通过字符矫正网络和字符识别网络可得到结果,无需从图像中检测精确字符框,也无需进行分割,因此识别准确率高。
技术领域
本申请涉及图像处理技术领域,尤其涉及一种字符识别方法及装置。
背景技术
目前的字符识别技术通常包括字符区域定位和字符分割两个模块。在基于深度学习方法中,字符识别技术需要通过多个深度学习模型来实现,即先将图像输入特征提取模型提取图像的特征,然后再将特征提取模型输出的特征输入目标检测模型检测字符框,最后再将目标检测模型输出的字符框和特征提取模型输出的特征输入字符分割模型进行字符分割。
然而,这种多个深度学习模型独立存在,每个深度学习模型之间均有数据交互,因此会存在冗余计算,占用内存空间,导致字符识别速度低。
发明内容
有鉴于此,本申请提供一种字符识别方法及装置,以解决相关技术中的字符识别方式识别速度低的问题。
根据本申请实施例的第一方面,提供一种字符识别方法,所述方法包括:
将待识别图像输入到已训练的字符识别模型,以由本字符识别模型通过字符定位网络在所述待识别图像中定位字符关键点,并输出到本字符识别模型中的字符矫正网络,以由所述字符矫正网络在所述待识别图像中利用所述字符关键点和预设位置点的对应关系确定所述待识别图像中的字符区域对应的矫正图像,并输出所述矫正图像给本字符识别模型中的字符识别网络识别所述矫正图像中的字符;获取所述字符识别模型输出的字符识别结果。
根据本申请实施例的第二方面,提供一种字符识别装置,所述装置包括:
字符识别模块,用于将待识别图像输入到已训练的字符识别模型,以由本字符识别模型通过字符定位网络在所述待识别图像中定位字符关键点,并输出到本字符识别模型中的字符矫正网络,以由所述字符矫正网络在所述待识别图像中利用所述字符关键点和预设位置点的对应关系确定所述待识别图像中的字符区域对应的矫正图像,并输出所述矫正图像给本字符识别模型中的字符识别网络识别所述矫正图像中的字符;获取模块,用于获取所述字符识别模型输出的字符识别结果。
根据本申请实施例的第三方面,提供一种电子设备,包括可读存储介质和处理器;
其中,所述可读存储介质,用于存储机器可执行指令;
所述处理器,用于读取所述可读存储介质上的所述机器可执行指令,并执行所述指令以实现上述字符识别方法的步骤。
基于上述描述可知,由于整个识别过程全部在字符识别模型内部实现,不存在多个模型与外部平台的数据交互,从而可以提高识别速度,同时也降低了维护难度。又由于通过字符识别模型中的字符矫正网络可以对存在倾斜、旋转、形变等问题的图像进行矫正,因此本字符识别模型的字符识别结果稳定性好,且识别准确率高。又由于输入一张图像到字符识别模型后,模型直接输出字符识别结果,因此能够真正实现端到端的字符识别。另外,本字符识别模型只需通过字符定位网络在图像中定位到字符关键点,并通过字符矫正网络和字符识别网络便可得到字符识别结果,无需从图像中检测精确的字符框,也无需进行分割,因此可进一步提高识别准确率。
附图说明
图1为本申请根据一示例性实施例示出的一种字符字符识别模型的结构图;
图2A为本申请根据一示例性实施例示出的一种字符识别方法的实施例流程图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州海康威视数字技术股份有限公司,未经杭州海康威视数字技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811184618.2/2.html,转载请声明来源钻瓜专利网。