[发明专利]表计识别模型的学习方法、装置、设备和表计识别方法在审
申请号: | 202010736236.7 | 申请日: | 2020-07-28 |
公开(公告)号: | CN111950605A | 公开(公告)日: | 2020-11-17 |
发明(设计)人: | 袁飞;陈德;饶杰 | 申请(专利权)人: | 北京恒通智控机器人科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京轻创知识产权代理有限公司 11212 | 代理人: | 厉洋洋 |
地址: | 100089 北京市海淀区中关*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 识别 模型 学习方法 装置 设备 方法 | ||
1.一种表计识别模型的学习方法,其特征在于,包括:
采集多个表计样本图像,得到表计样本图像集,并将所述表计样本图像集按预设比例分为训练集、测试集和验证集;
将所述训练集输入至语义分割网络中,采用误差反向传播算法对所述语义分割网络进行训练,得到训练模型;
通过所述测试集对所述训练模型进行测试,得到所述训练模型的第一损失值,选取所述第一损失值小于第一预设损失阈值的训练模型作为验证模型,使用所述验证集对所述验证模型的准确率进行验证后,选取准确率最高的所述验证模型作为表计识别模型。
2.根据权利要求1所述的表计识别模型的学习方法,其特征在于,所述将所述训练集输入至语义分割网络中,采用误差反向传播算法对所述语义分割网络进行训练,得到训练模型,具体包括:
将所述训练集中的表计样本图像输入所述语义分割网络中进行分割,得到分割图像;
通过人工标注所述训练集中的表计样本图像,得到标注图像;
基于所述标注图像和所述分割图像,确定第二损失值;
根据所述第二损失值调整所述语义分割网络的参数,对所述语义分割网络进行迭代训练,直到图像分割网络的第二损失值小于或等于第二预设损失阈值,或训练次数达到预设次数时,得到所述训练模型。
3.根据权利要求1所述的表计识别模型的学习方法,其特征在于,所述语义分割网络的损失函数是根据所述语义分割网络的交叉熵损失确定的。
4.根据权利要求1-3中任一项所述的表计识别模型的学习方法,其特征在于,所述表计识别模型包括七个卷积层块,每个卷积层块包含两个卷积层、两个规范层和一个池化层。
5.一种表计识别方法,其特征在于,基于根据权利要求1-4中任一项所述的表计识别模型的学习方法所得到的表计识别模型,所述方法包括:
采集待识别的表计的图像数据;
将所述待识别的表计的图像数据输入所述表计识别模型,得到所述表计的指针角度值和量程数据;
根据所述指针角度值和所述量程数据,得到所述表计的读数。
6.根据权利要求5所述的表计识别方法,其特征在于,所述根据所述指针角度值和所述量程数据,得到所述表计的读数,具体包括:
根据所述量程数据中的起始角度、终止角度和所述指针角度值,得到所述指针角度值和所述表计的满量程角度的比值;
根据所述比值和所述量程数据中的单位刻度值,得到所述表计的读数。
7.一种表计识别模型的学习装置,其特征在于,包括:
采集模块,用于采集多个表计样本图像,得到表计样本图像集,并将所述表计样本图像集按预设比例分为训练集、测试集和验证集;
训练模块,用于将所述训练集输入至语义分割网络中,采用误差反向传播算法对所述语义分割网络进行训练,得到训练模型;
选定模块,用于通过所述测试集对所述训练模型进行测试,得到所述训练模型的第一损失值,选取所述第一损失值小于第一预设损失阈值的训练模型作为验证模型,使用所述验证集对所述验证模型的准确率进行验证后,选取准确率最高的所述验证模型作为表计识别模型。
8.一种表计识别装置,其特征在于,包括:
采集模块,用于采集待识别的表计的图像数据;
识别模块,用于将所述待识别的表计的图像数据输入如权利要求1-4中任一项所述的表计识别模型的学习方法所得到表计识别模型,得到所述表计的指针角度值;
计算模块,用于根据所述指针角度值和所述表计的量程数据,得到所述表计的读数。
9.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至4中任一项所述的表计识别模型的学习方法的步骤。
10.一种计算机设备,包括存储器和处理器,其特征在于,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至4中任一项所述的表计识别模型的学习方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京恒通智控机器人科技有限公司,未经北京恒通智控机器人科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010736236.7/1.html,转载请声明来源钻瓜专利网。