[发明专利]遥感影像标的查勘模型的训练方法、装置、设备及介质有效
申请号: | 202110565746.7 | 申请日: | 2021-05-24 |
公开(公告)号: | CN113222039B | 公开(公告)日: | 2023-09-05 |
发明(设计)人: | 方聪;郑越;黄俊斌;李鹏程;洪亮 | 申请(专利权)人: | 中国平安财产保险股份有限公司 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06V20/10;G06N3/0464;G06N3/047;G06N3/048;G06N3/08 |
代理公司: | 深圳市明日今典知识产权代理事务所(普通合伙) 44343 | 代理人: | 王杰辉;宋庆洪 |
地址: | 518000 广东省深圳市福田区益田路*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 遥感 影像 标的 查勘 模型 训练 方法 装置 设备 介质 | ||
本申请涉及人工智能技术领域,揭示了一种遥感影像标的查勘模型的训练方法、装置、设备及介质,其中方法包括:采用预设数量,从训练样本集合中获取训练样本,得到目标训练样本子集合;采用半精度训练策略,根据目标训练样本子集合对初始模型进行训练,初始模型是基于Resnet网络得到的模型;重复执行采用预设数量,从训练样本集合中获取训练样本,得到目标训练样本子集合的步骤,直至满足预设训练结束条件,将满足预设训练结束条件的初始模型,确定为遥感影像标的查勘模型。实现了将半精度训练策略应用于遥感影像标的查勘模型的训练阶段,在尽可能减小精度损失的情况下利用半精度浮点数加速训练,减少了计算耗费时长,也减少了占用的资源。
技术领域
本申请涉及到人工智能技术领域,特别是涉及到一种遥感影像标的查勘模型的训练方法、装置、设备及介质。
背景技术
传统的遥感影像标的查勘模型在构建时,为了避免神经网络计算的精度损失采用的参数精度为FP32(即32位浮点数),其取值范围在1.4x 10-45~3.4x 1038。因为FP32的数值占用了大量字节,在神经网络计算时耗费的时间显著长于精度较小的浮点数(比如,16位浮点数),而且占用资源也显著大于精度较小的浮点数。
发明内容
本申请的主要目的为提供一种遥感影像标的查勘模型的训练方法、装置、设备及介质,旨在解决现有技术的遥感影像标的查勘模型在构建时,为了避免计算的精度损失采用的参数精度为32位浮点数,导致计算时耗费时长显著长于精度较小的浮点数,占用资源也显著大于精度较小的浮点数的技术问题。
为了实现上述发明目的,本申请提出一种遥感影像标的查勘模型的训练方法,所述方法包括:
获取训练样本集合,所述训练样本集合中的每个训练样本包括:遥感影像样本数据和查勘标定值;
获取预设数量,采用所述预设数量,从所述训练样本集合中获取所述训练样本,得到目标训练样本子集合;
采用半精度训练策略,根据所述目标训练样本子集合对初始模型进行训练;
重复执行所述采用所述预设数量,从所述训练样本集合中获取所述训练样本,得到目标训练样本子集合的步骤,直至满足预设训练结束条件,将满足所述预设训练结束条件的所述初始模型,确定为遥感影像标的查勘模型。
进一步的,所述采用半精度训练策略,根据所述目标训练样本子集合对初始模型进行训练的步骤,包括:
获取参数备份库,所述参数备份库中的数据的数据精度是第一精度浮点数;
基于所述初始模型的需更新参数采用第二精度浮点数的方法,根据所述参数备份库,分别将所述目标训练样本子集合中的每个所述训练样本的所述遥感影像样本数据输入所述初始模型进行查勘预测,得到查勘样本预测结果集合;
基于所述第一精度浮点数和损失函数,根据所述查勘样本预测结果集合和所述目标训练样本子集合中的所有所述查勘标定值,分别对所述目标训练样本子集合中的每个所述训练样本进行损失值计算,得到待处理的损失值集合;
基于所述第一精度浮点数,根据所述参数备份库和所述待处理的损失值集合更新所述初始模型的所述需更新参数,更新后的所述初始模型被用于下一次计算所述查勘样本预测结果。
进一步的,所述基于所述第一精度浮点数,根据所述参数备份库和所述待处理的损失值集合更新所述初始模型的所述需更新参数的步骤,包括:
当所述目标训练样本子集合中包括一个所述训练样本时,基于所述第二精度浮点数,根据所述待处理的损失值集合中的待处理的损失值对所述初始模型的所述需更新参数进行参数梯度计算,得到第一待更新的梯度数据集合;
从所述参数备份库中获取参数,作为第一待计算的参数集合;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国平安财产保险股份有限公司,未经中国平安财产保险股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110565746.7/2.html,转载请声明来源钻瓜专利网。