[发明专利]卷积神经网络训练方法、装置和电子系统有效
申请号: | 201911321668.5 | 申请日: | 2019-12-19 |
公开(公告)号: | CN111126478B | 公开(公告)日: | 2023-07-07 |
发明(设计)人: | 孙奕帆 | 申请(专利权)人: | 北京迈格威科技有限公司;上海旷镜博煊科技有限公司 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/82;G06N3/0464;G06N3/09 |
代理公司: | 北京超凡宏宇专利代理事务所(特殊普通合伙) 11463 | 代理人: | 董艳芳 |
地址: | 100096 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 神经网络 训练 方法 装置 电子 系统 | ||
本发明提供了一种卷积神经网络训练方法、装置和电子系统;该方法包括:基于预设的训练集合确定当前训练图片;将当前训练图片输入至卷积神经网络中;基于当前训练图片中除第二标注框之外的其余区域计算损失值;根据损失值调整卷积神经网络的参数;将当前训练得到的卷积神经网络确定为训练好的卷积神经网络。该方式中,训练集合的训练图片标注了包含目标对象的第一标注框和疑似包含目标对象的第二标注框,在计算时损失值时,只考虑除第二标注框之外的其余区域,对于疑似包含目标对象的区域不计算损失值,这样卷积神经网络的训练过程不存在自相矛盾的监督信息,可以提升卷积神经网络的训练效果,提高训练后的卷积神经网络的性能,增加召回率。
技术领域
本发明涉及神经网络技术领域,尤其是涉及一种卷积神经网络训练方法、装置和电子系统。
背景技术
深度学习为目标检测提供了一系列通用方法。例如,Faster RCNN(FasterRegionConvolutional Neural Networks,快速区域卷积神经网络)采用两阶段方式,先分离图像中的前景、背景,然后在前景区域中精细区分物体种类并预测相应位置;YOLO(You Only Look Once)采用单阶段方式,在多层网络输出中,预测不同大小物体的种类及位置。这些方法已经在多种物体检测任务(如行人检测、车辆检测)中获得了成功应用。然而,现有的深度学习方法用于检测生产车间的物料时仍然存在巨大的困难,即难以获得大量完备标注的图像用以训练深度模型。
具体来讲,为了训练物料检测模型,需要以矩形框的方式,手工标注图像中的所有物料所在位置。然而,物料的标注非常困难。不同于行人或者车辆,“物料”通常含有多个子类。例如,物料可能包含木材、轮胎、钢板、线缆等。在实际标注中,标注人员经常无法确认某些具体物品是否属于物料,因此很难将所有物料准确标示出来,形成不完备标注。未被标注的物料在训练过程中被作为背景采样,形成自相矛盾的监督信息,显著降低物料检测性能,尤其降低召回率指标。
发明内容
有鉴于此,本发明的目的在于提供一种卷积神经网络训练方法、装置和电子系统,以提升卷积神经网络的训练效果,提高训练后的卷积神经网络的性能,增加召回率。
第一方面,本发明实施例提供了一种卷积神经网络训练方法,包括:基于预设的训练集合确定当前训练图片;当前训练图片预先标注包含目标对象的第一标注框和疑似包含目标对象的第二标注框;对于每一个当前训练图片,均执行以下训练操作:将当前训练图片输入至卷积神经网络中,输出卷积特征图;其中,卷积特征图包括多个特征区域;如果卷积特征图的特征区域与第一标注框对应,则输出第一标注框的位置信息;基于卷积特征图、当前训练图片中除第二标注框之外的其余区域和预设的损失函数计算当前训练图片的损失值;根据损失值调整卷积神经网络的参数;当训练操作满足预设的训练结束条件时,将当前训练得到的卷积神经网络确定为训练好的卷积神经网络。
在本发明较佳的实施例中,如果目标对象有多个类型,则第一标注框有多个类型,第一标注框的类型与目标对象的类型对应;并且,第二标注框包括疑似包含目标对象的标注框,或者无法确定包含的目标对象的类的标注框型。
在本发明较佳的实施例中,如果目标对象有一个类型;则第一标注框为包含一个类型的标注框,第二标注框为疑似包含目标对象的标注框。
在本发明较佳的实施例中,上述将当前训练图片输入至卷积神经网络中,输出卷积特征图的步骤,包括:将当前训练图片输入至卷积神经网络中;如果特征区域对应当前训练图片中包含目标对象的区域,则确定目标对象对应的第一标注框,并输出对应的第一标注框的位置信息。
在本发明较佳的实施例中,上述基于卷积特征图、当前训练图片中除第二标注框之外的其余区域和预设的损失函数计算当前训练图片的损失值的步骤,包括:对于卷积特征图对应的每一个特征区域,基于预设的损失函数计算特征区域的损失值;将卷积特征图对应的损失值中,除第二标注框对应的特征区域之外的其余特征区域的损失值求和,得到当前训练图片的损失值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京迈格威科技有限公司;上海旷镜博煊科技有限公司,未经北京迈格威科技有限公司;上海旷镜博煊科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911321668.5/2.html,转载请声明来源钻瓜专利网。