[发明专利]三维目标检测模型训练方法及装置在审
申请号: | 202310221664.X | 申请日: | 2023-03-07 |
公开(公告)号: | CN116402976A | 公开(公告)日: | 2023-07-07 |
发明(设计)人: | 李想;阴俊博;李伟;杨睿刚;沈建冰 | 申请(专利权)人: | 嬴彻星创智能科技(上海)有限公司 |
主分类号: | G06T17/20 | 分类号: | G06T17/20;G06V10/25;G06V10/774;G06N20/20 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 李相雨 |
地址: | 200050 上海市长宁*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 三维 目标 检测 模型 训练 方法 装置 | ||
本发明涉及三维目标检测技术领域,提供一种三维目标检测模型训练方法及装置,该方法包括:基于二维检测框及与其对应的第一三维点云数据估计所述第一三维点云数据的伪三维检测框,将伪三维检测框作为第一伪标签;根据第一三维点云数据和对应的第一伪标签,以及第二三维点云数据和对应的真实标签训练教师网络;将第一三维点云数据输入训练好的教师网络,获取教师网络输出的第二伪标签;根据第一三维点云数据和对应的第二伪标签,以及第二三维点云数据和对应的真实标签训练学生网络,将训练完成的学生网络作为所述三维目标检测模型。本发明减少了模型训练需要人工标注三维检测框的依赖,降低了模型训练成本,而且保证了最终训练完成模型的性能。
技术领域
本发明涉及三维目标检测技术领域,尤其涉及一种三维目标检测模型训练方法及装置。
背景技术
三维目标检测在三维空间中检测出特定目标,广泛应用于机器人感知、自动驾驶等领域。利用激光雷达数据进行三维目标检测对自动驾驶系统具有重要意义,因为点云提供的信息比RGB图像更准确、更可靠。
现有技术中,全监督三维目标检测的研究已经进行了很长时间,并取得了很大的进展。然而,对于一个新引入的自动驾驶系统来说,点云中的3D标注是极其繁琐和耗时的,即现有的三维检测模型在训练时强依赖于三维标签,成本较高。
因此,探索从有限的激光雷达数据中学习数据效率的方法是有意义的。近年来,弱监督的方法获得了广泛的关注,弱监督三维目标检测通过更弱的监督信息,如:三维中心点、二维检测框等来达到近似全监督三维目标检测的效果,以此来降低标注成本和时间。根据有关研究统计,鸟瞰视角下的目标中心点标注比常规的三维检测框标注快15~45倍,二维检测框比三维检测框快3~16倍,并且现有的很多大规模2D数据集都已经包含了二维检测框。综上,弱监督的三维目标检测算法是一个有价值的方向。但是目前的弱监督方法依赖于在其他数据集上预训练的模型(如:检测器和分割器)提供监督信息(如:三维中心点、二维检测框),数据集间的域差异会影响模型性能,即模型对三维目标检测的准确度会降低。
半监督学习技术是用少量有标注样本和大量未标注样本数据训练模型的一种方法,它可以替代全监督学习框架为自动驾驶减少对标注的依赖。目前,半监督算法通常只从无标签和有标签中学习,由于有标签的样本数据较少,虽然减少了标签标注的成本,但会影响模型性能。
发明内容
本发明提供一种三维目标检测模型训练方法及装置,用以解决现有的三维目标检测技术中由于样本标注繁琐和耗时导致的模型训练成本高的缺陷,实现在不影响模型检测性能的情况下,减少模型训练成本。
本发明提供一种三维目标检测模型训练方法,包括:
基于二维检测框及与其对应的第一三维点云数据估计所述第一三维点云数据的伪三维检测框,将所述伪三维检测框作为第一伪标签;
根据所述第一三维点云数据和对应的第一伪标签,以及第二三维点云数据和对应的真实标签训练教师网络;
将所述第一三维点云数据输入训练好的教师网络,获取所述教师网络输出的第二伪标签;
根据所述第一三维点云数据和对应的第二伪标签,以及所述第二三维点云数据和对应的真实标签训练学生网络,将训练完成的学生网络作为所述三维目标检测模型,所述学生网络与教师网络具有相同的网络结构。
根据本发明提供的一种三维目标检测模型训练方法,基于二维检测框及与其对应的第一三维点云数据估计所述第一三维点云数据的伪三维检测框,包括:
过滤掉所述第一三维点云数据中的地面点云,得到过滤后的点云;
通过相机参数将所述过滤后的点云投影到二维图像坐标系下,筛选出位于所述二维检测框内的目标点云;
根据截锥和所述目标点云确定所述伪三维检测框,所述截锥由所述二维检测框和相机中图像传感器的中心位置确定。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于嬴彻星创智能科技(上海)有限公司,未经嬴彻星创智能科技(上海)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310221664.X/2.html,转载请声明来源钻瓜专利网。