[发明专利]基于单目相机的障碍物检测方法及系统有效
申请号: | 201910986657.2 | 申请日: | 2019-10-17 |
公开(公告)号: | CN110852177B | 公开(公告)日: | 2022-09-09 |
发明(设计)人: | 陈晓光;潘铁男;王智新;刘震;史龙;李斌 | 申请(专利权)人: | 北京全路通信信号研究设计院集团有限公司 |
主分类号: | G06V20/54 | 分类号: | G06V20/54;G06V10/762;G06V10/764;G06V10/82;G06K9/62 |
代理公司: | 北京知联天下知识产权代理事务所(普通合伙) 11594 | 代理人: | 张陆军 |
地址: | 100070 北京市丰台区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 相机 障碍物 检测 方法 系统 | ||
1.一种基于单目相机的障碍物检测方法,其特征在于,包括:
步骤S1:通过单目相机进行图像采集获得多个图像,并将多个所述图像划分为多个数据集,根据多个所述数据集构建训练集、验证集和测试集;
步骤S2:通过k-means方法对所述训练集进行聚类,获得障碍物目标的宽高比;
步骤S3:根据多个所述数据集及所述障碍物目标的宽高比对YOLOv3网络模型进行训练;
步骤S4:将实时图像输入至训练好的所述YOLOv3网络模型进行障碍物检测;
所述步骤S2中包括:
步骤S21:根据所述训练集中的每一类别的所述障碍物目标的信息,获得所述障碍物目标的矩形框的高度和宽度;
步骤S22:针对每一类别的所述障碍物目标设置一第一聚类中心,计算所述训练集中每一点与所述第一聚类中心所构成的矩形框的最大交并比,根据所述最大交并比的所述第一聚类中心获得交并比和,并根据所述交并比和获得多个第二聚类中心;
步骤S23:计算所述训练集的每个点与所述第二聚类中心所构成的矩形框的交并比,并将其划分到交并比最大的聚类中,对每个聚类更新其聚类中心,直至聚类中心不再变化后获得所述障碍物目标的多个所述宽高比。
2.如权利要求1所述的障碍物检测方法,其特征在于,于所述步骤S1中包括:
步骤S11:于不同时段通过所述单目相机进行图像采集获得多个图像,将所述多个图像划分为多个所述数据集;
步骤S12:对每一所述数据集进行图像筛选;
步骤S13:对筛选后的所述数据集的每一所述图像进行标注并记录图像中障碍物目标的信息;
步骤S14:去除所述图像的相关性,根据一比例系数将所述图像划分为所述训练集、所述验证集和所述测试集。
3.如权利要求1所述的障碍物检测方法,其特征在于,于所述步骤S3中包括:
步骤S31:设置所述YOLOv3网络模型的两个输出层尺寸;
步骤S32:根据所述验证集设置所述YOLOv3网络模型的多个超参数,多个所述超参数的其中之一为所述宽高比;
步骤S33:将多个所述数据集输入所述YOLOv3网络模型进行训练至最大训练迭代步数后保存。
4.如权利要求1-3任一项所述的障碍物检测方法,其特征在于,于所述步骤S4中包括:
步骤S41:将实时图像输入至训练好的所述YOLOv3网络模型;
步骤S42:所述YOLOv3网络模型经过logistic函数激活得到所述障碍物的初步分类预测和初步坐标预测;
步骤S43:对所述初步分类预测和所述初步坐标预测进行处理获得最终分类预测和最终坐标预测。
5.如权利要求1所述的障碍物检测方法,其特征在于,于所述步骤S22中包括:
步骤S221:针对每一类别的所述障碍物目标设置所述第一聚类中心;
步骤S222:计算所述训练集中的每个点与所述第一聚类中心所构成的矩形框的最大交并比;
步骤S223:将所述训练集中的每个点与其交并比最大的所述第一聚类中心之间的交并比相加,获得所述交并比和;
步骤S224:在0至所述交并比和之间选取一个随机值,计算所述随机值与所述最大交并比的差值,将所述差值小于0时的点作为所述第二聚类中心;
步骤S225:重复S222-S224直至得到多个所述第二聚类中心。
6.如权利要求2所述的障碍物检测方法,其特征在于,于所述步骤S12中:根据光照条件、时段、障碍物姿态对所述数据集进行筛选。
7.如权利要求2所述的障碍物检测方法,其特征在于,于所述步骤S13中,所述障碍物目标的信息包括:所述障碍物目标的类别信息及坐标信息。
8.如权利要求3所述的障碍物检测方法,其特征在于,于所述步骤S32中,多个所述超参数包括:训练初始学习率、学习策略、初始输入图片大小、最大训练迭代步数及宽高比。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京全路通信信号研究设计院集团有限公司,未经北京全路通信信号研究设计院集团有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910986657.2/1.html,转载请声明来源钻瓜专利网。