[发明专利]基于改进YOLOv3网络的无人车夜间环境感知方法在审
申请号: | 201811235933.3 | 申请日: | 2018-10-23 |
公开(公告)号: | CN109508710A | 公开(公告)日: | 2019-03-22 |
发明(设计)人: | 裴嘉欣;孙韶媛;王宇岚;刘致驿 | 申请(专利权)人: | 东华大学 |
主分类号: | G06K9/20 | 分类号: | G06K9/20;G06K9/00;G06K9/62 |
代理公司: | 上海申汇专利代理有限公司 31001 | 代理人: | 翁若莹;柏子雵 |
地址: | 200050 上*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 周边车辆 无人车 红外图像 环境感知 预测 改进 角度信息 目标信息 网络边界 网络应用 行驶意图 网络 框位置 实时性 小目标 图像 检测 应用 保证 | ||
1.一种基于改进YOLOv3网络的无人车夜间环境感知方法,其特征在于,包括以下步骤:
步骤1、构建夜视图像数据集,挑选无人车采集的红外图像,对这些红外图像中包含的行人及车辆进行真实目标位置标注,得到样本文件;
步骤2、对原始红外图像中目标车辆的角度进行人工标定,构成车辆角度样本文件,与步骤1得到的样本文件组成夜视图像目标与车辆角度样本文件;
步骤3、构建改进的YOLOv3网络,该改进的YOLOv3网络为加入车辆角度预测的YOLOv3网络,利用步骤2得到的夜视图像目标与车辆角度样本文件训练改进的YOLOv3网络,通过改进的YOLOv3网络提取特征,从而得到特征图;
步骤4、将整幅特征图划分成S×S个网格,每个网格生成B个边界框,每个边界框预测6个值,分别为:位置信息(x,y,w,h)、置信度和角度,(x,y)表示边界框相对于网格中心的的坐标,(w,h)是边界框相对于整张图片的高度和宽度,将每个边界框根据类别置信度预测一个类别信息,类别分为行人及车辆;
步骤5、根据步骤4得到的类别信息,当类别为车辆时,给出预测车辆的角度信息和车辆边界框,当类别为行人时,给出目标行人边界框;
步骤6:根据设定的阈值筛选出对于特定类别的置信度得分高的边界框,并用非极大抑制算法删除重叠的边界框,得到最终目标边界框和车辆角度预测结果。
2.如权利要求1所述的一种基于改进YOLOv3网络的无人车夜间环境感知方法,其特征在于,步骤1中,进行真实目标位置标注的方法为:将红外图像中包含的所有行人和车辆目标用框标出,将图像中车辆、行人的数目以及车辆、行人的边界框的左上右下4个坐标信息记录到样本文件中。
3.如权利要求1所述的一种基于改进YOLOv3网络的无人车夜间环境感知方法,其特征在于,步骤3中,所述改进的YOLOv3网络中,采用Darknet-53网络作为特征提取网络,经过一系列的卷积、下采样后将卷积的通道数翻倍,提取特征后再使用1×1和3×3的卷积和交替操作,最后使用平均-池化进行预测。
4.如权利要求1所述的一种基于改进YOLOv3网络的无人车夜间环境感知方法,其特征在于,步骤4中,基于目标anchor boxes的思想,使每个所述网格的周围生成几个固定比例的边框,通过设定anchor的个数,采用K-Means聚类方法得出anchor的大小。
5.如权利要求1所述的一种基于改进YOLOv3网络的无人车夜间环境感知方法,其特征在于,目标车辆的周边车辆的车辆角度是以车辆边界框中心水平向右为零度,逆时针角度变大,旋转一圈为360度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东华大学,未经东华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811235933.3/1.html,转载请声明来源钻瓜专利网。