[发明专利]基于深度学习的交通目标检测与测距方法有效
申请号: | 201810314076.X | 申请日: | 2018-04-10 |
公开(公告)号: | CN108830131B | 公开(公告)日: | 2021-05-04 |
发明(设计)人: | 晁涌耀;梁艳菊;常嘉义 | 申请(专利权)人: | 昆山微电子技术研究院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京辰权知识产权代理有限公司 11619 | 代理人: | 刘广达 |
地址: | 215347 江苏省苏州市昆山祖冲*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 交通 目标 检测 测距 方法 | ||
1.基于深度学习的交通目标检测与测距方法,其特征在于,包括:
算法模型训练步骤,选择车辆附近的图像区域样本,对图像增加样本,对增加的样本改变像素使其成为具有相等强度的图像,最后进行深度学习训练得到模型;
所述算法模型训练步骤具体包括如下步骤:
根据当前车速进行兴趣区域设置,选择图像区域样本;
对所述图像区域样本增强,通过图像的几何变换,使用一种或多种组合进行样本增强变换来增加输入数据的量;
对比度归一化,通过从每个图像中减去整个图片的平均强度,然后重新缩放使得图像像素上的标准差等于预设常数;
进行深度卷积神经网络训练,确定网络模型与损失函数,采集交通场景下的图片,进行深度学习的网络训练,最终得到深度卷积神经网络模型;
所述损失函数包括定位损失、类别损失、置信度损失、距离误差四个要素,所述四个要素加权累加构成所述损失函数;
所述的定位损失为在预测目标的位置上带来的误差,表达式为:
其中,LossLoc为定位损失误差,I为第i个格子是否包含第j个物体的中心,若包含则为I=0,若不包含则I=1,x为横坐标,y为纵坐标,w为宽度,h为高度;
所述的类别损失为在预测目标的类别时带来的误差,表达式为:
其中,p(c)为类别向量;
所述的置信度损失为在预测是不是有物体时带来的误差,表达式为:
其中,p(obj)为存在目标的概率;
所述的距离误差为在预测目标的距离时带来的误差,表达式为:
其中,为真实距离,nDis为预测距离;
算法模型预测步骤,基于所述训练得到的模型,选择车辆附近的图像区域样本,对所述图像区域样本对比度归一化,再进行深度卷积神经网络预测,输出图像数据。
2.如权利要求1所述的交通目标检测与测距方法,其特征在于,所述算法模型预测步骤具体包括如下步骤:
根据当前车速进行兴趣区域设置,选择图像区域样本;
对比度归一化,通过从每个图像中减去其平均值,然后重新缩放使得图像像素上的标准差等于预设常数;
深度卷积神经网络预测,对比度归一化后的图像输入到训练好的深度卷积神经网络模型中,输出图像数据。
3.如权利要求1所述的交通目标检测与测距方法,其特征在于,所述的兴趣区域设置的方式如下:在车速小于20km/h时,所述兴趣区域设置为车前及距离车辆两侧二十米内;在车速大于60km/h时,所述兴趣区域设置为车辆前方两百米。
4.如权利要求1所述的交通目标检测与测距方法,其特征在于,所述的对比度归一化,为近似的全局对比度归一化,输出图像X′:
其中,X∈Rr*c*З表示图像的三维张量,表示整个图片的三维张量平均强度,i为第i行,j为第j列,k为颜色标号,i、j、k均为整数,λ为平衡标准差的正则化参数,ε为防止数值上溢的数值,r为行数,c为列数。
5.如权利要求1所述的交通目标检测与测距方法,其特征在于,所述方法进一步包括:对所述深度卷积神经网络进行不均匀的网格划分,每个网格预测落入当前网格的物体类别的可能性、坐标、距离。
6.如权利要求1所述的交通目标检测与测距方法,其特征在于,所述图像数据包括图片中的交通目标的类别、坐标、位置、置信度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于昆山微电子技术研究院,未经昆山微电子技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810314076.X/1.html,转载请声明来源钻瓜专利网。