[发明专利]基于深度图的无人车局部自主控制方法、装置和设备有效
申请号: | 202111043740.X | 申请日: | 2021-09-07 |
公开(公告)号: | CN113486871B | 公开(公告)日: | 2021-11-16 |
发明(设计)人: | 胡瑞军;张育林;郑永煌;李传详;梁庄;张琦;赵成;谌廷政;索相波 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06T7/55;G06N3/04;G06N3/08;G06N5/04;G06N20/00;G05D1/02 |
代理公司: | 长沙国科天河知识产权代理有限公司 43225 | 代理人: | 邱轶 |
地址: | 410073 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 无人 局部 自主 控制 方法 装置 设备 | ||
1.一种基于深度图的无人车局部自主控制方法,其特征在于,包括步骤:
将历史时刻连续拍摄得到的多个深度图像对应的深度特征矢量与拍摄所述深度图像时无人车的导航目标点位置坐标进行拼接融合,得到融合特征矢量并作为无人车的导航神经网络的输入状态;所述深度图像通过无人车视野拍摄获取;所述深度特征矢量通过对所述深度图像进行处理提取得到;所述历史时刻连续拍摄是指当前时刻到过去个连续时刻连续拍摄;
将设计的目标趋近奖励、避障奖励和能量优化奖励进行加和运算,得到综合奖励函数;
利用所述融合特征矢量和所述综合奖励函数,在障碍物仿真环境中采用超参数分段的训练策略对所述导航神经网络进行训练;
在真实物理环境中,获取当前时刻无人车视野拍摄的深度图像,将当前时刻到过去个连续时刻无人车视野连续拍摄的深度图像对应的深度特征矢量,与拍摄深度图像时无人车的导航目标点位置坐标进行拼接融合得到的融合特征矢量,输入至训练好的所述导航神经网络,输出无人车控制指令。
2.根据权利要求1所述的基于深度图的无人车局部自主控制方法,其特征在于,对所述深度图像进行处理,提取得到深度特征矢量,包括:
对所述深度图像进行地面背景减除,得到障碍物深度图;
对所述障碍物深度图进行深度特征降维采样,得到所述深度特征矢量。
3.根据权利要求2所述的基于深度图的无人车局部自主控制方法,其特征在于,对所述深度图像进行地面背景减除,得到障碍物深度图的步骤,包括:
获取所述深度图像中开阔地带的地面深度图像;
获取所述无人车在工作过程中当前视野的当前深度图像;
计算所述当前深度图像与所述地面深度图像的相似度矩阵;
根据所述相似度矩阵和所述当前深度图像的像素矩阵进行矩阵元素乘积计算,减除背景深度信息,得到所述障碍物深度图。
4.根据权利要求2所述的基于深度图的无人车局部自主控制方法,其特征在于,对所述障碍物深度图进行深度特征降维采样,得到所述深度特征矢量的步骤,包括:
将所述障碍物深度图的下半幅沿水平方向分割为N个条状子图;
分别将每个所述条状子图的最大像素值设为每个所述条状子图的特征采样值;
将各所述特征采样值进行反归一化变换,得到所述深度特征矢量。
5.根据权利要求1至4任一所述的基于深度图的无人车局部自主控制方法,其特征在于,所述目标趋近奖励为:
其中,表示比例系数,表示 时刻目标引导点到无人车的距离,表示时刻目标引导点到无人车的距离,表示所述无人车到达目标引导点的判定距离阈值。
6.根据权利要求5所述的基于深度图的无人车局部自主控制方法,其特征在于,所述避障奖励为:
其中,表示比例系数,表示深度带状分割矢量各元素的权重矢量,表示 时刻的深度特征矢量,表示 时刻的深度特征矢量,表示深度特征向量维数,表示无人车到任意障碍物的距离,表示判定所述无人车与环境障碍物是否发生碰撞的距离阈值。
7.根据权利要求5所述的基于深度图的无人车局部自主控制方法,其特征在于,所述能量优化奖励为:
其中,表示每个训练回合的设置回合内步数上限,表示当前步数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111043740.X/1.html,转载请声明来源钻瓜专利网。