[发明专利]一种基于视觉目标跟踪的车辆驾驶自主决策方法及装置有效
| 申请号: | 202110747133.5 | 申请日: | 2021-07-02 |
| 公开(公告)号: | CN113537001B | 公开(公告)日: | 2023-06-23 |
| 发明(设计)人: | 李松;李玉;刘近平 | 申请(专利权)人: | 安阳工学院 |
| 主分类号: | G06V20/56 | 分类号: | G06V20/56;G06V20/40;G06V10/25;G06V10/774;G06V10/764;G06V10/82;G06N3/0464;G06N3/08 |
| 代理公司: | 安阳市智浩专利代理事务所(普通合伙) 41116 | 代理人: | 杨红军 |
| 地址: | 455000 河南省*** | 国省代码: | 河南;41 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 视觉 目标 跟踪 车辆 驾驶 自主 决策 方法 装置 | ||
本发明提供的一种基于视觉目标跟踪的车辆驾驶自主决策方法及装置,通过获取驾驶车辆的图像数据序列作为跟踪模型的输入,采用优化网络结构和激励函数,构建神经网络模型然后进行训练得到跟踪模型,对目标进行跟踪检测,提升检测效率;从参考帧中获得滤波参数;根据滤波参数,计算第一候选区域所对应的期望响应值;在期望响应值中确定最大值以及最大值期望值对应的第一候选区域;将最大值对应的第一候选区域确定作为目标区域,以此对目标进行持续跟踪可以提高目标检测的准确性;优化决策神经网络结构和激励函数构建决策神经网络,然后以目标区域标记序列为输入对车辆是否减速做出决策,因此可以提升决策稳定性。
技术领域
本发明属于自动驾驶领域技术领域,具体涉及一种基于视觉目标跟踪的车辆驾驶自主决策方法及装置。
背景技术
自动驾驶系统,是近年来工业界研究的热门领域,其依靠机器学习、图像处理、雷达和定位系统等信息采集分析系统协同合作,让系统可以在没有人类主动操作的环境下,自动、安全地操控机动车辆。
图像与视频处理、机器学习包含自动驾驶系统完成驾驶任务的关键技术,其中,基于视觉的目标跟踪技术与方法是融合了图像与视频处理领域和机器学习领域成果的跨学科问题,其目的是通过单台或多台摄像机采集汽车周围的环境信息,在对环境图像的目标进行识别、提取后,持续对标记目标进行位置、形态方面的追踪。目标跟踪技术的输入是图像或视频中的标记目标,输出通常是目标在图像时间序列中的连续坐标。通过进一步分析坐标的变化,可以得出目标的类型、距离等自动驾驶系统实现自我决策所必需的关键信息。
现有技术在自动驾驶过程中发生突发状况,目标在图像的坐标会产生较大变化,在时间上的相关度降低。因此检测目标准确度随之降低,导致自动驾驶决策方案并不能满足用户需求的准确性以及高效性。
发明内容
本发明提供了一种基于视觉目标跟踪的车辆驾驶自主决策方法及装置,以提高车辆驾驶自主决策方法的准确性以及高效性。具体的技术方案如下。
第一方面,本发明提供的一种基于视觉目标跟踪的车辆驾驶自主决策方法,包括:
获取驾驶车辆的图像数据序列;
将所述图像数据序列中的每一帧作为跟踪模型的输入,将当前帧的前一帧作为参考帧,以使所述跟踪模型在当前帧的上一帧中选取目标区域标记周围的一个邻域用作训练区域,在当前帧中截取与所述训练区域相同的坐标区域,将该坐标区域作为跟踪目标概率的第一候选区域;
从所述参考帧中获得滤波参数;
根据滤波参数,计算所述第一候选区域所对应的期望响应值;
在所述期望响应值中确定最大值以及最大值期望值对应的第一候选区域;
将所述最大值对应的第一候选区域确定作为目标区域;
对所述目标区域进行标记,获得目标对应的区域标记;
将每一帧的目标对应的区域标记按照帧序组成目标区域标记序列;
将所述目标区域标记序列输入训练后的决策神经网络中,得到驾驶车辆是否减速的输出结果,以使所述驾驶车辆根据输出结果进行相应驾驶操作。
可选的,在所述将所述图像数据序列作为跟踪模型的输入,获得目标在图像序列每一帧中对应的区域标记的步骤之前,所述车辆驾驶自主决策方法还包括:
获取训练数据集;
其中,所述训练数据包括多个样本,样本包括包含汽车目标标记为1的正样本,以及不包含汽车目标记为0的负样本;
根据预设层数,构建神经网络模型;
使用所述训练数据集训练所述构建的神经网络模型;
将训练完成的神经网路模型确定为跟踪模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安阳工学院,未经安阳工学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110747133.5/2.html,转载请声明来源钻瓜专利网。





