[发明专利]生成易受伤害道路使用者轨迹预测模型的方法及预测方法有效
| 申请号: | 201910838347.6 | 申请日: | 2019-09-05 |
| 公开(公告)号: | CN110599521B | 公开(公告)日: | 2022-02-15 |
| 发明(设计)人: | 李克强;熊辉;王思佳;王建强 | 申请(专利权)人: | 清华大学 |
| 主分类号: | G06T7/246 | 分类号: | G06T7/246 |
| 代理公司: | 北京汇智胜知识产权代理事务所(普通合伙) 11346 | 代理人: | 石辉;赵立军 |
| 地址: | 10008*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 生成 受伤 道路 使用者 轨迹 预测 模型 方法 | ||
本发明公开了一种生成易受伤害道路使用者轨迹预测模型的方法及相应的预测方法。生成轨迹预测模型包括下述步骤:步骤S1:获取训练集,训练集包括已标记的N+M帧时间上连续的图像;步骤S2:从训练集中连续的N+M帧图像中根据每个目标真值的跟踪ID序号筛选训练样本,具有相同跟踪ID序号的同一目标的训练样本为一组;步骤S3:提取时空多线索特征,得到训练输入向量Xjt+k和训练输出向量Yjt+k;步骤S4:生成模型,将所述训练输入向量Xjt+k和训练输出向量Yjt+k输入至采用了自适应双参数激活函数的门控循环单元神经网络,采用预先设计的损失函数进行模型训练,生成易受伤害道路使用者轨迹预测模型。
技术领域
本发明涉及自动驾驶领域,特别是涉及一种生成易受伤害道路使用者轨迹预测模型的方法及相应的预测方法。
背景技术
交通场景中的行人以及骑行者(包含骑自行车的人、骑电动车和骑摩托车的人)是易受伤害道路使用者(Vulnerable Road Users,简记为VRU)。预测智能车辆周围易受伤害道路使用者的轨迹预测是智能交通的关键技术之一,是智能车辆进行轨迹规划和运动避障的基础。
现有的VRU轨迹预测方法的主要研究对象是行人。而且,传统的行人轨迹预测方法,仅仅聚焦于位置变化这一运动时间线索,忽略外观特征。也就是说,现有轨迹预测模型或方法没有考虑不同类VRU的运动特性,比如骑行者因为下半身的骑行工具为刚体,从而比行人的随机性小,且运动速度更快。此外,现有轨迹预测模型或方法也没有考虑VRU目标间的相互联系,没有充分利用VRU目标的时间运动特征和矩形框外观特征,以及不同VRU目标间的共享上下文图像特征。从而,现有的VRU轨迹预测模型或方法预测的准确性较差,不适用于复杂多变场景下的易受伤害道路使用者的轨迹预测。
发明内容
本发明的目的在于提供一种生成易受伤害道路使用者轨迹预测模型的方法及相应地预测方法,来更好地生成VRU轨迹预测模型,以及利用所述VRU轨迹预测模型来更好地进行VRU轨迹预测。
本发明的一个方面提供一种生成易受伤害道路使用者轨迹预测模型的方法,所述生成易受伤害道路使用者轨迹预测模型的方法包括下述步骤:
步骤S1:获取训练集,训练集包括N+M帧时间上连续的图像,且针对所述图像已经标记所有易受伤害道路使用者目标的矩形目标框、类别和跟踪ID序号,所述类别包括行人和骑行者(骑行者例如包含骑自行车的人、骑电动车和骑摩托车的人中的每一种,或者至少一种);
步骤S2:筛选训练样本,从训练集中连续的N+M帧图像中根据每个目标真值的跟踪ID序号筛选训练样本,具有相同跟踪ID序号的同一目标的训练样本为一组,共有P组训练样本,P为跟踪ID序号的个数,即已经标记的不同易受伤害道路使用者目标的个数(即在每帧图像中都出现的VRU的个数);
步骤S3:提取特征,对于前N帧图像,提取训练样本的时间运动特征、矩形框外观特征和共享的上下文特征(共享的上下文特征对于相应的一帧图像内的所有目标矩形框是共用的),然后融合所述时间运动特征、矩形框外观特征和共享的上下文特征,得到N*P个训练输入向量Xjt+k;对于后M帧图像,只提取训练样本的时间运动特征,得到M*P个训练输出向量Yjt+k;
上标j为易受伤害道路使用者目标的跟踪ID序号,
下标t+k为图像的帧序号,所述帧序号与相应时刻相对应,
其中,t表示开始进行预测前的最后一帧图像,即第N帧图像,
Z-表示负整数集合,Z+表示表示正整数集合;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910838347.6/2.html,转载请声明来源钻瓜专利网。





