[发明专利]具有学习能力的汽车协同式自适应巡航控制系统及方法有效
申请号: | 201310439454.4 | 申请日: | 2013-09-25 |
公开(公告)号: | CN103496368A | 公开(公告)日: | 2014-01-08 |
发明(设计)人: | 张晋东;高振海 | 申请(专利权)人: | 吉林大学 |
主分类号: | B60W30/14 | 分类号: | B60W30/14 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 130012 吉林省*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 具有 学习 能力 汽车 协同 自适应 巡航 控制系统 方法 | ||
技术领域
本发明涉及的是一种具有学习能力的汽车协同式自适应巡航控制系统及方法。
背景技术
随着道路上用于个人日常出行的汽车数目增加,大多数城市都面临交通问题,尤其是在人口密集地区。对于大多数生活在这些地区的人,在上下班时遇上交通拥堵已成为其日常生活的一部分。人们在开车时频繁的加速和刹车操纵切换会引起交通不通畅。而且人的反应较慢、所能看到的交通状况范围很有限,都会加剧交通阻塞。从环境的角度来看,不必要的加速和刹车操纵会增加道路上的污染。另外,人为驾驶操纵错误也是造成今天的交通问题的一个主要因素。
随着科技的发展,汽车协同式自适应巡航控制伴随着汽车间通信能够在汽车间相互共享的典型的协同信息,实现在多车同道同向队列行驶时保持更短的车间距,并且当道路无前车时定速巡航控制,在有前车时利用雷达自适应跟随前车行驶。
汽车协同式自适应巡航控制对于实现汽车行驶的智能化和自动化有着非常重要的意义,使得汽车行驶的安全性、出行效率、乘客的舒适度都会大大提高。
Unsal,Kachroo和Bay等人使用多重随机学习来对汽车进行纵向和横向控制,并没扩充其方法到多智能体问题中。
Pendrith运用分布式DQL学习方法,通过局部透视图表示周围汽车的相对速度,DQL不考虑周围汽车的操纵动作,也不考虑Q-权值的更新,而是通过在每一个时间段内对所有智能体取平均值,其方法的缺点是学习稳定性较弱。
Emery-Montermerlo等人运用贝叶斯方法研究对汽车巡航控制,然而其方法仍然是基于环境的模型。
Fulda和Ventura等人提出了DJAP动态相邻汽车操纵动作洞察算法来进行汽车巡航控制,其中每一个智能体可在学习期间动态的选择有用的相邻操纵动作,然而,其仅仅考虑汽车行驶时的相邻操纵动作。
发明内容
本发明所要解决的技术问题是针对现有技术的不足提供一种具有学习能力的汽车协同式自适应巡航控制系统及方法。
本发明的技术方案如下:
一种具有学习能力的汽车协同式自适应巡航控制系统,包括训练集和测试集生成模块、训练集补充模块、训练模块、学习算法模块、汽车行驶状态集模块、汽车操纵动作集模块、汽车间安全距离模块、评价模块、回馈值R计算模块、Q权值更新模块、汽车操纵动作选择模块、汽车操纵动作执行模块;
所述训练集和测试集生成模块用于根据获取的前车与本车行驶状态信息生成相适应的训练集和测试集;
所述训练集补充模块用于对刚生成的训练集进行补充,得到更优化的补充训练集;
所述训练模块用于采用补充训练集数据,由训练模块执行训练;
所述学习算法模块计算所有可能发生情况下的n个Q权值;
所述汽车行驶状态集模块和汽车间安全距离模块选择出能够准确表达当前车辆状态和车间距离的数据,通过这个数据进行类似查表的工作,找出该数据所对应的Q权值,并从汽车操纵动作集模块中选择控制操纵动作;
所述评价模块依据评价条件来约束并进入回馈值R计算模块得到回馈值R,并同时在Q权值更新模块中实现Q权值的更新;用更新后的Q权值代替之前计算出的Q权值,并以此来初始化生产新的训练集和测试集;重复该过程可得到更加优化的Q权值,并可通过测试集来检验Q权值是否有效。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310439454.4/2.html,转载请声明来源钻瓜专利网。