[发明专利]分级多层多源融合即时接入的导航方法及系统在审
申请号: | 202210149456.9 | 申请日: | 2022-02-18 |
公开(公告)号: | CN114894189A | 公开(公告)日: | 2022-08-12 |
发明(设计)人: | 沈凯;李岳伦;左思琪;刘宁;朱毅晓;戚文昊;袁超杰 | 申请(专利权)人: | 北京理工大学;北京信息科技大学 |
主分类号: | G01C21/20 | 分类号: | G01C21/20;G01S19/45;G06N3/08 |
代理公司: | 北京天同知创知识产权代理事务所(普通合伙) 16046 | 代理人: | 罗蔓 |
地址: | 100086 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分级 多层 融合 即时 接入 导航 方法 系统 | ||
1.一种分级多层多源融合即时接入的导航方法,其特征在于,包括:
对用于采集导航信息的多个传感器的性能进行实时评价,并基于所评价的性能通过智能方式对导航信息组合方案进行决策;
采用自适应因子图的非线性融合方式,基于所述导航信息组合方案分配权重实现自适应融合,得到融合结果,并基于所述融合结果进行导航。
2.根据权利要求1所述的方法,其特征在于,对用于采集导航信息的多个传感器的性能进行实时评价,并基于所评价的性能通过智能方式对导航信息组合方案进行决策包括:
针对载体机动的不确定性和外界环境动态干扰的随机性,构建异常度评级准则以描述外界环境不确定性对所述多个传感器中的至少一个传感器的影响程度;
基于线性时变系统的可观测度分析,计算各组合导航子滤波器状态变量的可观测度,以量化所述多个传感器中的至少一个传感器的被观测的能力;
基于所述影响程度和所述可观测度,确定强化学习方法,其中,所述强化学习方法包括Q-leaming算法和异步优势行动器-评判器算法;
根据所确定的强化学习方法构建强化学习网络,在复杂环境和运动下训练所述强化学习网络,利用所述强化学习网络对导航信息组合方案进行决策,以得到最优的导航信息组合方案。
3.根据权利要求2所述的方法,其特征在于,基于所述影响程度和所述可观测度,确定强化学习方法,包括:
在简单环境下,定义状态类型,采用Q-leaming算法,通过设置阈值对所述多个传感器的连续变量进行分段离散化,并归一化处理,以实现控制所述多个传感器中的至少一个传感器的动作,其中,所述状态类型包括以下至少之一:辅助传感器不确定性、辅助传感器异常度、速度、GNSS状态、卫星星数和卫星信号,所述动作为开关传感器,即时收益为当前时刻位置误差的平方和的倒数;
在复杂环境及运动场景下,采用异步优势行动器-评判器算法,在多个线程里面分别和环境进行交互学习,训练神经网络模型,使得所述神经网络模型收敛并输出准确的估计效果,其中,输入所述神经网络模型的状态元素为所述连续变量,所述神经网络模型输出的动作为所述多个传感器中的辅助传感器的融合权值,即时收益为当前时刻位置误差的平方和的倒数。
4.根据权利要求3所述的方法,其特征在于,在简单环境下,定义状态类型,采用Q-learning算法,通过设置阈值对所述多个传感器的连续变量进行分段离散化,并归一化处理,以实现控制所述多个传感器中的至少一个传感器的动作,包括:
接收以下至少之一的输入参数:迭代轮数,状态集,动作集,步长,衰减因子和探索率;
基于所述输入参数,用∈-贪婪法,基于所述状态集中的当前状态,选择出当前动作,并执行当前动作,得到新状态和奖励;
基于所述新状态和所述奖励更新价值函数和状态,并基于所述价值函数和状态输出对所有状态和动作的真实价值的估计以及辅助传感器的开关。
5.根据权利要求3所述的方法,其特征在于,在复杂环境及运动场景下,采用异步优势行动器-评判器算法A3C,在多个线程里面分别和环境进行交互学习,训练神经网络模型,使得所述神经网络模型收敛并输出准确的估计效果,包括:
接收以下至少之一的输入参数:全局部分的神经网络参数,全局共享的迭代轮数,全局最大迭代次数,本线程的A3C神经网络结构,线程内单次迭代时间序列最大长度,状态特征维度,动作集,步长,衰减因子;
基于所决策出的导航信息组合方案选择出动作并执行所述动作,得到奖励和新状态;
基于所述奖励和所述新状态,计算每个时刻的动作价值函数,累计Actor的本地梯度更新,并累计Critic的本地梯度更新,更新所述神经网络模型的参数;
利用更新后的神经网络模型,基于所述输入参数,输出全局部分的神经网络参数和所述多个传感器中的辅助传感器的融合权重。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学;北京信息科技大学,未经北京理工大学;北京信息科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210149456.9/1.html,转载请声明来源钻瓜专利网。