[发明专利]基于时域证据融合的目标识别方法在审
申请号: | 202310267935.5 | 申请日: | 2023-03-17 |
公开(公告)号: | CN116484311A | 公开(公告)日: | 2023-07-25 |
发明(设计)人: | 付春玲;张子寒;苏玉洁;王凯歌;陈鸿宇;蒋涛 | 申请(专利权)人: | 河南大学 |
主分类号: | G06F18/25 | 分类号: | G06F18/25 |
代理公司: | 郑州芝麻知识产权代理事务所(普通合伙) 41173 | 代理人: | 张丹丹 |
地址: | 450000 河南省*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 时域 证据 融合 目标 识别 方法 | ||
本发明涉及目标识别技术领域,具体涉及基于时域证据融合的目标识别方法,该方法包括:获得多个时刻的信息,将证据视为向量,通过可见图算子结合历史信息得到连接点数目后依此得到下一时刻预测信息,于下一时刻获得更新信息后,计算预测信息集合与更新信息集合的证据方差,根据证据方差处理并给出更新信息与预测信息的权重系数,对其进行加权处理。处理后的新证据为时域参考信息。求取历史累计信息与更新信息同时域参考信息之间差异度,利用差异度进行可靠性评估,将可信度衰减因子赋予低可靠性一方进行证据折扣,结合马尔科夫模型进行DS融合。本发明通过可靠性评估引导时域融合,实现了时域目标识别,提高了目标识别的准确度与抗干扰能力。
技术领域
本发明涉及目标识别技术领域,具体涉及基于时域证据融合的目标识别方法。
背景技术
目前,目标识别技术已经具有将不同时刻传感器获取的特征数据转化为决策数据进行处理和分析的能力,然而受到外部环境和传感器自身性能的影响,单测量周期内传感器收集的信息往往存在误差,甚至可能存在收集错误信息导致做出错误决策的情况。因此,为了获取实时、准确并且有效的信息,从而对目标属性特征进行判别,往往需要综合利用多时间节点获取信息进行时域信息融合。Dempster-Shafer(DS)证据理论的本质是对概率论的一种推广,该理论将其所判决问题中所有互不相容结果构成的完备集合称为辨识框架,并于辨识框架幂集上建立了基本概率指派函数。相较于概率论的严格公理体系,DS证据理论的公理体系宽松,能够有效使用非精确概率进行不确定性建模,同时,证据理论摆脱了对先验信息的依赖,在一定程度上弥补了贝叶斯推理方法的短板,在不确定性信息的表述和推理过程中具有很大优势。
虽然基于证据理论的时域信息融合受到了研究者的广泛关注,但目前仍缺乏针对性的时域证据组合方法,为了实现时域证据融合,存在方法在证据的可信度会随着时间推移而降低的假设前提下,针对传感器信息时间间隔提出了基于可信度衰减模型的时域证据序贯组合法,却未能考虑输入证据失真的情况。存在方法通过考虑可靠性的时域证据组合,来处理时域证据冲突问题,该方法只是通过自设阈值进行判别,忽视了时域信息融合的贯序性和动态特性,从而导致目标识别的准确度低下,抗干扰能力弱。存在方法在直觉模糊框架内提出一种基于复合可靠度的时域证据组合方法,定义了一种基于可靠度的直觉模糊数排序方法进行时域评可靠性估,但其可靠性分析方法同样未能充分利用时域证据的相互关系,从而导致目标识别的准确度低下,抗干扰能力弱。
发明内容
本发明的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本发明的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
为了解决目标识别的准确度低下的技术问题,本发明提出了基于时域证据融合的目标识别方法。
本发明提供了基于时域证据融合的目标识别方法,该方法包括:
获取由至少两个互斥元素构成的目标识别辨识框架,对目标识别辨识框架中各元素进行任意组合,得到幂集;根据幂集,确定测量信息相对应的证据焦元的基本概率赋值,并将每个时间节点预先获取的证据,作为证据序列;
根据证据序列,确定时域预测证据;
根据时域预测证据,确定时域参考证据;
根据时域参考证据,判断给出的可信度折扣;
根据证据焦元的基本概率赋值和可信度折扣,对历史累计融合证据和更新证据进行折扣运算;
根据可信度衰减模型,对进行折扣运算后的历史累计融合证据和更新证据进行融合,生成目标识别结果。
进一步地,所述获取由至少两个互斥元素构成的目标识别辨识框架,对目标识别辨识框架中各元素进行任意组合,得到幂集;根据幂集,确定测量信息相对应的证据焦元的基本概率赋值,并将每个时间节点预先获取的证据,作为证据序列,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河南大学,未经河南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310267935.5/2.html,转载请声明来源钻瓜专利网。