[发明专利]一种基于视频监控的目标轨迹模糊数据融合方法有效
申请号: | 201711329881.1 | 申请日: | 2017-12-13 |
公开(公告)号: | CN108093213B | 公开(公告)日: | 2020-05-08 |
发明(设计)人: | 仇功达;何明;刘光云;周千棚;石高平;张传博;郑翔 | 申请(专利权)人: | 中国人民解放军陆军工程大学 |
主分类号: | H04N7/18 | 分类号: | H04N7/18;H04W4/02;H04W64/00;G06K9/62;G06K9/00;H04W4/021 |
代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 田凌涛 |
地址: | 210014 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视频 监控 目标 轨迹 模糊 数据 融合 方法 | ||
本发明涉及一种基于视频监控的目标轨迹模糊数据融合方法,应用于实际警务工作中,警务人员无法通过异常对象主动上传以获得GPS位置数据,仅能通过监控传感器网络获取定位信息。且各类案件嫌疑对象在预谋、实施、藏匿等不同阶段所产生的行为多具有主观隐蔽性,导致经过监控网络采集到的数据多为模糊数据,本发明所设计基于视频监控的目标轨迹模糊数据融合方法,能有助于恢复模糊轨迹,为警务工作、目标追踪带来帮助。
技术领域
本发明涉及一种基于视频监控的目标轨迹模糊数据融合方法,属于目标轨迹追踪技术领域。
背景技术
在轨迹融合领域,常用的方法主要由基于预测模型的融合,以及基于滤波算法的融合,Doug Cox等人针对传感器网络的低频,低保真度数据,提出了一种新的用于马尔可夫链的重组方案,并使用新的方案基于原始数据来生成概率轨迹。P Zhang等人提出了一种结合稳定位置与卡尔曼滤波的融合算法。同时AO B Wang等人提出了一种分布式多目标跟踪算法,基于广义协方差交集(G-CI)的多伯努利(MB)滤波器。然而实际识别过程中,由于多种复杂现场情况,以及被追踪目标的主观隐蔽与干扰,使得图像识别难以得出准确结论。典型多传感器数据融合的问题在于传感器数据数值精准不高,而本文所研究的传感器数据融合针对的是数据的真伪性模糊。在视频网络下轨迹数据融合中,重点关注了某重要属性特征下的匹配技术,忽略了多属性多角度模糊决策下的意见整合,即目标识别结论的模糊性,将轨迹融合问题化简为了图像识别后,确定点的时序连线,对于时序连线中存在的少数不确定点进行滤波即可。而实际过程中,为了扩大搜索面,会弱化特征,考虑更多的可疑车辆。如何从倍于真实数据的不确定信息中恢复真实轨迹成为实际难点。针对低精度的位置信息中通过冗余能对真实分布做出一定的恢复,但是错误数据中不会提供任何有用的信息,只会进一步增加误差。此外,要跟踪的轨迹往往是异常的。无论是基于滤波器还是预测模型,都很容易失去融合中的真实异常信息。
发明内容
本发明所要解决的技术问题是提供一种采用全新逻辑结构设计,能够有效提高轨迹跟踪精度的基于视频监控的目标轨迹模糊数据融合方法。
本发明为了解决上述技术问题采用以下技术方案:本发明设计了一种基于视频监控的目标轨迹模糊数据融合方法,用于获得目标对象由起点位置的轨迹数据,包括如下步骤:
步骤A.针对以起点位置为中心、预设距离半径范围内各个监控摄像装置所捕获的各个模糊对象,实现与目标对象的群体智能决策,筛选获得目标对象所对应的各个待处理模糊对象,并进入步骤B;
步骤B.根据各个待处理模糊对象的坐标位置,以及所对应的时间点,获得由起点位置开始,依时序依次到达各个待处理模糊对象坐标位置的速度信息,作为各个待处理模糊对象分别所对应的到达速度信息,然后进入步骤C;
步骤C.根据各个待处理模糊对象分别所对应的到达速度信息,结合起点位置,依时序顺序方向,分别针对各个待处理模糊对象,获得待处理模糊对象之前相应数量处理对象分别对其的信任度,并基于预设信任度划分的占比,更新目标对象所对应的各个待处理模糊对象,然后进入步骤D;
步骤D.根据各个待处理模糊对象分别所对应的到达速度信息,结合起点位置,依时序逆序方向,分别针对各个待处理模糊对象,获得待处理模糊对象之后相应数量处理对象分别对其的信任度,并基于预设信任度划分的占比,更新目标对象所对应的各个待处理模糊对象,然后进入步骤E;
步骤E.针对目标对象所对应的各个待处理模糊对象,基于由起点位置依次按时序经过该各个待处理模糊对象的速度合理性,采用预设得分与偏差度方法,实现目标对象由起点位置的轨迹数据融合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军陆军工程大学,未经中国人民解放军陆军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711329881.1/2.html,转载请声明来源钻瓜专利网。