[发明专利]基于深度学习的分布式多天线阅读器定位系统及其方法有效
申请号: | 201910609096.4 | 申请日: | 2019-07-08 |
公开(公告)号: | CN110334788B | 公开(公告)日: | 2023-10-27 |
发明(设计)人: | 崔英花 | 申请(专利权)人: | 北京信息科技大学 |
主分类号: | G06K17/00 | 分类号: | G06K17/00;G06N3/08;G01S5/02;G01S5/00;G01S5/04 |
代理公司: | 北京八月瓜知识产权代理有限公司 11543 | 代理人: | 马东瑞 |
地址: | 100192 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 分布式 天线 阅读器 定位 系统 及其 方法 | ||
本发明涉及一种基于深度学习的分布式多天线阅读器定位系统及其方法。该方法包括:实现基于深度神经网络的射频识别定位算法,所述算法包括:构造所述深度神经网络的模型;训练数据获取;提取信号特征;以及结合UWB超宽带定位技术实现训练样本的自动生成和神经模型的自动学习,其特征在于,所述深度神经网络的输入特征向量包含所述阅读器的位置、将所述阅读器与其天线相连的馈线的长度、接收信号的RSSI、相位以及到达时间。本发明解决了阅读器的位置不能变动的问题,使得阅读器及其天线的位置变动不影响样本数据的收集,系统能够自适应地学习复杂多变的室内环境,实现精准实时定位。
技术领域
本发明涉及RFID技术领域,具体地涉及一种基于深度学习的分布式多天线阅读器定位系统及其方法。
背景技术
目前,随着GPS和北斗等卫星导航定位系统的投入使用,室外定位技术日趋成熟,已经可以达到很高的定位精度,但是作为定位的“最后一米”—室内定位技术,一直未能获得根本性的突破,这也是工业界和学术界多年来共同关注的焦点之一。在室内环境下,由于卫星信号接收受到严重干扰,GPS无法用于室内定位。RFID具有非接触、非视距、成本低的优点,开始得到越来越多的关注,成为优选的室内定位技术。
总体来说,室内RFID定位算法可分为四大类:基于测距的定位、基于相位的定位、基于场景的定位和基于邻近算法的定位。基于深度神经网络(Deep Neural Network,DNN)的指纹定位算法也是近来研究的热点之一。它利用路径损耗模型对信号在室内传播进行建模,获取RSSI构成指纹数据库,通过DNN作为回归模型来发现指纹数据和位置信息之间的函数关系,实现位置指纹精准实时定位。该算法在存在路径损耗及噪声的情况下,具有较高的定位精度及较短的定位时间,适用于较大室内定位环境下对多目标进行定位。
在室内环境中,无线信号由于受到反射、折射、衍射等现象的干扰,信号衰减模型难以估计。而且室内环境复杂多变,物体的摆放位置、温度湿度的变化或者人员的走动等都会导致接收端收到的信号发生改变。在室内环境下,定位系统往往要求能够达到亚米级甚至厘米级的精度。当前的各种定位系统大多采用了在待定区域布置多个阅读器和参考标签的方法,目标标签通过参考标签来定位,因此参考标签的拓扑结构及密度直接影响着定位精度。然而过多的阅读器和参考标签,不但会大大增加定位系统的成本,而且会带来新的干扰。另一方面,由于多径效应和阴影效应的存在,使得位置接近的两点在信号强度上可能存在较大差异,这也是造成定位误差的主要原因。因此阅读器与参考标签阵列之间的位置关系也是非常重要的。
在体育馆、展览馆、图书馆、商场、仓库等大型室内场所,需要监控的面积非常大,环境也非常复杂,常见的使用若干阅读器对单个房间进行定位的方法是不适用的。此外,一些应用场所要求对大量快速运动的物体进行跟踪定位,如地下停车场内移动的汽车、物流中心快速移动的货物、突发事件下奔跑的人群等,对室内定位方法提出了更高的要求。
发明内容
本发明所要解决的技术问题是提供一种实现基于深度学习的分布式多天线阅读器定位系统的方法,解决了阅读器及其天线的位置变动影响样本数据的收集的问题,使得系统能够自适应地学习复杂多变的室内环境,实现精准实时定位。
通过本发明可以实现的技术目的不限于上文已经特别描述的内容,并且本领域技术人员将从下面的详细描述中更加清楚地理解本文中未描述的其他技术目的。
本发明解决上述技术问题的技术方案如下:
根据本公开的第一方面,本发明提供一种实现基于深度学习的分布式多天线阅读器定位系统的方法,所述方法包括:
构造所述深度神经网络的模型;
训练数据获取;
提取信号特征;以及
结合超宽带UWB定位技术实现训练样本的自动生成和神经网络模型的自动学习,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京信息科技大学,未经北京信息科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910609096.4/2.html,转载请声明来源钻瓜专利网。