[发明专利]基于毫米波的远场多人体的步态监测方法在审
| 申请号: | 202110907502.2 | 申请日: | 2021-08-09 |
| 公开(公告)号: | CN113591760A | 公开(公告)日: | 2021-11-02 |
| 发明(设计)人: | 关山 | 申请(专利权)人: | 路晟悠拜(重庆)科技有限公司 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06F17/14;G06K9/62;G06N3/08;G06N3/04 |
| 代理公司: | 北京星通盈泰知识产权代理有限公司 11952 | 代理人: | 夏晶 |
| 地址: | 402260 重庆市江津区双*** | 国省代码: | 重庆;50 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 毫米波 远场多 人体 步态 监测 方法 | ||
1.一种基于毫米波的远场多人体的步态监测方法,其特征在于,包括步骤:
S1:采用分时复用的MIMO微带天线向监测空间内发射多组线性调频连续毫米波信号,并实时接收监测空间内反射的多组毫米波反射信号;
S2:并对所述毫米波反射信号进行滤波去噪,得到滤波后的毫米波反射信号;
S3:对多组所述滤波后的毫米波反射信号分别做距离FFT和多普勒FFT,形成距离-多普勒图谱,基于所述距离-多普勒图谱得到由人体下肢移动产生的多组点云数据集合;
S4:对所述多组点云数据分别做低通滤波处理和I-Q解调,获得RSS幅值和接收角AoA的角度ω;
S5:对所述接收角AoA的角度ω做角度FFT,根据距离FFT的数据和对应的RSS幅值,以及与相对应的AoA角度FFT数据确定多目标人体的极坐标;
S6:对所述多组点云数据集合做运动目标甄别滤波,以获得每个人体下肢移动对应的点云数据集合;
S7:在所述极坐标系中,根据距离-多普勒图谱的每一帧,构造每一帧中每个点云数据的坐标;
S8:根据所述每个人体下肢移动对应的点云数据集合和所述坐标计算每个人体下肢产生的步距、步频及腿距数据,依据所述每个人体下肢产生的步距、步频及腿距数据构建CNN神经网络机器学习模型;
S9:结合分时复用的MIMO微带天线及CNN神经网络机器学习模型实时监测多人体步态。
2.根据权利要求1所述的基于毫米波的远场多人体的步态监测方法,其特征在于,所述步骤S3包括:
根据所述距离-多普勒图谱对静物环境模型建模,以去除毫米波反射信号中的对应监测空间中静物的成分,得到由人体下肢移动产生的多组点云数据。
3.根据权利要求1所述的基于毫米波的远场多人体的步态监测方法,其特征在于,所述步骤S5和S6之间还包括:
将所述RSS幅值和接收角AoA的角度ω与预设的RSS幅值阈值和ω阈值做比较,保留所有符合阈值内的数据;
对保留的RSS幅值的能谱积分求和,与预设的单体人体的RSS幅值能谱积分求和值做比较,保留成倍数大于单体值对应的RSS幅值;
对接收角AoA的角度ω和保留成倍数大于单体值对应的RSS幅值做汉明函数加权运算,以抑制副瓣数据影响,提高主瓣数据的信噪比解调,得到汉明函数加权运算后的多组点云数据集合。
4.根据权利要求3所述的基于毫米波的远场多人体的步态监测方法,其特征在于,所述RSS幅值阈值以每个人体对应的多组RSS幅值中最大值的平均值为阈值上限,最小值的平均值为阈值的下限;所述ω阈值以每个人体对应的接收角AoA的角度ω中最大值的平均值为阈值上限,最小值的平均值为阈值的下限。
5.根据权利要求3所述的基于毫米波的远场多人体的步态监测方法,其特征在于,预设的单体人体的RSS幅值能谱积分求和值为不同的单体人体的RSS幅值能谱积分求和值的平均值。
6.根据权利要求1所述的基于毫米波的远场多人体的步态监测方法,其特征在于,所述步骤S8包括:
S8.1:基于KNN模式识别分类器和K均值聚类算法对所述坐标进行分类识别,以确定视监测空间内的目标人体数目K;
S8.2:运用CHI算法将K个目标人体各自对应的距离-多普勒图谱集合一一对应区分开;
S8.3:依据每个目标人体对应的距离-多普勒图谱,解析每个人体下肢移动对应的点云数据集合下的人体下肢产生的步距、步频和腿距数据;
S8.4:对于每个集合内的步距,步频和腿距数据做峰值密度的聚类密度算法处理,去掉最大和最小峰值密度数据,以中间的峰值密度数据为基准,计算出第K个目标人体的最终数据组并记录;
S8.5:以K个目标人体的最终数据组作为CNN神经网络机器学习模型的输入层,以确认的第K个目标人体步态作为CNN神经网络机器学习模型的输出层,从而得到CNN神经网络机器学习模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于路晟悠拜(重庆)科技有限公司,未经路晟悠拜(重庆)科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110907502.2/1.html,转载请声明来源钻瓜专利网。





