[发明专利]人机协作中人体实时室内定位与运动姿态捕捉方法与系统有效
| 申请号: | 202110133657.5 | 申请日: | 2021-02-01 |
| 公开(公告)号: | CN112957033B | 公开(公告)日: | 2022-10-18 |
| 发明(设计)人: | 周乐来;杨苗;李贻斌;田新诚;李雪 | 申请(专利权)人: | 山东大学 |
| 主分类号: | A61B5/11 | 分类号: | A61B5/11;A61B5/00 |
| 代理公司: | 济南金迪知识产权代理有限公司 37219 | 代理人: | 陈桂玲 |
| 地址: | 250061 山东*** | 国省代码: | 山东;37 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 人机 协作 人体 实时 室内 定位 运动 姿态 捕捉 方法 系统 | ||
一种人机协作中人体实时室内定位与运动姿态捕捉方法及系统,该方法包括以下步骤:(1)获取人体在地理坐标系下的位姿信息,并将UWB传回的位置坐标转换到地理坐标系下;(2)根据足部触地情况,使用正运动学树推算跟点坐标;(3)将基于惯性传感器网络计算的跟点坐标和UWB传回的标签坐标进行数据融合;(4)根据融合后的跟点坐标值计算全身躯干姿态信息和位置信息;该系统包括数据接收模块、坐标转换模块、数据融合模块和姿态推算模块。本发明由超宽带定位技术实时获得固定在跟点的标签三维坐标信息,通过无迹卡尔曼滤波融合得到了更加平滑准确的跟点坐标,使距离和位置的精准确定,实现了人体运动姿态的实时准确跟踪和显示。
技术领域
本发明涉及人机协作技术领域,具体而言是在人机协作过程中对测试人员的三维定位以及姿态跟踪。
背景技术
在人机协作过程中,对人体动作姿态的精确捕捉和定位尤为重要,直接关乎到协作过程中人员的安全问题。现有的动作捕捉技术分为光学式、机械式、电磁式、声学式以及惯性传感式,光学式运动捕捉技术最为成熟,但价格高昂,且受光照影响严重;机械式捕捉系统采用机械结构,较为笨重,且很难完成校准;电磁运动捕捉系统通过所在位置的场强和相位确定其所在位置,容易受到空间内磁场干扰,降低估计精度;超声波动作捕捉系统通过超声波飞行时间计算各传感器空间位置,但需在视距范围内,易受传播环境和路径的影响;惯性传感器由于其不需要外部辅助设备、质量轻、体积小,不怕遮挡,对光、环境要求比较低,因而受到广泛应用。基于惯性传感器的动作捕捉系统只需要在身体指定躯干佩戴惯性传感器就可以完成姿态数据的采集,通过对加速度的二重积分获得位移。虽然惯性传感器能够非常精确地确定每个关节的旋转,但是随着使用时间的增加,加速度积分产生的累计误差将越来越大,并不能实现人体准确位移。
目前已有的定位方式中,包括了超声波定位、蓝牙定位、红外线定位、GPS定位、超宽带定位以及惯导定位等等。在上述的定位方式中超声波依据到达时间原理实现定位,定位实时性较差,蓝牙定位的功耗一般比较小而且易于与当前设备集成,但是其定位精度稳定性较差,容易被干扰。红外线定位限制了被定位目标必须处在视距范围内,同时容易受到环境光的影响。GPS定位作为目前应用范围最广的定位方式,具有全天候,实时,连续的优点。但是相应的GPS无法在室内环境使用,在高动态运动状态下会丢失信号从而失去目标。此外GPS成本高,不利于多锚节点部署。
发明内容
针对现有上述技术问题,本发明提供一种使用超宽带(Ultra-wideband,简称UWB)和惯性传感器相结合的方式实现人机协作中人体实时室内定位与运动姿态捕捉的方法,以及实现该方法的系统。惯性传感器获得人体各躯干上的姿态信息,并通过触地脚计算跟点实时坐标,由超宽带定位技术实时获得固定在跟点的标签三维坐标信息,通过无迹卡尔曼滤波融合得到更加平滑准确的跟点坐标,以此推算全身姿态信息,将得到的姿态信息和位置信息赋值给软件中的人体模型,重现人体姿态运动。
本发明的人机协作中人体实时室内定位与运动姿态捕捉方法,包括以下步骤:
(1)获取人体在地理坐标系下的位姿信息,并将超宽带定位系统传回的位置坐标数据转换到地理坐标系下;
(2)根据足部触地情况,使用正运动学树推算跟点(盆骨)坐标;
(3)将基于惯性传感器网络计算的跟点坐标和UWB传回的标签坐标进行数据融合;
(4)根据融合后的跟点坐标值计算全身躯干姿态信息和位置信息。
所用到的坐标系:
地理坐标系:以初始位置为原点,X轴正方向指东方,Y轴正方向指北方,Z轴正方形按右手定则指向天,也即东北天坐标系;
传感器坐标系:坐标原点为传感器中心,X轴正方向平行传感器长边向右,Y轴正方向平行传感器短边向前,Z轴正方向垂直传感器向上;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东大学,未经山东大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110133657.5/2.html,转载请声明来源钻瓜专利网。





