[发明专利]基于多传感器融合技术的双手识别方法有效
申请号: | 201710429504.9 | 申请日: | 2017-06-08 |
公开(公告)号: | CN107203271B | 公开(公告)日: | 2020-11-24 |
发明(设计)人: | 张平;陈明轩;杜广龙 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06F3/01 | 分类号: | G06F3/01;G06K9/00;G06T3/60;G06T5/00 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 何淑珍 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 传感器 融合 技术 双手 识别 方法 | ||
本发明提供了一种基于多传感器融合技术的双手识别方法,它允许操作者在使用双手手势控制机器人时解决双手遮挡问题。所述方法包括步骤:(1)自适应低通滤波;(2)多传感器坐标系转化;(3)自适应加权融合。本发明使用了两种传感器,它可以识别操作者手部的位置和姿态,解决在实际的机器人交互应用中双手在垂直方向上的遮挡问题。
技术领域
本发明属于机器人交互领域,特别涉及一种基于多传感器融合技术的双手识别方法。
背景技术
机器人人机交互是指通过一些输入设备采集人类信息,将人类意图转化为机器人能够理解的指令,从而达到人与机器人进行对话,进而控制机器人运动的技术。据人类控制机器人的方式的不同,又可以分为基于手势控制、语言控制、表情控制、脑电波信号控制等。对于双手手势的交互,一方面是通过避免双手手势的遮挡来简化交互的流程,另一方面通过二维图像来分割估计遮挡情况下的手势,但是对于实时跟踪双手的位置和姿态是较为困难的。针对这些问题,本发明提出一种简易的多角度深度摄像头的方法来长时间稳定地识别任意情况下的双手的三维位置和姿态,实现简单,易于扩展,且能有效解决双手遮挡的识别跟踪问题。
发明内容
这个发明提出了一种基于多传感器融合技术的双手识别方法,它允许操作者使用双手手势与机器人交互。本发明使用了两种传感器,它可以识别操作者手部的位置和姿态,解决在实际的机器人交互应用中双手在垂直方向上的遮挡问题。
本发明包括如下步骤:
S1、自适应低通滤波,将当前时刻的测量值与上一时刻的滤波值进行加权平均作为当前时刻的滤波值,自适应权重因子ηi随当前时刻运动速度进行自适应变化;
S2、多传感器坐标系转化:混合传感器都有基于自身传感器中心的一套局部坐标系系统,识别到的数据也是基于各自的局部坐标系系统,不同传感器获取的数据经过滤波之后需要统一到全局坐标系下,以第一传感器坐标系作为手势数据的全局坐标系,将其他传感器的局部坐标系下的数据转化到第一传感器的坐标系下的数据;
S3、自适应加权融合:综合考虑多个传感器的数据,并对他们进行数据融合,根据总均方误差最小的原则,以自适应的方式寻找每个传感器的最优加权因子,使得融合后的目标观测值达到最优。
所述步骤S1包括以下步骤:
基于速度的自适应滤波算法其基本思想是,将当前时刻的测量值与上一时刻的滤波值进行加权平均作为当前时刻的滤波值,其权重因子随当前时刻运动速度进行自适应变化。
设一只手的位置和姿态的数据表示为X=(x,y,z,α,β,γ)T,其中前三位分量(x,y,z)为手的中心位置,后三个分量(α,β,γ)为欧拉角表示形式的手的姿态,因此该滤波模型可以表示为:
其中i是时刻序号,Xi是第i时刻手的位姿测量值,是上一时刻手的位姿滤波值,是当前时刻手的位姿滤波值,ηi是一个自适应的权重因子,其值随着运动速度的变化而自适应地变化。
ηi的计算公式如下所示:
其中,Ti是采样时间间隔(本实例中采用时间间隔为0.1s),τi是一个时间变量;
fci称为截断频率,其计算公式为:
fci=fcmin+γ|Vi| (4)
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710429504.9/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种支持联合作战的多核并行仿真引擎系统
- 下一篇:水性色浆及其制备方法