[发明专利]一种人机协作装配场景下的人体行为识别方法在审
| 申请号: | 202210085400.1 | 申请日: | 2022-01-25 |
| 公开(公告)号: | CN114399841A | 公开(公告)日: | 2022-04-26 |
| 发明(设计)人: | 陈鹏展;李芳 | 申请(专利权)人: | 台州学院 |
| 主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V40/10;G06N3/04;G06N3/08;G06V10/82 |
| 代理公司: | 宁波博灵知识产权代理事务所(普通合伙) 33424 | 代理人: | 俞鹏程 |
| 地址: | 318000 浙江*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 人机 协作 装配 场景 人体 行为 识别 方法 | ||
1.一种人机协作装配场景下的人体行为识别方法,它包括,其特征在于:
步骤一,设置两个体感设备,两个体感设备之间的夹角为θ,从体感设备获取人体行为下关节点坐标流;
步骤二,筛选具有完整的骨骼关节的关节点坐标流,并按动作事件分割算法定位动作的起始位置和终止位置得到关节点信息;
步骤三,关节点信息按夹角θ进行重采样角度变化得到关节点坐标;
步骤四,以spinebase(关节0)的坐标作为局部坐标的原点对其余关节点坐标进行归一化,再经过平滑得到构成一个动作的骨骼序列,
步骤五,将上肢相邻关节点矢量简化得到上肢的矢量方向,分别计算左上肢和右上肢的矢量方向与垂直方向的夹角,通过夹角将场景划分为左手边场景或右手边场景;
步骤六,分别训练左手边场景和右手边场景下的人体行为识别;
步骤七,融合左手边场景和右手边场景的人体行为输出实现人机协作场景下的行为识别。
2.根据权利要求1所述的人机协作装配场景下的人体行为识别方法,其特征在于:步骤一中体感设备为Kinect传感器。
3.根据权利要求1所述的人机协作装配场景下的人体行为识别方法,其特征在于:步骤二具体为:阀值的能量函数分割算法检测动作的起始位置和终止位置,根据检测在输出的信号动作发生之前和结束之后,输出的信号通常相对平稳,而动作的开始信号会瞬时性的发生剧烈的变化动作事件分割根据。
4.根据权利要求1所述的人机协作装配场景下的人体行为识别方法,其特征在于:步骤三具体为:重采样角度变化变换前的fth帧的第ith个关节坐标为角度变化后的关节点坐标为其坐标变换关系式如下:
这里θ根据两台Kinect之间的夹角来确定,f∈N,i∈[1,17]。
5.根据权利要求1所述的人机协作装配场景下的人体行为识别方法,其特征在于:步骤四具体为:将spinebase(关节0)的坐标作为局部坐标的原点,并从每个帧的每个关节点的坐标中减去spinebase的坐标,如下所示:
其中是归一化之后在第fth帧的第ith关节的坐标,这里i∈[1,17],是第fth帧中spinebase的三维坐标,经过处理后得到骨骼序列其中Cin为输入通道数,T为序列中的骨骼数,V为每个骨骼的关节数。
6.根据权利要求1所述的人机协作装配场景下的人体行为识别方法,其特征在于:步骤五具体为:将ElbowRight定义为B点,WristRight定义为C点,ElbowLeft定义为E点,WristLeft定义为F点。ShoulderRight定义为A点,ShoulderLeft定义为D点,则上肢的矢量简化为计算上肢或的矢量方向与垂直方向的夹角β1,β2。以β1,β2大于一定范围作为判断依据,分为左手边场景或右手边场景。
7.根据权利要求6所述的人机协作装配场景下的人体行为识别方法,其特征在于:以β1,β2大于一定范围作为判断依据,分为左手边场景或右手边场景具体为:输入人体骨骼数据序列构造预测函数如下:
使用初始设置的全0权重W得到第一次的预测值A1,当概率大于等于60%时,输出y=1即为左手边,反之输出y=0,为右手边。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于台州学院,未经台州学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210085400.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种MOF材料及其制备方法和应用
- 下一篇:一种脑梗塞疾病治疗装置





