[发明专利]一种运动动作检测方法和系统有效
申请号: | 202111051962.6 | 申请日: | 2021-09-08 |
公开(公告)号: | CN113822182B | 公开(公告)日: | 2022-10-11 |
发明(设计)人: | 王滢溪;徐文鹏;赵猛;朱世松 | 申请(专利权)人: | 河南理工大学 |
主分类号: | G06V10/44 | 分类号: | G06V10/44;G06V10/46;G06V40/20;G06N20/00;G06T7/207;G06T7/50;G06T7/66;G06T7/73 |
代理公司: | 北京合创致信专利代理有限公司 16127 | 代理人: | 刘素霞 |
地址: | 454000 河南*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 运动 动作 检测 方法 系统 | ||
本发明公开了一种运动动作检测方法和系统,其中方法包括如下步骤:获取人体的红外图像和三维加速度信息;根据所述红外图像识别关节点位中的点集;获取所述点集对应的深度点集;将三维加速度信息和所述深度点集融合计算下一周期关节点位位置,并根据获取的下一周期红外图像和三维加速度信息进行验证。本发明能够通过加入三维加速度信息,结合红外图像关节识别后的深度点集计算,减少了现有技术中进行姿态估计时的积分运算量,加快了数据处理速度;还能通过分析三维加速度变化趋势以及关节点位置变化趋势评判动作是否连贯和协调。
技术领域
本发明涉及姿态识别领域,具体涉及一种运动动作检测方法和系统。
背景技术
姿态识别算法大致分为两类:自顶向下的姿态识别算法和自底向上的姿态识别算法。前者的基本原理是先检测图片中每个人的边界(bounding box),再对每个人检测出骨骼关键点。后者是先检测图片中所有的骨骼关键点,最后再通过图匹配算法得到所有的个体,在自底向上的姿态识别算法中,在2016年COCO比赛中,当时的第一名就是OpenPose,即先找到图片中的每个关节的位置,然后提出Part Affinity Field (PAF)来做人体的组装。PAF方法通过对人体的不同肢体结构进行建模,使用向量场来模拟不同肢体结构,解决了单纯使用中间点是否在肢干上造成的错误连接问题。
然而,在碰到处理图像数据较多或者需要实时反馈要求较高时,对GPU即对图像处理的运算能力要求很高,一般需要专用的图像设备才能实现,而且识别出结果的速度较慢,特别是在运动过程中对动作标准与否的识别速度上,在移动终端上实现无法满足实时性需求,使得应用受限;另外,在评价武术或者舞蹈动作是否到位,整体动作是否美观等方面的评价上,单纯分析识别出身体各个关节点的运动趋势显然不够,还需要评价各个动作之间的衔接是否连贯和协调。
发明内容
本发明提供一种运动动作检测方法和系统,能够解决现有技术中的动作识别速度较慢、难以满足实时要求以及评价动作连贯和协调的问题。为解决上述技术问题,本发明采用的一个技术方案是:提供一种运动动作检测方法,包括如下步骤:
S100、获取人体的红外图像和三维加速度信息;
S200、根据所述红外图像识别关节点位中的点集;
S300、获取所述点集对应的深度点集;
S400、将三维加速度信息和所述深度点集融合计算下一周期关节点位位置,并根据获取的下一周期红外图像和三维加速度信息进行验证。
进一步的,所述S100中的人体的红外图像获取方式为:通过具有红外拍摄功能的双目摄像头或者多目摄像头拍摄获得,所述三维加速度信息通过无线方式获取设置在人体关节上的三维加速度模块采集的人体运动信息。
进一步的,在执行所述S200之前还执行以下机器学习步骤:
S10、收集若干人体红外图像,将所述人体红外图像作为学习对象;
S20、在所述学习对象上,标注关节位置以及关节轮廓;
S30、并根据所述标注过的关节位置和关节轮廓取若干特征点;
S40、人工筛选出最能反映关节点位的特征点,将所述若干特征点作为所述关节点位中的点集。
进一步的,所述S200中根据所述红外图像识别关节点位中的点集具体为:
根据所述机器学习方式识别出所述红外图像中的关节点位中的特征点,将所述特征点作为关节点位中的点集;
进一步的,所述S300中的获取深度点集的步骤如下:
S310、根据所述红外图像或者设备自带深度计算算法得到所述红外图像对应的深度图像;
S320、获取所述S200中的点集的位置数据;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河南理工大学,未经河南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111051962.6/2.html,转载请声明来源钻瓜专利网。