[发明专利]基于单向视频信号的腰部竖脊肌活动识别及预测方法在审
| 申请号: | 201911133366.5 | 申请日: | 2019-11-19 |
| 公开(公告)号: | CN110859620A | 公开(公告)日: | 2020-03-06 |
| 发明(设计)人: | 王琦;祝程华 | 申请(专利权)人: | 上海电机学院 |
| 主分类号: | A61B5/0488 | 分类号: | A61B5/0488;A61B5/22 |
| 代理公司: | 上海伯瑞杰知识产权代理有限公司 31227 | 代理人: | 王一琦 |
| 地址: | 200240 *** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 单向 视频信号 腰部 竖脊肌 活动 识别 预测 方法 | ||
本发明涉及人机工程学技术领域的基于单向视频信号的腰部竖脊肌活动识别及预测方法,至少包括如下步骤:测量步骤,首先包含有信号采集子步骤,所述信号采集子步骤在进行时,同步采集右斜方肌和两侧腰最长肌的肌电信号,以及全身主要部位的关键点的运动信息;两步聚类识别步骤,包括预聚类、准聚类子步骤,还包括构建聚类特征树,以分成多个子类;基于人工神经网络的预测步骤,在长时间里对信号进行多人间对比。从繁杂且长时间的的劳动过程中识别出部分目标动作,在识别动作的基础上,可以对实验室内训练过的任务进行肌肉发力百分比预测。
技术领域
本发明涉及人机工程学技术领域,具体来说,是腰部竖脊肌活动识别及预测系统。
背景技术
现有技术中存在如下缺陷。
由于肌电测试的条件要求接触界面稳定,出汗、皮肤伸展等因素都会造成结果的剧烈变化,在工作条件下,难以进行大规模肌电图(emg)采集,对损伤和疾病原因的深入研究仍然受到限制。主要是因为监测工作环境下人的动作,面临极多种的可能,直接测量的结果时间太长,很多动作需要基于分类去除,再进行识别。
也因为很难对肌电图数据和三维运动数据进行同步跟踪。考虑到腰部屈曲/伸展任务持续时间长且与多功能任务相结合,人机界面湿度和温度的快速变化可能会影响肌电测量的准确性。对潜在意外现象或损伤的机制的长时间监控,势必需要一种基于任务识别的可靠和准确的数据收集方法。
对于严格控制的监测,在现场研究中有太多的变量起作用,超过了用于腰肌行为预测的交叉实验的可接受范围。相关变量包括但不限于:所采用的姿势、手部任务、速度、体重、外力、主观原因和病理原因(Corbeil等,2018;Lavender等,1999)。一些变量可能会改变姿势的采用和用力机制、屈曲放松现象和腰痛等(Dickey,et al.,2003)。据报道,体重可以使受试者采用更具生物力学优势的策略。(Xu,X.,等人,2008年)。躯干软组织的疲劳和粘弹性响应等因素增加了时间对预测外载荷和人工任务的影响。由于时间和规模的限制,实验室中的多变量方法不适合预测长时间屈伸运动任务。
建模方法依赖于算法和基于emg的验证来模拟连续过程。文献中提出了肌电辅助模型和混合肌电优化(Dreischarf等人,2015;Gagnon等人,2001)。而腰肌作为躯干系统的执行器、控制器和稳定器具有多种作用。建模方法过于复杂,无法对应诸如主观习惯或微妙疼痛感觉等交互因素的影响(Butler等人,2010)。
发明内容
本发明的目的是提供基于单向视频信号的腰部竖脊肌活动识别及预测方法,从繁杂且长时间的的劳动过程中识别出部分目标动作,在识别动作的基础上,可以对实验室内训练过的任务进行肌肉发力百分比预测。
本发明的目的是这样实现的:基于单向视频信号的腰部竖脊肌活动识别及预测方法,至少包括如下步骤:
S1、测量步骤,首先包含有信号采集子步骤,所述信号采集子步骤在进行时,同步采集右斜方肌和两侧腰最长肌的肌电信号,以及全身主要部位的关键点的运动信息;
S2、两步聚类识别步骤,包括预聚类、准聚类子步骤,还包括构建聚类特征树,以分成多个子类;
S3、基于人工神经网络的预测步骤,在长时间里对信号进行多人间对比;
其中,步骤S1中还包含信号处理子步骤,信号处理子步骤在进行时,同步的肌电信号和运动信号在Cortex平台中完成手动去噪和平滑处理。
进一步地,步骤S1中,利用Cortex平台捕捉全身主要部位的关键点的位置、速度和加速度;其中颈椎、腰椎及其体表中点都被用于表述脊椎姿态;其它关键点位于四肢主要关节和头顶。
进一步地,步骤S1还包括如下流程:完成不同肌肉的MVC测量;输出到处理终端实时生成发力曲线;电极头的贴合性保证和脱离后的蜂鸣器预警;肌电控制端信号处理和简化,反馈输出为三个维度的速度和加速度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海电机学院,未经上海电机学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911133366.5/2.html,转载请声明来源钻瓜专利网。





