[发明专利]一种面向救援培训的行为检测与效果评价的方法及装置在审
申请号: | 202110656392.7 | 申请日: | 2021-06-11 |
公开(公告)号: | CN113392758A | 公开(公告)日: | 2021-09-14 |
发明(设计)人: | 胡智;石志国 | 申请(专利权)人: | 北京科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/42;G06K9/34;G06Q50/20;G06N3/04 |
代理公司: | 北京市广友专利事务所有限责任公司 11237 | 代理人: | 张仲波 |
地址: | 100083*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 救援 培训 行为 检测 效果 评价 方法 装置 | ||
1.一种面向救援培训的行为检测与效果评价的方法,其特征在于,所述方法包括:
获取待识别图像;
将所述待识别图像输入到VGG-19卷积神经网络,获取特征图像序列;
将所述特征图像序列输入Open-pose网络模型中,通过所述Open-pose网络模型识别所述待识别图像15个骨骼点,将所述15个骨骼点的坐标转化为数字序列;其中,所述15个骨骼点包括头部、颈部、左肩部、右肩部、左肘部、右肘部、左手部、右手部、腰中心部、左臀部、右臀部、左膝部、右膝部、左脚部、右脚部;
将所述数字序列规范化处理,计算出肢体长度、角度参数,将所述肢体长度以及角度参数传入三层全连接层,获取预估计姿态类型;
获取预先存储的预估计姿态类型对应的样本骨骼点坐标的数字序列,根据所述样本骨骼点坐标的数字序列以及所述待识别图像对应的骨骼点坐标的数字序列,判断所述待识别图像是否达标。
2.根据权利要求1所述的方法,其特征在于,所述将所述待识别图像输入到VGG-19卷积神经网络之前,包括:
对所述待识别图像进行裁剪缩放;
对裁剪缩放后的待识别图像进行色彩突出。
3.根据权利要求2所述的方法,其特征在于,所述对所述待识别图像进行裁剪缩放,包括:
获取摄像头采集的图像的像素数据,根据像素大小进行等比例缩放,缩放至224*224,若所述图像的长宽比小于1:1,则截掉上部;若所述图像的长宽比大于1:1,则左右同时截掉同等像素值,最终获得224*224*3的RGB图像,即为裁剪缩放后的待识别图像。
4.根据权利要求2所述的方法,其特征在于,所述对裁剪缩放后的待识别图像进行色彩突出,包括:
将裁剪缩放后的待识别图像的色彩空间转换为HSV色彩空间,并根据红色的HSV值设定范围,设置掩膜。
5.根据权利要求1所述的方法,其特征在于,所述获取待识别图像,包括:
获取待识别视频;
在所述待识别视频中,以每秒10帧的速度抽取视频中的图像序列,作为待识别图像。
6.根据权利要求1所述的方法,其特征在于,所述Open-pose网络模型包括全连接层以及softmax层;
所述将所述待识别图像输入到VGG-19卷积神经网络,获取特征图像序列,包括:
通过卷积层对所述待识别图像提取图像特征,通过池化层降低所述图像特征的输入尺寸,提取所述图像特征关键点;
将所述肢体长度以及角度参数传入三层全连接层,获取预估计姿态类型,包括:
将所述15个骨骼点的横纵坐标Sx和Sy、13个躯体长度li、13个躯体角度θi、常数参数输入全连接层,通过全连接层得到预估计姿态类型;
通过下述公式(1)(2)计算躯体长度li以及躯体角度θi:
7.一种面向救援培训的行为检测与效果评价的装置,其特征在于,所述装置包括:
获取单元,用于获取待识别图像;
输入单元,用于将所述待识别图像输入到VGG-19卷积神经网络,获取特征图像序列;
识别单元,用于将所述特征图像序列输入Open-pose网络模型中,通过所述Open-pose网络模型识别所述待识别图像15个骨骼点,将所述15个骨骼点的坐标转化为数字序列;其中,所述15个骨骼点包括头部、颈部、左肩部、右肩部、左肘部、右肘部、左手部、右手部、腰中心部、左臀部、右臀部、左膝部、右膝部、左脚部、右脚部;
预估单元,用于将所述数字序列规范化处理,计算出肢体长度、角度参数,将所述肢体长度以及角度参数传入三层全连接层,获取预估计姿态类型;
判断单元,用于获取预先存储的预估计姿态类型对应的样本骨骼点坐标的数字序列,根据所述样本骨骼点坐标的数字序列以及所述待识别图像对应的骨骼点坐标的数字序列,判断所述待识别图像是否达标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京科技大学,未经北京科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110656392.7/1.html,转载请声明来源钻瓜专利网。