[发明专利]学习状态识别方法、装置、设备及存储介质在审
| 申请号: | 202211289056.4 | 申请日: | 2022-10-20 |
| 公开(公告)号: | CN115601836A | 公开(公告)日: | 2023-01-13 |
| 发明(设计)人: | 王华;蔡溢枫;邱海矶 | 申请(专利权)人: | 珠海美佳音科技有限公司 |
| 主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V40/16;G06V20/40;G06V10/764;G06V10/82;G06V10/22;G06Q50/20 |
| 代理公司: | 北京市京大律师事务所 11321 | 代理人: | 居梦琪 |
| 地址: | 519000 广东省*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 学习 状态 识别 方法 装置 设备 存储 介质 | ||
1.一种学习状态识别方法,其特征在于,所述学习状态识别方法包括:
采集预设场景的实时视频图像,并将所述实时视频图像输入预设人脸识别模型,得到人脸识别结果;
根据所述人脸识别结果,确定所述实时视频图像中目标对象的区域范围;
根据所述目标对象的区域范围,从所述实时视频图像中提取所述目标对象对应的肢体图像和面部图像;
分别对所述肢体图像和所述面部图像进行分类,得到所述肢体图像和所述面部图像的图像类型;
根据所述图像类型,分别调用与所述图片类型对应的行为分析模型,通过所述行为分析模型对所述肢体图像和所述面部图像进行行为分析,得到所述目标对象的学习状态识别结果。
2.根据权利要求1所述的学习状态识别方法,其特征在于,在所述采集预设场景的实时视频图像,并将所述实时视频图像输入预设人脸识别模型,得到人脸识别结果之前,还包括:
采集预设场景的视频数据,并从所述视频数据中提取预设时间段的历史视频图像;
对所述历史视频图像进行识别,得到每一帧所述历史视频图像中的目标对象的行为特征数据;
根据所述目标对象的行为特征数据,计算所述目标对象的学习状态数据;
将所述学习状态数据作为训练样本数据,并将所述训练样本数据输入至预设的神经网络模型进行训练,以得到行为分析模型。
3.根据权利要求2所述的学习状态识别方法,其特征在于,所述根据所述目标对象的行为特征数据,计算所述目标对象的学习状态数据,包括:
根据每一帧所述目标对象的行为特征数据,确定所述目标对象的头部位置和面部区域,并根据所述面部区域计算所述目标对象的人脸面积;
根据所述目标对象的人脸面积和所述目标对象的五官位置,计算五官分布的偏离程度;
基于所述五官分布的偏离程度,计算所述目标对象的学习状态数据。
4.根据权利要求2所述的学习状态识别方法,其特征在于,所述预设的神经网络模型包括输入层、特征提取层、隐藏层、池化层和输出层,所述将所述训练样本数据输入至预设的神经网络模型进行训练,以得到行为分析模型,包括:
将所述训练样本数据通过所述输入层输入预设的神经网络模型,并基于所述神经网络模型的特征提取层对所述训练样本数据进行特征提取,得到第一训练特征;
将所述第一训练特征输入所述隐藏层,得到与所述第一训练特征对应的第二训练特征;
基于所述池化层对所述第二训练特征进行特征降维,得到第三训练特征;
基于所述第三训练特征进行分类,并通过所述输出层输出分类结果;
基于所述分类结果,对所述神经网络模型的参数进行调整,直至所述神经网络模型收敛,得到行为分析模型。
5.根据权利要求1所述的学习状态识别方法,其特征在于,所述通过所述行为分析模型对所述肢体图像和所述面部图像进行行为分析,得到所述目标对象的学习状态识别结果,包括:
分别对所述目标对象对应的肢体图像和面部图像进行特征提取,得到所述目标对象的肢体动作特征向量和所述目标对象的表情特征数据向量;
将所述肢体动作特征向量和所述表情特征数据向量进行特征融合,得到目标特征图;
通过所述行为分析模型对所述目标特征图进行行为分析,得到所述目标对象的学习状态识别结果。
6.根据权利要求1所述的学习状态识别方法,其特征在于,所述通过所述行为分析模型对所述肢体图像和所述面部图像进行行为分析,得到所述目标对象的学习状态识别结果,还包括:
通过所述行为分析模型,对所述目标对象的面部图像进行情绪识别,得到所述目标对象的情绪识别结果;
通过所述行为分析模型,对所述目标对象的肢体图像进行动作识别,得到所述目标对象的姿态识别结果;
根据所述目标对象的情绪识别结果和所述目标对象的姿态识别结果,确定所述目标对象的学习状态识别结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于珠海美佳音科技有限公司,未经珠海美佳音科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211289056.4/1.html,转载请声明来源钻瓜专利网。





