[发明专利]教学场景状态的确定方法及装置在审
申请号: | 201711078513.4 | 申请日: | 2017-11-06 |
公开(公告)号: | CN109753855A | 公开(公告)日: | 2019-05-14 |
发明(设计)人: | 王福臣 | 申请(专利权)人: | 北京易真学思教育科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06Q50/20 |
代理公司: | 北京合智同创知识产权代理有限公司 11545 | 代理人: | 李杰 |
地址: | 100041 北京市石景山区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 教学场景 实时视频流 面部特征 映射关系 标示 面部特征模板 学生 场景状态 在线教育 状态模板 课堂 互动 身份 直观 中学生 教育 | ||
1.一种教学场景状态的确定方法,其特征在于,包括:
建立面部特征模板与教学场景状态模板之间的映射关系;
识别不同身份ID号所标示的学生在课堂实时视频流中的面部特征;
根据学生在课堂实时视频流中的面部特征以及所述映射关系,确定所述不同身份ID号所标示学生的教学场景状态。
2.根据权利要求1所述的确定方法,其特征在于,识别不同身份ID号所标示的学生在课堂实时视频流中的面部特征包括:
对采集到的课堂实时视频流进行切分得到多帧图片,并检测含有正面人脸图像的图片;
根据图片中学生的正面人脸图像,识别不同身份ID号所标示的学生在课堂实时视频流中的面部特征。
3.根据权利要求2所述的确定方法,其特征在于,根据图片中学生的正面人脸图像,识别不同身份ID号所标示的学生在课堂实时视频流中的面部特征包括:从图片中学生的正面人脸图像上抽取面部特征,并将所述面部特征转换为机器语言。
4.根据权利要求3所述的确定方法,其特征在于,从图片中学生的正面人脸图像上抽取面部特征包括:根据不同面部特征在人脸图像上的位置和形状模型,从图片中学生的正面人脸图像上抽取对应的面部特征。
5.根据权利要求1所述的确定方法,其特征在于,建立面部特征模板与教学场景状态模板之间的映射关系包括:每一教学场景状态模板对应有面部特征模型,根据面部特征模板与不同教学场景状态模板的面部特征模型进行匹配,建立所述映射关系。
6.根据权利要求2所述的确定方法,其特征在于,检测含有正面人脸图像的图片包括:提取图片上像素点的灰度值,并根据设定的灰度值阈值对提取的灰度值进行二值化得到特征向量,并与面部特征向量模板进行匹配,以检测含有正面人脸图像的图片。
7.根据权利要求2所述的确定方法,其特征在于,每一个教学场景状态具有状态ID号;对应地,确定所述不同身份ID号所标示学生的教学场景状态包括:根据身份ID号所标示的学生在课堂实时视频流中的面部特征的变化,对对应身份ID号所表示的学生对应的教学场景状态进行跟踪并记录跟踪到的的教学场景状态对应状态ID号。
8.根据权利要求7所述的确定方法,其特征在于,对对应身份ID号所表示的学生对应的教学场景状态进行跟踪并记录跟踪到的教学场景状态对应状态ID号包括:循环遍历每一身份ID号所标示学生在多帧帧图片上的面部特征变化以对对应身份ID号所表示的学生对应的教学场景状态进行跟踪并记录跟踪到的的教学场景状态对应状态ID号。
9.根据权利要求1-8任一项所述的确定方法,其特征在于,还包括:根据给不同教学场景状态赋予的色块,对每一身份ID号所标示的学生的教学场景状态进行色块统计分析。
10.根据权利要求9所述的确定方法,其特征在于,还包括:根据从课堂实时视频流中提取的面部特征,对所述教学场景状态模板进行训练并更新。
11.根据权利要求10所述的确定方法,其特征在于,所述面部特征包括眼睛、眉毛以及嘴角中任一一种或多种的组合。
12.一种教学场景状态的确定装置,其特征在于,包括:
映射模块,用于建立面部特征模板与教学场景状态模板之间的映射关系;
识别模块,用于在采集到的课堂实时视频流中对不同的学生赋予身份ID号,并识别不同身份ID号所标示的学生在课堂实时视频流中的面部特征;
确定模块,用于根据学生在课堂实时视频流中的面部特征以及所述映射关系,确定所述不同身份ID号所标示学生的教学场景状态。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京易真学思教育科技有限公司,未经北京易真学思教育科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711078513.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种通过视频监控进行骚乱检测的方法
- 下一篇:电子设备