[发明专利]获取用户使用时长的方法和系统有效
申请号: | 202010891346.0 | 申请日: | 2020-08-30 |
公开(公告)号: | CN112037094B | 公开(公告)日: | 2022-01-11 |
发明(设计)人: | 许昭慧 | 申请(专利权)人: | 上海米学人工智能信息科技有限公司 |
主分类号: | G06Q50/20 | 分类号: | G06Q50/20;G06F17/18;G06K9/00;G06F40/30;G10L17/06;G10L17/02;G10L21/0224;G10L17/20;G10L25/51 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 200235 上海市徐*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 获取 用户 使用 方法 系统 | ||
本发明提供了获取用户使用时长的方法和系统,其在用户进行线上学习的全过程中进行拍摄和录音,以此获得用户在线上学习全过程的动作信息和语音信息,并根据该动作信息和该语音信息判断不同时间间隔内用户是否处于有效线上学习状态,并累计用户在线上学习全过程中的总计有效学习使用时长,以便于针对性地提高用户的线上学习效率以及降低用户的线上学习体验性。
技术领域
本发明涉及智能教育的技术领域,特别涉及获取用户使用时长的方法和系统。
背景技术
目前,线上教学都是通过相应的终端播放教学视频,来实现与用户的教学互动,但是用户在进行线上学习的过程中并不是全程都将注意力集中在观看教学视频中。用户在进行线上学习过程中集中注意力参与互动教学的总计有效学习使用时长会影响用户的线上学习效率,而现有技术并不能准确地确定该总计有效学习使用时长,从而无法有针对性地提高用户的线上学习效率以及降低用户的线上学习体验性。
发明内容
针对现有技术存在的缺陷,本发明提供获取用户使用时长的方法和系统,其通过对用户进行拍摄和录音,以此获得该用户在进行线上学习过程中的影像数据和声音数据,并对该影像数据和该数据信息进行规范预处理,再将经过该规范化预处理的该影像数据和所述声音数据分别切分为若干影像片段数据和若干声音片段数据,再判断该影像片段数据和该声音片段数据对应的时间间隔内,该用户是否处于有效线上学习状态,最后根据该有效线上学习状态的判断结果,确定该用户在所述线上学习过程中的总计有效学习使用时长;可见,该获取用户使用时长的方法和系统在用户进行线上学习的全过程中进行拍摄和录音,以此获得用户在线上学习全过程的动作信息和语音信息,并根据该动作信息和该语音信息判断不同时间间隔内用户是否处于有效线上学习状态,并累计用户在线上学习全过程中的总计有效学习使用时长,以便于针对性地提高用户的线上学习效率以及降低用户的线上学习体验性。
本发明提供获取用户使用时长的方法,其特征在于,其包括如下步骤:
步骤S1,对用户进行拍摄和录音,以此获得所述用户在进行线上学习过程中的影像数据和声音数据,并对所述影像数据和所述数据信息进行规范预处理;
步骤S2,将经过所述规范化预处理的所述影像数据和所述声音数据分别切分为若干影像片段数据和若干声音片段数据,再判断所述影像片段数据和所述声音片段数据对应的时间间隔内,所述用户是否处于有效线上学习状态;
步骤S3,根据所述有效线上学习状态的判断结果,确定所述用户在所述线上学习过程中的总计有效学习使用时长;
进一步,在所述步骤S1中,对用户进行拍摄和录音,以此获得所述用户在进行线上学习过程中的影像数据和声音数据,并对所述影像数据和所述数据信息进行规范预处理具体包括,
步骤S101,在所述用户进行线上学习过程中,采用多目摄像头对所述用户进行多视角拍摄,从而获得关于所述用户的多视角动态影像数据;
步骤S102,在所述用户进行线上学习过程中,采用麦克风阵列对所述用户进行多方位录音,从而获得关于所述用户的多方位声音数据;
步骤S103,从所述多视角动态影像数据中识别区分用户相关像素区域和背景环境相关像素区域,并对所述背景环境相关像素区域进行像素虚化处理,以此实现对所述影像数据的规范化处理;
步骤S104,对所述多方位声音数据进行背景噪声降噪滤波处理,从而消除所述多方位声音数据中的背景噪声成分,以此实现对所述声音数据的规范化处理;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海米学人工智能信息科技有限公司,未经上海米学人工智能信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010891346.0/2.html,转载请声明来源钻瓜专利网。