[发明专利]用于推送信息的方法和装置在审
| 申请号: | 201910169307.7 | 申请日: | 2019-03-06 |
| 公开(公告)号: | CN109919090A | 公开(公告)日: | 2019-06-21 |
| 发明(设计)人: | 田飞 | 申请(专利权)人: | 百度在线网络技术(北京)有限公司 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G10L25/63 |
| 代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 王达佐;马晓亚 |
| 地址: | 100085 北京市*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 心情识别 方法和装置 推送信息 心情信息 视频 准确度 接收用户 发送 拍摄 申请 | ||
1.一种用于推送信息的方法,包括:
接收用户发送的对待识别对象进行拍摄所得到的待识别视频;
基于所述待识别视频和预先训练的心情识别模型,得到所述待识别对象的心情信息,其中,所述心情识别模型用于识别对象的心情;
将所述待识别对象的心情信息推送给所述用户。
2.根据权利要求1所述的方法,其中,所述方法还包括:
接收所述用户发送的对所述待识别对象发出的声音进行录制所得到的待识别音频;以及
所述基于所述待识别视频和预先训练的心情识别模型,得到所述待识别对象的心情信息,包括:
将所述待识别视频和所述待识别音频输入至所述心情识别模型,得到所述待识别对象的心情信息。
3.根据权利要求2所述的方法,其中,所述心情识别模型包括第一特征提取网络、第二特征提取网络和分类网络。
4.根据权利要求3所述的方法,其中,所述将所述待识别视频和所述待识别音频输入至所述心情识别模型,得到所述待识别对象的心情信息,包括:
将所述待识别视频输入至所述第一特征提取网络,得到所述待识别对象的动作特征;
将所述待识别音频输入至所述第二特征提取网络,得到所述待识别对象的声音特征;
将所述动作特征和所述声音特征合并,得到合并特征;
将所述合并特征输入至所述分类网络,得到所述待识别对象的心情信息。
5.根据权利要求2-4之一所述的方法,其中,所述心情识别模型通过如下步骤训练得到:
获取训练样本,其中,所述训练样本包括样本视频、样本音频和样本心情标签,所述样本视频是对样本对象进行拍摄所得到的视频,所述样本音频是对所述样本对象发出的声音进行录制所得到的音频,所述样本心情标签用于标识所述样本对象的心情信息;
将所述样本视频和所述样本音频作为输入,将所述样本心情标签作为输出,训练得到所述心情识别模型。
6.一种用于推送信息的装置,包括:
视频接收单元,被配置成接收用户发送的对待识别对象进行拍摄所得到的待识别视频;
心情识别单元,被配置成基于所述待识别视频和预先训练的心情识别模型,得到所述待识别对象的心情信息,其中,所述心情识别模型用于识别对象的心情;
信息推送单元,被配置成将所述待识别对象的心情信息推送给所述用户。
7.根据权利要求6所述的装置,其中,所述装置还包括:
音频接收单元,被配置成接收所述用户发送的对所述待识别对象发出的声音进行录制所得到的待识别音频;以及
所述心情识别单元进一步被配置成:
将所述待识别视频和所述待识别音频输入至所述心情识别模型,得到所述待识别对象的心情信息。
8.根据权利要求7所述的装置,其中,所述心情识别模型包括第一特征提取网络、第二特征提取网络和分类网络。
9.根据权利要求8所述的装置,其中,所述心情识别单元包括:
动作特征提取子单元,被配置成将所述待识别视频输入至所述第一特征提取网络,得到所述待识别对象的动作特征;
声音特征提取子单元,被配置成将所述待识别音频输入至所述第二特征提取网络,得到所述待识别对象的声音特征;
特征合并子单元,被配置成将所述动作特征和所述声音特征合并,得到合并特征;
心情识别子单元,被配置成环将所述合并特征输入至所述分类网络,得到所述待识别对象的心情信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于百度在线网络技术(北京)有限公司,未经百度在线网络技术(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910169307.7/1.html,转载请声明来源钻瓜专利网。





