[发明专利]一种在视频聊天的表情显示方法及系统有效
| 申请号: | 201810027132.1 | 申请日: | 2018-01-11 |
| 公开(公告)号: | CN108399358B | 公开(公告)日: | 2021-11-05 |
| 发明(设计)人: | 杨林权;谷俊允 | 申请(专利权)人: | 中国地质大学(武汉) |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06F16/53 |
| 代理公司: | 武汉知产时代知识产权代理有限公司 42238 | 代理人: | 曹雄;金慧君 |
| 地址: | 430074 湖*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 视频 聊天 表情 显示 方法 系统 | ||
1.一种在线视频聊天的表情显示方法,其特征在于,包含如下步骤:
S1、获取在线视频聊天端的拍摄装置所拍摄的聊天者聊天时的面部的表情图像;
S2、分别对各个拍摄装置的表情图像进行处理;对任一个拍摄装置的表情图像进行处理的方法如下:先将表情图像进行表情分类处理,再将表情图像输入至分类到的表情所对应的强度处理子模型进行处理,得到分类到的表情的强度,其中一个表情分类下的强度处理子模型中具有该表情分类的多个强度;
S3、根据预设的转换关系,将步骤S2得到各表情分类以及对应的表情的强度转换为表情图片/动画显示出来;
还包括分别训练各个强度处理子模型的步骤,任意一个强度处理子模型的训练步骤包括:
A1、获取某一表情分类下的用于训练的包含人面部分的表情数据库,所述表情数据库包含具有面部表情强度标签的数据库与无面部表情强度标签的数据库;
A2、对所述表情数据库中的图像数据进行预处理,提取出人面部分的数据;
A3、对提取出的人面部分的数据分别进行面部几何特征、局部二值模式和Gabor小波变换三种模式的特征提取;
A4、分别使用全监督模式、半监督模式和无监督模式对步骤A3输出的数据进行训练,得到特征与面部表情强度的关系;
A5、将所述训练后形成的数据分别作为序数随机森林算法的输入进行训练,分别得出面部表情强度处理子模型,将k1*B1+k2*B2+k3*B 3作为最终的面部表情强度计算模型,其中系数k1、k2、k3的取值范围均为(0,1),且k1+k2+k3=1,B1、B2、B3分别为同一输入条件下全监督模式、半监督模式和无监督模式对应的输出值;
其中,全监督模式是指采用带有强度标签的图像数据作为该模式的表情数据库进行训练;半监督模式是指采用部分带有强度标签部分不带有强度标签的图像数据作为该模式的表情数据库进行训练;无监督模式是指采用不带有强度标签的图像数据作为该模式的表情数据库进行训练。
2.根据权利要求1所述的表情显示方法,其特征在于,所述将步骤S2得到各表情分类以及对应的表情的强度转换为表情图片/动画显示出来包括:
将表情图片/动画在聊天视频显示装置上进行本地显示;或者,
将表情图片/动画发送至聊天对象的聊天视频显示装置上进行显示。
3.根据权利要求1所述的表情显示方法,其特征在于,所述步骤A2中预处理包括:人脸特征点定位、人脸识别、图像剪切和直方图均衡化;方案采用主动形状模型ASM获取面部特征点,利用瞳孔间的连线与水平线的夹角,旋转图像使得瞳孔间连线为水平,之后调用OpenCV库中人脸识别框架获取图像数据中人面部分,并且剪切面部区域为M*N像素,最后对剪切后的所有图像数据进行直方图均衡化处理;其中,M、N均为正整数且均大于3。
4.根据权利要求1所述的表情显示方法,其特征在于,所述步骤A3中还包括步骤:采用主成分分析方法,分别对三种模式提取的特征进行处理以降低特征数据的维度。
5.根据权利要求1所述的表情显示方法,其特征在于,所述步骤A3中对于任意一帧:是以该帧中下巴与鼻尖的像素间距离为标准值,将嘴角、下巴、眼角、上下眼皮之间的像素间的相互距离与该帧的标准值的比值作为面部几何特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国地质大学(武汉),未经中国地质大学(武汉)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810027132.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种人脸定位方法及装置
- 下一篇:一种视频序列下实时火灾检测预警方法





