[发明专利]一种基于DCNNs-LSTM模型的表情追踪方法在审
| 申请号: | 201810823018.X | 申请日: | 2018-07-25 |
| 公开(公告)号: | CN109086707A | 公开(公告)日: | 2018-12-25 |
| 发明(设计)人: | 饶云波;宋佳丽;吉普照;苟苗;范柏江;杨攀;郑雨嘉 | 申请(专利权)人: | 电子科技大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04 |
| 代理公司: | 成都点睛专利代理事务所(普通合伙) 51232 | 代理人: | 孙一峰 |
| 地址: | 611731 四川省*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 表情 欧氏距离 三维特征 追踪 卷积神经网络 三角网格重建 神经网络模型 时间序列信息 数据转换模型 图像特征提取 标签文件 动画人物 计算网格 记忆网络 人脸图像 头部特征 形变 可识别 数据集 特征点 迁移 | ||
1.一种基于DCNNs-LSTM模型的表情追踪方法,其特征在于,包括以下步骤:
S1、生成训练数据集:在包含人脸的视频中,标注出视频中人脸的面部68个特征点的3D坐标、左右两眼的眼神位置以及头部偏移的3D信息,将视频按单帧切成单张图片,标注信息也按单帧进行封装,获得该人脸在时间上连续的图片集;将从多个视频中提取出的多个人脸图片集作为训练数据集;
S2、结合深度卷积神经网络DCNN和LSTM网络共同提取面部及头部、眼神特征,其中,DCNN用于学习空间特征,LSTM用学习时间特征,具体为:
对同时输入的多张相邻帧图片,由对应的多个DCNN同时提取相应图片的人脸特征信息,将DCNN的输出值作为LSTM网络的输入值,在LSTM层中,多个时刻的输出值将用于下一时刻的特征值,由输出门决定网络的输出值,预测结果为213个坐标值,包括68个特征点的3D坐标、左右两眼的眼神3D坐标和头部3D坐标;
采用步骤S1获得的训练数据集对DCNNs-LSTM模型进行训练;
S3、采用训练好的DCNNs-LSTM模型提取视频中人脸的面部、眼神及头部3D信息;
S4、对模型提取的三维坐标做网格重建并经数据转换模型生成形变系数,用于对人脸3D模型进行控制,实现表情追踪。
2.根据权利要求1所述的一种基于DCNNs-LSTM模型的表情追踪方法,其特征在于,步骤S2中所述深度卷积神经网络DCNN的结构为:第一层为3×3的标准卷积,接着是9层分离卷积,再由1层平均池化层将特征图归一化为1×1×1024大小。
3.根据权利要求2所述的一种基于DCNNs-LSTM模型的表情追踪方法,其特征在于,步骤S2中,所述LSTM网络为根据前t-5帧信息预测出t时刻的信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810823018.X/1.html,转载请声明来源钻瓜专利网。





