[发明专利]融合注意力机制与高阶特征表示的面部情感识别方法在审
申请号: | 202111439715.3 | 申请日: | 2021-11-30 |
公开(公告)号: | CN114170657A | 公开(公告)日: | 2022-03-11 |
发明(设计)人: | 孙强;梁乐;梅路洋 | 申请(专利权)人: | 西安理工大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/772;G06V10/80;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 西安弘理专利事务所 61214 | 代理人: | 王敏强 |
地址: | 710048 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 融合 注意力 机制 特征 表示 面部 情感 识别 方法 | ||
1.融合注意力机制与高阶特征表示的面部情感识别方法,其特征在于,具体按照以下步骤实施:
步骤1、采集目标图像,将目标图像划分为训练样本集xtrain和测试样本集xtest;
步骤2、读取训练样本集xtrain中每个样本图像原始情感标注值,并将训练样本集xtrain中每个样本图像送入多任务级联的卷积神经网络MTCNN中,根据人脸检测和5个关键特征点,完成人脸对齐,得到输出图像xinput=[x1,x2,...,xn],其中,xn表示第n张输出图像,n表示输出图像的总数,即训练样本集xtrain中图像的总数;
步骤3、将预处理后得到的图像xinput输入到残差注意力网络中,然后通过主干分支提取不同感受野的特征Mi,c(x)、掩码分支学习注意力权重Ti,c(x);最后,将主干分支的输出和掩码分支的输出进行点积运算,得到注意力输出特征图Hi,c(x);
步骤4、将步骤3中得到的注意力输出特征图Hi,c(x)分别送入基于通道的全局二阶池化网络GSoP和基于空间位置的全局二阶池化网络,基于通道的全局二阶池化网络输出特征图之间的依赖关系Ztrans,基于空间位置的全局二阶池化网络输出特征图中空间位置之间的依赖关系Znon-local;
步骤5、融合特征图之间的依赖关系Ztrans和特征图中空间位置之间的依赖关系Znon-local,从而得到输出特征Zfusion;
步骤6、将步骤5得到的输出特征Zfusion送入一个两阶段多任务学习网络,并使用一个线性回归器得到情感状态值:Arousal和Valence。
2.根据权利要求1所述的融合注意力机制与高阶特征表示的面部情感识别方法,其特征在于,所述步骤1中,
对于训练样本集xtrain,样本图像为n×h×w维的张量ztrain=[(h1,w1),(h2,w2),...,(hn,wn)],其中n表示训练样本集的样本总数目,h和w分别表示每个样本图像的长度和宽度,样本的原始情感标注值为n×2维的向量ya,v=[(a1,v1),(a2,v2),...,(an,vn)],其中(an,vn)分别表示训练样本集xtrain中第n个样本图像的Arousal和Valence标签;
对于测试样本集xtest,样本图像为m×h×w维的张量xtest=[(h1,w1),(h2w2),...,(hm,wm)],其中m表示测试样本集的样本总数目,h和w分别表示每个样本图像的长度和宽度;样本的原始情感标注值为m×2维的向量ya,v=[(a1,v1),(a2,v2),...,(am,vm)],其中(am,vm)分别表示测试样本集xtest中第m个样本图片的Arousal和Valence标签。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安理工大学,未经西安理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111439715.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种促进沉香树结香的方法
- 下一篇:大面积违法目标识别处理方法、装置和系统