[发明专利]基于唇部特征和深度学习的笑脸识别方法有效
申请号: | 201610310959.4 | 申请日: | 2016-05-11 |
公开(公告)号: | CN105956570B | 公开(公告)日: | 2019-08-20 |
发明(设计)人: | 于力;周霞;何建;邹见效;徐红兵;彭超 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 成都行之专利代理事务所(普通合伙) 51220 | 代理人: | 温利平;陈靓靓 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于唇部特征和深度学习的笑脸识别方法,先在包含笑脸的正样本图像和不包含笑脸的负样本图像上裁剪得到唇部图像的训练样本,对所有唇部图像训练样本分别进行特征提取,得到每个训练样本对应的特征向量,采用训练样本的特征向量对深度神经网络进行训练;对于待识别图像,采用同样方法获取待识别图像中人脸的唇部特征向量,输入训练好的深度神经网络进行识别,得到是否为笑脸的识别结果。本发明采用唇部特征结合深度神经网络的特征学习能力,提高复杂条件下的笑脸识别准确率;并且通过对深度神经网络训练时的整体代价函数进行改进,进一步抑制非高斯噪声的影响,提高识别准确率。 | ||
搜索关键词: | 基于 唇部 特征 深度 学习 笑脸 识别 方法 | ||
【主权项】:
1.一种基于唇部特征和深度学习的笑脸识别方法,其特征在于,包括以下步骤:S1:收集包含笑脸的正样本图像和不包含笑脸的负样本图像,对每个训练样本图像分别提取标准人脸图像,标准人脸图像的提取方法为:先采用人脸检测分类器从待识别图像中检测得到初始人脸图像,再采用人眼检测分类器从初始人脸图像中检测定位到眼睛,以眼睛位置为基准,对初始人脸图像进行旋转、缩绽放和裁剪,得到标准人脸图像;再通过唇部位置在标准人脸图像上进行裁剪,获取唇部图像的训练样本;S2:对步骤S1中获取的所有唇部图像训练图像分别进行LBP特征提取,得到每个训练样本对应的特征向量;S3:构建深度神经网络,包括两层自编码网络和分类器,自编码网络是一种输入与输出相等的三层BP神经网络,记自编码网络的参数为(W,b)=(W(1),b(1),W(2),b(2)),令
表示第L层第j个单元与第L+1层第i个单元之间的连接参数,
表示第L层第i单元的偏置项,记第L层有sL个单元,其中L=1,2;用
表示第2层第i个单元输入加权和,
表示第2层第i单元的激活值,那么有如下表达式:![]()
函数f为激活函数:
记第2层的激活值
第2层的输入加权和
第3层的激活值a(3)按照下面步骤计算得到:z(3)=W(2)a(2)+b(2)a(3)=f(z(3))自编码网络输出为hW,b(x)=a(3)=f(z(3));将第一层自编码网络中隐含层的输出作为第二层自编码网络的输入,将第二层自编码网络中隐含层的输出作为分类器的输入,构建得到的深度神经网络包括输入层、第一隐含层、第二隐含层和分类器,其中输入层的神经单元数量为训练样本特征向量的维度,第一隐含层和第二隐含层的神经单元数量可以根据需要进行设置,分类器根据需要选择;将所有训练样本的特征向量作为深度神经网络的输入,对应的样本标签作为输出,其中正样本的样本标签为1,负样本的样本标签为‑1,对深度神经网络进行训练,训练时先采用训练样本的特征向量训练第一层自编码网络,然后将第一层自编码网络中隐含层的输出作为第二层自编码网络的输入,训练第二层自编码网络,最后将训练样本的特征向量依次输入双层自编码网络,将第二隐含层的输出作为分类器的输入,训练样本所对应的样本标签作为输出,对分类器进行训练;S4:对于待识别图像,采用与步骤S1和S2相同的方法获取待识别图像中人脸的唇部特征向量,输入至步骤S3训练好的深度神经网络进行识别,得到是否为笑脸的识别结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610310959.4/,转载请声明来源钻瓜专利网。
- 上一篇:一种浮球地漏
- 下一篇:一种基于监控目标识别的异常行为检测预警方法