[发明专利]人脸关键点定位方法及装置有效
申请号: | 201611135718.7 | 申请日: | 2016-12-09 |
公开(公告)号: | CN106599830B | 公开(公告)日: | 2020-03-17 |
发明(设计)人: | 孙哲南;赫然;谭铁牛;李琦;曹冬;宋凌霄 | 申请(专利权)人: | 中国科学院自动化研究所 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 中科专利商标代理有限责任公司 11021 | 代理人: | 钟文芳 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 关键 定位 方法 装置 | ||
1.一种人脸关键点定位方法,其特征在于,包括如下步骤:
将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值,其中,训练所述第一阶段多任务关键点定位模型包括构建第一阶段多任务深度卷积神经网络,构建第一阶段多任务深度卷积神经网络的目标函数为:
J=Jr(Sg,f(I;Wr))+Jl(Pg,f(I;Wl))
其中,Jr表示人脸关键点定位的损失函数,Jl表示头部姿态信息估计的损失函数,Sg,Pg分别表示输入图像中标定的人脸关键点位置和头部姿态信息,I为输入图像,f(·)是第一阶段多任务深度卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵;
其中,Jr用回归形式的平方误差损失函数表示如下:
其中,N表示输入图像的个数,是第i个输入图像中标定的人脸关键点位置,表示第一阶段多任务深度卷积神经网络中第T层的输入,为所述第一阶段多任务深度卷积神经网络中第T层的映射函数,为第一阶段多任务深度卷积神经网络中第T层的回归映射矩阵;
其中,Jl用分类形式的交叉熵损失函数表示如下:
其中,K为头部姿态信息的类别数目,Pig表示第i个输入图像中标定的头部姿态信息;表示第i个输入图像被分为第k类头部姿态信息的概率,为预测的第i个输入图像的头部姿态信息;
将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像,将所有第一关键点周围提取的第一局部区域图像串联起来;
将所述串联后的第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
2.如权利要求1所述的方法,其特征在于,所述第一阶段多任务关键点定位模型通过如下方式训练得到:
获取包括人脸图像样本的训练样本集,在人脸图像样本中标定人脸关键点位置和头部姿态信息;
通过人脸检测器获取人脸图像样本中的人脸目标区域,把人脸目标区域缩放到第一指定分辨率,并更新标定的人脸关键点位置;
构建第一阶段多任务深度卷积神经网络;
将人脸图像样本的人脸目标区域作为输入图像输入至第一阶段多任务深度卷积神经网络进行训练,得到第一阶段关键点定位模型。
3.如权利要求1所述的方法,其特征在于,所述如下表示:
其中,是第k类头部姿态信息的映射矩阵,是第j类头部姿态信息的映射矩阵,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611135718.7/1.html,转载请声明来源钻瓜专利网。