[发明专利]基于多任务学习的人脸关键特征点的定位方法有效
| 申请号: | 201710010146.8 | 申请日: | 2017-01-06 |
| 公开(公告)号: | CN106897662B | 公开(公告)日: | 2020-03-10 |
| 发明(设计)人: | 金一;边鹏;安高云;阮秋琦;谢郑楠;郎丛妍 | 申请(专利权)人: | 北京交通大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
| 代理公司: | 北京市商泰律师事务所 11255 | 代理人: | 黄晓军 |
| 地址: | 100044 北*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 任务 学习 关键 特征 定位 方法 | ||
本发明提供了一种基于多任务学习的人脸关键特征点的定位方法。该方法包括根据级联分类器对目标图像进行人脸区域检测,利用人眼检测器定位识别出的人脸区域中的人眼的位置,计算出人脸区域中的两眼间的距离;将人脸区域中的两眼间的距离与人脸平均模型中的两眼间的距离进行对比,根据比较结果确定人脸平均模型的缩放比例,利用缩放比例对人脸平均模型中的人脸区域进行位置调整,通过多任务学习方法定位目标图像对应的人脸区域中的人脸特征点。本发明通过利用不同特征的表征优势,结合多任务学习的框架,解决了监督梯度下降法中的特征点定位中的学习不足的问题,提升了人脸特征点定位的初始化模型的检测性能,提高了人脸关键特征点定位的准确性。
技术领域
本发明涉及人脸识别技术领域,尤其涉及一种基于多任务学习的人脸关键特征点的定位方法。
背景技术
目前,随着社会的不断进步以及各方面对于快速有效的身份验证的迫切要求,生物特征识别技术,尤其是人脸识别技术在近几十年中得到了飞速发展。人脸特征点识别技术是计算机视觉和模式识别领域的一个热门话题。其对国家安全、公共安全、海关、机场等安全领域至关重要,在虚拟现实、仿真应用、游戏娱乐、影视制作等方面有着巨大的应用前景,因此在实际应用中受到越来越多的关注和重视。
如何在自然条件的环境变化和人脸主动的变化下定位人脸关键部位是人脸特征点识别主要目的。因此,如何减少光照、遮挡、姿态、表情的影响以提高鲁棒性,以及如何在同时存在线性和非线性变化的人脸表观上找到其对应的人脸形状是人脸特征点识别需要解决的主要问题。目前现有技术中的人脸特征点识别算法主要集中在深度模型方法上和级联回归方法上,级联回归方法因为快速简便所以更有利于应用于实际中。级联回归的方法是十分有效的人脸特征点检测的方法,因为其在算法速度上有非常大的优势,而且投影函数可以是多种多样的,所以对级联回归方法的改进也可以有很多方面。
上述级联回归方法的缺点为:级联回归方法非常依赖于初始化的准确度,在处理人脸表观非线性变化时有一定的困难。得益于梯度下降法SDM(Supervised DescentMethod)的简化处理,级联回归的方法在应对这些问题的时候具有了一定的适应性。但是梯度下降法仍然需要面对初始化依赖和过度匹配等问题,原因就是原始的梯度下降法在特征表示上过于单一。
发明内容
本发明的实施例提供了一种基于多任务学习的人脸关键特征点的定位方法,以实现有效地对图像中的人脸关键特征点进行定位。
为了实现上述目的,本发明采取了如下技术方案。
一种基于多任务学习的人脸关键特征点的定位方法,包括:
根据训练好的级联分类器对目标图像进行人脸区域检测,在识别出人脸区域后,利用人眼检测器定位所述人脸区域中的人眼的位置,计算出所述人脸区域中的两眼间的距离;
将所述人脸区域中的两眼间的距离与所述人脸平均模型中的两眼间的距离进行对比,根据比较结果确定所述人脸平均模型的缩放比例,利用所述缩放比例对所述人脸平均模型中的人脸区域进行位置调整,通过多任务学习方法定位所述目标图像对应的人脸区域中的人脸特征点。
进一步地,所述的将所述人脸区域中的两眼间的距离与所述人脸平均模型中的两眼间的距离进行对比,根据比较结果确定所述人脸平均模型的缩放比例,利用所述缩放比例对所述人脸平均模型中的人脸区域进行位置调整,包括:
将所述人脸区域中的两眼间的距离d与所述人脸平均模型中的两眼间的距离d’相除,得到所述人脸平均模型的缩放比例w,将所述人脸平均模型的坐标轴与所述人脸区域的左上角对齐,根据w对所述人脸平均模型的所有初始点(x′,y′)的坐标进行放大,即(xn,yn)=(x′n*w,y′n*w)。
进一步地,所述的通过多任务学习方法定位所述目标图像对应的人脸区域中的人脸特征点,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京交通大学,未经北京交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710010146.8/2.html,转载请声明来源钻瓜专利网。





