[发明专利]一种候选框生成网络的生成方法及人脸检测方法在审
| 申请号: | 201710242833.2 | 申请日: | 2017-04-14 |
| 公开(公告)号: | CN106991408A | 公开(公告)日: | 2017-07-28 |
| 发明(设计)人: | 段翰聪;赵子天;邹涵江;文慧;张帆;闵革勇;孙振兴;陈绍斌 | 申请(专利权)人: | 电子科技大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
| 代理公司: | 成都行之专利代理事务所(普通合伙)51220 | 代理人: | 田甜 |
| 地址: | 610000 四川省成*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 候选 生成 网络 方法 检测 | ||
技术领域
本发明涉及人脸检测方法领域,具体涉及一种候选框生成网络的生成方法及基于该候选框生成网络的人脸检测方法。
背景技术
人脸检测是计算机视觉领域中研究最多的课题之一,不仅是因为在物体检测中人脸检测具有挑战性,更由于有无数的应用程序,需要运用人脸检测作为第一步。人脸检测任务的目标是对任意给定的一幅图像或一组图像序列,使用机器自动判定该图像或该序列中是否存在,且在存在人脸的情况下,找出其位置和大小。人脸检测问题通常被抽象为一个二分类问题,即区分人脸与非人脸。
人脸图像在其表现与形状上呈现出巨大的差异,而在真实场景中,更由于光照、遮挡、角度、姿态等因素,增加了人脸检测的难度。经典的人脸检测方法主要通过基于人脸和非人脸的图像样本学习分类器,然后在输入的图像上生成候选框,再使用训练好的数据学习分类器对每个候选窗口进行分类。随着深度神经网络的不断发展与运用,各种结构的网络模型被用于人脸检测,然而,模型复杂度低的分类器缺乏足够的建模能力,模型复杂度高的分类器则具有高昂的计算开销。实际的应用程序中,由于视频及图像需要在有限计算资源下实时处理,目前很多方法难以同时在精度和速度上取得好的表现。
分析人脸检测的流程,可发现大量候选框的计算分类是造成高昂计算开销的一个原因。现已有两种人脸候选框的生成方法:一种是基于滑动窗口的候选框生成技术,一种是基于区域的候选框生成技术,但这两种常用的方法在实际应用中都存在一定的问题。前者在面对多尺度的人脸检测时会产生大约106至107个候选框,十分耗时;后者虽然只会产生几千甚至几百个候选框,但是基于这种方法产生的每一个候选框都需要放入卷积神经网络中进行计算,相当于一张图片需要进行成百上千次前向计算,同样十分耗时。
发明内容
本发明为了解决上述技术问题提供一种候选框生成网络的生成方法及人脸检测方法。
本发明通过下述技术方案实现:
一种候选框生成网络的生成方法,包括以下步骤,
A、将图片输入网络,经卷积加池化操作,得到一个特征图;
B、将特征图中的每一个点映射回原图的感受野中,并以该点为基准点,根据候选框面积和候选框面积缩放比例产生一定数量的候选框;
C、对候选框进行正负样本的划分;
D、随机采样步骤C中产生的多个候选框来优化损失函数。
作为优选,步骤B中映射关系为:pi=si*pi+1,式中,pi表示第i层layer的输入的某个点,si表示第i层layer的步长。
作为优选,步骤C具体的操作过程为:计算候选框与训练集中每个标定目标的重叠率,并根据重叠率进行正负样本的划分:对训练集中每个标定目标,与其重叠区域最大的候选框记为正样本;对于剩余的候选框,如果它与某个标定目标重叠率大于上限阈值,记为正样本候选框;若与任意一个标定目标的重叠率都小于下限阈值,则记为负样本候选框;针对上述剩余的候选框以及跨越原始图像边界的候选框,弃去不用;所述上限阈值大于下限阈值。
进一步的,重叠率的计算方法为候选框与标定目标的交集比上候选框与标定目标的并集。
作为优选,所述损失函数包括和
其中,Li表示第i个样本的分类损失;fj表示样本i在类别j上的得分;yi表示样本i的真实类别;ti是样本i的预测的框的坐标,是样本i的Ground Truth的坐标。
一种人脸检测方法,包括如下步骤:
获取待检测的图片;
将待检测图片输入训练后的人脸检测网络中,所述人脸检测网络包括上述的候选框生成网络和人脸分类网络;
候选框生成网络在待检测图片上产生可能为人脸的区域Proposals;
人脸分类网络对可能为人脸的区域Proposals进行分类;
输出分类为人脸的框及回归的坐标,并标记。
作为优选,所述人脸检测网络的训练方法为:
⑴、在人脸图像数据集的图片中标注出人脸位置,制作训练集,其中,图片的大小相等;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710242833.2/2.html,转载请声明来源钻瓜专利网。





