[发明专利]抗角度与遮挡干扰的快速人脸识别方法有效
申请号: | 201810194207.5 | 申请日: | 2018-03-09 |
公开(公告)号: | CN108509862B | 公开(公告)日: | 2022-03-25 |
发明(设计)人: | 黄翰;刘迪;郝志峰 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/74;G06V10/764;G06V10/772;G06V10/82;G06V10/94;G06K9/62 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李斌 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 角度 遮挡 干扰 快速 识别 方法 | ||
1.抗角度与遮挡干扰的快速人脸识别方法,其特征在于,包括以下步骤:
(a)取经过检测后并裁剪的人脸图片训练集,调整训练集使侧脸和佩戴眼镜的人脸图片在数据集中占用10%至20%比例;
(b)读入步骤(a)中的人脸图片训练集,通过随机裁剪和随机翻转扩充训练集,将单通道的图片扩展成三通道的RGB图片,将图片缩放到设定的大小,并将图片标准化,具体为:
将图片每个像素点RGB三通道的值都赋值为单通道图片该像素的值,标准化处理方法为:
x为图像像素值,image_xstd为标准化后的像素值,mean为图片中三通道所有像素值的平均值,stddev为图像的标准差,numpixels为图像像素点的个数,adjusted_stddev为经过调整stddev后的图像标准差;
(c)通过组合和调整多种有效的结构,搭建训练人脸数据集的神经网络,步骤(b)中的数据集投入神经网络使用gpu加速开始训练网络,得到训练后的网络参数模型文件,包括下述步骤:
(c-1)使用Inception-Resnet V1作为最顶部的基础网络结构,将其最后的全连接层节点数设置为128;
(c-2)在基础网络结构下面加一层全连接层,节点数为构成人脸图片训练集的人数;
(c-3)构造损失函数,softmax loss函数加上center loss函数作为训练本网络所使用的最终损失函数;
(c-4)采用Adagrad方法作为训练网络的优化方法并开始用gpu加速训练网络,保存网络收敛后的网络参数模型文件;
(d)从步骤(c)中搭建的训练网络提取部分结构构成提取人脸特征供预测的神经网络,使用该供预测的神经网络加载步骤(c)中获得的网络参数模型文件;
(e)将需要比对的经过检测后并裁剪的人脸图片缩放到步骤(b)中设定的大小,并将其中的单通道图片转换成三通道的RGB图片;
(f)将步骤(b)的训练集投入预测网络,计算出图片的特征向量,对训练集抽样计算距离,测试不同的阈值作为两张图片是否是同一人的标准,选择准确率最高的阈值作为最终阈值,具体步骤为:
(f-1)将步骤(b)的训练集投入预测网络,计算出图片的特征向量,从训练集中随机抽取5000对正例和5000对反例,计算各对所对应特征向量间的距离;
(f-2)从[0,4]区间内选择划分正例和反例准确率最高的阈值作为判定两张人脸图片是否来自同一人的标准;
(g)将步骤(e)中的人脸测试图片投入步骤(d)中的预测网络,计算出测试图片的特征向量,计算需要比对的两张人脸图片对应的特征向量的欧式距离,并根据步骤(f)计算出的最终阈值判定两张人脸是否来自同一人,作为人脸比对的判定标准;
所述计算特征向量欧式距离的方法为:若两个特征向量x,y∈Rd,则它们的欧式距离为dist=||x-y||2。
2.根据权利要求1所述抗角度与遮挡干扰的快速人脸识别方法,其特征在于,所述步骤(c-1)和步骤(c-2)中,使用标准差为0.1的截断正态分布初始化网络模型参数,权重衰减设置为0.00005,网络中的dropout层的保留率设置为0.8。
3.根据权利要求1所述抗角度与遮挡干扰的快速人脸识别方法,其特征在于,步骤(c-3)中的softmax loss函数为xi∈Rd为第i张图片的特征向量,属于第yi类,d为特征向量的特征维数,W∈Rd×n为步骤(c-2)中的全连接层的权重矩阵,Wj∈Rd为W的第j列,b∈Rn为偏置值,m为传入训练网络每个批次的图片数量,n为类的数量;
步骤(c-3)中的center loss函数为为第yi个类别中心,xi∈Rd为第i张图片的特征向量,m为传入训练网络每个批次的图片数量,最终合成的损失函数即为λ为centerloss的影响因子,设置为0.01。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810194207.5/1.html,转载请声明来源钻瓜专利网。