[发明专利]一种基于卷积神经网络和哈希编码的掌纹图像识别方法在审
申请号: | 201710595437.8 | 申请日: | 2017-07-20 |
公开(公告)号: | CN107403153A | 公开(公告)日: | 2017-11-28 |
发明(设计)人: | 张建新;程敬东;张强 | 申请(专利权)人: | 大连大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04 |
代理公司: | 大连八方知识产权代理有限公司21226 | 代理人: | 朱秀芬 |
地址: | 116622 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 编码 掌纹 图像 识别 方法 | ||
技术领域
本发明涉及掌纹图像识别领域,具体涉及一种基于卷积神经网络和哈希编码的掌纹图像识别方法。
背景技术
目前,生物特征识别技术,如面部指纹、掌纹、虹膜和静脉识别等取得了飞速的发展。在这些生物识别技术中,掌纹识别因其具有的丰富的特征信息、高精度、稳定性好、低成本等特点,正受到越来越广泛的关注。近年来,出现了多种基于掌纹特征的掌纹识别方法,如基于结构、编码、纹理、子空间和统计的方法等。其中,基于编码的方法,例如PalmCode、CompCode、OrdiCode、SMCC,通过滤波器(高斯滤波器、Gabor滤波器)从掌纹图像提取纹理信息,已经可以实现非常高的掌纹识别精度。尤其是SMCC方法的等错误率可达到EER=0.0140%的精度。虽然该方法具有非常高的精度,但要实现EER=0.0000%的精度仍然非常困难。而基于学习的掌纹编码表示方法,可以实现更好的识别精度。
卷积神经网络(CNN)作为一种基于多层监督学习的人工神经网络,具有较好的容错性、自适应性和自学习能力,可有效改善传统方法存在的特征提取不充分的问题,被广泛应用于图像分类、物体检测与识别和目标跟踪等领域。此外,作为一种近似最近邻搜索方法,哈希编码(Hashing Code)正变得广受欢迎,该方法可以基于优化算法直接从样本中学习哈希编码。因此将CNN网络作为特征提取器,并与哈希编码方法相结合,可以获得一种更有效的图像特征表示方法,从而进一步提高分类、识别或检测方法的精度。
发明内容
本发明为解决上述现有技术存在的识别精度不高的缺点,提出了一种基于卷积神经网络和哈希编码的掌纹图像识别方法。该方法结合了卷积神经网络能够获取掌纹的全局信息和局部信息以及哈希编码能大幅度降低时间和空间的复杂度的优点,可有效地区分不同的掌纹,显著提高了掌纹图像的识别精度。
本发明为解决其问题所采用的技术方案包括:
1.特征提取:
运用预训练的卷积神经网络(CNN)对给定数据库的掌纹图像进行特征提取,将中间的一层掌纹卷积特征向量化形成一个高维卷积特征矩阵;采用主成分分析方法(PCA)对得到高维特征进行降维,得到低维的卷积特征矩阵X∈RN×n,其中N表示掌纹图像个数,n表示维度。
2.构造语义相似矩阵L与哈希矩阵Btrain:
假设训练集有N1张掌纹图像,则语义相似矩阵定义如下:
其中,Ii和Ij分别表示第i张和第j张掌纹图像;
假设每张掌纹图像的哈希编码q位,则训练集的哈希码通过优化得到函数:
其中,Btrain=[BZ,BM],
3.训练分类器:
根据训练集的低维卷积特征Xtrain,训练一个线性分类器,其预测函数模型为:
U=WTX+b
其中,W表示投影矩阵,b=0;
为使Btrain与U之间的差别最小,采用均方误差最小化并引入正则项进行优化,即
其中,λe表示正则项系数;
利用最小二乘法对W进行评估,可得,
最终训练出的线性分类器为
4.掌纹识别:
将测试样本集低维卷积特征Xtest输入上述的线性分类器,得到测试样本的哈希编码Btest,即
最后,通过汉明(Hamming)匹配,实现高精度的掌纹识别。
本发明的有益效果:首先预训练的卷积神经网络可以很好的提取掌纹的全局和局部图像特征信息,其次,通过二进制哈希编码,使图像特征更简洁,存储所需空间更少,更容易进行后期的相似度计算以及匹配,从而提高掌纹识别的精度,大大的降低掌纹图像的等错误率(EER)。
附图说明
下面结合附图和具体的实施方式对本发明作进一步详细的说明。
图1为本发明一种基于卷积神经网络(CNN)和哈希编码(Hashing Code)的掌纹图像识别方法的流程图。
图2为本发明在PolyU掌纹图像库上同类掌纹与异类掌纹的汉明(Hamming)匹配曲线图。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连大学,未经大连大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710595437.8/2.html,转载请声明来源钻瓜专利网。