[发明专利]一种基于卷积神经网络的跨领域面部特征解析方法有效
申请号: | 201711251399.0 | 申请日: | 2017-12-01 |
公开(公告)号: | CN107944410B | 公开(公告)日: | 2020-07-28 |
发明(设计)人: | 石宇;张丽君;刘鹏程;周祥东 | 申请(专利权)人: | 中国科学院重庆绿色智能技术研究院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 上海光华专利事务所(普通合伙) 31219 | 代理人: | 尹丽云 |
地址: | 400714 *** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 领域 面部 特征 解析 方法 | ||
本发明提供一种基于卷积神经网络的跨领域面部特征解析方法,包括:采集样本数据;根据采集的样本数据中的有标签数据及其类别,对无标签数据的样本类别、样本相似度和样本所属领域进行预测;根据预测结果获取模型参数,建立跨领域面部特征解析网络模型;对所述模型进行训练;通过训练后的跨领域面部特征解析网络模型执行跨领域面部特征解析任务;本发明将自适应特征学习和识别模型训练联合到统一的卷积神经网络框架中,同时优化样本标签预测、领域标签预测和样本相似性预测三个目标函数的损失,确保网络学习到的面部图像特征具有类间判别性和领域不变性,尤其适用于跨领域面部特征解析。
技术领域
本发明涉及计算机视觉、人工智能技术领域,尤其涉及一种基于卷积神经网络的跨领域面部特征解析方法。
背景技术
跨领域面部特征解析方法属于领域自适应方法在面部特征解析上的应用。领域自适应的主要内容是通过最小化源域(训练数据集)和目标域(测试数据集)间的数据分布差异,力求实现将在训练集中学习的识别模型自适应地运用到测试集中。在面部特征解析过程中,最小化数据分布差异的方法大多是基于给定的输入面部图像特征表达学习源域与目标域之间的特征变换,再基于此特征学习具有领域自适应能力的面部特征解析模型。传统的面部特征解析方法主要包括基于面部几何特征、模板匹配、代数特征及神经网络等方法,但是,这些方法大多属于浅层模型,学习能力有限,已经越来越无法满足实际应用需求。
在深度学习模型中,通常使用大数据集进行特征提取,而对于小规模数据集,常采用Fine-tuning技术将已有的深度神经网络模型参数自适应到该小规模目标数据集上进行学习。虽然Fine-tuning技术具有较强的领域自适应性,但其要求目标数据集中具有足够多的有标签数据。而在跨领域面部特征解析问题中,目标域的数据样本通常没有标签信息(无监督领域自适应)或只有少量的有标签信息(半监督自适应)。因此,需要一种新的技术手段,能够在保证学习能力的基础上,具有领域自适应性的面部特征表达。
发明内容
鉴于以上所述现有技术的缺点,本发明提供一种基于卷积神经网络的跨领域面部特征解析方法,以克服上述技术问题。
本发明提供的基于卷积神经网络的跨领域面部特征解析方法,包括:
采集样本数据;
根据采集的样本数据中的有标签数据及其类别,对无标签数据的样本类别、样本相似度和样本所属领域进行预测;
根据预测结果获取模型参数,建立跨领域面部特征解析网络模型;
对所述模型进行训练;
通过训练后的跨领域面部特征解析网络模型执行跨领域面部特征解析任务。
进一步,所述跨领域面部特征解析网络模型的结构为卷积神经网络,包括特征提取器、领域标签预测器、相似性预测器和类别标签预测器,所述卷积神经网络包括多个卷积层,并至少包括两个全连接层,通过在最后一个全连接层后插入自适应网络层,形成特征映射层。
进一步,在所述自适应网络层后设置宽度与样本类别数相等的全连接层Ⅰ,并将其作为类别标签预测器,将softmax loss函数作为样本标签预测的损失函数,通过所述类别标签预测器和样本标签预测的损失函数对无标签数据的样本类别进行预测。
进一步,所述跨领域面部特征解析网络模型包括源域数据通道与目标域数据通道,在每条通道的自适应网络层后分别设置全连接层Ⅱ,并将contrastive loss函数作为领域间样本对相似性评估的损失函数,根据所述领域间样本对相似性评估的损失函数预测样本的相似度。
进一步,在所述自适应网络层后设置梯度反向层,并在所述梯度反向层后添加多个堆叠的全连接层,并将cross-entropy loss作为领域标签预测的损失函数,根据所述领域标签预测的损失函数预测样本所属领域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院重庆绿色智能技术研究院,未经中国科学院重庆绿色智能技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711251399.0/2.html,转载请声明来源钻瓜专利网。
- 上一篇:能够区分关键动作的视频分析方法及装置
- 下一篇:指纹图像传感器及指纹识别系统