[发明专利]一种对齐分类模型的训练方法和图像分类方法有效
| 申请号: | 201910061366.2 | 申请日: | 2019-01-22 |
| 公开(公告)号: | CN109902716B | 公开(公告)日: | 2021-01-29 |
| 发明(设计)人: | 许益鸿;齐子铭;涂清华;李志阳;张伟 | 申请(专利权)人: | 厦门美图之家科技有限公司 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/66;G06N3/04;G06N3/08 |
| 代理公司: | 北京思睿峰知识产权代理有限公司 11396 | 代理人: | 谢建云;张赞 |
| 地址: | 361008 福建省厦门*** | 国省代码: | 福建;35 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 对齐 分类 模型 训练 方法 图像 | ||
本发明公开了一种对齐分类模型的训练方法,对齐分类模型包括主网络、第一分支网络和第二分支网络,方法包括:获取经过标注的训练图像,训练图像具有相应的标注数据,标注数据包含图像的类别;将训练图像输入分类模型中进行训练,以得到训练后的第二分支网络;将训练图像输入对齐分类模型中进行训练,优化第二分支网络,以得到训练后的对齐分类模型。该方案能够提高模型分类的精度,并节约模型训练时间和所需的数据量。
技术领域
本发明涉及深度学习技术领域,尤其涉及一种对齐分类模型的训练方法和图像分类方法、计算设备及存储介质。
背景技术
猫狗脸分类有广泛的应用场景,例如在给猫狗拍照的过程中,通过区分是猫是狗,加入一些定制化的动画控件,增加用户的拍摄乐趣。但是传统的猫狗脸分类训练方法需要训练的数据量庞大,网络结构复杂,无法适应移动终端对数据大小和训练速度的要求。一方面,对于图像的分类,重新训练一个完整的网络需要耗费大量的时间;另一方面,现有的分类模型主要利用VGG等深度卷积网络从图像中提取特征,这种方法精度高但是耗时耗内存。
目前大部分狗脸点对齐方案利用目标检测和跟踪算法进行实时跟踪。但是由于狗的品种繁多,且活泼好动,导致狗脸检测不稳定,影响预测狗脸点的精度。
因此,需要一种对齐分类模型,能够同时具有对齐和分类的功能,能够进一步提高对齐和分类的准确性。
发明内容
为此,本发明提供了一种对齐分类模型的训练方法和图像分类方法、计算设备及存储介质,以力图解决或者至少缓解上面存在的至少一个问题。
根据本发明的一个方面,提供了一种对齐分类模型的训练方法,适于在计算设备中执行。对齐分类模型包括主网络、第一分支网络和第二分支网络,其中主网络和第一分支网络构成对齐模型,适于输出预测特征点的坐标,主网络和第二分支网络构成分类模型,适于输出预测图像类别的概率。在该方法中,首先获取经过标注的训练图像,训练图像具有相应的标注数据,标注数据包含图像的类别。然后,将训练图像输入分类模型中进行训练,以得到训练后的第二分支网络。最后,将训练图像输入对齐分类模型中进行训练,优化第二分支网络,以得到训练后的对齐分类模型。
可选地,主网络包括由卷积层、激活层、池化层组成的卷积处理层,其中设置有多个分组卷积。
可选地,第一分支网络包括由全连接层和dropout层组成的分类处理层,第二分支网络包括卷积层、激活层、池化层、全连接层和归一化层。
可选地,在上述方法中,训练图像包括狗脸图像、猫脸图像和其他图像。猫脸图像标注为0,狗脸图像标注为1,其他图像标注为2。
可选地,在上述方法中,可以将已标注特征点的图像输入对齐模型中,以输出预测特征点的坐标;基于标注特征点坐标与预测特征点坐标的距离,计算第一损失函数的值;以及基于第一损失函数的值调整对齐模型的参数,以得到训练好的对齐模型。
可选地,在上述方法中,对齐模型为狗脸对齐模型,适于输出狗脸点坐标。
可选地,在上述方法中,可以基于训练好的对齐模型中主网络的参数和正态分布初始化方法,初始化分类模型的参数。然后,基于标注图像类别和预测图像类别,计算第二损失函数的值;以及基于预设的主网络的第一学习率、第二分支网络的第二学习率以及第二损失函数的值,训练分类模型。
可选地,在上述方法中,在达到预定迭代次数的情况下,将主网络的参数重新初始化为训练好的对齐模型中主网络的参数。
可选地,第一学习率大于所述第二学习率。
可选地,在上述方法中,第二损失函数为交叉熵损失函数,交叉熵损失函数可以通过下述公式计算:
其中,y′为已标注图像类别,y为预测的图像类别,i为图像的索引。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门美图之家科技有限公司,未经厦门美图之家科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910061366.2/2.html,转载请声明来源钻瓜专利网。





