[发明专利]基于多任务学习卷积神经网络的车标识别及属性预测方法有效
申请号: | 201710112249.5 | 申请日: | 2017-02-28 |
公开(公告)号: | CN106934392B | 公开(公告)日: | 2020-05-26 |
发明(设计)人: | 张百灵;夏翌彰;颜诗洋;钱荣强 | 申请(专利权)人: | 西交利物浦大学 |
主分类号: | G06K9/20 | 分类号: | G06K9/20;G06K9/62;G06N3/08 |
代理公司: | 苏州创元专利商标事务所有限公司 32103 | 代理人: | 范晴;丁浩秋 |
地址: | 215123 江苏省苏州市*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 任务 学习 卷积 神经网络 标识 属性 预测 方法 | ||
本发明公开了一种基于多任务学习卷积神经网络的车标识别及属性预测方法,包括以下步骤:创建基于多任务学习卷积神经网络;采用自适应任务权重学习策略和任务自动开闭学习策略训练卷积神经网络;使用训练好的卷积神经网络对获取的车辆标识图像进行分层提取特征,根据车标数据库进行车标识别及属性预测。该方法基于卷积神经网络结构,采用多任务学习机制,提出自适应任务权重学习策略和任务自动开闭学习策略,能同时判断车标类别和预测车标属性,并且准确率高。
技术领域
本发明涉及一种车标识别方法,具体地涉及一种基于多任务学习卷积神经网络的车标识别及属性预测方法。
背景技术
车辆制造商识别在智能交通系统中起着重要作用。自动获取汽车统计数据和车辆属性信息有助于交通管理和汽车行业。其中,车辆标志在涉及一系列潜在的应用,例如车辆的识别、验证或分类,这对于调查车辆相关犯罪至关重要。
与许多其他计算机视觉课题相比,如人脸或行人,车辆标志仍然是一个较少研究的主题。车标涉及一系列特殊困难,包括小尺寸,低分辨率和多角度。虽然,已经出版了许多关于车辆标识识别的论文,这些方法中的大多数遵循常规图像处理流水线,即,提取一些人工定义的特征,例如梯度直方图(HOG),随后是利用例如支持向量机(SVM)的可训练分类器。这些方法具有许多限制。首先,人工定义的特征不可能同时解决各种因素,例如,视点变化和成像条件。其次,车标识别系统的性能通常取决于车标检测的准确性。
近年来,由于强大的特征表达学习能力,深度学习已经引起了广泛的关注。它为人工设计的特征提取器造成的瓶颈问题带来了有希望的解决方案。一种特殊类型的深度学习模型,即卷积神经网络,已经在许多计算机视觉任务中展示了最先进的性能。已经反复验证卷积神经网络可以从原始像素通过非线性映射的几个卷积层提取通用的,鲁棒的和分层的特征。由于优越性,卷积神经网络也已被应用于车辆标识的识别。然而,这些工作对于原始卷积神经网络架构都是非常初步的。并且许多重要的实际问题没有被讨论,例如,与车辆标志相关的属性预测。
在计算机视觉领域,针对许多语义任务的属性学习的概念已提出多年,对于视觉目标识别,语义属性可以命名描述目标的属性,从而提供一种方便链接低级特征和高级语义任务书叙述性属性有效工具。已经针对许多多媒体应用(例如,多媒体搜索和检索以及多媒体内容分析和推荐)研究了来自属性的益处。
本质上,车标分类和车标属性预测是两个不同的任务。虽然存在不同的可能性来完成它们,但是,由于两个任务之间的共同点,多任务学习方法应当是选项中的最高优先级。多任务学习方法已被研究作为一个重要的机器学习主题,并且,最近被利用到许多计算机视觉问题。多任务学习方法强调不同任务之间的知识共享,同时解决多个相关任务。很多研究成果已经证明知识共享可以提高一些任务或有时所有任务的性能。
最近,学术界已经提出了好几种基于卷积神经网络的多任务学习方法,其可以粗略地划分为以下两种类型:任务交替优化方式和任务同时优化方式。在第一类中,训练在任务之间交替,即,对一个任务进行优化,而其他任务不变,并且对于所有任务迭代该过程。在第二类中,对所有任务同时进行学习。在任务交替优化方式中,迭代次数将随着任务量增加而快速增加。在任务同时优化方式中,可以提高系统的性能。本发明因此而来。
发明内容
针对上述存在的技术问题,本发明的目的是提出了一种基于多任务学习卷积神经网络的车标识别及属性预测方法。该方法基于卷积神经网络结构,采用多任务学习机制,提出自适应任务权重学习策略和任务自动开闭学习策略,能同时判断车标类别和预测车标属性,并且准确率高。
本发明的技术方案是:
一种基于多任务学习卷积神经网络的车标识别及属性预测方法,包括以下步骤:
S01:创建基于多任务学习卷积神经网络;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西交利物浦大学,未经西交利物浦大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710112249.5/2.html,转载请声明来源钻瓜专利网。