[发明专利]目标检测深度学习模型训练方法以及目标检测方法在审
| 申请号: | 201910202433.8 | 申请日: | 2019-03-11 |
| 公开(公告)号: | CN109978036A | 公开(公告)日: | 2019-07-05 |
| 发明(设计)人: | 蔡恒;庄浩;张继勇 | 申请(专利权)人: | 华瑞新智科技(北京)有限公司 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
| 代理公司: | 北京恒泰铭睿知识产权代理有限公司 11642 | 代理人: | 付怀;何平 |
| 地址: | 100081 北京市海淀区中关*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 目标检测 检测 模型训练 实际场景 训练集 学习 场景 图片 背景图片 光照变化 建立模型 实时运行 训练图片 硬件要求 负样本 鲁棒性 误检率 正样本 | ||
本发明公开了一种基于深度学习的目标检测中对深度学习模型进行训练的方法,包括,建立模型训练图片集,其中包括由不包含检测目标的实际场景图片构成的负样本训练集和由包含检测目标的非实际场景图片构成的正样本训练集;使用所述模型训练图片集以及其中的图片与检测目标相关的信息,对深度学习模型进行训练。本发明计算损失时考虑进了背景图片的损失,极大地降低了模型对实际检测场景中背景的误检率;对光照变化、场景改变有较强鲁棒性;运行速度快且能在cpu上实时运行检测,稳定而高效;硬件要求简单,易于大规模推广。
技术领域
本发明涉及计算机视觉图像处理技术中基于深度学习的目标检测方法,具体涉及基于深度学习的目标检测中对深度学习模型进行训练的方法,以及相应的目标检测方法。
背景技术
目标检测作为计算机视觉图像处理领域的经典课题在自动驾驶、交通监控、图像检索等方面有着重要应用,它的目的是从图像或视频中检测并分类出人们感兴趣的特定对象即目标。传统目标检测方法例如HOG、SIFT等通常把图像特征提取和分类过程分开进行。这些方法先使用特征模型提取出图像的相关视觉特征,然后利用分类器,如SVM,进行识别。
自Hinton教授提出深度学习(Deep Learning)理论以来,越来越多的基于深度学习的目标检测方法被提出,如SSD、R-CNN系列、YOLO系列等。如今借助深度学习,目标检测效率和精度已经有了极大提高。然而不同于学术研究,在实际应用中往往缺乏包含检测目标的实际场景训练集,并且实际应用检测场景有时会过于复杂,以上两点是造成目标检测误检率居高不下的主要原因。
发明内容
本发明的目的是针对现有基于深度学习的目标检测技术应用到实际场景时出现的不足与缺陷,特别是对复杂的实际应用检测场景以及缺乏包含检测目标的实际场景训练图片集的情况做出改进。
根据本发明的实施例,提供一种基于深度学习的目标检测中对深度学习模型进行训练的方法。根据该方法,使用包含检测目标的非实际场景图片以及不包含检测目标的实际场景图片对深度学习模型进行训练,从而在不需要包含检测目标的实际场景训练集的情况下,也可以提高深度学习模型的目标检测精度。
特别是,本发明提供一种基于深度学习的目标检测中对深度学习模型进行训练的方法,包括,建立模型训练图片集,其中包括由不包含检测目标的实际场景图片构成的负样本训练集和由包含检测目标的非实际场景图片构成的正样本训练集;使用所述模型训练图片集以及其中的图片与检测目标相关的信息,对深度学习模型进行训练。
根据本发明的一个实施例,建立模型训练图片集包括对图片进行大小调整。
根据本发明的一个实施例,调整用于训练的图片的旋转角度、曝光度、饱和度、色调等来增加训练数据集数量,以提升检测效果以及模型泛化能力。从而对复杂的实际应用检测场景也能提高深度学习模型的目标检测精度。
根据本发明的一个实施例,图片与检测目标相关的信息包括图片是否包含检测目标,对于包含检测目标的图片,信息还包括目标物体类别及边界框坐标。
根据本发明的一个实施例,建立模型训练图片集包括,利用Label Image工具将图片与检测目标相关的信息标注到图片。
根据本发明的一个实施例,使用所述模型训练图片集对深度学习模型进行训练包括前向传播和反向传播。
根据本发明的一个实施例,前向传播获得图片每个网格的各类别概率以及每个边框的坐标信息和含有物体的置信度。
根据本发明的一个实施例,反向传播包括,根据前向传播获得图片每个网格的各类别概率以及每个边框的坐标信息和含有物体的置信度以及图片的与检测目标相关的信息,通过损失函数计算深度学习模型的损失。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华瑞新智科技(北京)有限公司,未经华瑞新智科技(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910202433.8/2.html,转载请声明来源钻瓜专利网。





