[发明专利]一种基于YOLOv3网络的雾霾环境下目标检测方法在审
| 申请号: | 202211342247.2 | 申请日: | 2022-10-31 | 
| 公开(公告)号: | CN115984568A | 公开(公告)日: | 2023-04-18 | 
| 发明(设计)人: | 郑良;王忠美;周参;张磊;李晓俊;阮璘 | 申请(专利权)人: | 北京尊冠科技有限公司武汉分公司;湖南工业大学 | 
| 主分类号: | G06V10/30 | 分类号: | G06V10/30;G06V10/40;G06V10/82;G06N3/0464;G06N3/08;G06V10/774 | 
| 代理公司: | 安徽智联芯知识产权代理事务所(普通合伙) 34237 | 代理人: | 金璐 | 
| 地址: | 430074 湖北省武汉*** | 国省代码: | 湖北;42 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 一种 基于 yolov3 网络 环境 目标 检测 方法 | ||
本发明涉及目标检测领域,具体为一种基于YOLOv3网络的雾霾环境下目标检测方法。其包括如下步骤S1‑S3:S1、获取雾霾环境下的目标检测数据集;S2、使用条件对抗生成网络对图像进行预处理,条件生成对抗网络包括生成器、判别器和整体损失函数;S3、结合预处理后的图像,送入改进后的YOLOv3目标检测网络进行训练和预测,输出检测结果。本发明通过条件对抗生成网络对雾霾图像进行预处理,采用改进后的YOLOv3算法训练,能够有效提升雾霾天气下目标检测的准确率。
技术领域
本发明涉及目标检测领域,特别是涉及一种基于YOLOv3网络的雾霾环境下目标检测方法。
背景技术
目标检测是计算机视觉中一个基本而具有挑战性的任务,近年来受到了广泛的关注,在人们的生活中得到了广泛的应用,如视频监控安全、自主驾驶等。它可以看作是分类和定位的结合,但需要在同一幅图像中同时检测和分类多个不同尺度的目标。
目标检测技术可以分为如下两类:
第一类是传统的目标检测算法,用滑动窗口和特征算子从图像上生成大量候选框并提取特征,利用以Adaboost和支持向量机(SVM)为代表的分类器进行分类。传统的目标检测方法有它的局限性:(1)生成了大量冗余的候选框,导致分类的误差比较大。(2)特征算子是基于低级视觉特征手工制作的,这使得在复杂语境中难以捕获代表性语义信息。(3)检测的每一个步骤都是独立而不是端到端的,无法得到整个系统的全局最优解。
第二类是基于深度学习的目标检测算法,包括基于区域建议和基于回归的目标检测算法,基于区域建议的目标检测算法以Faster-RCNN为代表,主要是通过锚点产生大量候选框来确定对象最有可能出现的区域,称为感兴趣区域(RegionofInterest,RoI),检测网络进一步处理这些RoI,以边界框和预测对象类别概率的形式输出检测结果。基于回归的目标检测算法以YOLO为代表,将图片划分为N×N的网格,对每个网格检测的信息进行回归计算,物体中心所在的网格负责对物体进行预测。
目前常见的目标检测算法都是在清晰的环境下进行检测的,而现实中常常遇到雾霾、雨雪等恶劣天气,导致采集到的图片出现噪声、模糊和细节丢失等现象,图片质量严重下降,给目标检测任务带来很大的干扰,使检测准确率降低。并且雾霾等恶劣天气造成的能见度低和遮挡问题也会干扰人的视觉,如果是在驾车过程可能产生意外,因此,对雾霾环境下目标检测的研究,具有重要的现实意义。
发明内容
本发明目的是针对背景技术中存在的问题,提出一种基于YOLOv3网络的雾霾环境下目标检测方法。
本发明的技术方案,一种基于YOLOv3网络的雾霾环境下目标检测方法,包括如下步骤S1-S3:
S1、获取雾霾环境下的目标检测数据集;
S2、使用条件对抗生成网络对图像进行预处理,条件生成对抗网络包括生成器、判别器和整体损失函数,预处理过程包括如下步骤S2.1-S2.5:
S2.1、将有雾图像输入网络生成器中,生成器处理输出去雾后的图像;
S2.2、将有雾图像与去雾图像组合起来输入判别器中,得到判定结果;
S2.3、将有雾图像与真实的无雾图像结合起来放入判别器中,输出另一个结果;
S2.4、将前后两个结果做比较,它们的差用来优化生成器与判别器的参数,帮助网络训练;
S2.5、使用训练好的条件生成对抗网络进行去雾处理;
S3、结合预处理后的图像,送入改进后的YOLOv3目标检测网络进行训练和预测,输出检测结果。
优选的,步骤S1中的数据集是公开数据集RESIDE。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京尊冠科技有限公司武汉分公司;湖南工业大学,未经北京尊冠科技有限公司武汉分公司;湖南工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211342247.2/2.html,转载请声明来源钻瓜专利网。





