[发明专利]一种基于改进yolov3的无人机图像目标检测方法在审
| 申请号: | 202111241415.4 | 申请日: | 2021-10-25 |
| 公开(公告)号: | CN113963272A | 公开(公告)日: | 2022-01-21 |
| 发明(设计)人: | 雷亮;梁明辉;赵彦;尹衍伟;李小兵;秦兰瑶;和圆圆 | 申请(专利权)人: | 重庆科技学院 |
| 主分类号: | G06V20/13 | 分类号: | G06V20/13;G06V20/40;G06V30/19 |
| 代理公司: | 北京喆翙知识产权代理有限公司 11616 | 代理人: | 胡红涛 |
| 地址: | 401331 重*** | 国省代码: | 重庆;50 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 改进 yolov3 无人机 图像 目标 检测 方法 | ||
1.一种基于改进yolov3的无人机图像目标检测方法,其特征在于:包括以下步骤:
S1、针对需要应用的场景进行数据采集,并划分出训练集和验证集;
S2、通过k-means聚类方法生成九个适用于数据集的锚框;
S3、对数据集进行预处理;
S4、按照九个初始锚框将数据集导入到神经网络中进行训练,并用验证集检验每一轮训练后的效果,直至模型收敛;
S5、通过yolov3原本的后处理模块得到预测结果,包括BBoxPostProcess和MaskPostProcess,将预测结果展现在原图像上;
S6、将需要检测的图像输入训练后的小目标检测模型,得到该图像中目标的类别和位置信息,并反映到原始图像上。
2.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S3所述的预处理包括随机裁剪、图像翻转、归一化、随机填充图像增广操作的任一种或多种。
3.根据权利要求2所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S3所述的预处理包括每幅图像的预处理操作和每个batch图像的图像增强操作。
4.根据权利要求3所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S3所述的预处理设定十五种不同尺寸的图像输入:
[512,544,576,608,640,672,704,736,768,800,832,864,896,928,960],对每个所述batch图像进行随机选择不同尺寸的图像输入。
5.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架特征提取网络为改进后的HRNet特征提取网络。
6.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架的特征融合模块为改进后的HRFPN模块。
7.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架的head部分加入了共享卷积层,进行训练过程中的权重共享。
8.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架的特征提取网络中的stage4中的3x3的卷积替换为可变性卷积(DCN)。
9.根据权利要求7所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架的激活函数为mish激活函数,定义如下:
Mish=x*tanh(ln(1+ex))。
10.根据权利要求1所述的一种基于改进yolov3的无人机图像目标检测方法,其特征在于:S4设计的yolov3框架采用损失函数对模型进行不断地迭代优化,所述的损失函数包括五个部分:坐标损失Lbox,置信度损失Lconf,分类损失Lcls,IOU损失Liou,iou_aware损失Liou_aware,具体如下:
其中,λ1,λ2,λ3,λ4,λ5为每个损失所占的权重参数;
坐标损失Lbox的计算包括两个部分:中心坐标损失Lxy和宽高坐标损失Lwh,计算公式为:
Lbox=Lxy+Lwh
将网络输出的坐标(tx,ty),映射到输入图像大小上的目标(x,y),与真实目标经过resize后映射到网络输入图像大小上的目标计算预测框与真实框中心坐标的交叉熵损失,S2表示检测层中有S*S个网格,B代表锚点的个数,代表第i个网格的第j个锚框是否负责该目标,当锚框与真实框有交集的时候,为1,否则为0,
将网络输出锚框的宽高(tw,th),映射到输入图像大小上的目标(w,h),与真实目标经过resize后映射到网络输入图像大小上的目标计算预测框与真实框宽高的交叉熵损失,S2表示检测层中有S*S个网格,B代表锚点的个数,代表第i个网格的第j个锚框是否负责该目标,当锚框与真实框有交集的时候,为1,否则为0,
为了均衡正负样本的数量,λ1的值为2-w*h,
置信度损失Lconf的计算公式为:
分类损失Lcls的计算公式为:
IOU损失Liou的计算公式为:
Liou通过计算预测框与真实框之间的IOU损失来提高预测精度,λ4的值设置为2.5,
IOU_aware的损失Liou_aware的计算公式为:
IOU_aware通过预测目标候选包围框与真实目标标注的IoU(交并比),并基于此与分类分数的乘积作为检测置信度,用于NMS(非极大抑制)和COCO AP计算。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆科技学院,未经重庆科技学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111241415.4/1.html,转载请声明来源钻瓜专利网。





