[发明专利]一种基于YOLO V5的通信检修工具识别方法在审
| 申请号: | 202210734909.4 | 申请日: | 2022-06-27 |
| 公开(公告)号: | CN114972888A | 公开(公告)日: | 2022-08-30 |
| 发明(设计)人: | 盛华雄;赵梅;胡杰;项予;王玉超 | 申请(专利权)人: | 中国人民解放军63791部队 |
| 主分类号: | G06V10/764 | 分类号: | G06V10/764;G06N3/04;G06N3/08;G06V10/774;G06V10/82 |
| 代理公司: | 中国兵器工业集团公司专利中心 11011 | 代理人: | 辛海明 |
| 地址: | 615000 四川省*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 yolo v5 通信 检修 工具 识别 方法 | ||
1.一种基于YOLO V5的通信检修工具识别方法,其特征在于,该方法包括如下步骤:
S1:采用MOT半自动标注工具和VoTT可视化对象标注工具对通信检修工具的视频片段和图像进行数据标注,得到通信检修工具数据集;
S2:基于深度可分离残差网络结构,引入SE、CA或CBAM注意力机制,改进YOLO V5主干网络;
S3:利用改进后的YOLO V5主干网络对通信检修工具数据集进行图像增强,并进行模型训练,得到训练好的模型参数和权重;
S4:运用OpenVINO优化器对训练好的YOLO V5主干网络进行推理和性能优化;
S5:将优化后的模型部署到树莓派的移动终端上,对经标准化处理的通信线路检修工具的图像进行检测,输出对应通信线路检修工具的类别。
2.如权利要求1所述的基于YOLO V5的通信检修工具识别方法,其特征在于,所述步骤S1具体包括:通过摄像设备采集通信线路检修工具的视频片段和图片形成样本,利用MOT半自动标注工具对通信检修工具的视频片段进行半自动标注,利用VoTT可视化对象标注工具对通信检修工具的图片进行数据标注,两种标注结果汇总得到通信检修工具数据集。
3.如权利要求1所述的基于YOLO V5的通信检修工具识别方法,其特征在于,所述步骤S2具体包括以下步骤:从SENet(Squeeze-and-Excitation Networks)、CA(ChannelAttention)、CBAM(Convolutional Block Attention Module)三种网络组件中任选一个,替换YOLO V5网络结构的Backbone部分的CSP1_1网络组件;
对于SENet网络组件,引入通道注意力机制,通过挤压和激励两个步骤,优化channel维度,增加少量参数,使YOLO V5主干网络获取不同channel上的特征;
对于CA网络组件,将通道注意力分解为两个1维特征编码过程,分别沿2个空间方向聚合特征,分别获取远程依赖关系和保留精确的位置信息;
对于CBAM网络组件,将上述SENet和CA作为两个独立的组件串联到一起,综合考虑空间注意力机制和通道注意力机制。
4.如权利要求3所述的基于YOLO V5的通信检修工具识别方法,其特征在于,所述S3具体包括以下步骤:
S31:改进后的YOLO V5主干网络采用Mosaic数据增强方法对标注后的通信检修工具图像进行特征增强,得到增强后的图像数据;
S32:按3:1:1的比例将通信检修工具图像数据集划分为训练集、验证集和测试集;
S33:计算改进后的YOLO V5主干网络时,采用损失函数有3种:BCE、Focal loss、QFocalloss,比较这3个损失函数在训练和检测方面的效果,选择最优者;
S34:利用改进后的YOLO V5主干网络络对通信检测工具数据集进行训练,训练完成后得到通信线路检修工具识别的目标参数和目标权重。
5.如权利要求4所述的基于YOLO V5的通信检修工具识别方法,其特征在于,所述BCE损失函数为:
其中代表YOLO V5主干网络第i个样本是某一类的概率,N为样本总量;y(i)表示第i个样本真实的类别,取值为0或1。
6.如权利要求4所述的基于YOLO V5的通信检修工具识别方法,其特征在于,所述Focalloss损失函数为:
FL(p)=-(1-pt)γlog(pt),
其中p表示预测概率,其值越大说明越接近于类别y,即分类越准确;γ是引入的超参数,取值范围在[0,5]之间,能将概率较高的正样本和概率较低的负样本的损失值显著降低,提高模型对较难样本的区分能力。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军63791部队,未经中国人民解放军63791部队许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210734909.4/1.html,转载请声明来源钻瓜专利网。





