[发明专利]一种基于深度学习的轻量级目标语义分割方法有效
申请号: | 202110545310.1 | 申请日: | 2021-05-19 |
公开(公告)号: | CN113223006B | 公开(公告)日: | 2022-04-15 |
发明(设计)人: | 陈光柱;易佳 | 申请(专利权)人: | 成都理工大学 |
主分类号: | G06T7/10 | 分类号: | G06T7/10;G06N3/04;G06N3/08;G06T7/181 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610059 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 轻量级 目标 语义 分割 方法 | ||
本发明提出了一种基于深度学习的轻量级目标语义分割方法。该方法的关键在于构建二维语义分割网络结构,在满足轻量化的基础上提高分割精度,并能解决多尺度目标分割问题。选取轻量化网络MobileNet v2模型的骨干网络,提出边界约束网络提高对边界分割的处理能力,从而可以同时满足分割的实时性与准确性。设计具有多尺度性质的金字塔池化模块,利用多次金字塔池化融合不同尺度的特征信息,可保证分割网络对多尺度目标分割的适用性。本发明针对目标的分割问题,研究对MobileNet v2模型的骨干网络的下采样特征图尺寸进行扩大,补全MobileNet v2模型丢失的图像的部分特征,提高了基于MobileNet v2模型对目标的分割精度。
技术领域
本发明属于计算机视觉、深度学习领域,具体涉及一种基于深度学习的轻量级目标语义分割方法
背景技术
图像语义分割在图像理解中占有重要的地位,是计算机视觉中重要的研究热点之一。图像语义分割、图像识别以及目标检测之间存在着很大的共性,但又拥有许多的不同。图像识别与目标检测都是在一定范围中进行归类操作,将相同类别的像素点给定同一标签,完成对某一类别的识别,两者的不同之处在于图像识别只需得到图像中存在什么目标,但是目标检测不仅需要给定图像中拥有什么目标,而且需要给定目标在图像中的大概位置。图像语义分割在图像识别与目标检测的基础之上,需要对每一个像素进行处理,然后给每一个像素指定相应的标签,最后得到一个与原图大小相同的语义标签图。图像语义分割不但需要得到图像中拥有什么目标及其大概位置,而且需要准确给定目标边界轮廓,整个过程就像在图像识别与目标检测之上加入了目标边界检测操作,得到了更为精确的目标位置。
利用深度卷积神经网络来进行语义分割任务,是在传统图像分割技术上发展而来的一种技术,能对图像中的各区域进行深层次的理解。一些以全卷积网络(fullyconvolutional networks,FCN)为基础架构的早期语义分割网络,在分割准确率和效率上远超传统方法。但这些模型采用逐点相加的方式融合深层的语义类别特征和浅层的像素定位特征,会丢失许多位置信息,导致像素还原不精确,分割结果图边缘模糊,同时这类型的语义分割网络还存在实时性较差等缺点。在实际应用中,存在许多对实时性有需要的场景,一些轻量级语义分割网络被提出。如BiSeNet利用双通道结构解决大感受野和多空间像素的矛盾,并采用轻量级网络模型,使得运行速度得到大幅提升,但自身精度却不是太高。
综上所述,针对以上研究的不足,提出了一种基于深度学习的轻量级语义分割方法。
发明内容
鉴于上述问题,本发明的目的在于提供一种基于深度学习的轻量级目标语义分割方法。
一种基于深度学习的轻量级目标语义分割方法,包括以下步骤:
步骤一:数据集的采集与制作;
步骤二:基于紧凑型神经网络的设计思想,设计二维语义分割网络—基于边缘约束的多金字塔池化轻量级语义分割网络(Multi Pyramid Pooling Tiny SegmentationNetwork Based on Edge Constraints,MPPTSNet-EC);
步骤三:构建合适的损失函数,加速整个网络的收敛,达到网络最优状态;
步骤四:加入边缘约束网络,提高编码器对制造目标图像边缘信息的提取能力。
与现有技术相比,本发明具有以下有益效果:
1.相比于现有语义分割技术在兼顾实时性的同时也保证了分割的准确性,具备不错的像素级别的分割能力。
2.具备较高的实时性,可应用于对实时性有需求的场景。
附图说明
图1是车间目标语义分割数据集的标注过程
图2是车间目标边缘数据集效果图
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都理工大学,未经成都理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110545310.1/2.html,转载请声明来源钻瓜专利网。