[发明专利]一种基于深度学习的垃圾分类方法有效
申请号: | 202011461440.9 | 申请日: | 2020-12-09 |
公开(公告)号: | CN112541544B | 公开(公告)日: | 2022-05-13 |
发明(设计)人: | 柯逍;陈柏涛 | 申请(专利权)人: | 福州大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06F16/951;G06Q50/26 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 陈明鑫;蔡学俊 |
地址: | 350108 福建省福州市*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 垃圾 分类 方法 | ||
1.一种基于深度学习的垃圾分类方法,其特征在于,包括如下步骤:
步骤S1、使用爬虫爬取并构建深度学习训练集,将深度学习训练集称为初始数据集;
步骤S2、使用不同的网络结构在初始数据集的基础上训练模型,得到多个模型;
步骤S3、使用步骤S2得到的模型结合爬虫进行数据的自动爬取、清洗、打标,完成对初始数据集的自动扩充,构建最终版数据集;
步骤S4、选出步骤S2中表现最好的网络结构作为主干网络,在构建的最终版数据集上训练模型,并且使用优化策略进行优化,提升模型的准确率与鲁棒性;
步骤S3具体实现如下:
步骤S31、利用步骤S1中所使用的爬虫爬取新图片,进行图片的清洗、类别平衡;
步骤S32、使用步骤S2中训练好的模型,对模型进行判别,判别结果按照各模型的准确率进行加权得出模型判别结果;模型判别结果与爬取时所用的类别标签按照3:7的比例加权,作为新图片最终的标签;初始数据集上进行自动扩充,构建最终版数据集;
步骤S4具体实现如下:
步骤S41、选出步骤S2中表现最好的网络结构作为主干网络:EfficientNet;EfficientNet使用混合维度放大法,使用一个混合系数来决定网络深度deepth、通道数width和特征图大小resolution三个维度的放大倍率;使用NAS技术搜索出一个较优的网络结构作为基准网络b0,即EfficientNet-b0;根据下式,
其中,α·β2·γ2≈2,α≥1,β≥1,γ≥1
固定进行网格搜索,得到最优的参数α=1.2,β=1.1,γ=1.15;固定这三个参数,调节为不同的值,得到经过放大的网络EfficientNet-b4就是基准网络的第四级放大的结果;
步骤S42、使用迁移学习的方法,将模型在ImageNet数据集上进行预训练,将得到的预训练权重移植到该垃圾分类任务上;将预训练模型中与EfficientNet训练后的模型中结构相同部分权重直接载入,结构不同部分的权重依旧使用默认的初始化方式;
步骤S43、对图像数据进行标准化处理:计算出整个训练集图像各通道的均值与方差;通过下式对图像的每个通道进行变换;
其中,xi表示第i张图片;μ表示图像的均值;σ表示图像的标准差;x表示原始图像;x'表示进行过标准化处理的图像;
步骤S44、对于图像数据的增强使用2种策略:第一种是将图像缩放,使其的长边大小等于网络的输入图像的大小,然后进行中心剪裁、随机水平垂直翻转、随机旋转、随机擦除的操作;第二种策略是将图像缩放,使其的长边大小超过网络的输入图像的大小20%,然后按照网络的输入图像的大小进行随机剪裁,以及随机水平垂直翻转、随机旋转、随机擦除的操作;
步骤S45、使用多分类交叉熵损失函数作为误差的评价指标,如下式所示:
其中,N为样本数量;K为类别数量;pic指示变量0或1,如果该类别和样本i的类别相同pic则为1,否则为0;pic:观测样本i属于类别c的预测概率;
而后,利用下式,将标签往中间偏移,以提升模型的泛化能力;
其中,K为类别数量,ε为标签平滑因子;
步骤S46、利用下式对批归一化层的输入特征图做归一化;
其中,m表示训练批次的大小;xi表示训练批次中的第i张图片;μβ表示训练批次图像的均值;表示训练批次图像的方差;表示经过归一化的图像;∈为一个极小值1e-5;γ与β为可学习参数;yi为经过批归一化后的输出图像;
步骤S47、在学习率的调整策略上,使用带热重启的余弦退火算法;将初始学习率设为1e-4,初始周期设为10,周期拓展倍率设为2;在周期内,学习率按照余弦函数前1/2周期的下降曲线进行调整,一旦完成周期后,将学习率重置为初始值,并按照周期拓展倍率对周期进行拓展;
步骤S48、考虑到训练时神经网络学习的是经过放大的特征,测试时却对未经放大的特征进行识别,存在辨率的差异,因此在测试时使用比训练大的图像大小。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011461440.9/1.html,转载请声明来源钻瓜专利网。