[发明专利]基于深度学习的厨余垃圾识别分类方法在审
| 申请号: | 202310224440.4 | 申请日: | 2023-03-09 |
| 公开(公告)号: | CN116152571A | 公开(公告)日: | 2023-05-23 |
| 发明(设计)人: | 杨建锋;张晨;愉滨铨;颜辰航;闫弘 | 申请(专利权)人: | 西北大学 |
| 主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/77;G06V10/82;G06N3/0455;G06N3/0464;G06N3/08 |
| 代理公司: | 西安恒泰知识产权代理事务所 61216 | 代理人: | 周春霞 |
| 地址: | 710069 *** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 深度 学习 垃圾 识别 分类 方法 | ||
1.一种基于深度学习的厨余垃圾识别分类模型构建方法,其特征在于,包括:
获取模型构建数据集;所述模型构建数据集中的元素为包含至少一个厨余垃圾目标的图片;
基于所述模型构建数据集对识别分类模型进行训练,得到训练后的识别分类模型;
所述训练后的识别分类模型包括卷积神经网络、transformer模块、FFN网络;所述卷积神经网络用于提取待识别图片的图像特征;所述transformer模块用于基于所述图像特征,得到所述待识别图片的最终特征;所述FFN网络用于根据所述最终特征,确定所述待识别图片中每个厨余垃圾的类别。
2.如权利要求1所述的方法,其特征在于,其中,基于所述模型构建数据集对识别分类模型进行训练,得到训练后的识别分类模型,包括:
将所述模型构建数据集输入到卷积神经网络,提取图片的图像特征;
对所述图像特征添加位置信息,得到具有位置信息的图像特征;
将所述具有位置信息的图像特征输入到transformer模块,得到图片的最终特征;
将所述最终特征输入到FFN网络,输出多个预测框,每个所述预测框对应一个厨余垃圾目标的类别;
根据所述多个预测框和多个真实框,确定损失函数,并将所述损失函数进行梯度回传以更新模型的参数,得到训练后的厨余垃圾识别分类模型。
3.如权利要求2所述的方法,其特征在于,所述卷积神经网络包括多个卷积层、激励层和全连接层,所述多个卷积层中的第一个卷积层用于提取图像的浅层特征,其他卷积层用于根据所述浅层特征提取深层特征,所述激励层用于对深层特征进行非线性映射,得到映射后的特征图,所述全连接层用于提取分类特征图。
4.如权利要求3所述的方法,其特征在于,方法还包括:
对所述映射后的特征图采用平均池化法进行降维处理。
5.如权利要求2所述的方法,其特征在于,对所述图像特征添加位置信息,得到具有位置信息的图像特征,包括;
对所述图像特征进行使用一维卷积核进行一次维度压缩操作,得到一次维度压缩后的特征图;
确定所述一次维度压缩后的特征图中每个像素点的位置信息;
将所述位置信息添加到像素点中,得到处理后的特征图;
对所述处理后的特征图进行张量扁平化处理,得到二次维度压缩后的特征图,即具有位置信息的图像特征。
6.如权利要求2所述的方法,其特征在于,其中,将所述图像特征输入到transformer模块,得到图片的最终特征,包括:
所述transformer模块包括编码器和解码器;所述解码器根据所述编码器的输出和多个目标查询,得到图片的最终特征。
7.如权利要求2所述的方法,其特征在于,所述确定损失函数,包括:
针对每个预测框,采用二分图匹配方法确定与所述预测框匹配的真实框,得到预测框和真实框的一一匹配关系;
根据所述一一匹配关系计算分类损失与预测框位置损失,所述分类损失与预测框位置损失组成所述损失函数。
8.一种基于深度学习的厨余垃圾识别分类方法,其特征在于,包括:
将包含至少一个厨余垃圾目标的待识别图片输入到厨余垃圾识别分类模型中,输出所述待识别图片中每个厨余垃圾目标的类别;
所述厨余垃圾识别分类模型为根据权利要求1-7中任意一项所述的基于深度学习的厨余垃圾识别分类模型构建方法得到的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北大学,未经西北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310224440.4/1.html,转载请声明来源钻瓜专利网。





