[发明专利]一种基于边缘计算和深度学习的垃圾箱垃圾识别方法在审
申请号: | 202010168548.2 | 申请日: | 2020-03-12 |
公开(公告)号: | CN111217062A | 公开(公告)日: | 2020-06-02 |
发明(设计)人: | 李清秋;张鹏程;赵齐 | 申请(专利权)人: | 河海大学 |
主分类号: | B65F1/14 | 分类号: | B65F1/14;B65F1/00;G06N3/04;G06N3/08 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 成立珍 |
地址: | 210019 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 边缘 计算 深度 学习 垃圾箱 垃圾 识别 方法 | ||
1.一种基于边缘计算和深度学习的垃圾箱垃圾识别方法,其特征在于,包括如下步骤:
步骤1:投放者将待投放的垃圾放在高分辨率摄像机前进行扫描,高分辨率摄像机设置在垃圾箱上;
步骤2:边缘服务器根据已训练好的垃圾检测模型识别待投放垃圾,同时存储垃圾图片数据,将未标记的垃圾数据上传至云服务器;
步骤3:显示屏上显示垃圾类别检测结果及语音播报。
2.如权利要求1所述的基于边缘计算和深度学习的垃圾箱垃圾识别方法,其特征在于,云服务器根据垃圾分类标准运用SSD算法训练垃圾检测模型,具体为:
步骤11:使用SSD框架结构,在VGG16网络中将最后两个全连接层改成卷积层,并增加4个卷积层来构造网络结构,在这6层上依次提取feature map,最终得到8732个缺省检测框;
步骤12:prior box为被使用的缺省检测框的包围盒,将prior box和实际目标框按照IOU值的大小进行匹配;匹配时先从实际目标框的角度出发,找到与目标相匹配的IOU值最大的缺省检测框进入候选正样本集;其中IOU值指的是目标的真实边框和检测算法得到的预测框之间的重叠率,其具体计算公式如下:
步骤13:由于由步骤12所确定的正样本数量太少,所以接着从缺省检测框的角度出发,在缺省检测框与实际目标框满足IOU>0.5的样本集中,选择最大的缺省检测框,也放入正样本集;
步骤14:最后,将每个物体所对应的缺省检测框的置信度进行排序,从低到高选出一定数量的缺省检测框,存入负样本集,使得prior box中的正负样本比为1:3,由此可得良好的训练样本;
步骤15:求损失函数,损失函数为位置误差和置信度误差的加权和,公式为:
其中:Lconf和Lloc分别代表的是类别置信度的损失函数和搜索框位置的损失函数;N代表匹配到真实框的prior box的数量;c为置信度,l为垃圾预测框,g为垃圾真实框;α参数用于调整confidence loss和location loss之间的比例,默认α=1;
搜索框位置的损失函数为:
其中,为第i个垃圾预测框与第j个垃圾真实框关于类别k是否匹配,为0代表不匹配,为1代表匹配;cx,cy,w,h分别表示垃圾边界框的中心横坐标、垃圾边界框的中心纵坐标、边界框的宽度、边界框的高度;m没有具体的含义,参数m∈cx,cy,w,h,即分别取cx,cy,w,h这四个值;
smoothL1(x)损失函数的定义为
lm表示预测的目标框相对于defaultbox的偏移量,gm表示真实的目标框相对于defaultbox的偏移量;求gm的公式为:
其中d表示垃圾真实框的参数,g表示垃圾预测框的参数;
类别置信度的损失函数为:
其中,表示垃圾预测框i与垃圾真实框j关于类别p匹配,p的概率预测越高,损失越小;表示垃圾预测框没有物体,预测为背景的概率越高损失越小;置信度c通过SoftMax产生;
步骤16:预训练;对于每个预测框,首先根据类别置信度确定其类别与置信度值,并过滤掉属于背景的预测框;然后根据IOU(=0.5)过滤掉阈值较低的预测框,对于留下的预测框进行解码,根据先验框得到其真实的位置参数,解码之后,需要根据置信度进行降序排列,然后仅保留Top-k(=400)个预测框;最后进行非极大抑制算法,过滤掉重叠度较大的预测框,最后剩余的预测框即是检测结果。
3.如权利要求1所述的基于边缘计算和深度学习的垃圾箱垃圾识别方法,其特征在于,步骤1具体包括:在垃圾箱上安装高分辨率摄像机,拍摄分辨率为300×300;摄像机将扫描所得的图像通过socket上传至边缘服务器,边缘服务器运用SSD算法检测图片是否在已有的垃圾模型中被标记,未被标记,就以二进制的形式存入边缘服务器的非易失存储器中,并上传至云服务器,云服务器运用SSD框架训练垃圾检测模型,更新模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学,未经河海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010168548.2/1.html,转载请声明来源钻瓜专利网。