[发明专利]一种城市垃圾分类处理智能视觉检测方法在审

专利信息
申请号: 202010831619.2 申请日: 2020-08-18
公开(公告)号: CN112115974A 公开(公告)日: 2020-12-22
发明(设计)人: 班瑞 申请(专利权)人: 郑州睿如信息技术有限公司
主分类号: G06K9/62 分类号: G06K9/62;G06N3/04;G06N3/08;G06Q50/26
代理公司: 郑州先风知识产权代理有限公司 41127 代理人: 马柯柯
地址: 450000 河南省郑州市金水区*** 国省代码: 河南;41
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 城市 垃圾 分类 处理 智能 视觉 检测 方法
【权利要求书】:

1.一种城市垃圾分类处理智能视觉检测方法,其特征在于:包括如下步骤:

步骤1)、采集多种城市垃圾图像,制作垃圾图像数据集,将除厨余垃圾外的生活垃圾类别分为18个二级类别,包含:1:玻璃类、2:牛奶盒、3:金属类、4:塑料类、5:废纸类、6:织物类、7:废电池、8:废墨盒、9:废油漆桶、10:过期药品、11:废灯管、12:杀虫剂、13:污染塑料袋、14:烟头、15:污染纸张、16:破旧陶瓷品、17:灰土、18:一次性餐具;按照垃圾所属二级类别,对各图像的所属类别进行标注,保存每张图像属于类别1-18中的哪一类别,标注结果保存为.xml文件;然后进入步骤2)对全体样本集进行训练;

步骤2)、每次送单张训练集图像数据进入新型卷积神经网络,训练集图像数据为3通道彩色图,图片格式为.jpg,图像尺寸参数为512像素*512像素*3通道;将所述新型卷积神经网络共有12层,相邻层与层之间采用串联方式;

设置学习率为0.005,迭代次数为500次,使用垃圾图像数据集进行训练;

所述卷积层在处理过程中要用到的公式中的变量及其含义说明如下:

*:表示数乘,乘数均为实数;

v:表示当前处理的卷积层在整个网络中所处的层级,v为正整数,v≥1,当v的值确定时,指定当前的层数,所有下标包含v的变量均以v的值代入来表示此变量的名称;

Cv:表示网络第v层为卷积层;

wv:单位为像素,表示第v层输入图像的尺寸为wv*wv;这里我们设置输入图像宽高比均为1:1;

dv:正整数,表示第v层Cv输入图像的通道数,输入图像为彩色3通道,分别是R、G、B,分别代表图像某点像素中的红色、绿色、蓝色分量值,这里的R、G、B均为正整数;

fv:正整数,表示第v层Cv使用的卷积核的大小,即卷积核的长度和宽度,中的所有卷积核的长度等于其宽度;

tv:正整数,表示第v层Cv使用的卷积核的个数;

kvu:三维实矩阵,表示第v层Cv使用的第u个卷积核,即

长度*宽度*图像通道数,1≤u≤t1

Kvu(mv,nv):表示卷积核kvu内的值,可看作对图像进行卷积运算的计算权重,为dv维实向量,mv、nv为正整数,表示第v层Cv使用的卷积核内的位置,mv表示横坐标,nv表示纵坐标,mv、nv的取值范围为:1≤mv,nv≤fv

Kvu(mv,nv,cv):表示卷积核kvu内各通道的值,mv、nv为正整数,表示第v层使用的卷积核内的位置,mv是表示横坐标,nv表示纵坐标,mv、nv的取值范围为1≤mv,nv≤fv,cv为正整数,表示卷积核内第cv个通道,1≤cv≤dv

bv:代表第v层使用的全部tv个卷积核对应的tv个偏置量;

kv:代表第v层使用的全部tv个卷积核,没有数学意义,仅做符号表示;

pv:正整数,做卷积运算之前,对将要做卷积运算的图像的上、下、左、右四边均添加0像素的行数或列数,每个0像素的通道数均为dv,这里说的“0像素”是指一个像素的所有通道上的值均为0的像素;

sv:正整数,第v层卷积运算操作步长,使用卷积核对将要做卷积运算的图像进行卷积运算时,无论是横向,还是纵向,均要每隔几个像素进行一次卷积运算,这个间隔数即操作步长,以像素为单位;

layerv(iv,jv):表示第v层输入图像中的第iv行,第jv列的像素值,其由(R,G,B)三个数来表示,其中0≤R,G,B≤255,1≤iv,jv≤wv

layerv(iv,jv,cv):表示第v层输入图像中的第iv行,第jv列,第cv通道的像素值,1≤iv,jv≤wv,1≤cv≤dv

layervout(pv,qv,kvu):表示第v层输入图像经与卷积核kvu做卷积运算后得到的特征图的第pv行,第qv列的像素值,每个值可以看做一个神经元,其中1≤pv,qv≤wvout

wvout:单位为像素,表示第v层输入图像layerv与卷积核kvu进行卷积运算后得到的特征图layervout的尺寸为wvout*wvout

对第一层卷积网络做卷积运算,所需参数的值如下:

v=1,w1=512,d1=3,f1=5,t1=6,s1=1,p1=0,k1u和b1设置为初始值在(-1,1)之间的随机数,对所述新型卷积神经网络的第一卷积层C1与卷积核k1u进行卷积计算的过程为:根据输入图像从左至右,从上到下,按照指定步长s1移动,将卷积核k1u在每个位置上与输入图像对应位置且对应通道的像素值相乘后求和,所得结果作为输出的二维特征图,每个值可看作一个神经元layer1out(p1,q1,k1u),公式表示如下:

其中layer1(i1+m1,j1+n1,c1)表示卷积运算进行到输入图像layer1第c1通道的i1+m1行、第j1+n1列,1≤i1,j1≤w1–f1+1,第一层图像layer1做卷积运算后输出的特征图尺寸由第一层图像尺寸w1、卷积核大小f1及扫描步长s1和填充p1决定,计算公式为:代入上述数据计算可得,则第一层与卷积核k1u做卷积操作后的输出特征图尺寸为508像素*508像素;分别利用t1=6个卷积核依次重复上述卷积过程,最终形成t1=6层二维特征图,神经元的个数为508*508*6个,这就是第一卷积层的全部输出结果,这里以下式代表:layer1out(p1,q1,k1)

所述第一卷积层激活函数采用LeakyReLU,其数学表达式为:

其中,layer1out(p1,q1,k1)+b1做为本层激活函数LeakyReLU的输入,layer2(i2,j2,c2)代表新型卷积神经网络第一卷积层激活后的输出,b1代表偏置量,其中i2、j2、c2均为正整数,且1≤i2,j2≤508,1≤c2≤6,这里c取值为50;之后,进入步骤3);

步骤3)、进入所述新型卷积神经网络的第二层池化层,本文中所有的池化层在计算过程中要用到的公式中的变量及其含义说明如下:

max:池化过程运算符号,表示取最大值;

z:表示当前处理的池化层在整个网络中所处的层级,当z的值在一层被指定后,所有下标包含z的变量均以z的值代入来表示此变量的名称;

wz:单位为像素,表示第z层输入图像的尺寸为wz*wz

dz:正整数,表示第z层输入图像的通道数,这里为第z层的输出结果的通道数,dz=tz-1

fz:正整数,表示第z层使用的池化过滤器的大小,即过滤器的长度和宽度,中所有池化层过滤器的长度等于其宽度;

layerz(iz,jz):无单位,表示第z层输入图像中的第iz行,第jz列的像素值,其是一个dz维向量,其中1≤iz,jz≤wz

layerz(iz,jz,cz):无单位,表示第z层输入图像中的第iz行,第jz列,第cz通道的像素值,1≤iz,jz≤wz,1≤cz≤dz

layerzout(pz,qz,dz):无单位,表示第z层输出图像中的第pz行,第qz列,第dz通道位置处的值,1≤pz,qz≤(wz/fz);

对第z层池化层做运算时,操作步骤如下:

把池化层的输入图像的一个通道内的wz*wz个像素划分为(wz/fz)行,(wz/fz)列个fz*fz的小块,对每个小块中的数,取最大数做为输出结果,然后遍历完每行上的小块和每列上的小块,依小块原有的次序放在相应的位置,最终构成一个(wz/fz)*(wz/fz)的矩阵,所有下标包含z的变量均以z的值代入来表示此变量的名称;

对第二层池化层做运算时,所需参数的值如下:z=2,w2=508,d2=6,f2=2,池化层使用的池化操作为最大池化,对输入数据的d2通道的第i2行,j2列位置的池化计算公式如下:

对一个通道做完池化操作后,形成输出特征图layer2out的1层二维池化结果,再对另外d2-1个通道,依次重复上述池化过程,最终形成d2层二维池化结果,这就是第二池化层的全部输出结果,以下式代表:layer2out(p2,q2,d2)

式中,1≤p2,q2≤(w2/f2)=254,d2=6;之后,进入步骤4);

步骤4)、进入所述新型卷积神经网络第三层为卷积层C3,对第三层卷积网络做卷积运算时,所需参数的值如下:

v=3,w3=254,d3=6,f3=3,t3=16,s3=1,p3=0,k3u和b3设置为初始值在(-1,1)之间的随机数,对所述新型卷积神经网络的第三层卷积层C3与卷积核k3u进行卷积计算的过程为:根据输入图像从左至右,从上到下,按照指定步长s3移动,将卷积核k3u在每个位置上与输入图像对应位置且对应通道的像素值相乘后求和,所得结果作为输出的二维特征图,每个值可看作一个神经元layer3out(p3,q3,k3u),公式表示如下:

其中layer3(i3+m3,j3+n3,c3)表示卷积运算进行到输入图像layer3第c3通道的i3+m3行,第j3+n3列,1≤i3,j3≤w3–f3+1,第三层图像layer3做卷积运算后输出的特征图尺寸由第一层图像尺寸w3、卷积核大小f3及扫描步长s3和填充p3决定,计算公式为:代入上述数据计算可得,则第三层与卷积核k3u做卷积操作后的输出特征图尺寸为252像素*252像素;分别利用t3=16个卷积核依次重复上述卷积过程,最终形成t3=16层二维特征图,神经元的个数为252*252*16个,这就是第三层卷积层的全部输出结果,这里以下式代表:layer3out(p3,q3,k3)

第三层卷积层激活函数采用LeakyReLU,其数学表达式为:

其中,layer3out(p3,q3,k3)+b3做为本层激活函数LeakyReLU的输入,layer4(i4,j4,c4)代表新型卷积神经网络第三层卷积层激活后的输出,b3代表偏置量,其中i4、j4、c4均为正整数,且1≤i4,j4≤508,1≤c4≤6,这里c取值为50;之后,进入步骤5);

步骤5)、进入所述新型卷积神经网络第四层为池化层,对第四层池化层做运算时,所需参数的值如下:z=4,w4=252,d4=16,f4=2,对输入数据的d4通道的第i4行,j4列位置的池化计算公式如下:

对一个通道做完池化操作后,形成输出特征图layer4out的1层二维池化结果,再对另外d4-1个通道,依次重复上述池化过程,最终形成d4层二维池化结果,这就是第四层池化层的全部输出结果,以下式表示:layer4out(p4,q4,d4)

式中,1≤p4,q4≤(w4/f4)=126,d4=16;之后,进入步骤6);

步骤6)、进入所述新型卷积神经网络第五层,第五层为卷积层C5,对第五层卷积网络做卷积运算时,所需参数的值如下:w5=126,d5=16,f5=3,t5=32,s5=1,p5=0,k5u和b5设置为初始值在(-1,1)之间的随机数,对所述新型卷积神经网络的第五层卷积层C5与卷积核k5u进行卷积计算的过程为:根据输入图像从左至右,从上到下,按照指定步长s5移动,将卷积核k5u在每个位置上与输入图像对应位置且对应通道的像素值相乘后求和,所得结果作为输出的二维特征图,每个值可看作一个神经元layer5out(p5,q5,k5u),公式表示如下:

其中layer5(i5+m5,j5+n5,c5)表示卷积运算进行到输入图像layer5第c5通道的i5+m5行,第j5+n5列,1≤i5,j5≤w5–f5+1,第五层图像layer5做卷积运算后输出的特征图尺寸由第五层图像尺寸w5、卷积核大小f5及扫描步长s5和填充p5决定,计算公式为:代入上述数据计算可得,则第五层与卷积核k5u做卷积操作后的输出特征图尺寸为126像素*126像素;分别利用t5=32个卷积核依次重复上述卷积过程,最终形成t5=32层二维特征图,神经元的个数为126*126*32个,这就是第一卷积层的全部输出结果,这里以下式表示:layer5out(p5,q5,k5)

第五层卷积层激活函数采用LeakyReLU,其数学表达式为:

layer5out(p5,q5,k5)做为本层激活函数LeakyReLU的输入,b5代表偏置量,layer6(i6,j6,c6)代表新型卷积神经网络第五层卷积层激活后的输出,其中i6、j6、c6均为正整数,且1≤i6,j6≤126,1≤c6≤32,这里c取值为50;之后,进入步骤7);

步骤7)、进入所述新型卷积神经网络第六层为池化层,对第六层池化层做运算时,所需参数的值如下:z=6,w6=126,d6=32,f6=2,池化层使用的池化操作为最大池化,对输入数据的d6通道的第i6行,j6列位置的池化计算公式如下:

对一个通道做完池化操作后,形成输出特征图layer6out的1层二维池化结果,再对另外d6-1个通道,依次重复上述池化过程,最终形成d6层二维池化结果,这就是第六层池化层的全部输出结果,以下式表示:layer6out(p6,q6,d6)

式中,1≤p6,q6≤(w6/f6)=63,d6=32;之后,进入步骤8);

步骤8)、进入所述新型卷积神经网络第七层,第七层为卷积层C7,对第七层卷积网络做卷积运算时,所需参数的值如下:w7=63,d7=32,f7=3,t7=64,s7=2,p7=0,k7u和b7设置为初始值在(-1,1)之间的随机数,对所述新型卷积神经网络的第七层卷积层C7与卷积核k7u进行卷积计算的过程为:根据输入图像从左至右,从上到下,按照指定步长s7移动,将卷积核k7u在每个位置上与输入图像对应位置且对应通道的像素值相乘后求和,所得结果作为输出的二维特征图,每个值可看作一个神经元layer7out(p7,q7,k7u),公式表示如下:

其中layer7(i7+m7,j7+n7,c7)表示卷积运算进行到输入图像layer7第c7通道的i7+m7行,第j7+n7列,1≤i7,j7≤w7–f7+1,第七层图像layer7做卷积运算后输出的特征图尺寸由第七层图像尺寸w7、卷积核大小f7及扫描步长s7和填充p7决定,计算公式为:代入上述数据计算可得,则第七层与卷积核k7u做卷积操作后的输出特征图尺寸为31像素*31像素;分别利用t7=64个卷积核依次重复上述卷积过程,最终形成t7=64层二维特征图,神经元的个数为31*31*64个,这就是第一卷积层的全部输出结果,这里以下式代表:layer7out(p7,q7,k7);

第七层卷积层激活函数采用LeakyReLU,其数学表达式为:

其中,layer7out(p7,q7,k7)做为本层激活函数LeakyReLU的输入,b7代表偏置量,layer8(i8,j8,c8)代表新型卷积神经网络第五层卷积层激活后的输出,其中i8、j8、c8均为正整数,且1≤i8,j8≤31,1≤c8≤64,这里c取值为50;之后,进入步骤9);

步骤9)、进入所述新型卷积神经网络第八层,第八层为卷积层C8,对第八层卷积网络做卷积运算时,所需参数的值如下:w8=31,d8=64,f8=3,t8=128,s8=2,p8=0,k8u和b8设置为初始值在(-1,1)之间的随机数,对所述新型卷积神经网络的第八层卷积层C8与卷积核k8u进行卷积计算的过程为:根据输入图像从左至右,从上到下,按照指定步长s8移动,将卷积核k8u在每个位置上与输入图像对应位置且对应通道的像素值相乘后求和,所得结果作为输出的二维特征图,每个值可看作一个神经元layer8out(p8,q8,k8u),公式表示如下:

其中layer8(i8+m8,j8+n8,c8)表示卷积运算进行到输入图像layer8第c8通道的i8+m8行,第j8+n8列,1≤i8,j8≤w8–f8+1,第八层图像layer8做卷积运算后输出的特征图尺寸由第八层图像尺寸w8、卷积核大小f8及扫描步长s8和填充p8决定,计算公式为:代入上述数据计算可得,则第八层与卷积核k8u做卷积操作后的输出特征图尺寸为15像素*15像素;分别利用t8=128个卷积核依次重复上述卷积过程,最终形成t8=128层二维特征图,神经元的个数为15*15*128个,这就是第八卷积层的全部输出结果,这里以下式代表:layer8out(p8,q8,k8)

第八层卷积层激活函数采用LeakyReLU,其数学表达式为:

layer8out(p8,q8,k8)做为本层激活函数LeakyReLU的输入,b8为偏置量;

layer9(i9,j9,c9)代表新型卷积神经网络第五层卷积层激活后的输出,i9、j9、c9均为正整数,且1≤i9,j9≤15,1≤c9≤128,c取值为50;之后进入步骤10);

步骤10)、进入所述新型卷积神经网络第九层:卷积层C9,对第九层卷积网络做卷积运算时,所需参数的值如下:w9=15,d9=128,f9=3,t9=256,s9=2,p9=0,k9u和b9设置为初始值在(-1,1)之间的随机数,对第九层卷积层C9与卷积核k9u进行卷积计算的过程为:根据输入图像从左至右,从上到下,按照指定步长s9移动,将卷积核k9u在每个位置上与输入图像对应位置且对应通道的像素值相乘后求和,所得结果作为输出的二维特征图,每个值可看作一个神经元layer9out(p9,q9,k9u),公式表示如下:

其中layer9(i9+m9,j9+n9,c9)表示卷积运算进行到输入图像layer9第c9通道的i9+m9行,第j9+n9列,1≤i9,j9≤w9–f9+1,第九层图像layer9做卷积运算后输出的特征图尺寸由第九层图像尺寸w9、卷积核大小f9及扫描步长s9和填充p9决定,计算公式为:代入上述数据计算可得,则第九层与卷积核k9u做卷积操作后的输出特征图尺寸为15像素*15像素;分别利用t9=256个卷积核依次重复上述卷积过程,最终形成t9=256层二维特征图,神经元的个数为7*7*256个,这就是第九层卷积层的全部输出结果,这里以下式代表:layer9out(p9,q9,k9)

第九层卷积层激活函数采用LeakyReLU,其数学表达式为:

layer9out(p9,q9,k9)做为本层激活函数LeakyReLU的输入,b9代表偏置量,layer10(i10,j10,c10)代表新型卷积神经网络第九层卷积层激活后的输出,其中i10、j10、c10均为正整数,且1≤i10,j10≤7,1≤c10≤256,这里c取值为50;之后,进入步骤11);

步骤11)、进入所述新型卷积神经网络第十层的全连接层,本文中所有全连接层在计算过程中要用到的公式中的变量及其含义说明如下:a:表示当前处理的全连接层在整个网络中所处的层级,当a的值在一层被指定后,所有下标包含a的变量均以a的值代入来表示此变量的名称;xa:正整数,表示第a层的输入数据的维数;Xa:列向量,表示第a层的输入数据是一个包含xa行的列向量,每行包含一个实数,这里的xa个元素从上到下分别为layera(ia,ja,ca)以层、行、列为顺序每次取出一个数值依次排列而成;da:正整数,表示第a层连接单元的数量;Wa:实矩阵,表示第a层与第a-1层间的连接权重所构成的二维实矩阵,此矩阵的行数为da,列数为xa;Ba:列向量,为第a层计算过程中需要用到的中间阈值变量,其行数为da;Layeraout:列向量,为第a层输入图像经过运算得到的结果的da维列向量;Layeraout(ka):实数,layeraout的第ka个分量的值,1≤ka≤da;对第10层全连接层做运算时,所需参数的值如下:a=10,x10=i10*j10*c10=12544,d10=213=8192,W10中所有值设置为(-1,1)之间的非0的随机数,B10中所有分量初始设置全部为-1;对所述新型卷积神经网络的第十层全连接层F10的计算过程为:以本层的权值矩阵与输入向量做矩阵相乘,再与阈值向量相加得到layer10out,公式表示如下:layer10out=W10X10+B10

第十层全连接层激活函数采用sigmoid函数,对layer10out的第k10个分量进行激活的数学表达式为:

layer10out(k10)做为本层激活函数sigmoid函数的一个分量的输入,layer11(c11)代表新型卷积神经网络第十层全连接层激活后的一个分量的输出,其中c11均为正整数,且1≤c11=k10≤d10;第十层全连接层的全部输出以layer11表示,layer11为d10维的一个列向量;之后,进入步骤12);

步骤12)、进入所述新型卷积神经网络第十一层为全连接层,对第十一层全连接层做运算时,所需参数的值如下:

a=11,x11=d10=8192,d11=4096,W11中所有值设置为(-1,1)之间的非0的随机数,B11中所有分量初始设置全部为-1;对所述新型卷积神经网络的第十一层全连接层F11的计算过程为:以本层的权值矩阵与输入向量做矩阵相乘,再与阈值向量相加得到layer11out,公式表示如下:layer11out=W11X11+B11;第十一层全连接层激活函数采用sigmoid函数,对layer11out的第k11个分量进行激活的数学表达式为:

其中,layer11out(k11)做为本层激活函数sigmoid函数的一个分量的输入,layer12(c12)代表新型卷积神经网络第十一层全连接层激活后的一个分量的输出,其中c12均为正整数,且1≤c12=k11≤d11;第十一层全连接层的全部输出以layer12表示,layer12为d11维的一个列向量;之后,进入步骤13);

步骤13)、进入所述新型卷积神经网络第十二层为全连接层,对第十二层全连接层做运算时,所需参数的值如下:a=12,x12=d11=4096,d12=18,W12中所有值设置为(-1,1)之间的非0的随机数,B12中所有分量初始设置全部为-1;对所述新型卷积神经网络的第十二层全连接层F12的计算过程为:以本层的权值矩阵与输入向量做矩阵相乘,再与阈值向量相加得到layer12out,公式表示如下:layer12out=W12X12+B12

第十二层全连接层激活函数采用sigmoid函数,对layer12out的第k12个分量进行激活的数学表达式为:

layer12out(k12)做为本层激活函数sigmoid函数的一个分量的输入,layer13(c13)代表新型卷积神经网络第十一层全连接层激活后的一个分量的输出,其中c13均为正整数,且1≤c13=k12≤d12;第十一层全连接层的全部输出以layer13表示,layer13为d12维的一个列向量,代表d12个二级分类类型;之后,进入步骤14);

步骤14)、进入所述新型卷积神经网络的输出层,输出层过程中要用到的公式中的标号及其含义说明如下:

e:为自然常数,其值约为2.71828;Sw:无单位,表示softmax函数的输出,也即输出层的输出;Sw(c13):无单位,表示输出层第c13个神经元,为(0,1)间的概率值;layer13:列向量,为第十二层输出的d12个神经元输出的对应值,同时作为本层的输入;layer13(c13):正整数,表示layer13中的第c13个元素,其中1≤c13≤d12;M:无单位,表示强度参数,预设为1;Swmax:表示layer13中神经元对应值经softmax函数输出后,d12个节点概率中最大的一个,也即最终的分类结果对应的概率值,为(0,1)间的概率值;最后一层的输出层将d12个神经元的输出映射到(0,1)区间内,用概率解释分类,使用经典softmax函数进行计算,得到第c13个元素对应的概率输出,数学表达式为:

则若18个神经元在第十一层全连接层的输出为layer13(1),layer13(2),…,layer13(18),则经最后输出层softmax作用后的d12=18个神经元的输出概率值依次为:Sw(1),Sw(2),…,Sw(18),对应所属的18个二级类别,即:属于玻璃类的概率为Sw(1)、属于牛奶盒的概率为Sw(2)、属于金属类的概率为Sw(3)、属于塑料类的概率为Sw(4)、属于废纸类的概率为Sw(5)、属于织物类的概率为Sw(6)、属于废电池的概率为Sw(7)、属于废墨盒的概率为Sw(8)、属于废油漆桶的概率为Sw(9)、属于过期药品的概率为Sw(10)、属于废灯管的概率为Sw(11)、属于杀虫剂的概率为Sw(12)、属于污染塑料袋的概率为Sw(13)、属于烟头的概率为Sw(14)、属于污染纸张的概率为Sw(15)、属于破旧陶瓷品的概率为Sw(16)、属于灰土的概率为Sw(17)、属于一次性餐具的概率为Sw(18),经softmax映射后所有节点概率值的累和为1,选取输出节点概率值最大的作为预测目标和分类结果,如下公式所示:则选取Swmax为分类结果;

步骤15)、对卷积核k1u、b1、k3u、b3、k5u、b5、k7u、b7、k8u、b8、k9u、b9以及全连接层内的W10、B10、W11、B11、W12、B12的值进行误差反向传播计算更新,进行循环迭代,调整上述参数,不断减小模型输出结果与实际结果之间的误差,找到所有样本的整体平均误差最小的k1u、b1、k3u、b3、k5u、b5、k7u、b7、k8u、b8、k9u、b9以及W10、B10、W11、B11、W12、B12的值,由此作为本新型卷积神经网络训练完成的模型参数,可用来做图像预测;之后,进入步骤16);

步骤16)、将待分类图像送入训练好的神经网络,过程如下;

16-1)、将待分类图像做为预测输入数据;

16-2)、加载训练好的网络模型,加载网络模型时使用训练好的k1u、b1、k3u、b3、k5u、b5、k7u、b7、k8u、b8、k9u、b9以及W10、B10、W11、B11、W12、B12的值做为计算参数;

16-3)、依次经过步骤2)至步骤14)的计算步骤后,输出分类结果,即待分类图像所属类别及其准确率Sw(c13),1≤c13≤18,0≤Sw(c13)≤1;将最终的Swmax作为分类结果,其对应值为所属二级类别的概率,判断出来的结果为待分类垃圾所属的二级类别:如果Swmax属于{Sw(1),Sw(2),Sw(3),Sw(4),Sw(5),Sw(6)},即图像分类识别结果为{玻璃类,牛奶盒,金属类,塑料类,废纸类,织物类},则判断该垃圾属于可回收垃圾;若Swmax属于{Sw(7),Sw(8),Sw(9),Sw(10),Sw(11),Sw(12)},即图像分类识别结果为{废电池,废墨盒,废油漆桶,过期药品,废灯管,杀虫剂},则判断该垃圾属于有害垃圾;若Swmax={Sw(13),Sw(14),Sw(15),Sw(16),Sw(17),Sw(18)},即图像分类识别结果为{污染塑料袋,烟头,污染纸张,破旧陶瓷品,灰土,一次性餐具},则判断该垃圾属于其他垃圾。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于郑州睿如信息技术有限公司,未经郑州睿如信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010831619.2/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top