[发明专利]基于共生双流卷积网络和数字图像的油炸食品检测系统有效
| 申请号: | 202010099575.9 | 申请日: | 2020-02-18 |
| 公开(公告)号: | CN111402200B | 公开(公告)日: | 2021-12-21 |
| 发明(设计)人: | 付永忠;薛会 | 申请(专利权)人: | 江苏大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T5/40;G06T5/00;G06T7/136;G06T7/13;G06T7/40;G06K9/62 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 212013 江*** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 共生 双流 卷积 网络 数字图像 油炸 食品 检测 系统 | ||
1.基于共生双流卷积网络和数字图像的油炸食品检测系统,其特征在于,包括依次连接的图像预处理模块、快速识别模块、分类与定位模块、目标裁剪模块和图像分析模块;所述图像预处理模块对输入的图像依次进行图像风格化迁移和图像滤波处理获得网络可用的张量;所述快速识别模块内通过共生特征提取网络和快速识别网络组成的全卷积网络对图像进行快速分类;所述分类与定位模块是全卷积网络;所述目标裁剪模块使用最优框到原图裁取目标图像;首先输入图像张量进入4倍下采样的共生特征提取网络,所述共生特征提取网络提取出输入图像的特征,且共生特征提取网络的输出分出两条支路,一条支路连接快速识别网络的输入,快速识别网络使用快速下采样的全卷积网络算法进行分类判断图像是否包含目标;另一条支路直接连接所述分类与定位模块;所述分类与定位模块的输入端分别连接共生特征提取网络和快速识别网络的输出,分类与定位模块的两个输入特征的连接方式为:将快速识别网络池化前特征进行8倍上采样,采样方式为双线性插值算法,然后将上采样完的特征与共生特征提取网络特征拼接在一起作为所述分类与定位模块的输入;且所述分类与定位模块是全卷积网络,所述全卷积网络为深度可分离卷积,采用跨步卷积下采样4倍的网络,使用的激活函数为Relu;所述分类与定位模块输出为大小为S x Sx(Bx4+C)的张量,S为输出张量的宽和高,B为每个位置的最大检测数量,C为检测目标存在的置信度,置信度为目标存在的概率;所述目标裁剪模块的输入连接分类与定位模块的输出Sx S x(Bx4+C)的张量,目标裁剪模块先对该张量进行解码,即对归一化的张量乘上原始图像宽高,得到还原到真实坐标的输出S x S x(Bx4+C)的张量;同时,对输出使用非极大值抑制算法,得到最优框;目标裁剪模块使用最优框到原图裁取目标图像;所述图像分析模块的输入连接目标裁剪模块的输出,使用图像像素统计算法、边缘检测算法、纹理分析算法对目标图像进行分析给出量化的分析结果;风格化迁移使用以VGG16网络为基础;迁移目标为准备好的彩色的目标图像;风格化迁移目的为:为灰度图像随机提供色彩纹理信息,增加数据的多样性,扩展数据集的数量;快速识别模块进行快速识别操作,首先图像张量进入共生特征提取网络输出特征张量,共生特征提取网络由修改后的MobileNet前三个阶段得到,然后特征张量进入快速识别网络,网络使用多尺度扩张卷积,并使用最大池化技术快速下采样,下采样8倍后,采用平均池化再经过FC层得到分类结果,根据分类结果判断是否进入分类与定位模块;
分类与定位模块进行目标分类和定位操作,根据快速识别模块的分类结果,提取两组特征拼接,一组为快速分类网络的平均池化前特征,并上采样8倍,另一组为共生特征提取网络提取的特征,拼接特征后进入分类与定位网络,分类与定位网络使用深度可分离卷积,采用跨步卷积下采样4倍后,采用改进的anchor机制输出分类和目标定位框;目标裁剪模块进行目标裁剪操作,根据分类与定位模块的输出的目标定位框,对这些目标检测框进行非极大值算法抑制删除多余目标框,算法采用置信度阈值为0.5,IOU阈值为0.7,得到最优框,然后根据目标框到原图裁剪目标图像,然后进入图像分析模块;
图像分析模块进行目标数字图像分析操作,接收来自目标裁剪模块的目标图像,首先使用自适应二值化操作,使用二值图像乘上目标图像,滤除背景像素干扰,然后采用求取像素值的平均统计值、Sobel边缘检测统计值、纹理分析方法对裁剪的目标图像给出量化分析结果。
2.根据权利要求1所述的基于共生双流卷积网络和数字图像的油炸食品检测系统,其特征在于,所述图像风格化迁移丰富灰度图像色彩信息;所述图像滤波处理具体使用直方图均衡化和均值滤波预处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江苏大学,未经江苏大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010099575.9/1.html,转载请声明来源钻瓜专利网。





