[发明专利]基于自适应空间模式的深度胶囊网络图像分类方法及系统在审
申请号: | 202110032354.4 | 申请日: | 2021-01-11 |
公开(公告)号: | CN112766340A | 公开(公告)日: | 2021-05-07 |
发明(设计)人: | 王锦萍;李军;谭晓军;黄力;陈霞 | 申请(专利权)人: | 中山大学;惠州市德赛西威汽车电子股份有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08 |
代理公司: | 深圳市创富知识产权代理有限公司 44367 | 代理人: | 高冰 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 自适应 空间 模式 深度 胶囊 网络 图像 分类 方法 系统 | ||
本发明公开了一种基于自适应空间模式的深度胶囊网络图像分类方法及系统,该方法包括:对训练用图像进行图像预处理,并构建训练集;基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;获取待测图像并将待测图像输入训练完成的深度胶囊网络进行图像分类,得到图像分类结果;所述深度胶囊网络包括ASPConvs模块、ASPCaps模块和全连接胶囊层。该系统包括:预处理模块、训练模块和分类模块。通过使用本发明,自适应学习复杂的物结构信息,提升纹理密集区域的图像分类精度。本发明作为一种基于自适应空间模式的深度胶囊网络图像分类方法及系统,可广泛应用于图像分类领域。
技术领域
本发明涉及图像分类领域,尤其涉及一种基于自适应空间模式的深度胶囊网络图像分类方法及系统。
背景技术
传统的深度学习图像分类算法包括:堆叠自编码网络、深度置信神经网络,递归神经网络,生成对抗性神经网络以及卷积神经网络等,其中传统的基于神经网络的图像分类方法通过卷积、池化、全连接层等步骤进行图像特征提取。然而,该类方法往往网络模型训练需要大量的数据样本,且训练过程复杂,复杂的场景特征下图像关键兴趣点特征提取困难。且对于传统的神经网络方法,其卷积核中采样点的位置通常是固定不变的,其不能根据真实物体的实际空间形态分布自适应的调整学习区域。因此,当数据集结构复杂的情况下,现有的深度学习方法往往无法学习到清晰轮廓特征的图像边缘信息,因而面临无法精准高效地识别图像复杂纹理信息的问题。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于自适应空间模式的深度胶囊网络图像分类方法及系统,解决空间结构特征复杂的高光谱图像分类数据集分类精度不准确的问题。
本发明所采用的第一技术方案是:基于自适应空间模式的深度胶囊网络图像分类方法,包括以下步骤:
对训练用图像进行图像预处理,并构建训练集;
基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络;
获取待测图像并将待测图像输入训练完成的深度胶囊网络进行图像分类,得到图像分类结果;
所述深度胶囊网络包括ASPConvs模块、ASPCaps模块和全连接胶囊层。
进一步,所述对训练用图像进行图像预处理,并构建训练集这一步骤,其具体包括:
获取训练用的高光谱图像X∈RH×W×D;
基于主成分分析算法将数据降到d维,得到图像训练块Yk∈Rm×m×d;
结合图像训练块和对应的标签构建训练集
进一步,所述基于训练集进行适应空间单元深度胶囊网络的训练,得到训练完成的深度胶囊网络这一步骤,其具体包括:
将训练集输入到适应空间单元深度胶囊网络;
基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征;
基于ASPCaps模块对次高级图像特征进行胶囊分组和预测处理,重新提取得到高级语义特征。
基于全连接胶囊网络层对高级语义特征进行概率分类,得到分类结果。
进一步,所述基于ASPConvs模块对训练图像块进行卷积处理,提取得到次高级目标图像特征这一步骤,其具体包括:
给定训练图像块Yk,引入空洞卷积规则并自适应学习寻找采样位置;
基于采样位置提取得到次高级目标图像特征。
进一步,所述自适应学习寻找采样位置的表达式如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学;惠州市德赛西威汽车电子股份有限公司,未经中山大学;惠州市德赛西威汽车电子股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110032354.4/2.html,转载请声明来源钻瓜专利网。