[发明专利]一种建立图像分类模型、图像特征分类的方法及装置在审
申请号: | 201810415090.9 | 申请日: | 2018-05-03 |
公开(公告)号: | CN108776805A | 公开(公告)日: | 2018-11-09 |
发明(设计)人: | 王宁;曹红杰;肖计划;刘军 | 申请(专利权)人: | 北斗导航位置服务(北京)有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 北京尚伦律师事务所 11477 | 代理人: | 段玉华 |
地址: | 100089 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 训练样本集 图像分类模型 图像特征 像元 类别标识 网络模型 卷积 分类 训练样本 准确度 卷积核 鲁棒性 重采样 预设 组像 算法 图像 | ||
本发明公开了一种建立图像分类模型、图像特征分类的方法及装置,用以提高图像特征分类的准确度和鲁棒性。所述建立图像分类模型方法,包括:利用bagging算法对已有的训练样本集进行重采样,得到T个训练样本集;其中,T为预设的训练样本集的总数;训练样本集包括像元和对应的类别标识;将每个训练样本集中的像元和对应的类别标识以组为单位,输入到初始的全卷积网络模型,得到T个训练后的全卷积网络模型;一组像元包含卷积核所定义的图像尺寸内的所有像元。
技术领域
本发明涉及计算机及通信技术领域,特别涉及一种建立图像分类模型、图像特征分类的方法及装置。
背景技术
随着遥感技术、模式识别和人工智能的发展,遥感影像分类研究取得快速发展。国内外学者提出多种遥感影像分类方法,如基于统计思想的最大似然法、基于机器学习的决策树法、随机森林法、支持向量机法以及BP(back propagation,后向传播)神经网络法等。相对于传统的统计方法,机器学习方法能获得更优的分类结果。但是无论是支持向量机还是BP神经网络都是属于浅层学习方法,随着样本数量的增加以及样本多样性的增强,浅层模型逐渐不适应复杂的遥感影像分类。深度学习技术的发展为遥感影像分类开辟了新的途径。深度学习作为神经网络的发展,通过建立深层的模型把原始遥感影像转变为更高层次、更加抽象的表达,从而提升分类的精度,相比前述的几种方法表现出较高的优越性。理论上模型层数越多,其结构也复杂,分类结果也精确,但是带来较长的模型训练时间。
发明内容
本发明提供一种建立图像分类模型、图像特征分类的方法及装置,用以提高图像特征分类的准确度和鲁棒性。
本发明提供一种建立图像分类模型的方法,包括:
利用bagging算法对已有的训练样本集进行重采样,得到T个训练样本集;其中,T为预设的训练样本集的总数;训练样本集包括像元和对应的类别标识。
将每个训练样本集中的像元和对应的类别标识以组为单位,输入到初始的全卷积网络模型,得到T个训练后的全卷积网络模型;一组像元包含卷积核所定义的图像尺寸内的所有像元。
本发明的实施例提供的技术方案可以包括以下有益效果:本实施例中,利用bagging算法在每个训练样本集中增加部分像元的偏重。T个训练样本集中偏重的部分像元不同,从而训练得到T个全卷积网络模型,用于图像分类。本实施例得到多个全卷积网络模型,有助于后续分类更准确。
可选的,所述将每个训练样本集中的像元和对应的类别标识以组为单位,输入到初始的全卷积网络模型,得到T个训练后的全卷积网络模型,包括:
将每个训练样本集中的像元和对应的类别标识以组为单位,输入到初始的全卷积网络模型;
通过所述全卷积网络模型,对每组像元进行至少两次的卷积和池化处理,再进行一次反卷积处理,得到T个训练后的全卷积网络模型。
本发明的实施例提供的技术方案可以包括以下有益效果:本实施例进行多次卷积和池化处理,使分类结果多次迭代、聚合,提高全卷积网络模型的准确度。
可选的,所述方法还包括:
在利用bagging算法对已有的训练样本集进行重采样之前,对所述训练样本集进行预处理;所述预处理至少包括下列之一:辐射校正、几何校正、正射校正、图像镶嵌和裁剪。
本发明的实施例提供的技术方案可以包括以下有益效果:本实施例预先对训练样本集进行预处理,以减少图像的变形和其它干扰因素的影响,使图像更贴近标准化,有助于提高训练全卷积网络模型的准确度。
本发明提供一种图像特征分类的方法,包括:
将待分类图像中的像元以组为单位,输入到预先建立的T个全卷积网络模型,得到T组一级分类结果;一组像元包含卷积核所定义的图像尺寸内的所有像元;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北斗导航位置服务(北京)有限公司,未经北斗导航位置服务(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810415090.9/2.html,转载请声明来源钻瓜专利网。