[发明专利]基于场景标签约束深度网络的遥感影像多类目标检测方法在审
| 申请号: | 201811621987.3 | 申请日: | 2018-12-28 |
| 公开(公告)号: | CN109766938A | 公开(公告)日: | 2019-05-17 |
| 发明(设计)人: | 李彦胜;李鑫伟;张永军 | 申请(专利权)人: | 武汉大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62 |
| 代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 王琪 |
| 地址: | 430072 湖*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明公开了一种基于场景标签约束深度网络的遥感影像多类目标检测方法,目的是为了现有方法仅适用于自然场景图象,不能有效地推广到遥感图像目标检测中,同时解决现有方法不能简单的由单一类别推广到多类目标识别等问题。本发明提出的弱监督深度网络,利用了场景对之间的相似性,仅仅使用场景标签进行网络的训练,大大降低了训练目标识别网络的标记成本。同时利用重采样和滑动窗口,使本发明更加适用于遥感图像的目标识别。 | ||
| 搜索关键词: | 多类目标 网络 遥感图像 遥感影像 标签 场景 标记成本 滑动窗口 目标检测 目标识别 使用场景 训练目标 自然场景 有效地 重采样 检测 图象 监督 | ||
【主权项】:
1.一种基于场景标签约束深度网络的遥感影像多类目标检测方法,其特征在于,包括以下步骤:步骤1,首先设遥感影像数据集为{(Ii,yi)|i=1,2,...,N},其中Ii表示遥感影像,yi表示影像包含的对象类别标记,计算影像数据集中的相似性矩阵Θ1∈RN×N,其中如果两幅影像标签相同
反之则
步骤2,在训练阶段的阶段一,构建学习网络Ψ={C,Γ),其中C表示卷积权值,Γ表示阶段一中全连接层的参数,全连接层输入是卷积层最后一层的特征经过分解得到的向量;步骤3,根据相似性计算函数,计算属于同一类别的影像经过学习网络Ψ={C,Γ)后两两之间的相似性;步骤4,选取合适的阶段一损失函数,利用后向传播更新全部学习网络参数Ψ={C,Γ)步骤5,重复步骤3‑4直到达到迭代次数;步骤6,在训练阶段的阶段二,构建另一个学习网络P={C,W},固定阶段一中学习的卷积权值C,将其作为卷积层的参数,即P网络与Ψ网络的卷积权值是一致的,卷积层的输出为
其中k表示通道数,i表示是第i幅影像,(x,y)表示影像的行列数;对
进行全局池化操作,得到Ti,Ti是一个向量,
是向量第k维的值;步骤7,网络P中的
是一层新的全连接层,即阶段二中的类激活权值,其中c表示权值连接的类别,k表示输入向量的通道数,全连接层W的输入是步骤6中的Ti;步骤8,选取合适的阶段二损失函数,利用后向传播更新全部网络参数P={C,W};步骤9,在测试阶段,构建新的网络Ω={C,W},该网络通过去掉学习网络P={C,W}中的全局池化操作得到,经过对每一幅影像Ii重采样建立影像金字塔
步骤10,设置一个窗口在影像
上滑动作为网络Ω={C,W}的输入,经过镶嵌和重采样得到不同分辨率影像的CAM
和包含目标的类别概率
对各个分辨率影像的CAM和概率进行融合,得到每幅影像的
和类别概率p(y=c|Ii),其中CAM即类激活响应图像(class‑specific activation maps);步骤11,在步骤10得到的CAM和类别概率基础上,进行影像分割,得到目标的位置和边框。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201811621987.3/,转载请声明来源钻瓜专利网。





