[发明专利]基于改进的交叉熵损失函数的遥感图像目标检测方法有效

专利信息
申请号: 202011462894.8 申请日: 2020-12-10
公开(公告)号: CN112528862B 公开(公告)日: 2023-02-10
发明(设计)人: 李阳阳;史雯熙;何爱媛;焦李成;尚荣华;马文萍;李玲玲 申请(专利权)人: 西安电子科技大学
主分类号: G06V20/10 分类号: G06V20/10;G06V10/25;G06V10/82;G06N3/0464;G06N3/08
代理公司: 陕西电子工业专利中心 61205 代理人: 陈宏社;李勇军
地址: 710071*** 国省代码: 陕西;61
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 改进 交叉 损失 函数 遥感 图像 目标 检测 方法
【权利要求书】:

1.一种基于改进的交叉熵损失函数的遥感图像目标检测方法,其特征在于,包括如下步骤:

(1)获取训练样本集和测试样本集:

从遥感图像数据集中获取包含C种目标类别共N幅带标签的遥感图像,每幅遥感图像至少包含一个目标,并对每个目标类别进行独热编码,将真实的目标类别编码为1,其他的目标类别编码为0;并将N幅带标签的遥感图像中的m幅图像作为训练样本集,将其余带标签的遥感图像作为测试样本集,C≥2,N≥200,

(2)构建基于改进的交叉熵损失函数的遥感图像目标检测模型:

(2a)构建基于Faster R-CNN的遥感图像目标检测模型:

构建包括依次级联的特征提取子网络、区域生成子网络、ROI Align池化层和分类定位子网络;其中,特征提取子网络包括多个级联的特征提取模块,每个特征提取模块包含依次连接的多个卷积层-ReLU层和一个最大池化层;区域生成子网络包括依次连接的卷积层-ReLU层、并行连接的第一分类子网络和包含一个卷积层的第一定位模块、proposal层;第一分类子网络包括依次连接的卷积层、reshape层、softmax层、reshape层;分类定位子网络包括依次连接的全连接层、并行连接的第二分类子网络和包含一个全连接层的第二定位模块,第二分类子网络包括级联的全连接层和softmax层;

(2b)定义改进的交叉熵损失函数FL:

FL=FLcls1(pi)+Lreg1(d1'i,d1i)+FLcls2(pc)+Lreg2(d'2k,d2k)

FLcls1(pi)=-(1-pi)γlog(pi),i∈I

FLcls2(pc)=-(1-pc)γlog(pc),c∈C

其中,FLcls1(pi)表示第一分类子网络的改进的交叉熵损失函数,Lreg1(d’1i,d1i)表示第一定位模块的损失函数,FLcls2(pc)表示第二分类子网络的改进的交叉熵损失函数,Lreg2(d'2k,d2k)表示第二定位模块的损失函数;pi表示在FLcls1(pi)中由第一分类子网络生成并筛选的第i个候选框A1i中的内容为目标的概率,i∈I,I为A1i的个数;pc表示在FLcls2(pc)中由第二分类子网络中第k个候选框A2k中的目标为第c类的概率,c∈C,k∈K,K为非极大值抑制中设置的候选框个数,K≤I;(1-pi)γ和(1-pc)γ表示调制因子,γ表示指数参数;d’1i表示A1i的预测偏移量,d’1i=[d’1ix,d’1iy,d’1iw,d’1ih],d’1ix和d’1iy分别表示A1i的中心位置坐标在x轴和y轴的预测偏移量,d’1iw和d’1ih分别表示A1i在宽和高上的预测偏移量;A1i=[A1ix,A1iy,A1iw,A1ih],A1ix和A1iy分别表示A1i的中心位置坐标在x轴和y轴的值,A1iw和A1ih分别表示A1i的宽和高;d1i表示A1i的真实偏移量,d1i=[d1ix,d1iy,d1iw,d1ih],d1ix和d1iy分别表示A1i的中心位置坐标在x轴和y轴的真实偏移量,d1iw和d1ih分别表示A1i在宽和高上的真实偏移量;d'2k表示A2k的预测偏移量,d'2k=[d'2kx,d'2ky,d'2kw,d'2kh],d'2kx和d'2ky分别表示A2k的中心位置坐标在x轴和y轴的预测偏移量,d'2kw和d'2kh分别表示A2k在宽和高上的预测偏移量;A2k=[A2kx,A2ky,A2kw,A2kh],A2kx和A2ky分别表示A2k的中心位置坐标在x轴和y轴的值,A2kw和A2kh分别表示A2k的宽和高;d2k表示A2k的真实偏移量;d2k=[d2kx,d2ky,d2kw,d2kh],d2kx和d2ky分别表示A2k中心位置坐标在x轴和y轴的真实偏移量,d2kw和d2kh分别表示A2k在宽和高上的真实偏移量;smoothL1(x)为平滑损失函数;

(3)对基于改进的交叉熵损失函数的遥感图像目标检测模型进行迭代训练:

(3a)初始化基于Faster R-CNN的遥感图像目标检测模型的网络参数θ,迭代次数为t,最大迭代次数为T,T=20,并令t=0;

(3b)将训练样本集作为遥感图像目标检测模型的输入进行前向传播,特征提取子网络对每个训练样本进行特征提取,得到特征图集合f={f1,f2,...,fq,...,fm},其中fq表示第q个训练样本对应的大小为a×b的特征图,q∈m,每个特征图中的每个像素点对应训练样本中的一个区域;

(3c)区域生成子网络生成预测候选框坐标:

(3c1)以fq中每个像素点为中心,生成该像素点的9种初始候选框,得到fq的9×a×b个初始候选框,并计算每个初始候选框A0i与每个真实框Gr之间的交集与并集的比值IoU,Gr表示第r个真实框,r∈R,R表示真实框的个数,R≤I,再根据IoU对所有初始候选框进行筛选,将所筛选的多个初始候选框作为候选框A1i,筛选规则为:当IoU>0.7时,初始候选框包含有目标,标记为1;当IoU<0.3时,初始候选框不包含有目标,标记为0;舍弃0.3<IoU<0.7时的初始候选框;当真实框Gr没有与之对应的初始候选框的IoU>0.7时,将与真实框Gr的IoU最大的框也标记为1;

(3c2)区域生成子网络中的卷积层-ReLU层对每个筛选后的候选框A1i进行特征提取,得到特征图集合f'={f1',f2',...,fq',...,fm'};

(3c3)第一分类子网络根据特征图集合f'={f1',f2',...,fq',...,fm'}计算每个候选框A1i含有目标的概率pi;第一定位模块根据特征图集合f'={f1',f2',...,fq',...,fm'}计算候选框A1i的预测偏移量d1i和预测候选框坐标[A’1ix,A’1iy,A’1iw,A’1ih];

(3c4)proposal层采用非极大值抑制方法,选取所有候选框中含有目标的概率得分pi排名前K个候选框,其中每个候选框坐标为[A2kx,A2ky,A2kw,A2kh],k∈K;

(3d)ROI Align池化层将前K个候选框的每个候选框的坐标值A2kx,A2ky,A2kw,A2kh分别缩小16倍,映射到特征图fq的对应位置得到K个感兴趣区域;将每个感兴趣区域划分为相同大小的7×7的子图;对每个子图进行最大池化操作,得到统一尺度的K个感兴趣区域;

(3e)分类定位子网络的全连接层将统一尺度的K个感兴趣区域提取特征,得到特征图集合f”={f1”,f2”,...,fq”,...,fK”};第二分类子网络通过f”={f1”,f2”,...,fq”,...,fK”}计算每个候选框内目标的预测类别pc,同时第二定位模块通过f”={f1”,f2”,...,fq”,...,fK”}计算候选框的精确坐标[Akx,Aky,Akw,Akh];

(3f)采用第一分类子网络的改进的交叉熵损失函数FLcls1(pi),通过pi计算自己的损失值FLcls1,采用第一定位模块的损失函数Lreg1(d’1i,d1i),通过d’1i和d1i计算自己的损失值Lreg1,采用第二分类子网络的改进的交叉熵损失函数FLcls2(pc),通过pc计算自己的损失值FLcls2,采用第二定位模块的损失函数Lreg2(d'2k,d2k),通过d'2k和d2k计算自己的损失值Lreg2,再采用反向传播方法,通过FLcls1、Lreg1、FLcls2和Lreg2计算遥感图像目标检测模型参数梯度,然后采用梯度下降算法,通过遥感图像目标检测模型参数梯度对网络参数θ进行更新;

(3g)判断t=T是否成立,若是,得到训练好的基于改进的交叉熵损失函数的遥感图像目标检测模型,否则,令t=t+1,并执行步骤(3b);

(4)获取遥感图像目标的检测结果:

将测试样本集作为训练好的基于改进的交叉熵损失函数的遥感图像目标检测模型的输入进行检测,得到每个目标的类别和边界框四个顶点坐标。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202011462894.8/1.html,转载请声明来源钻瓜专利网。

同类专利
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top