[发明专利]基于位置意识U型网络的医学图像小目标检测方法及装置有效
申请号: | 202210777350.3 | 申请日: | 2022-07-04 |
公开(公告)号: | CN114842012B | 公开(公告)日: | 2022-10-25 |
发明(设计)人: | 边小勇;许和伟;李波;刘小明;邓鹤;顾进广;张晓龙 | 申请(专利权)人: | 武汉科技大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/194;G06T5/00 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 罗飞 |
地址: | 430081 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 位置 意识 网络 医学 图像 目标 检测 方法 装置 | ||
1.基于位置意识U型网络的医学图像小目标检测方法,其特征在于,包括:
获取医学图像数据集,并按预设比例划分为训练数据集和测试数据集;
对划分出的训练数据集中的图像进行预处理;
构建基于位置意识U型网络的医学图像小目标检测模型,该模型包括5个嵌入阈值的残差块模块、4个邻域差分对比模块和3个双分支注意力模块,其中,5个嵌入阈值的残差块模块为特征提取部分,三个双分支注意力模块为上采样部分,邻域差分对比模块与嵌入阈值的残差块模块、双分支注意力模块为平行连接关系,其中,嵌入软阈值的残差块模块用于对输入的图像进行去噪处理;邻域差分对比模块用于根据嵌入阈值的残差模块的输出进行小目标与背景的分离;双分支注意力模块用于根据邻域差分对比模块的输出进行小目标检测,得到检测结果;
利用预处理后的训练数据集对构建的医学图像小目标检测模型进行训练,通过最小化损失函数的方式对模型进行微调,将得到的最优检测模型作为训练好的医学图像小目标检测模型;
利用训练好的医学图像小目标检测模型对待检测图像进行小目标检测;
双分支注意力模块根据邻域差分对比模块的输出进行小目标检测的处理过程包括:
将高层特征进行双线性采样、逐点卷积后得到与低层特征具有相同的卷积核的特征,然后将与低层特征具有相同的卷积核的特征输入至多尺度通道注意力中,得到关注高层特征中的小目标后的特征;
将低层特征输入到多尺度通道注意力中,得到关注低层特征中的小目标后的特征;
根据关注高层特征中的小目标后的特征、关注低层特征中的小目标后的特征、低层特征以及改变后的高层特征得到融合后的特征,具体通过下述公式实现:
其中,M()表示是多尺度通道注意力机制,Conv表示逐点卷积操作,Up表示双线性上采样操作,和分别代表高层特征和低层特征,表示融合后的特征。
2.如权利要求1所述的基于位置意识U型网络的医学图像小目标检测方法,其特征在于,对划分出的训练数据集中的图像进行预处理,包括:
将输入图像的格式转换为CNN网络要求的lmdb格式;
将转换为lmdb格式的图像的尺寸缩放到CNN网络要求的输入大小。
3.如权利要求1所述的基于位置意识U型网络的医学图像小目标检测方法,其特征在于,嵌入软阈值的残差块模块的处理过程包括:
利用SE-Net算法学习输入特征的阈值,计算公式如下:
其中,S()表示Squeeze,为挤压操作,E()表示Excitation,为激发操作,x表示输入的特征,为元素乘法,T为学习到的阈值;
利用学习到的阈值对输入特征进行噪声去除,软阈值处理公式如下:
Sgn()表示获取输入特征x的正负号,Ƴ为一个可学习的尺度参数,初始化为1,Y为经过软阈值处理后的特征值。
4.如权利要求1所述的基于位置意识U型网络的医学图像小目标检测方法,其特征在于,邻域差分对比模块的处理过程包括:
设置不同的邻域大小,获取当前邻域的平均值,计算公式如下:
其中,是指以像素点(x, y)为中心的邻域大小为k的邻域的平均值,k为邻域的大小;、N、分别代表邻域像素点集合、邻域像素点数量和邻域内像素点(s, t)的像素值,m为最大的邻域大小的尺寸;
根据得到的各个邻域的平均值,更新像素点(x, y)位置的像素值,其过程如下:
其中,为更新后的像素点位置的像素值,为以像素点(x, y)为中心的邻域大小为1的邻域的平均值,为以像素点(x, y)为中心的邻域大小为m的邻域的平均值。
5.如权利要求1所述的基于位置意识U型网络的医学图像小目标检测方法,其特征在于,损失函数为组合损失,计算公式为:
其中,为软IoU损失,IOU为交并比,公式为:
表示双分支注意力模块得到的最终特征的像素值,表示标记好的小目标图像,(i,j)是指在图像上点的坐标;
为监督损失,公式为:
为二值交叉熵损失。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉科技大学,未经武汉科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210777350.3/1.html,转载请声明来源钻瓜专利网。