[发明专利]一种基于前向相关性的one-shot脑图像分割方法在审
| 申请号: | 202011182475.9 | 申请日: | 2020-10-29 |
| 公开(公告)号: | CN112308834A | 公开(公告)日: | 2021-02-02 |
| 发明(设计)人: | 王连生 | 申请(专利权)人: | 厦门大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06K9/34;G06N3/04;G06N3/08 |
| 代理公司: | 厦门致群财富专利代理事务所(普通合伙) 35224 | 代理人: | 刘兆庆 |
| 地址: | 361000 福建*** | 国省代码: | 福建;35 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 相关性 one shot 图像 分割 方法 | ||
本发明公开了一种基于前向相关性的one‑shot脑图像分割方法,其包括以下步骤:S1、获取有标注图像和未标注图像y;S2、将有标注图像进行预处理并划分为图集x;S3、构建SiamENet模型,图集x及未标注图像y输入孪生编码器模块得到相关特征图;S4、双注意模块接收孪生编码器模块的相关特征图,融合图集x和未标注图像y的特征,得到融合特征;S5、将融合特征输送给解码器模块,解码器模块将相关特征图和融合特征进行融合,得到前向映射Δp;S6、图集x和前向映射Δp分别通过warp操作,得到重建图像和有标注重建图像本发明通过计算机视觉学习,进行映射建模,在现有的有标注图像基础上,学习图像的分割标签,提高了效率。
技术领域
本发明涉及医学图像分割技术领域,尤其涉及一种基于前向相关性的one-shot脑图像分割方法。
背景技术
脑解剖结构分割的常用方法有通过传统机器学习分割,但传统机器学习依赖于手工提取的特征,而这些特征具有有限的特征表示能力和泛化能力,于是开发了卷积神经网络(CNN)学习,因为其完全由数据驱动,并且可以利用自学的高级特征自动检索分层特征,消除了传统机器学习方法中手工特征的局限性,借助充分的标注数据,卷积神经网络在全监督的分割任务中具有较好的效果,但在获得医学图像的3D分割标签需要大量的时间和专业知识,在临床中难以获得。
发明内容
本发明的目的在于提供一种基于前向相关性的one-shot脑图像分割方法,通过计算机视觉学习,将有标注图像到未标注图像进行映射建模,在现有的有标注图像的图集x基础上,学习医学图像的3D分割标签,避免花费大量的时间,提高了效率。
为实现上述目的,本发明采用以下技术方案:
一种基于前向相关性的one-shot脑图像分割方法,包括以下步骤:
S1、获取脑解剖结构图像并进行分类,得到有标注图像和未标注图像y;
S2、将有标注图像进行预处理并划分为图集x;
S3、构建SiamENet模型,SiamENet模型包括孪生编码器模块、双注意模块、解码器模块及损失函数模块,图集x及未标注图像y组成一组数据对并输入孪生编码器模块,分流处理得到这组数据的相关特征图;
S4、双注意模块接收孪生编码器模块的相关特征图,并捕捉相关特征图的局部特征及全局特征,融合图集x和未标注图像y的特征,得到融合特征;
S5、将融合特征输送给解码器模块,解码器模块同时接收孪生编码器模块分流处理得到的相关特征图和双注意模块的融合特征,将相关特征图和融合特征进行融合,配合损失函数模块约束得到图集x到未标注图像y的前向映射Δp;
S6、图集x通过warp操作,得到重建图像将前向映射Δp通过warp操作应用在图集x的标注上,配合损失函数模块得到有标注重建图像
进一步地,所述孪生编码器模块包括若干个用于学习图像浅层特征的编码子模块,通过编码子模块分流处理图集x和未标注图像y,将处理得到的结果进行特征融合后得到相关特征图,输入双注意模块,通过双注意模块分别学习相关特征图空间和通道的信息并传输给解码器模块。
进一步地,所述编码子模块具有5个分别为第一编码子模块、第二编码子模块、第三编码子模块、第四编码子模块及第五编码子模块组成处理流,孪生编码器具有2个处理流,每个处理流具有4个编码子模块,2个处理流同时连接第五编码子模块,第五编码子模块与双注意模块相连接。
进一步地,所述双注意模块包括空间注意模块及通道注意模块,分别在空间维度和通道维度上捕捉信息,将空间注意模块与通道注意模块的结果相加,得到新的特征图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学,未经厦门大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011182475.9/2.html,转载请声明来源钻瓜专利网。





