[发明专利]一种基于多层面领域自适应技术的无监督脑出血分割方法在审
| 申请号: | 202010659486.5 | 申请日: | 2020-07-10 |
| 公开(公告)号: | CN111951220A | 公开(公告)日: | 2020-11-17 |
| 发明(设计)人: | 李建强;董大强;付光晖;吴敬怡 | 申请(专利权)人: | 北京工业大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/10 |
| 代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 刘萍 |
| 地址: | 100124 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 多层 领域 自适应 技术 监督 脑出血 分割 方法 | ||
一种基于多层面领域自适应技术的无监督脑出血分割方法涉及计算机处理技术领域。本发明用基于语义保留机制的图像合成网络,通过多重语义保留机制,包括对合成目标域图像的语义保留,对循环生成源域图像的语义保留,以及对输入图像的适配机制,保留针对于具体分割任务的重点区域的语义特征;采用基于领域自适应机制的图像分割网络,来优化CT脑出血分割任务的语义分割效果。
技术领域
本发明涉及计算机处理技术领域,尤其涉及一种基于多层面领域自适应技术的无监督脑出血分割方法。
背景技术
图像语义分割是计算机视觉领域中一项重要的研究内容,其目标是将图像分割成具有不同语义信息的区域,并且标注每个区域相应的语义标签,例如通过对一幅路况街景图像进行图像语义分割后可为图像中的物体添加语义标签(譬如道路、汽车、行人、树木、交通灯等)。
随着人工智能识别技术的发展,基于深度学习的卷积神经网络(CNN)已经引起了广泛的关注,并应用于图像语义分割领域,以FCN为代表的图像语义分割网络在各个领域取得了广泛的成效。
脑出血(intracerebral hemorrhage)是指非外伤性脑实质内血管破裂引起的出血,占全部脑卒中的20%~30%,急性期病死率为30%~40%。快速判断出血范围、早期医疗管理和神经外科处理对于促进患者康复至关重要
检查脑出血范围,医生通常基于头颅CT影像进行判断,考虑到脑出血诊断结果的客观性、可重复性、准确性以及紧迫性的需求,临床上对脑出血区域的自动检测以及定量分析提出来迫切要求。因此,采取有效的方法自动提取出血区域,有助于对出血严重性的的快速、定量的判断,在临床上具有十分重要的应用价值。然而获取具有良好泛化性能的分割模型通常需要在监督学习的情况下完成,这需要规模庞大且专业的数据标注,因此需要提出一种在无监督学习的情况下进行CT影像脑出血区域提取的方法。
已有的基于合成虚拟图像技术的无监督分割方法,首先合成目标域影像,之后利用现有数据的标签,分割模型通过无监督学习或半监督学习的领域自适应方法进行训练,其基本思想是通过拉近数据的边缘分布,来适应不同领域的预测,合成目标域影像的方法大致有基于人工定义的度量和基于生成对抗网络两种。然而,其合成目标域影像的方法存在着以下不足之处:对于基于人工度量的合成方法,合成目标域影像高度依赖于预训练网络提取的特征,以及手工定义的风格度量;保留源域语义信息的方法,基于对隐层表示的度量,属于一种间接方法,没有针对性地对语义分割问题做出改进。对于基于生成对抗网络的合成方法如直接应用cycleGAN,合成目标域影像通常会丢失分割任务中必要的语义信息。
考虑到MRI(核磁共振成像)脑肿瘤图像与CT脑出血图像在语义方面的相似性,本发明采用已有的MRI脑肿瘤分割公开数据作为源域数据。
发明内容
本发明提出一种基于多层面领域自适应技术的脑出血分割方法。采用基于语义保留机制的图像合成网络,通过多重语义保留机制,包括对合成目标域图像的语义保留,对循环生成源域图像的语义保留,以及对输入图像的适配机制,保留针对于具体分割任务的重点区域的语义特征;采用基于领域自适应机制的图像分割网络,来优化CT脑出血分割任务的语义分割效果。
为实现上述目的,本发明采用一种如下的技术方案:
一种基于多层面领域自适应技术的脑出血分割方法,用于构建并训练基于语义保留机制的脑CT图像合成网络以及基于领域自适应机制的脑出血分割网络。
上述方法包括以下步骤:
S1:构建基于语义保留机制的脑CT图像合成网络以及基于领域自适应机制的脑出血分割网络
S11:基于语义保留机制的脑CT合成网络包括两个生成器,两个鉴别器以及一个语义保留模块,进一步,语义保留模块包含两个语义分割子网络以及一个相似图像选取模块。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010659486.5/2.html,转载请声明来源钻瓜专利网。





