[发明专利]提高电阻抗成像准确性的方法、系统、装置和存储介质在审
| 申请号: | 202110987158.2 | 申请日: | 2021-08-26 |
| 公开(公告)号: | CN113808230A | 公开(公告)日: | 2021-12-17 |
| 发明(设计)人: | 徐向民;郑慧敏;花浩镪;熊奇伟 | 申请(专利权)人: | 华南理工大学 |
| 主分类号: | G06T11/00 | 分类号: | G06T11/00;G06N3/04;G06N3/08;G06K9/62;A61B5/00;A61B5/0536 |
| 代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 郑宏谋 |
| 地址: | 510641 广*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 提高 阻抗 成像 准确性 方法 系统 装置 存储 介质 | ||
1.一种提高电阻抗成像准确性的方法,其特征在于,包括以下步骤:
输入电流信息,采集电压信息,根据所述电流信息和所述电压信息获取电导率信息;
根据所述电导率信息构建获得电导率图像;
将电导率图像输入预设的神经网络进行图像重建,输出重建区域以及置信度;
在不同时间上依次输入n次电流信息后,获得n个重建区域以及与重建区域对应的置信度;
根据置信度获取最优的重建区域作为最终的电阻抗成像结果。
2.根据权利要求1所述的一种提高电阻抗成像准确性的方法,其特征在于,所述置信度通过以下方式获得:
获取经过所述神经网络中的softmax函数,将输出中的最大值作为置信度。
3.根据权利要求1所述的一种提高电阻抗成像准确性的方法,其特征在于,所述神经网络为分类模型,所述分类模型的分类结果的表达式为:
P,C=F(I,θ),∑pi=1 C∈(0,1)
其中,pi代表分类的概率;C代表神经网络输出的置信度,用于表征对分类结果的把握度;pi通过神经网络最后一层softmax函数得到。
4.根据权利要求3所述的一种提高电阻抗成像准确性的方法,其特征在于,所述置信度通过以下方式获得:
在神经网络中设置一条置信度路径,以及根据置信度路径设置损失函数Lc;
将损失函数Lc与神经网络的原始损失Ls进行结合,获得总损失函数;
采用总损失函数对神经网络进行训练,并在训练后,获取损失函数Lc的值作为置信度;其中,当神经网络输出的重建区域正确时,损失函数Lc的值近于0;当神经网络输出的重建区域错误时,损失函数Lc的值近于1。
5.根据权利要求4所述的一种提高电阻抗成像准确性的方法,其特征在于,在神经网络中添加置信度路径后,神经网络输出的表达式如下:
p′=C*p+(1-C)*Y
其中,Y为目标分类结果;C代表神经网络输出的置信度;利用交叉熵损失函数计算原始损失Ls;
损失函数Lc的计算公式如下:
Lc=sigmoid(-log(C))
当置信度趋近于1时,损失函数Lc的值近于0;当置信趋近于0时,损失函数Lc的值近于1。
6.根据权利要求1所述的一种提高电阻抗成像准确性的方法,其特征在于,所述根据置信度获取最优的重建区域作为最终的电阻抗成像结果,包括:
获取最大的置信度对应的重建区域作为最终的电阻抗成像结果。
7.根据权利要求1所述的一种提高电阻抗成像准确性的方法,其特征在于,所述根据置信度获取最优的重建区域作为最终的电阻抗成像结果,包括:
将n个置信度进行降序排列,获取前m个置信度以及m个置信度对应的重建区域;
获取m个重建区域之间交叉的区域,作为重叠区域;
获取包含最多重叠区域面积对应的重建区域,作为最终的电阻抗成像结果。
8.一种提高电阻抗成像准确性的系统,其特征在于,包括:
信息采集模块,用于输入电流信息,采集电压信息,根据所述电流信息和所述电压信息获取电导率信息;
构图模块,用于根据所述电导率信息构建获得电导率图像;
图像重构模块,用于将电导率图像输入预设的神经网络进行图像重建,输出重建区域以及置信度;
重复构图模块,用于在不同时间上依次输入n次电流信息后,获得n个重建区域以及与重建区域对应的置信度;
图像选择模块,用于根据置信度获取最优的重建区域作为最终的电阻抗成像结果。
9.一种提高电阻抗成像准确性的装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现权利要求1-7任一项所述方法。
10.一种存储介质,其中存储有处理器可执行的程序,其特征在于,所述处理器可执行的程序在由处理器执行时用于执行如权利要求1-7任一项所述方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110987158.2/1.html,转载请声明来源钻瓜专利网。





