[发明专利]一种基于非局部邻关系学习的深度神经网络层次分析方法在审
申请号: | 202011515028.0 | 申请日: | 2020-12-21 |
公开(公告)号: | CN112598115A | 公开(公告)日: | 2021-04-02 |
发明(设计)人: | 蒋雯;肖陶;黄凯;耿杰;邓鑫洋 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 710072 陕西*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 局部 关系 学习 深度 神经网络 层次 分析 方法 | ||
本发明公开了一种基于非局部邻关系学习的深度神经网络层次分析方法,包括以下步骤:构建待分析的深度神经网络;输入数据集样本,获取深度网络相邻两层的特征图样本对;利用空间金字塔池化网络对相邻层特征图样本对进行变换组合;将变换后的相邻层特征图样本对输入孪生变分自编码器,训练非局部邻关系学习模型;利用训练好的非局部邻关系学习模型获得相邻层特征图样本对的隐空间向量对;利用同一样本的所有隐空间向量对计算深度网络在该样本识别时的各层级贡献度,进而计算所有样本的平均层级贡献度。本发明提出的非局部邻关系学习方法,可以在不影响深度网络本身决策的前提下进行层次化分析,并且可以应用于不同的深度神经网络模型。
技术领域
本发明属于深度神经网络可解释性研究领域,具体涉及一种基于非局部邻关系学习的深度神经网络层次分析方法。
背景技术
由于训练数据规模的增大、硬件计算能力的提升以及相关算法的不断创新等原因,以深度学习为主的人工智能技术取得了突破性的进展。深度学习已经成功运用在自然语言、多媒体、计算机视觉等领域。
然而,深度学习网络具有黑盒特性,其透明性、可解释性、可信性不足。而在医疗诊断、智能决策、无人驾驶等安全攸关领域,利用深度学习进行决策时,往往需要知晓算法所给出结果的依据。因此,透明化深度学习的“黑盒子”,使其具有可解释性,具有重要意义。
目前研究人员在关于深度学习透明性、可理解性以及可解释性问题上已经取得了一些进展,不同的学者解决问题的角度不同,对可解释性赋予的含义也不同,所提出的解释方法也各有侧重。但是该领域依然有许多科学问题尚待解决,其中之一便是深度神经网络层次规模庞大导致网络难以分析的问题。
发明内容
本发明所要解决的技术问题在于针对上述现有技术的不足,提供一种基于非局部邻关系学习的深度神经网络层次分析方法,解决深度神经网络层次规模庞大导致网络难以分析的问题,增强深度神经网络的可解释性,帮助理解深度神经网络模型,提高深度学习算法的可信性。
为解决上述技术问题,本发明采用的技术方案是:一种基于非局部邻关系学习的深度神经网络层次分析方法,其特征在于,包括以下步骤:
步骤一、构建待分析的深度神经网络:
步骤101、构建待分析的某一深度神经网络的模型架构;
步骤102、利用某一数据集对构建的深度神经网络模型进行训练,获得训练好的网络权重;
步骤二、输入数据集样本,获取深度网络相邻两层的特征图样本对:
步骤201、将数据集样本依次输入到待分析的深度神经网络,获得样本在待分析网络各中间隐藏层所对应的特征图;
步骤202、同一输入样本在待分析网络相邻两层输出的特征图组成一个相邻层特征图样本对,若输入样本为n个,待分析网络共选定l个中间层,则最终获取共n×(l-1)个相邻层特征图样本对;
步骤三、利用空间金字塔池化网络对相邻层特征图样本对进行变换组合:
步骤301、将相邻层特征图样本对(Xi-1,Xi)依次输入k个不同尺度的自适应池化层进行特征变换,得到k个不同尺度池化后输出的样本对(Xi-1,Xi)1,(Xi-1,Xi)2,…,(Xi-1,Xi)k,同一输出样本对中的两个样本的数据尺寸相同。这k个输出样本对的样本,在数据的通道维度上尺寸相同,尺寸记为c,在数据的高、宽两个维度上尺寸不同,尺寸分别记为h1,h2,…,hk、w1,w2,…,wk;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011515028.0/2.html,转载请声明来源钻瓜专利网。