[发明专利]一种基于可信网络的目标识别联邦深度学习方法有效
| 申请号: | 202110394016.5 | 申请日: | 2021-04-13 |
| 公开(公告)号: | CN112949837B | 公开(公告)日: | 2022-11-11 |
| 发明(设计)人: | 杨娟;郑艺泽 | 申请(专利权)人: | 中国人民武装警察部队警官学院 |
| 主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06K9/62 |
| 代理公司: | 重庆晟轩知识产权代理事务所(普通合伙) 50238 | 代理人: | 王海凤 |
| 地址: | 610213 四川省成都*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 可信 网络 目标 识别 联邦 深度 学习方法 | ||
本发明公开了一种基于可信网络的目标识别联邦深度学习方法,该方法中主要由局部模型和联邦模型两部分组成。局部模型和联邦模型的结构相同,并采用相同的优化算法(如亚当Adam优化器)、传递训练参数(如学习率η,神经网络权重w、损失函数E等)对局部模型和联邦模型进行训练,局部模型和联邦模型采用联邦学习的方式,联合训练一个卷积神经网络,各客户端的训练数据均在本地,“数据不动模型动”。本发明方法的识别精度最高可达到91%,具有识别精度高、收敛速度快的特点。通过本发明方法,可解决跨各个客户端领域数据融合难、决策反应时间长等问题,缩短了决策的时间,最终可实现快速应对的效果。
技术领域
本发明涉及移动通信技术领域,特别涉及一种基于可信网络的目标识别联邦深度学习方法。
背景技术
目标识别是指一个特殊目标或一种类型的目标从其它目标或其它类型的目标中被区分出来的过程。它既包括两个非常相似的目标的识别,也包括一种类型的目标同其他类型目标的识别。目标识别广泛应用于生产生活的各个领域。高精度的目标识别算法通常建立在针对大量数据的学习训练之上。然而,在当前的法律环境下,在不同组织间收集和分享数据变得越来越困难,尤其是那些高度敏感的数据(金融交易、医疗健康数据等),处于保护隐私和数据安全的考虑,数据拥有方很容易形成各自独立的数据孤岛。再者,由于各方共享数据的益处不明显,也使得各方贡献数据以共同训练高精度目标识别模型举步维艰。
随着信息技术的发展,可信网络得到广泛应用,可以在保证数据安全的前提下,将处于不同部门的数据孤岛连接到同一个可信网络中。如在航运领域的可信网络可以实时获取其中各平级部门的货运数据,以保证跨组织交易的数据真实安全;在健康医疗领域的可信网络可以实现患者医疗健康数据在联盟医院内有效、快速、安全共享,从而提高患者的治疗效率。在银行保险领域,可信网络可以使具有权限的从业人员快速从本系统内各平级公司获取相应的信用数据,对不同的客户和机构进行评估,然后快速的生成一个新的业务合同,从而提高银行保险的整体效率。
为达到高精度识别效果,基于深度学习的目标识别技术需要大量的图像数据。而目前各领域中由于数据量有限,不足以支撑深度学习模型进行高精度训练;同时目前各个领域的管理体制不同,开发的信息系统不同,使得其数据源之间难以跨域共享交换,导致当前各个系统数据在某种意义上成为越来越多的“数据孤岛”。若要在各个系统之间完全统一数据标准,统一进行数据融合处理及应用,工作量将非常巨大。为此,如何消除各个系统间数据壁垒,进行数据融合应用,成为数据融合应用难题的关键。
发明内容
针对现有技术存在的上述问题,本发明的要解决的技术问题是:如何充分利用各“数据孤岛”里的数据资源,构建出基于可信网络的高精度的目标识别模型的问题。
为解决上述技术问题,本发明采用如下技术方案:一种基于可信网络的目标识别联邦深度学习方法,包括如下步骤:
S100:设有K个客户端,对每个客户端构建一个局部模型并对局部模型进行训练,所述K个客户端对应的局部模型结构均相同;
S110:所述局部模型是基于传统CNN进行改进而设计的,具体结构为:
前六层由卷积层和最大池化层交替组成;
第七层是flatten展平层,将输入张量减少一个维度,完成将二维平面数据转变为一维;
第八层是dropout正则化层,通过在每次训练中随机地删除部分神经元来减少模型的过拟合,使用dropout后,相当于减少了网络参数;
第九层是包含32个神经元的简单全连接层,激活函数采用ReLU;
第十层输出层是全连接层,由5个神经元组成,激活函数为Softmax;
S120:训练局部模型
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民武装警察部队警官学院,未经中国人民武装警察部队警官学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110394016.5/2.html,转载请声明来源钻瓜专利网。





