[发明专利]一种去中心化的终端节点网络模型训练方法及系统有效
申请号: | 202210154923.7 | 申请日: | 2022-02-21 |
公开(公告)号: | CN114519306B | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 郁磊 | 申请(专利权)人: | 山西大学 |
主分类号: | G06F30/27 | 分类号: | G06F30/27;G06F119/02 |
代理公司: | 北京高沃律师事务所 11569 | 代理人: | 杜阳阳 |
地址: | 030006 山*** | 国省代码: | 山西;14 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 中心 终端 节点 网络 模型 训练 方法 系统 | ||
1.一种去中心化的终端节点网络模型训练方法,其特征在于,所述终端节点网络模型训练方法包括:
各终端节点根据自身本地数据集对各自的本地网络模型进行训练;所述本地网络模型包括隐私层和共享层;
任一终端节点与其余终端节点进行通信,以获取所述其余终端节点的共享层参数;所述任一终端节点根据所述其余终端节点的共享层参数,更新自身的共享层参数,并广播自身更新后的共享层参数;具体包括:
任一终端节点向其他终端节点发起通信请求;
获取响应终端节点集中各终端节点本地网络模型的共享层参数;所述响应终端节点集为在设定时间内响应了所述通信请求的若干个终端节点;
根据获取的若干个终端节点的共享层参数,更新所述任一终端节点本地网络模型的共享层参数;
将所述任一终端节点本地网络模型的共享层参数广播给各随机终端节点,并跳转至所述任一终端节点向其他终端节点发起通信请求的步骤,直至满足迭代停机条件时,停止跳转;所述随机终端节点包括响应终端节点集和从响应终端节点集以外的终端节点中随机确定的若干个终端节点。
2.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,所述各终端节点之间的网络拓扑结构为复杂网络结构。
3.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,所述各终端节点根据自身本地数据集对各自的本地网络模型进行训练,具体包括:
各终端节点根据自身本地数据集对各自的本地网络模型的共享层参数进行训练,所述各终端节点本地网络模型的隐私层参数相同。
4.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,所述根据获取的若干个终端节点的共享层参数,更新所述任一终端节点本地网络模型的共享层参数,具体包括:
根据获取的若干个终端节点的共享层参数,采用平均法或加权平均法更新所述任一终端节点本地网络模型的共享层参数。
5.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,所述各终端节点根据自身本地数据集对各自的本地网络模型进行训练时,采用梯度下降法、随机梯度下降法、动量法、RMSprop算法或Adam算法中的一种。
6.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,各终端节点本地网络模型均采用全连接神经网络或卷积神经网络。
7.根据权利要求1所述的终端节点网络模型训练方法,其特征在于,各终端节点的本地网络模型均采用AlexNet卷积神经网络作为骨架网络,且保留AlexNet卷积神经网络中隐私层的参数。
8.一种去中心化的终端节点网络模型训练系统,其特征在于,所述终端节点网络模型训练系统包括多个终端节点,各终端节点根据自身本地数据集对各自的本地网络模型进行训练;所述本地网络模型包括隐私层和共享层;任一终端节点与其余终端节点进行通信,以获取所述其余终端节点的共享层参数;所述任一终端节点根据所述其余终端节点的共享层参数,更新自身的共享层参数,并广播自身更新后的共享层参数;
所述终端节点包括网络模型训练模块,所述网络模型训练模块用于:
向其他终端节点发起通信请求;
获取响应终端节点集中各终端节点本地网络模型的共享层参数;所述响应终端节点集为在设定时间内响应了所述通信请求的若干个终端节点;
根据获取的若干个终端节点的共享层参数,更新自身本地网络模型的共享层参数;
将自身本地网络模型的共享层参数广播给各随机终端节点;所述随机终端节点包括响应终端节点集和从响应终端节点集以外的终端节点中随机确定的若干个终端节点;
判断是否满足迭代停机条件,若是则停止跳转,否则继续向其他终端节点发起通信请求。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山西大学,未经山西大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210154923.7/1.html,转载请声明来源钻瓜专利网。