[发明专利]一种基于激励机制的联邦学习优化方法及系统在审
申请号: | 202210894597.3 | 申请日: | 2022-07-28 |
公开(公告)号: | CN115204414A | 公开(公告)日: | 2022-10-18 |
发明(设计)人: | 田有亮;吴柿红;杨科迪;李沓;赵敏 | 申请(专利权)人: | 贵州大学 |
主分类号: | G06N20/00 | 分类号: | G06N20/00;H04L67/12 |
代理公司: | 贵阳知沃桑知识产权代理事务所(普通合伙) 52120 | 代理人: | 任文婷 |
地址: | 550000 贵州省*** | 国省代码: | 贵州;52 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 激励机制 联邦 学习 优化 方法 系统 | ||
1.一种基于激励机制的联邦学习优化方法,其特征在于,包括:
任务发布客户端向训练客户端网络发布训练任务、奖励规则以及资源要求,使得训练客户端网络中基于奖励规则能够获得收益的训练客户端与任务发布客户端签订合约;
训练客户端向雾节点网络发布本地训练任务,由雾节点网络中的各雾节点参与竞拍并提供竞拍信息,竞拍信息包括频率、支付函数以及训练本地训练数据的单次时间;
训练客户端将基于支付函数的报价最低且训练本地训练数据的时间最短的雾节点作为竞拍获胜雾节点来执行本地训练任务;
训练客户端向竞拍获胜雾节点发送本地训练数据,由竞拍获胜雾节点对本地训练数据进行训练并上传局部模型至服务器;
服务器对局部模型进行聚合得到全局梯度,并传递全局梯度给竞拍获胜雾节点,由竞拍获胜雾节点更新模型参数并进行下一轮训练;
每轮训练后,服务器根据预设信誉值计算规则重新计算训练客户端的信誉值,并存入区块链中;
每轮训练后,根据奖励规则以及训练客户端的信誉值计算训练客户端的奖励,同时训练客户端结算与竞拍获胜雾节点的奖励。
2.根据权利要求1所述的基于激励机制的联邦学习优化方法,其特征在于,所述资源要求包括本地训练数据的数据大小,数据类型,本地训练的时间阈值以及训练需要达到的精度;
本地训练任务taskGmodel,data_size,sys_time,S)包括全局模型Gmodel,训练数据量data_size,竞拍结束时间sys_time,服务器标识S。
3.根据权利要求1所述的基于激励机制的联邦学习优化方法,其特征在于,所述训练客户端向竞拍获胜雾节点发送本地训练数据之前还包括:
训练客户端对本地训练数据进行加密。
4.根据权利要求1所述的基于激励机制的联邦学习优化方法,其特征在于,所述服务器对局部模型进行聚合得到全局梯度具体为:
其中,为训练客户端i的第n轮训练的局部梯度。
5.根据权利要求4所述的基于激励机制的联邦学习优化方法,其特征在于,所述预设信誉值计算规则具体包括:
精度信誉值
其中,且curret_task,taskx分别表示当前任务与任务x,sim(h,i)表示任务h与任务i的相似度,为训练客户端i在第n轮的数据质量,qmin为数据质量阈值;
H和I分别表示执行任务h与任务i的客户端集合。Γ=H∩I表示同时执行任务h与任务i的客户端的集合,和分别表示在t时刻执行任务h与任务i时所有客户端的平均信誉值,和分别表示在t时刻执行任务h与任务i时训练客户端j的信誉值,满足0<sim(h,i)<1。
6.根据权利要求5所述的基于激励机制的联邦学习优化方法,其特征在于,所述预设信誉值计算规则还包括:
时间信誉值
其中,满足T为参数。
7.根据权利要求6所述的基于激励机制的联邦学习优化方法,其特征在于,所述预设信誉值计算规则还包括:
总信誉值r_ati,r_ati=r_ai*r_ti。
8.根据权利要求7所述的基于激励机制的联邦学习优化方法,其特征在于,所述训练客户端的奖励具体为:
r_tmin为容忍的最小时间信誉值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于贵州大学,未经贵州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210894597.3/1.html,转载请声明来源钻瓜专利网。