[发明专利]一种基于联邦学习的模型训练方法有效

专利信息
申请号: 201911292212.0 申请日: 2019-12-13
公开(公告)号: CN111046433B 公开(公告)日: 2021-03-05
发明(设计)人: 王力;陈超超;周俊 申请(专利权)人: 支付宝(杭州)信息技术有限公司
主分类号: G06F21/62 分类号: G06F21/62;G06N20/00
代理公司: 北京博思佳知识产权代理有限公司 11415 代理人: 周嗣勇
地址: 310000 浙江省杭州市*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 联邦 学习 模型 训练 方法
【说明书】:

公开了一种基于联邦学习的模型训练方法。在一次训练迭代中,节点可以通过差分隐私保护操作,实现对梯度的加噪混淆,服务端可以获得加噪混淆后的梯度之和,进行模型参数的更新。

技术领域

本说明书实施例涉及信息技术领域,尤其涉及一种基于联邦学习的模型训练方法。

背景技术

联邦学习(Federated machine learning/Federated Learning),是指一种机器学习框架,能有效帮助多个节点(可以代表个人或机构)在满足数据隐私保护的要求下,联合训练模型。

在联邦学习框架下,服务端下发模型参数给多个节点,每个节点将本地的训练样本输入模型进行一次训练,本次训练结束后,每个节点会基于本次训练结果计算得到的梯度。随后,服务端基于安全聚合(SA,Secure Aggregation)协议,可以计算得到各节点的梯度之和。值得强调的是,服务端收到SA协议的限制,并不能获得单个节点上传的梯度。

如此,既可以使得服务端根据各节点上传的梯度之和调整模型参数,又可以一定程度上实现节点的数据隐私保护。

然而实践中,服务端理论上可以根据各节点上传的梯度之和推断出各节点的数据隐私。

发明内容

为了解决服务端根据各节点上传的梯度之和推断出各节点的数据隐私的技术问题,本说明书实施例提供一种基于联邦学习的模型训练方法,技术方案如下:

根据本说明书实施例的第1方面,提供一种基于联邦学习的模型训练方法,应用于包括服务端与N个节点的联邦学习系统,N>1,所述方法包括:

在模型训练的第i次迭代中,执行:

所述服务端将模型参数集合下发给Mi个节点;其中,Mi≤N,所述Mi个节点中存在Qi个目标类型节点;

第j个目标类型节点根据所述模型参数集合与本地训练样本执行梯度计算以及差分隐私保护操作,得到wij;其中,j=(1,2,…,Qi),wij=wij*+kij,wij*表征第j个目标类型节点在未执行差分隐私操作的情况下得到的梯度,kij是第j个目标类型节点通过差分隐私保护操作确定的数据干扰项,用于保护所述Qi个目标类型节点的本地训练样本的差分隐私;

所述服务端获取并基于更新模型参数集合。

根据本说明书实施例的第2方面,提供一种联邦学习系统,包括服务端与N个节点,N>1;

所述服务端,在模型训练的第i次迭代中,将模型参数集合下发给Mi个节点;其中,Mi≤N,所述Mi个节点中存在Qi个目标类型节点;

第j个目标类型节点,根据所述模型参数集合与本地训练样本执行梯度计算以及差分隐私保护操作,得到wij;其中,j=(1,2,…,Qi),wij=wij*+kij,wij*表征第j个目标类型节点在未执行差分隐私操作的情况下得到的梯度,kij是第j个目标类型节点通过差分隐私保护操作确定的数据干扰项,用于保护所述Qi个目标类型节点的本地训练样本的差分隐私;

所述服务端,还获取并基于更新模型参数集合。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于支付宝(杭州)信息技术有限公司,未经支付宝(杭州)信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201911292212.0/2.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top