[发明专利]分布式机器学习模型的训练方法、装置、设备和介质有效
申请号: | 202111079943.4 | 申请日: | 2021-09-15 |
公开(公告)号: | CN113537516B | 公开(公告)日: | 2021-12-14 |
发明(设计)人: | 荆博 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06N20/00 | 分类号: | G06N20/00;G06F21/60 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 高艳红 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分布式 机器 学习 模型 训练 方法 装置 设备 介质 | ||
本公开提供了一种分布式机器学习模型的训练方法、装置、设备和介质,涉及人工智能领域,尤其涉及深度学习技术领域。具体实现方案为:获取第一同态加密中间参数和第二同态加密中间参数;产生第一干扰参数,并采用第二参与方的第二同态公钥进行加密,形成第一加密干扰参数;基于第一同态加密中间参数、第二同态加密中间参数和第一加密干扰参数,以及第一子模型的同态计算函数进行计算,以产生第一加密关键参数;将第一加密关键参数传输给第二参与方,以进行解密;获取第二参与方解密后的第一关键参数;根据第一关键参数和第一干扰参数,对第一子模型进行迭代更新,直至第一子模型训练完成。本公开能够提高训练过程的效率。
技术领域
本公开涉及人工智能技术领域,具体为深度学习技术领域,尤其涉及一种分布式机器学习模型的训练方法、装置、设备和介质。
背景技术
随着人工智能技术的发展,机器学习在各个场景中得到了越来越广泛的运用。
随着分布式机器学习的普及,引出了一个隐私保护的问题。对于机器学习模型的训练,往往需要多方各自提供的数据样本来联合进行训练。但是,多方对于自己所持有的数据样本存在隐私保护需求,不希望自己所持有的数据样本被公开或被其他方获取。甚至多方可能需要各自训练机器学习模型中的一部分模型,而该部分模型的训练过程数据也不希望被其他方获知。
对于上述需求,现有技术一般采用可信第三方来进行协调,将不希望暴露给其他参与方的隐私数据,放在可信第三方中进行处理。现有技术仍然存在可信第三方恶意泄露的可能性,且大量数据在多方和可信第三方之间进行交互,也使得模型训练过程的数据传输量大,效率低。
发明内容
本公开提供了一种分布式机器学习模型的训练方法、装置、设备和介质,以兼顾多方训练模型的隐私数据保护和模型训练效率。
根据本公开的一方面,提供了一种分布式机器学习模型的训练方法,包括:
获取第一同态加密中间参数和第二同态加密中间参数;
产生第一干扰参数,并采用第二参与方的第二同态公钥进行加密,形成第一加密干扰参数;
基于所述第一同态加密中间参数、第二同态加密中间参数和第一加密干扰参数,以及第一子模型的同态计算函数进行计算,以产生第一加密关键参数;
将所述第一加密关键参数传输给第二参与方,以供所述第二参与方采用第二同态私钥对所述第一加密关键参数进行解密;
获取所述第二参与方解密后的第一关键参数;
根据所述第一关键参数和所述第一干扰参数,对所述第一子模型进行迭代更新,直至所述第一子模型训练完成。
根据本公开的另一方面,还提供了一种分布式机器学习模型的训练装置,包括:
中间参数获取模块,用于获取第一同态加密中间参数和第二同态加密中间参数;
干扰参数形成模块,用于产生第一干扰参数,并采用第二参与方的第二同态公钥进行加密,形成第一加密干扰参数;
参数产生模块,用于基于所述第一同态加密中间参数、第二同态加密中间参数和第一加密干扰参数,以及第一子模型的同态计算函数进行计算,以产生第一加密关键参数;
参数解密模块,用于将所述第一加密关键参数传输给第二参与方,以供所述第二参与方采用第二同态私钥对所述第一加密关键参数进行解密;
第一关键参数获取模块,用于获取所述第二参与方解密后的第一关键参数;
子模型训练模块,用于根据所述第一关键参数和所述第一干扰参数,对所述第一子模型进行迭代更新,直至所述第一子模型训练完成。
根据本公开的另一方面,还提供了一种电子设备,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111079943.4/2.html,转载请声明来源钻瓜专利网。