[发明专利]一种基于博弈论的联邦学习隐私策略选择方法在审
申请号: | 202110292473.3 | 申请日: | 2021-03-18 |
公开(公告)号: | CN112926088A | 公开(公告)日: | 2021-06-08 |
发明(设计)人: | 林思昕;孙哲;殷丽华;那崇宁;李丹;李超;罗熙;韦南 | 申请(专利权)人: | 之江实验室;广州大学 |
主分类号: | G06F21/62 | 分类号: | G06F21/62;G06N20/00;G06N5/04 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 贾玉霞 |
地址: | 310023 浙江省杭州市余*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 博弈论 联邦 学习 隐私 策略 选择 方法 | ||
本发明公开了一种基于博弈论的联邦学习隐私策略选择方法,该方法包括:服务器为参与方提供具有不同服务成本的阈值,参与方根据是否满足服务质量、隐私泄露代价等来选择最佳阈值,并由服务器在下一次迭代训练中更新服务成本;服务器通过多次迭代来获得最优的模型参数,以此保持模型长期稳定的服务状态,并提供给参与方。该方法有效避免了参与方“搭便车”等恶意行为,使得服务器可以最大限度地得到服务费用,参与方可以获得长期的优质服务。
技术领域
本发明涉及联邦学习和隐私保护领域,具体涉及一种基于博弈论的联邦学习隐私策略选择方法。
背景技术
联邦学习是一种不需要收集各参与方所有数据便能协作地训练一个模型的机器学习过程,当参与方不采用隐私保护设置,服务方训练得到的模型服务质量最好,但是会存在泄露参与方隐私的问题,严重损害参与方利益;当参与方采用非常强的隐私保护设置时,虽然能够保障自己的个人隐私,但同时也会影响模型的服务质量。因此,这时候就需要有一个阈值来调节参与方的隐私保护强度和服务器训练的模型服务质量。
但在模型训练过程中,由于大多数参与方都是自私的,因此在有权保障个人隐私信息时,他们会选择隐私保护的最大阈值,并在选择阈值时,他们通常考虑眼前而非长期的利益。
目前虽然已经有许多激励机制被提出来解决模型服务质量和隐私保护权衡中的自私问题,但大多数都集中在一次性博弈模型上,例如外包服务中的一次性博弈,通过设计一个联盟策略,然后在合作的用户之间共享收益结果,以此来提高k-匿名隐私保护。同时,这些博弈过程大多都是基于完全信息的假设,即每位博弈方都能知道其他博弈方的策略和报酬。完全信息假设在现实中很难实现。
因此,现有策略权衡方法没有考虑长期服务收益,即无法训练出长期服务于参与方并且能保障参与方隐私的高质量模型;现有策略权衡方法大多只考虑一次博弈,实际上双方存在多次博弈可能,需考虑当前博弈情况对后面博弈进程的影响。
发明内容
为克服上述现有技术存在的不足,本发明提出一种基于博弈论的联邦学习隐私策略选择方法,该方法通过服务器为参与方提供具有不同服务成本的阈值,参与方根据是否满足服务质量、隐私泄露代价等来选择最佳阈值,并由服务器在下一次迭代训练中更新服务成本;服务器通过多次迭代来获得最优的模型参数,以此保持模型长期稳定的服务状态,并提供给参与方。
本发明的目的通过如下的技术方案来实现:
一种基于博弈论的联邦学习隐私策略选择方法,该方法包括:服务器为参与方提供具有不同服务成本的模型质量的权衡参数λMQ与隐私强度的权衡参数λPI的比值λMQ/λPI,参与方根据是否满足服务质量、隐私泄露代价来选择最佳阈值,并用自身数据集训练模型,并把选择的阈值和训练更新的模型参数发给服务器;服务器收集各个参与方的模型参数进一步训练模型,获得优化的模型参数,并更新服务阈值λMQ/λPI和服务成本后再发给参与方,以此服务器保持模型长期稳定的服务状态提供给参与方。
进一步地,在每次迭代中,服务器计算各个参与方的效用utilityi,以及所有参与方的效用平均值
进一步地,当参与方采用低质量的数据训练模型时,得不到奖励,即奖励为0,当参与方采用低质量的数据训练模型时,会得到奖励,奖励如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室;广州大学,未经之江实验室;广州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110292473.3/2.html,转载请声明来源钻瓜专利网。