[发明专利]一种基于联邦学习的多用户协同训练人流统计方法及系统有效
| 申请号: | 202110559687.2 | 申请日: | 2021-05-21 |
| 公开(公告)号: | CN113033712B | 公开(公告)日: | 2021-09-14 |
| 发明(设计)人: | 周潘;孙裕华;谢雨来;李瑞轩;陈琪美;江昊 | 申请(专利权)人: | 华中科技大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/00;G06N3/04;G06N3/08 |
| 代理公司: | 武汉蓝宝石专利代理事务所(特殊普通合伙) 42242 | 代理人: | 严超 |
| 地址: | 430000 湖北*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 联邦 学习 多用户 协同 训练 人流 统计 方法 系统 | ||
1.一种基于联邦学习的多用户协同训练人流统计方法,通过联合多种异构设备协同训练同一种神经网络架构,并实现分布式实施监控统计人流量,其特征在于,包括以下步骤:
S1,各个客户端利用图像数据集对图像分类网络进行本地训练以获取本地模型;
S2,在各个客户端经过至少一次本地训练后,中心服务器从客户端获取本地模型的权值参数及附加层参数并进行聚合处理;参与聚合处理的客户端数量少于或等于客户端总数;
S3,中心服务器利用聚合处理后的权值参数及附加层参数更新全局模型,并将聚合处理后的权值参数及附加层参数返回给各个客户端;
S4,各个客户端利用中心服务器返回的权值以及ground truth值进行贝叶斯估计,计算得到loss值,并利用中心服务器返回的权值参数及附加层参数更新本地模型;
S5,重复执行步骤S1~S4,直至所有客户端的loss值均收敛,则完成人流统计全局模型和本地模型的训练;
所述的中心服务器从各个客户端获取本地模型的权值参数及附加层参数并进行聚合处理,包括:
设表示进行第t次训练后各个客户端的本地模型的权值构成的向量,表示客户端k的本地模型的权值;
则聚合处理后的输出值为:
式中,c表示参与当前轮次训练的总数据量,ck表示第k个用户当前轮次训练的数据量,K表示系统包含的所有客户端数量。
2.根据权利要求1所述的方法,其特征在于,模型训练时,在步骤S1之前还包括,按照客户端数量对图像数据集进行等分,并作为本地数据集分配给各个客户端。
3.根据权利要求2所述的方法,其特征在于,所述的步骤S1包括:
各个客户端通过双线性插值方法将数据集中的图像压缩至原始大小的1/8;随后客户端将压缩后的图像经过转两个3*3卷积层转换成特征值,作为MSRA初始化参数。
4.根据权利要求1所述的方法,其特征在于,所述的利用中心服务器返回的权值以及ground truth值进行贝叶斯估计,计算得到loss值,包括:
令:表示一张密度图中第i个像素点,i取值[1,M],M为正整数;
表示对一张密度图进行标记的第n个标记位,n取值[1,N],N为正整数;
表示像素点处且在标记点下的人头数;
为后验证标记概率;表示已知概率密度;
针对客户端j,通过下式计算损失函数得到loss值:
式中,表示距离函数,代表每个标记点的地面真实计数,即对每张图片人为统计的人流数量,
表示的期望,表示标记点的人头总数。
5.根据权利要求4所述的方法,其特征在于,步骤S4中所述的利用中心服务器返回的权值参数及附加层参数更新本地模型,包括:
采用随机梯度下降方法,根据下式更新本地参数:
式中,η表示随机梯度下降算法的学习率,和分别表示第t+1次和第t次训练时的本地模型权值参数和附加层参数。
6.根据权利要求5所述的方法,其特征在于,所述的随机梯度下降算法,以批量大小为B=1,学习率为η=0.00005的本地历元数E=100为目标,对本地模型进行训练。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110559687.2/1.html,转载请声明来源钻瓜专利网。





