本技术属于安全联邦学习技术领域,具体公开了一种用于联邦学习的可验证主动安全聚合方法及系统,方法包括如下过程:客户端使用本地数据集训练生成本地模型更新,并将模型更新通过同态加密发送给聚合服务器,同时附有验证信息,服务器计算并发送加密聚合模型更新及验证值给各个客户端,客户端在进行验证后解密获得部分聚合结果,使用与其他用户的共享秘密对其进行加密并发送到服务器传播给相应的客户端,客户端进行解密得到足够数量的部分解密结果后,进行聚合得到最终的全局模型更新。本发明所提供的方案保护了模型更新的隐私,且提供了主动安全下聚合结果的可验证性。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
联邦学习是一种分布式机器学习范式,旨在确保数据隐私安全的前提下,解决数据孤岛问题。这种方法允许在许多客户端(如移动设备)之间协作执行机器学习任务,而无需将数据从客户端移出,从而保护数据隐私。在这种设置中,服务提供商的主要职责是协调多个客户端的操作,接收每个客户端本地训练的模型参数,并更新全局聚合模型以确保其有效性。为了充分发挥联邦学习的优势,必须克服一系列挑战,确保数据隐私、结果的可验证性以及用户退出的鲁棒性。
首先,数据隐私是联邦学习的核心关注点。尽管数据不会离开客户端,但本地模型更新仍可能泄露一些敏感信息。为了解决这一问题,研究人员提出了多种技术方案,包括同态加密、差分隐私和安全多方计算协议等。同态加密在联邦学习中尤为引人注目,因为它允许在不解密数据的情况下对密文进行计算,从而提供更强的隐私保护。差分隐私则是通过在数据中引入噪声来保证单个数据点的隐私,不过这样会影响模型的精度,但是能够极大地减小计算开销。安全多方计算协议则允许多个参与方在不泄露各自数据的情况下协同计算,从而确保数据的隐私性和计算的正确性。
聚合结果的验证也是联邦学习成功的关键。在分布式环境中,确保最终的全局模型准确地反映各客户端的贡献至关重要。为此,服务提供商需要有效地协调客户端的操作,接收并正确聚合本地模型参数。此外,提供验证机制,确保聚合过程和结果的透明性和可信度,对于用户的信任和系统的健全性也是至关重要的。
此外,联邦学习系统必须具备应对用户退出的鲁棒性。移动设备的电力和网络连接通常不稳定,用户的参与是不可预测的。因此,系统需要设计为能够在部分用户退出的情况下继续正常运行,并保持模型训练过程的连贯性和最终模型的有效性。这种鲁棒性不仅要求系统能够动态调整参与的客户端,还需要确保在部分数据丢失的情况下,模型依然能够有效地训练和更新。
更为严重的是,联邦学习面临着来自外部恶意行为者的安全和隐私威胁。活跃的对手,我们指的是偏离协议的各方(客户端或服务器),向诚实的用户发送不正确和/或任意选择的消息,放弃,省略消息,并与彼此以及服务器(如果服务器也是活跃的对手)共享他们对协议的整个视图。另一方面,对抗性服务器也对联邦学习构成威胁,因为好奇的服务器端参与者可能会通过逆向工程服务器接收到的本地模型参数来泄露私人数据。
联邦学习在保护数据隐私和解决数据孤岛问题方面具有显著优势。然而,为了充分发挥其潜力,必须在隐私保护、结果可验证性和用户退出的鲁棒性等方面进行不断优化和改进。
实现思路