隐私计算:推进数据“可用不可见”的关键技术
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

➢ 联邦学习的概念

联邦学习(Federated Learning,简称FL)是一种多个参与方在各数据不出本地的前提下共同完成某项机器学习任务的活动。通过联邦学习,不同的数据拥有方可以在不交换彼此数据的情况下,建立一个虚拟的共有模型,这个虚拟模型的效果等同于各方把数据聚合在一起建立的模型。

所谓联邦学习,可以简单理解为联邦架构+机器学习。联邦架构即是一系列身份和地位相等的参与方的联合,机器学习则是指参与方门结合成联邦的目的和任务。

举例来说,有两个企业,分别是A和B,它们各自拥有自己的数据集。双方都希望融合更多对方的数据使机器学习模型达到更好的效果。但出于企业机密信息的保护或是监管合规要求,两家企业现在不能把数据放到一起集中建模。如果各自建模,则要么数据不完整(缺少标签数据或特征数据)、要么数据量不足,均无法获得有效的模型。此时,利用联邦学习构造的虚拟融合,以一种“数据不动模型动”的思想,让A、B不用聚合原始数据,而是各自在本地进行训练后交换中间因子,再对模型进行优化迭代。这样,两家企业的数据和模型均可在本地可控,又完成了联合建模,也是一个彼此间“数据可用不可见”的实现。

总之,联邦学习是适用于机器学习算法的隐私计算技术。