We use cookies to improve your experience with our site.

FedBone:一种大规模多任务联邦学习方法

\mathttFedBone : Towards Large-Scale Federated Multi-Task Learning

  • 摘要:
    研究背景 联邦学习是一项旨在解决隐私保护和数据共享的模型训练方法,它允许多个边缘设备或机构参与模型协同训练,同时保持敏感数据在本地存储,避免将个人信息传输至集中式服务器。在经典的联邦学习中,各个边缘客户端利用本地数据独立进行模型训练,并将更新后的模型参数上传至中央服务器。服务器根据接收到的参数,聚合全局模型,并将更新后的模型分发给各个客户端,使每个参与方都能从其他参与方的学习中受益,同时确保数据隐私性。然而,随着联邦学习应用于更多领域,如医疗保健和金融领域,任务的异质性问题日益突出。不同参与方面临的任务可能因所处理的数据类型、特征或目标而异。例如,在医疗联邦学习中,不同医院处理相似类型的医学图像,但医疗任务目标、标注标准或数据特征可能不同。因此,处理任务异质性的联邦多任务学习成为当前亟待解决的挑战之一。当前研究已在处理数据异质性方面取得进展,但针对任务异质性的工作相对较少。大部分现有研究假设各方在学习目标上达成一致,但实际场景中存在不同的任务目标和约束。解决这一问题需要深入研究如何在联邦学习框架下有效处理任务异质性,并基于联邦多任务学习、异步联邦学习、个性化联邦学习等技术手段来克服任务差异性带来的挑战。解决任务异质性问题将为跨机构的多任务协作领域带来新的机遇,并促进联邦学习在更广泛实际场景中的应用落地和持续发展。
    目的 尽管联邦学习在医疗领域取得了许多成就,但由于医学的复杂性,仍有许多医疗建模任务难以有效地在联邦学习框架下完成。现有的联邦学习方法通常假设参与方的建模任务类别相同。然而,在实际的医疗应用场景中,不同医院或科室对模型的需求千差万别。因此,适应这些多样化需求的联邦学习方法需要在面对异构任务时能够表现出良好的性能。以计算机断层成像结果为例,基层医院可能只需要简单的诊断结果,而在大型医院,医生可能需要准确的病灶分割结果来确定治疗方案,以及病灶体积预测值用于手术规划。异构任务涉及分类、分割和回归等不同的输出维度和优化目标。现有的多任务联邦学习方法通常借鉴传统多任务学习的共享模型-任务结构,以支持异构多任务联邦学习,但在最近的异构任务联邦学习基准测试中,这些方法并未解决任务间学习冲突的问题。这导致性能提升较低,甚至在某些参与方的任务上出现了负面影响。因此,本文旨在研究异构多任务联邦学习方法,解决在联邦多任务学习中出现的数据和任务的异质性问题,并在考虑资源受限的情况下进行有效处理和适配,更好地适应医疗领域的复杂性和多样性。
    方法 针对上述问题与挑战,本文提出了一种异构多任务联邦学习方法FedBone,该方法采用了服务器-客户端分割学习模式,使得边缘客户端能够以低内存占用参与大规模联邦训练。在执行多阶段的处理过程中有效处理包含客户端数据嵌入、服务器端通用模型特征提取和客户端特定任务处理等异构任务。在整个过程中,边缘客户端只需负责计算数据嵌入,并将其传送至云服务器进行大规模通用模型特征提取。提取的潜在表示将发送回客户端执行任务输出。这种方式使得边缘客户端能够专注于特定任务学习,同时又能从通用模型分享的知识中受益。为了增强通用模型的泛化能力,我们引入了梯度投影方法和基于历史梯度关注的梯度重缩放,以减少冲突梯度对梯度聚合的负面影响。客户端上的任务输出模块针对特定任务类型进行了定制,但通常由于假设特征提取已经完成。从大规模通用模型中提取的潜在表示通常是各种任务的低层特征。我们在三个公共多任务数据集和一个包含13个真实眼科任务的数据集上进行了广泛的实验验证。
    结果 实验结果表明,FedBone在异构任务中以较少的客户端资源需求,表现出比现有的联邦学习算法更突出的性能。面对更加复杂的真实眼科任务,FedBone同样展现出处理异构密集预测和分类任务的潜力。
    结论 本文提出了一种全新的联邦多任务学习框架——FedBone。这个方法基于分割学习,旨在支持边缘客户端进行大规模联邦训练并适应异构任务。为了增强通用模型的泛化能力,我们引入了GPAggregation方法,通过重新调整客户端梯度和解决梯度冲突来增强模型的泛化性能。我们还考虑了模型隐私安全和客户端受网络状态影响而掉队的问题,采用本地化差分隐私和可信执行环境技术,自适应地应对不同威胁模型,通过异步的联邦优化,减少掉队客户端的模型性能损失。经过大量严谨合理的对比实验,验证了FedBone在客户端仅使用现有计算资源的情况下,与主流联邦学习方法相比,在多个异构任务上依旧出色表现。此外,真实的眼科任务实验也展示了FedBone在实际医疗和健康应用中的潜在前景。未来,我们计划进一步扩展FedBone的应用范围,涵盖更广泛的任务领域,特别是在大型语言模型等新兴研究领域的应用。

     

    Abstract: Federated multi-task learning (FMTL) has emerged as a promising framework for learning multiple tasks simultaneously with client-aware personalized models. While the majority of studies have focused on dealing with the non-independent and identically distributed (Non-IID) characteristics of client datasets, the issue of task heterogeneity has largely been overlooked. Dealing with task heterogeneity often requires complex models, making it impractical for federated learning in resource-constrained environments. In addition, the varying nature of these heterogeneous tasks introduces inductive biases, leading to interference during aggregation and potentially resulting in biased global models. To address these issues, we propose a hierarchical FMTL framework, referred to as \mathttFedBone , to facilitate the construction of large-scale models with improved generalization. \mathttFedBone leverages server-client split learning and gradient projection to split the entire model into two components: 1) a large-scale general model (referred to as the general model) on the cloud server, and 2) multiple task-specific models (referred to as client models) on edge clients, accommodating devices with limited compute power. To enhance the robustness of the large-scale general model, we incorporate the conflicting gradient projection technique into \mathttFedBone to rectify the skewed gradient direction caused by aggregating gradients from heterogeneous tasks. The proposed \mathttFedBone framework is evaluated on three benchmark datasets and one real ophthalmic dataset. The comprehensive experiments demonstrate that \mathttFedBone efficiently adapts to the heterogeneous local tasks of each client and outperforms existing federated learning algorithms in various dense prediction and classification tasks while utilizing off-the-shelf computational resources on the client side.

     

/

返回文章
返回