Incentivizing Multi-Tenant Split Federated Learning for Foundation Models at the Network Edge

作者: Songyuan Li, Jia Hu, Geyong Min, Haojun Huang

发布时间: 2025-03-10

来源: arxiv

研究方向: 基础模型(FM)的边缘计算与联邦学习

主要内容

本文研究了在边缘网络中激励多租户分割联邦学习(SFL)以进行基础模型(FM)微调。通过将部分FM计算卸载到边缘服务器,SFL在保护本地设备数据隐私的同时,实现了对资源受限设备的隐私保护FM微调。为了解决多租户场景下的激励问题,提出了一个名为PRINCE的新型激励机制,指导多个SFL租户提供战略价格激励,以吸引高质量的设备参与,从而实现高效的FM微调。

主要贡献

1. 提出了PRINCE激励机制,通过战略价格激励引导多个SFL租户参与FM微调。

2. 开发了具有偏差鲁棒性的全局SFL模型聚合方案,以消除由独立设备参与引起的模型偏差。

3. 推导了SFL收敛界限,用于评估异构设备对FM性能改进的贡献。

4. 将租户间的设备竞争建模为拥塞游戏,以分析Stackelberg均衡(SE),并推导出每个SFL租户的最优激励策略。

5. 通过广泛的模拟实验,证明了PRINCE机制在加速FM微调方面的有效性,与现有方法相比,加速速度可达3.07倍。

研究方法

1. 分割联邦学习(SFL)

2. 拥塞游戏理论

3. Stackelberg博弈

4. 收敛界限分析

5. 价格激励机制

实验结果

通过模拟实验,PRINCE机制在加速FM微调方面表现出优异的性能,与现有方法相比,加速速度可达3.07倍,同时满足FM微调的性能目标。实验结果表明,PRINCE机制能够有效地协调多租户之间的设备竞争,并满足每个租户的FM微调需求。

未来工作

未来研究可以进一步探索以下方向:1)将PRINCE机制应用于更复杂的多租户场景;2)研究更有效的激励机制,以进一步提高FM微调的效率;3)将PRINCE机制应用于其他类型的联邦学习场景。